La Inteligencia Artificial como tu amiga e infiltrada

LA INTELIGENCIA ARTIFICIAL SE ESTÁ CONVIRTIENDO EN UN CANAL CADA VEZ MÁS POPULAR PARA FILTRAR DATOS CONFIDENCIALES. SEGÚN UN ESTUDIO DE HARMONIC SECURITY, EL 8,5% DE LAS SOLICITACIONES DE LOS EMPLEADOS DE LA EMPRESA A SERVICIOS DE IA CONTIENEN INFORMACIÓN CONFIDENCIAL. LOS INVESTIGADORES ANALIZARON CHATGPT, MICROSOFT COPILOT, GOOGLE GEMINI Y ALGUNOS OTROS. AL PREPARAR LAS RESPUESTAS, LA RED NEURONAL TIENE EN CUENTA NO SÓLO LA SOLICITUD ACTUAL, SINO TAMBIÉN LAS SOLICITUDES ANTERIORES ALMACENADAS EN LA BASE DE DATOS, INCLUIDAS LAS DE OTROS USUARIOS DEL SERVICIO.

Las empresas se enfrentan a un dilema: ¿no utilizar esta herramienta y perder su ventaja competitiva o permitir el uso de la IA y comprometer potencialmente los datos confidenciales? Sergio Bertoni, analista sénior de SearchInform, trató de entender este dilema.

ASISTENTES PERSONALES

El número de solicitudes a los asistentes de IA es cada vez mayor. Se utilizan para resolver tareas rutinarias. Los empleados utilizan ChatGPT y otras herramientas generativas de IA para editar y crear imágenes, escribir textos, hacer planes, recopilar previsiones, etc. La ventaja de los servicios de IA es que entregan rápidamente una solución lista en el formato requerido: un diploma, un comunicado de prensa, un código de programa optimizado, etc.

Para obtener la respuesta más precisa, los empleados cargan información corporativa en el servicio, incluidos análisis, documentos, fragmentos de código, programas listos para usar, presentaciones, etc. Según el estudio de Harmonic Security, los empleados cargan con más frecuencia los siguientes datos para procesamiento: datos de clientes, información de empleados, datos legales y financieros, datos de autorización y código de programa confidencial. Aunque esto mejora la calidad de las respuestas generadas por la IA, plantea riesgos para la seguridad de la información de la empresa.

IA COMPARTE SECRETOS

Samsung, una de las primeras empresas en integrar ChatGPT en sus procesos empresariales, también puede considerarse pionera en cuanto a la filtración de secretos corporativos a través de este canal.

Uno de los primeros, en 2023, en filtrar know-how fue un especialista del departamento de investigación de semiconductores. Al cargar datos en la base corporativa, se encontró con un problema en el código fuente de la información que se estaba introduciendo. El directivo dio instrucciones al chatbot para que arreglara este código engañoso. Así, las novedades de Samsung se añadieron a la base de datos de la empresa estadounidense Open AI y quedaron a disposición de otros usuarios de ChatGPT. La empresa coreana analizó las consecuencias de esta filtración, impuso restricciones al tamaño de las solicitudes a ChatGPT y pidió a los empleados que estuvieran atentos a lo que subían y a las consultas que planteaban a la IA. Sin embargo, las filtraciones persistieron.

LEER  El software empresarial: motor de transformación y crecimiento

La siguiente filtración se produjo en el departamento de desarrollo. Un empleado decidió comprobar la calidad del código de un programa creado utilizando ChatGPT. Como resultado, el código se puso a disposición no sólo de los competidores, sino que también llegó a los medios de comunicación. Esto dañó la reputación tanto de Samsung como de ChatGPT. Pero incluso entonces, la empresa no abandonó el asistente de IA. Se le encargó redactar el acta de una reunión corporativa. Y de nuevo, la información pasó a formar parte de la base de conocimientos del sistema de inteligencia artificial.

Esto fue la gota que colmó el vaso y, en mayo de 2023, la empresa coreana prohibió el uso de la IA generativa. Y en julio del mismo año, los principales bancos del mundo siguieron su ejemplo: Bank of America, Commonwealth Bank of Australia, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo y JPMorgan Chase.

IA VIOLA LOS DERECHOS DE ACCESO

Según The Register, las empresas que utilizaron el chatbot corporativo Copilot se enfrentaron a una violación de los derechos de acceso. La información cargada en el asistente de IA – documentos de acceso limitado y datos confidenciales contenidos en estos documentos – se introdujo en la base de entrenamiento de la IA y quedó a disposición de todos los usuarios del chatbot corporativo. El desarrollador prometió lanzar actualizaciones que supuestamente resolverían el problema. Sin embargo, en 2024, el asistente de IA para contabilidad, Sage Copilot, al recibir una solicitud de facturas, no solo adjuntó la información necesaria relativa a estos documentos en su respuesta, sino que también añadió datos confidenciales de los clientes de la empresa, incluidos sus registros.

El servicio de IA puede filtrar secretos corporativos a la red global, a los competidores y a los medios de comunicación. O debido a violaciones de los derechos de acceso, la información sensible puede llegar a los empleados equivocados dentro de la empresa. En este último escenario, ni siquiera un paquete de software instalado localmente proporcionará protección alguna.

IA RECOPILA DATOS DE RASTREO PASIVO

Los desarrolladores de asistentes de IA advierten de antemano que recopilan datos de los usuarios. Aconsejan no introducir nada demasiado personal y confidencial. Para quienes se hayan precipitado y se arrepientan, algunos servicios, como ChatGPT, ofrecen herramientas para borrar el historial de chat. Pero no se borra al instante. Algunos servicios prometen borrarlo en 72 horas, mientras que otros afirman hacerlo en un mes.

LEER  Las tendencias tecnológicas que transforman el mundo de los negocios

No todos los usuarios saben que además del rastreo activo, información introducida por una persona, también se recoge el rastreo pasivo: datos sobre la dirección IP, el hardware y el software del dispositivo desde el que se conecta el usuario, así como su ubicación. Esta información, que posteriormente puede extraerse de la IA, se utiliza para realizar ataques selectivos. Los ciberdelincuentes aprenden sobre la infraestructura informática corporativa de la víctima y sus vulnerabilidades.

IA ROBA Y PLAGIA

Los servicios de IA “toman prestada” la propiedad intelectual humana y la modifican. Los contenidos creados por el hombre pueden utilizarse no sólo para “entrenar” la red neuronal, sino también para aumentar el tráfico y monetizar esos proyectos.

Por ejemplo, la IA del proyecto Perplexity robó a Forbes varios materiales protegidos por derechos de autor. Los artículos ni siquiera estaban muy editados. En una de las falsificaciones se conservó la ilustración original de la fuente. Los editores se indignaron, pero en lugar de una disculpa, recibieron una nota de agradecimiento de Perplexity por su ayuda en el desarrollo del servicio de IA.

PERMITIR O CANCELAR

El interés por las tecnologías de IA y los riesgos asociados a su uso son cada vez mayores. ¿Cómo actúan los reguladores y los usuarios ante esta situación?

El rápido lanzamiento de ChatGPT sorprendió a competidores y reguladores de varios países. Los desarrolladores pidieron ir más despacio, advirtiendo, de forma bastante dramática, de las posibles consecuencias catastróficas si la IA se extiende sin control. Un ejemplo notable es el memorando de advertencia de Elon Musk. Los reguladores de Canadá, Italia y Alemania han iniciado investigaciones y auditorías para verificar el cumplimiento por ChatGPT de las leyes locales de protección de datos personales.

Los legisladores se han esforzado por describir normas nacionales para una IA “segura”. El primer paso serio lo dio China, donde la ley sobre el uso seguro de la IA entró en vigor en enero de 2023. Seis meses después, en Estados Unidos, el presidente Joe Biden firmó un decreto similar. En Europa, el reglamento sobre inteligencia artificial se adoptó en 2024. Hasta ahora, estos documentos definen una dirección general, cuya base es la responsabilidad de los desarrolladores, los proveedores de servicios de IA y los usuarios ante los reguladores nacionales.

LEER  Tendencias de decoración e interiorismo para otoño/invierno 2025

En Estados Unidos, el proceso de creación de normas nacionales para el desarrollo y la aplicación seguros de la IA utiliza las mejores prácticas de las empresas comerciales, por ejemplo, el Safe Artificial Intelligence Framework (SAIF) de Google. SAIF ayuda a tener en cuenta los riesgos de la IA: robo de modelos de entrenamiento, distorsión de la información, introducción de datos maliciosos, etc. El Instituto Nacional de Normas y Tecnología (NIST) utiliza su Plataforma de Gestión de Riesgos de la Inteligencia Artificial para abordar las mismas cuestiones.

Los usuarios afrontan los riesgos de la IA por su cuenta. Intercambian consejos sobre cómo borrar el historial de chats de IA. Las empresas están implantando normativas sobre el uso de la IA o incluso la prohibición de su uso y desplegando sistemas de supervisión para el cumplimiento de estas normativas. Utilizan sistemas DCAP que “prohíben” a los empleados el uso de documentos confidenciales en el nivel de acceso a los archivos, así como sistemas DLP que rastrean los intentos de los empleados de eludir las prohibiciones, por ejemplo, introduciendo datos manualmente o por voz.

¿CUÁL ES EL PRÓXIMO PASO?

La carrera mundial de la inteligencia artificial no hace más que intensificarse. En 2025, una startup china lanza DeepSeek, un asistente de IA, al mercado mundial de masas, cuyo éxito ha atraído, según Bloomberg, 1,3 billones de dólares en inversiones al mercado chino. Elon Musk no se rinde y considera su proyecto Grok 3 como la mejor IA. Las inversiones en proyectos estadounidenses de IA se estiman en cientos de miles de millones de dólares.

Al mismo tiempo, aumenta la responsabilidad de los desarrolladores de soluciones de IA, los proveedores de servicios de IA y los usuarios. Por ejemplo, en China, el uso de inteligencia artificial ya se reconoce como circunstancia agravante.

Las organizaciones que utilicen redes neuronales tendrán que ejercer un control más estricto sobre el contenido que los empleados envían a los sistemas de IA para su procesamiento. Esto es necesario para reducir el riesgo de violación de datos y cumplir una legislación cada vez más estricta. 

 Por Sergio Bertoni, analista sénior de SearchInform