¿Qué es la AI Shadow? El riesgo que amenaza a las empresas

La Shadow AI es una extensión del concepto de «Shadow IT», donde los empleados utilizan software o hardware no autorizado por la empresa. Un ejemplo era el uso de Dropboxes personales o hojas de Excel que los empleados compartían en Onedrive sin utilizar los sistemas propios de la empresa.

La Shadow AI es el uso de herramientas de inteligencia artificial por parte de los empleados sin la aprobación, supervisión o conocimiento del departamento de IT o de la dirección. La diferencia entre un empleado que guarda un archivo en Dropbox y uno que pega un contrato confidencial en ChatGPT es abismal. En el primer caso, el dato está en un servidor externo, pero en el segundo, el dato puede convertirse en conocimiento de un tercero, potencialmente irrecuperable e irreversible.

¿Cuál es el riesgo de la AI Shadow?

Según un informe de Microsoft, “Cyber Pulse: An AI Security Reportel 29% de los agentes de IA utilizados en empresas no están aprobados por el área de TI. Esto se manifiesta cuando los profesionales recurren a modelos de lenguaje grandes (LLMs) públicos como ChatGPT, herramientas de generación de código como GitHub Copilot, o plataformas de análisis de datos basadas en IA, para optimizar sus tareas diarias. La principal razón de su proliferación es la búsqueda de eficiencia y la facilidad de acceso a estas herramientas, que a menudo ofrecen soluciones rápidas a problemas complejos sin la necesidad de pasar por los procesos de aprobación internos.

Pero el problema radica en la falta de control: estos usos «en la sombra» evaden protocolos de seguridad, privacidad y cumplimiento normativo. Imaginen a un equipo de marketing usando una IA para analizar datos de clientes sin encriptación adecuada; lo que parece una ganancia rápida puede convertirse en una brecha masiva.

Casos reales:

Veamos ejemplos concretos de empresas que han lidiado con el Shadow AI, destacando no solo el incidente, sino las repercusiones operativas y estratégicas.

Samsung y la filtración de código fuente confidencial.

En marzo de 2023, Samsung decidió levantar su prohibición interna sobre el uso de ChatGPT para que sus ingenieros pudieran beneficiarse de la herramienta. Adjuntaron un aviso: «No introduzcáis información privada ni datos confidenciales.» El aviso no fue suficiente.

En menos de tres semanas —exactamente 20 días— se registraron tres incidentes separados. En el primero, un ingeniero copió el código fuente defectuoso de un programa crítico de bases de datos de semiconductores y lo pegó en ChatGPT para pedirle que encontrara el error. En el segundo, un desarrollador introdujo el código de un sistema interno de detección de fallos en equipos de fabricación. En el tercero, un empleado grabó una reunión interna y pidió a ChatGPT que generara las actas automáticamente.

El problema no era solo que esos datos estuvieran en servidores externos. Era que ChatGPT, en su versión de uso público de aquella época, utilizaba las conversaciones de los usuarios para mejorar sus modelos. El código propietario de Samsung, sus especificaciones de hardware y los contenidos de reuniones estratégicas habían pasado a ser, potencialmente, propiedad de entrenamiento de OpenAI.

Samsung prohibió de inmediato todas las herramientas de IA generativa en dispositivos corporativos, limitó los prompts a 1.024 bytes y aceleró el desarrollo de su propia IA interna (Samsung Gauss)

Amazon: Datos Internos Reflejados en Respuestas de IA

Amazon también experimentó un incidente similar en 2023. La compañía descubrió que las respuestas generadas por ChatGPT contenían información que reflejaba de cerca sus datos internos propietarios. Esto llevó a la conclusión de que los empleados estaban utilizando el modelo y, sin saberlo, introduciendo información sensible de la empresa. Como resultado, la dirección de Amazon emitió una directiva clara prohibiendo al personal compartir código o información confidencial con proveedores externos de IA.

JPMorgan Chase y la Preocupación por el Cumplimiento

El sector financiero, altamente regulado, ha sido particularmente cauteloso. JPMorgan Chase, junto con otros grandes bancos como Bank of America, Citigroup, Deutsche Bank, Wells Fargo y Goldman Sachs, restringió o prohibió el uso de ChatGPT y herramientas similares por parte de sus empleados. La preocupación principal era el riesgo de fugas de datos y el incumplimiento normativo, especialmente en relación con la información sensible de los clientes. La rápida adopción de estas medidas subraya la importancia de salvaguardar la información en un entorno donde la IA generativa puede ser una puerta de entrada para la exposición de datos.

¿Cuál es la solución?

El verdadero problema es que la prohibición no funciona. Por ejemplo, tras el caso de Samsung, muchas compañías optaron por bloquear herramientas públicas. Pero eso no elimina la AI Shadow, únicamente la desplaza. Porque los empleados la siguen usando en sus dispositivos personales, además que trabajan en remoto, utilizan cuentas privadas, etc. La mayoría de las veces la solución es la formación, porque se ha comprobado que la mayor causa de la AI Shadow es el desconocimiento.

La manera más efectiva y eficiente de solucionar la AI Shadow dentro de una empresa no es prohibiendo ni persiguiendo, sino integrando, gobernando y canalizando el uso de la IA para que deje de ser invisible y se convierta en una ventaja competitiva. La clave es tratarla como un fenómeno organizativo, no tecnológico.

Previous Article

El uso de la IA por las empresas españolas

Gana Inteligencia
Política de Privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Más info sobre la Política de Privacidad