InicioEconomiaEl 70% de los empleados utiliza IA sin supervisión de IT

El 70% de los empleados utiliza IA sin supervisión de IT

Los Riesgos Ocultos de la Inteligencia Artificial en las Empresas: Una Alarma que No Se Puede Ignorar

La rápida adopción de herramientas de inteligencia artificial en el entorno corporativo podría estar dejando a las empresas expuestas a peligros significativos. Un reciente informe de F5 Labs destaca que el 70% de los empleados utiliza estos sistemas sin supervisión, abriendo la puerta a potenciales filtraciones de datos.

Las empresas han integrado la Inteligencia Artificial Generativa a gran velocidad, a menudo ignorando protocolos esenciales de ciberseguridad. Este fenómeno, conocido como «Shadow AI», se traduce en un uso descontrolado de herramientas de IA, que podría representar una vulnerabilidad crítica en la protección de datos corporativos.

La falta de regulación sobre este tipo de adopción no es una simple irregularidad; es una invitación a la exposición de información sensible.

Los Modelos de IA Más y Menos Seguros: Un Balance Revelador

El informe de F5 Labs revela información sorprendente sobre la seguridad de los modelos de IA, ofreciendo claves valiosas para los ejecutivos de seguridad.

Anthropic en la Cima de la Seguridad

Los modelos desarrollados por Anthropic, como Claude, han demostrado ser los más seguros, gracias a su arquitectura robusta que resiste intentos de manipulación.

OpenAI en Retroceso

A pesar de su relevancia en el campo de IA, los modelos de OpenAI, específicamente la serie GPT, han perdido puntos en el ámbito de la seguridad. Vulnerabilidades de «cero clics» han sido localizadas, y aunque la nueva versión GPT-5.2 ha mejorado, aún no se sitúa al nivel de Anthropic.

Google Gemini en Desventaja

Pese a su potente capacidad de procesamiento, Google Gemini presenta serias deficiencias en seguridad, quedando atrás de sus competidores en este aspecto crítico.

Métricas para Evaluar la Seguridad de la IA

Con el objetivo de evaluar de manera objetiva, F5 Labs ha implementado métricas avanzadas:

CASI: Índice de Seguridad Integral de la IA

Este índice mide la vulnerabilidad frente a inyecciones de prompts y «jailbreaks», es decir, manipulaciones que intentan inducir comportamientos dañinos en los modelos.

ARS: Puntuación de Resistencia Agencial

Evalúa la capacidad del modelo para resistir influencias de agentes autónomos que utilizan tácticas psicológicas para eludir sus defensas en interacciones prolongadas.

Nuevas Amenazas: Ingenio Malicioso en Acción

La seguridad de la IA enfrenta una evolución constante, con nuevas técnicas de ataque que desafían los filtros de seguridad:

WordGame: Peligros Ocultos en Juegos de Palabras

Los atacantes camuflan intenciones maliciosas bajo la apariencia de acertijos o juegos inofensivos, engañando a los modelos.

MathPrompt: Una Amenaza Sutil

Este método disfraza solicitudes dañinas en problemas matemáticos complejos, llevando al modelo a revelar información sensible sin detectar el fraude.

La Paradoja de los Modelos Pequeños

Una conclusión sorprendente es que los modelos más pequeños, como el GPT-5-nano, tienden a ser más resistentes que sus versiones más grandes. Esto se debe a que su menor complejidad les impide comprender lógicas avanzadas de ataque. «En ocasiones, la simplicidad es la mejor defensa», enfatiza el estudio.

Los expertos de F5 subrayan que implementar modelos de IA no verificados en entornos críticos no es una innovación, sino un riesgo innecesario. En un 2026 donde la IA se ha vuelto omnipresente en las oficinas, es crucial que las empresas argentinas realicen auditorías para conocer las herramientas de IA que utilizan sus empleados, antes de que el «Shadow AI» cause estragos en su reputación y finanzas.

RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments