El avance de la inteligencia artificial generativa en entornos laborales ha generado un nuevo escenario de ciberseguridad, caracterizado por el fenómeno conocido como Shadow AI: el uso no regulado de asistentes virtuales por empleados, quienes muchas veces suben información sensible a plataformas públicas sin supervisión corporativa.
Informes de empresas como Google Workplace y Dell Technologies registraron que, a lo largo de 2025, creció de manera sostenida la utilización de asistentes de inteligencia artificial para tareas como redacción de informes, análisis de datos o preparación de presentaciones ejecutivas. Esta tendencia, aunque impulsa la productividad, expone a las organizaciones a un riesgo crítico de fuga de datos.
En América Latina, la brecha entre adopción y control de estas tecnologías es significativa. En Argentina, más del 57% de los profesionales ya utiliza inteligencia artificial en sus actividades cotidianas, mientras que solo el 23% de las empresas cuenta con protocolos formales para regular su uso. Un estudio reciente indica que el 78% de los trabajadores implementa su propio chatbot en la oficina, lo que representa una de las principales preocupaciones en materia de privacidad y ciberseguridad.
Roberto Ricossa, vicepresidente para Latinoamérica de F5, sostiene: “El problema no es la inteligencia artificial, sino la falta de políticas claras de gobernanza sobre la información que se intercambia”. Añade que “prohibir su uso equivale a renunciar a la ventaja competitiva. Una empresa que decide no adoptar IA puede comprometer seriamente su viabilidad en los próximos cinco años. El problema no se resuelve prohibiendo, sino gestionando”.
Desde F5 proponen la implementación de un modelo de gobernanza activa, donde la seguridad actúa como puerta de enlace entre la organización y los modelos de inteligencia artificial. Este sistema permite filtrar el tráfico, definir accesos por roles y limitar la información que puede compartirse, con el objetivo de evitar que datos sensibles, como información financiera, propiedad intelectual o datos de clientes, queden expuestos.
“El objetivo es proteger a los empleados de ellos mismos”, explica Ricossa. “Es el equivalente a los guardias en la puerta de un local: no están para frenar el negocio, sino para cuidarlo”, subraya.
“El desafío para los líderes no es elegir entre innovación o seguridad. El verdadero reto es entender que la IA necesita límites humanos para generar valor sostenible”, concluye Ricossa.
La entrada Shadow AI impulsa riesgo de fuga de datos y redefine estrategia de seguridad corporativa se publicó primero en Revista Mercado.


