Charles Ware: “El uso de la IA en las sombras es un riesgo creciente para la seguridad”

2

Una filtración de datos en América Latina cuesta en promedio 2,76 millones de dólares. El esfuerzo que demanda en el nivel operativo es de 365 días. Y el costo reputacional es altísimo: el 66% no haría negocios con empresas que hayan sufrido una filtración. Los datos surgen del reporte Cost of Data Breach de 2024 de IBM, en un contexto donde las empresas buscan transformarse y obtener réditos de sus datos con la Inteligencia Artificial Generativa. Al igual que sus atacantes.

Las tendencias para 2025 muestran un crecimiento en escala y velocidad de los ataques sobre los datos y los modelos de inteligencia artificial, con una cuota mayor de riesgo en torno a la shadow AI, “el uso de la IA en las sombras” que hacen muchos empleados de las empresas, por fuera de los canales oficiales. LA NACION conversó con Charles Ware, ejecutivo de ciberseguridad de IBM para Latinoamérica sobre estos riesgos y el uso de la IA generativa para el ataque y la defensa.

-El problema de la inteligencia artificial usada en las sombras parece subestimado en las organizaciones …

-Lo que no se tiene en cuenta es la exposición de la información. Supongamos que alguien tiene que hacer un resumen de un contrato de 400 páginas y lo sube a una inteligencia artificial. Lo que ese empleado no se da cuenta es que está subiendo información confidencial a una IA que no tiene seguridad o que la empresa no conoce. O supongamos que yo quiero probar cómo funciona el tema de inteligencia artificial para videos falsos (deep fake) o el deep de audios. Uso un sistema de inteligencia artificial que es gratuito y listo. Pero mi audio quedó en la nube y mi voz quedó disponible para los atacantes para un robo de credenciales. El riesgo de shadow AI está en crecimiento y se propaga cada vez más, porque hay más herramientas y, los empleados, de repente muy inocentemente para mejorar su trabajo, lo que hacen es utilizarlas sin saber los riesgos que eso conlleva.

-¿Qué tiene que hacer una empresa ante eso?

-Tener una gobernanza del AI, saber cuáles son las IA que están permitidas a utilizar como empresa y tener control. Y, evidentemente, cuando tratas información confidencial, utilizar simplemente la IA de la empresa y no una externa, sobre la cual no se conoce su seguridad. Además, claramente es un problema que se ataca con entrenamiento, porque si un empleado no hace uso de estas IA en la empresa o en los equipos corporativos, lo puede hacer en su casa.

-¿Sirve bloquear el acceso a ciertos servicios?

-No puedo poner bloqueos para eso. Es puramente enseñanza, que los empleados entiendan que pueden tener acceso a IA y por eso las empresas hoy día están utilizando inteligencia artificial entrenadas por ellas y apoyadas en proveedores que trabajan con inteligencia artificial segura, como lo es IBM, pero enseñando a la gente qué es lo que pueden utilizar. Tenés el recurso para utilizar la inteligencia artificial para evitar que utilicen otras inteligencias, pero lo que realmente se necesita en enseñanza.

-Otro tema importante es resguardar la calidad de los datos de los modelos de inteligencia artificial con los que trabajan las empresas. Y cómo pueden ser atacados.

-Tenés dos capas en la inteligencia artificial. La inyección de código malicioso ocurre cuando la inteligencia artificial no tiene la seguridad suficiente y los atacantes logran inyectar código malicioso para que esa inteligencia pueda dar datos que no queremos. O, peor todavía, pueda tomar información, porque con el código malicioso se puede extraer información de quien está poniendo sus datos para utilizar la inteligencia artificial. El otro es la fuga de información, en el caso de que el atacante logre vulnerar un gran modelo de lenguaje (LLM) para robar información o poner este código que va a filtrar información.

-¿Cuál es la mejor forma de encarar ese problema?

-Tener las dos visiones para proteger la inteligencia artificial. Hay soluciones que lo que hacen básicamente es proteger el modelo LLM para que no sea vulnerado. La otra, que va de la mano, es proteger los datos propiamente. O sea, el dato que está utilizando la LLM, tenerlo protegido para evitar una fuga de información.

-¿Cómo ayuda la IA para esto?

A la IA la usan los ciberdelincuentes para maximizar los ataques, en una escala mucho mayor a la que lo podrían hacer manualmente. Y para tener mayor precisión sobre el contexto de las personas. No es lo mismo que yo le dispare a Charles Ware un ataque ofreciendo una fortuna porque falleció un pariente en Italia, cuando él no tiene un familiar allí, a que haga un ataque basado en lo que publicó en sus redes sociales. Los ataques son mucho más precisos. Desde el punto de vista de la defensa, hay mucha información en internet sobre ataques, pero no es humanamente posible procesar toda la información para detectar uno nuevo. La IA ayuda a entender qué es lo que está sucediendo y alertarte, o bien tratar de predecir esos ataques. Después, obviamente, la IA ayuda a autorizar procesos y evitar falsos positivos, para poner foco específicamente en donde lo tenemos que poner.

Conforme a los criterios de