Por Carlos Torales, vicepresidente de Cloudflare, director para América Latina

Mientras en el mundo se prueba la IA y se analiza su innegable potencial, es importante estar preparados con las cuestiones de ciberseguridad a la hora de implementarla.

Los líderes empresariales y los encargados de la toma de decisiones de las organizaciones actuales no pueden ignorar el impacto de la IA generativa. 

Algunas personas han adoptado sin vacilaciones esta tecnología como una estrategia de transformación en el lugar de trabajo en donde nunca más tendrán que hacer tareas tediosas como escribir un correo electrónico o redactar un informe.

Otras personas piensan que este es el comienzo de una nueva ola tecnológica que aportará ventajas incalculables a todos los sectores empresariales, desde operaciones y desarrollo hasta regulación. 

El uso inicial y el potencial de la IA que se ha visto hasta ahora en todo el mundo ha revelado un importante avance en cuanto a la productividad personal, pero también genera preocupación en cuanto a la seguridad y la privacidad de los datos. 

La IA generativa plantea amenazas para la seguridad 

El uso de herramientas como ChatGPT y otros grandes modelos de lenguaje (LLM) abre las puertas al trabajo sin supervisión — dispositivos, software y servicios que no son propiedad de las organizaciones o que los departamentos de seguridad o informática no controlan.

A medida que crecen las maneras de usar la IA, el problema que se genera es sencillo y solucionable. 

Independientemente de si se trata de un empleado que experimenta con la IA o de una iniciativa empresarial, una vez que los datos se exponen a la IA, no hay vuelta atrás.

Si bien la IA es increíblemente prometedora, sin la protección adecuada, esta plantea riesgos importantes para las empresas.

Según una encuesta de KPMG de 2023, los ejecutivos esperan que la IA generativa tenga un impacto enorme en las empresas, pero la mayoría manifiesta que no están preparados para adoptarla.

Las preocupaciones que encabezan la lista son la ciberseguridad (81 %) y la privacidad de los datos (78 %).

es por eso que los directores de seguridad de la información (CISO) y los directores de sistemas de información (CIO) deben establecer un equilibrio entre permitir una innovación transformadora.

El modelo de ciberseguridad Zero Trust aborda estos riesgos

Los controles de seguridad Zero Trust permiten que las empresas utilicen de manera segura las herramientas de IA generativa más recientes sin poner en riesgo la propiedad intelectual y los datos de los clientes.

Todo esto a través de la IA y seguir manteniendo el cumplimiento normativo de las reglamentaciones sobre la privacidad de los datos.

El método de ciberseguridad actual de Zero Trust exige una estricta verificación de la identidad de cada persona y de cada dispositivo que intenta acceder a los recursos de la red.

La estructura Zero Trust no confía en ninguna persona ni en ningún dispositivo de manera predeterminada, algo que resulta esencial para toda organización que utiliza IA de cualquier tipo. 

¿Cómo usa la IA tu organización? ¿Cuántos empleados están probando los servicios de IA por su cuenta? ¿Para qué utilizan la IA? 

Para algunas organizaciones, adoptar la prevención de pérdida de datos (DLP) ayudaría a brindar seguridad para reducir la brecha humana sobre cómo los empleados pueden compartir datos.

Al mismo tiempo, unas reglas más granulares pueden incluso permitir a determinados usuarios experimentar con proyectos que contengan datos confidenciales, con límites más estrictos para la mayoría de los equipos y empleados. 

En otras palabras, si se utiliza IA, surge la necesidad inherente de reforzar la seguridad en los protocolos y procesos. Independientemente del estado actual de la ciberseguridad de una organización, se pueden seguir o retomar ciertos pasos para proteger de manera total cualquier organización y sus datos.

Con la implementación de Zero Trust, el marco protegerá y verificará cada puerta y al mismo tiempo permitirá la innovación que aporte la IA.