ARTÍCULO: Preparar la ciberseguridad corporativa para los asistentes de inteligencia artificial que todo lo ven

Aunque Microsoft ha revisado radicalmente el plan de implementación de su controvertida función Recall, los equipos de ciberseguridad no pueden darse el lujo de ignorar el problema de los «observadores de la IA».

Durante los meses de mayo y junio, el mundo de las TI estuvo atento al desarrollo del drama de Copilot+ Recall. Primero, Microsoft anunció la función de “memoria” llamada Recall, que toma capturas de pantalla de todo lo que sucede en una computadora cada pocos segundos y extrae toda la información útil en una base de datos compartida. Luego, los investigadores de ciberseguridad criticaron la implementación de Recall al exponer fallas de seguridad y demostrar el potencial de exfiltración de datos, incluso de tipo remoto. Esto obligó a Microsoft a dar marcha atrás: primero, afirmando que la función no estaría habilitada de forma predeterminada y prometiendo un cifrado mejorado, y luego retrasando por completo el lanzamiento masivo de Recall, optando por probarlo primero en la versión beta del Programa Windows Insider. A pesar de este revés, Redmond sigue comprometido con el proyecto y planea lanzarlo en una amplia gama de computadoras, incluidas aquellas con CPU AMD e Intel.

En el contexto de los dispositivos en el lugar de trabajo (especialmente si una empresa permite BYOD), Recall viola claramente las políticas de retención de datos corporativos y amplifica significativamente el daño potencial si una red se ve comprometida por ladrones de información o ransomware. Lo que es más preocupante es la clara intención de los competidores de Microsoft de seguir esta tendencia. El recientemente anunciado Apple Intelligence todavía está envuelto en lenguaje de marketing, pero la empresa afirma que Siri tendrá «conciencia en pantalla» al procesar solicitudes, y las herramientas de manejo de texto disponibles en todas las aplicaciones serán capaces de procesar tanto localmente como con tecnología ChatGPT. Si bien las funciones equivalentes de Google permanecen en secreto, la empresa ha confirmado que Project Astra (el asistente visual anunciado en Google I/O) eventualmente llegará a los Chromebooks, utilizando capturas de pantalla como flujo de datos de entrada. ¿Cómo deben prepararse los equipos de TI y ciberseguridad para esta avalancha de funciones impulsadas por IA?

Riesgos de los asistentes visuales

En este artículo, ya analizamos cómo mitigar los riesgos del uso no controlado de ChatGPT y otros asistentes de IA por parte de los empleados . Sin embargo, allí nos centramos en la adopción deliberada de aplicaciones y servicios adicionales por parte de los propios empleados, una nueva y problemática especie de TI en la sombra . Los asistentes a nivel de SO presentan un desafío más complejo:

  • El asistente puede tomar capturas de pantalla, reconocer texto en ellas y almacenar cualquier información que se muestre en la pantalla de un empleado, ya sea de forma local o en una nube pública. Esto ocurre independientemente de la confidencialidad de la información, el estado de autenticación actual o el contexto laboral. Por ejemplo, un asistente de IA podría crear una copia local, o incluso en la nube, de un correo electrónico cifrado que requiera una contraseña.
  • Es posible que los datos capturados no cumplan con las políticas corporativas de retención de datos; los datos que requieren cifrado pueden almacenarse sin él; los datos programados para su eliminación pueden persistir en una copia no contabilizada; los datos que deben permanecer dentro del perímetro de la empresa pueden terminar en una nube, posiblemente bajo una jurisdicción desconocida.
  • El problema del acceso no autorizado se ve agravado porque los asistentes de IA pueden eludir las medidas de autenticación adicionales implementadas para servicios sensibles dentro de una organización. (En términos generales, si necesita ver datos de transacciones financieras, incluso después de haber recibido autorización en el sistema, debe habilitar RDP, generar un certificado, iniciar sesión en el sistema remoto y volver a ingresar la contraseña, o simplemente puede verlo a través de un asistente de IA como Recall).
  • El control del asistente de inteligencia artificial por parte del usuario e incluso de los administradores de TI es limitado. La activación accidental o deliberada de funciones adicionales del sistema operativo por orden del fabricante es un problema conocido. Básicamente, Recall, o una función similar, podría aparecer en una computadora de manera inesperada y sin previo aviso como parte de una actualización.

Aunque todos los gigantes tecnológicos afirman estar prestando mucha atención a la seguridad de la IA, la implementación práctica de las medidas de seguridad debe pasar la prueba de la realidad. Las afirmaciones iniciales de Microsoft sobre los datos procesados ​​localmente y almacenados de forma cifrada resultaron inexactas, ya que el cifrado en cuestión era de hecho un simple BitLocker, que efectivamente solo protege los datos cuando la computadora está apagada. Ahora tenemos que esperar a que los profesionales de la ciberseguridad evalúen el cifrado actualizado de Microsoft y lo que Apple finalmente lance. Apple afirma que parte de la información se procesa localmente, parte dentro de su propia nube utilizando principios de computación segura sin almacenar datos después del procesamiento, y parte, se transmite a OpenAI en forma anónima. Si bien aún está por verse el enfoque de Google, el historial de la empresa habla por sí solo .

Políticas de implementación del asistente de inteligencia artificial

Considerando los riesgos sustanciales y la falta general de madurez en este dominio, se recomienda una estrategia conservadora para implementar asistentes visuales de IA:

  1. Determinar de manera colaborativa (involucrando a TI, ciberseguridad y equipos comerciales) qué flujos de trabajo de los empleados se beneficiarían significativamente de los asistentes visuales de IA para justificar la introducción de riesgos adicionales.
  2. Establezca una política de la empresa e informe a los empleados que está prohibido el uso de asistentes visuales de inteligencia artificial a nivel de sistema. Otorgue excepciones según cada caso en particular para usos específicos.
  3. Tome medidas para bloquear la activación espontánea de la IA visual. Utilice las políticas de grupo de Microsoft y bloquee la ejecución de aplicaciones de IA en el nivel EDR o EMM/UEM. Tenga en cuenta que es posible que las computadoras más antiguas no puedan ejecutar componentes de IA debido a limitaciones técnicas, pero los fabricantes están trabajando para ampliar su alcance a versiones anteriores del sistema.
  4. Asegúrese de que las políticas y herramientas de seguridad se apliquen a todos los dispositivos que utilizan los empleados para trabajar, incluidas las computadoras personales.
  5. Si en la primera etapa de la discusión se identifica un grupo de empleados que podrían beneficiarse significativamente de la IA visual, se debe iniciar un programa piloto con solo algunos de estos empleados. Los equipos de TI y ciberseguridad deben desarrollar configuraciones recomendadas para el asistente visual adaptadas a los roles de los empleados y las políticas de la empresa. Además de configurar el asistente, se deben implementar medidas de seguridad mejoradas (como políticas estrictas de autenticación de usuarios y configuraciones de monitoreo de SIEM y EDR más estrictas) para evitar fugas de datos y proteger las computadoras piloto de software no deseado o malicioso. Asegúrese de que un administrador active el asistente de IA disponible mediante estas configuraciones específicas.
  6. Analizar de forma periódica y exhaustiva el rendimiento del grupo piloto en comparación con un grupo de control, así como el comportamiento de los ordenadores de la empresa con el asistente de IA activado. En función de este análisis, decidir si se amplía o se suspende el programa piloto.
  7. Designar un recurso dedicado a supervisar la investigación sobre ciberseguridad y la inteligencia sobre amenazas en relación con los ataques dirigidos contra los asistentes visuales de inteligencia artificial y sus datos almacenados. Esto permitirá realizar ajustes oportunos en las políticas a medida que esta tecnología evolucione.