Publicado: agosto 4, 2023
Inteligencia artificial en el borde: Explorando las ventajas y los riesgos
¿Qué es IA perimetral?
La IA en el borde consiste en la implementación de aplicaciones de IA en dispositivos ubicados en todo el mundo físico. Se denomina «IA en el borde» porque el procesamiento de la IA se realiza cerca del usuario, en el límite de la red, cerca de la ubicación de los datos, en lugar de centralizarse en un centro de datos en la nube o un centro de datos privado. Dado el alcance global de internet, el borde de la red puede referirse a cualquier ubicación. Puede ser una tienda, una fábrica, un hospital o dispositivos IoT que nos rodean, como semáforos, cámaras de seguridad, dispositivos médicos, sensores, máquinas autónomas y teléfonos.
¿Por qué es necesaria la IA en el borde?
Contar con un centro de computación de IA centralizado en la nube no siempre es eficiente. Algunas tecnologías de IA requieren baja latencia entre la recopilación de datos y la toma de decisiones. Muchas tareas computacionales de IA son demasiado exigentes para ser procesadas por miles de usuarios simultáneos. Además, existen preocupaciones de seguridad y privacidad con respecto a la transferencia y el procesamiento remoto de datos sensibles, como la información personal identificable (PII), a través de la red.
Dado que los algoritmos de IA pueden comprender el lenguaje, las imágenes, los sonidos, los olores, la temperatura, los rostros y otras formas analógicas de información no estructurada, resultan especialmente útiles en entornos donde los usuarios finales se enfrentan a problemas reales. Estas aplicaciones de IA serían poco prácticas, o incluso imposibles, de implementar en una nube centralizada o en un centro de datos empresarial debido a problemas de latencia, ancho de banda y privacidad.
Compensaciones de la IA en el borde
Una de las mayores ventajas de la IA en el borde es que los dispositivos de IA se encuentran cerca de donde se aplican. La descentralización de la IA reduce considerablemente la carga de procesamiento en el centro de procesamiento, disminuye los costos de transmisión de datos y la congestión de la red, y reduce los riesgos al eliminar la necesidad de transferir datos confidenciales a través de la red. El principal inconveniente de la IA en el borde es que los algoritmos de IA y la propiedad intelectual asociada se encuentran fuera del entorno controlable o de confianza.
Superficies de ataque y mitigaciones de la IA en el borde
El hecho de que Edge sitúe los dispositivos de IA fuera del entorno de confianza modifica por completo la magnitud y la naturaleza de la superficie de ataque. El ecosistema de IA en Edge se puede dividir en componentes más pequeños. En la siguiente sección, describiremos los componentes principales de la tecnología de IA en Edge para identificar riesgos de seguridad, superficies de ataque y opciones de mitigación.
Modelo de IA
La seguridad de los modelos de IA en las aplicaciones de IA es fundamental, ya que ayuda a protegerlos del acceso no autorizado y el uso indebido. Estos modelos son el resultado de una extensa investigación y contienen información valiosa. Si no se protegen adecuadamente, los ciberdelincuentes pueden causar diversos problemas. Por ejemplo, pueden manipular la salida del modelo para difundir información falsa o cometer fraude (evasión y ataques adversarios). Además, pueden modificar los algoritmos del modelo para que su rendimiento sea deficiente o se comporte de forma fraudulenta. Esto puede resultar en pérdidas catastróficas si ocurre en sectores críticos como los vehículos autónomos, la sanidad o las infraestructuras. Asimismo, las empresas cuyos modelos de IA en el borde sean robados, filtrados o adaptados pueden sufrir graves daños financieros. En definitiva, la seguridad de los modelos de IA previene el uso no autorizado y contribuye a garantizar que la inteligencia artificial se implemente de forma responsable y ética.
Mitigaciones
- cifrado de modelos de IA El modelo de IA es una valiosa propiedad intelectual de la empresa, por lo que, como medida de seguridad básica, debe mantenerse cifrado en el disco. Existe el riesgo de que el modelo de IA pueda extraerse de la memoria de la aplicación. La implementación debe considerar este riesgo y no mantener el modelo sin procesar cargado en la memoria, o al menos descargarlo tan pronto como el motor de IA lo procese. Además, dado que la criptografía de caja blanca previene los ataques de tipo «romper una vez, ejecutar en cualquier lugar» (BORE), se recomienda considerar una solución de criptografía de caja blanca.
- incrustación de modelos de IA – Cuando la IA en el borde requiere que los modelos de IA estén integrados en las aplicaciones, asegúrese de que la aplicación que aloja el modelo de IA esté protegida con herramientas de seguridad y que las comunicaciones hacia y desde la aplicación estén protegidas con una solución de criptografía de caja blanca.
Dato
La seguridad de los datos de IA en aplicaciones de IA en el borde es crucial debido a los riesgos potenciales asociados al acceso no autorizado y al uso indebido. Estas aplicaciones suelen operar en dispositivos con capacidad de procesamiento y almacenamiento limitada, lo que obliga a almacenar y procesar datos sensibles localmente. Esto puede provocar vulneraciones de la privacidad, exponiendo información personal o confidencial. Además, los ciberdelincuentes pueden aprovechar los datos de IA obtenidos para entrenar sus modelos o extraer información valiosa, lo que podría derivar en robo de propiedad intelectual o ventajas competitivas desleales. Asimismo, la manipulación de datos de IA en aplicaciones de IA en el borde puede alterar los algoritmos de IA, generando resultados sesgados o distorsionados, conocidos como «ataques de envenenamiento de datos». Esto puede tener graves consecuencias en áreas críticas como el diagnóstico médico o las bases de datos criminales.
Mitigaciones
- Cifrado de datos – Los datos y la propiedad intelectual de la IA suelen ser safeLos datos se protegen mediante cifrado y protocolos de seguridad cuando están en reposo (almacenados) o en tránsito por una red (transmisión). Sin embargo, durante su uso, como al procesarse y ejecutarse, se vuelven vulnerables a posibles vulneraciones debido a accesos no autorizados o ataques en tiempo de ejecución. Por este motivo, las organizaciones deben evitar exponer las claves de cifrado en texto plano durante todo el ciclo de vida de la aplicación, utilizando métodos de criptografía de caja blanca.
- Computación confidencial – aborda la necesidad de proteger los datos en uso mediante la realización de cálculos en un entorno seguro y aislado dentro del procesador de un ordenador, también conocido como entorno de ejecución de confianza (TEE). Por otro lado, el uso de TEE expone los componentes de hardware como un vector de ataque. Puede encontrar más información aquí. aquí.
- Tránsito seguro de datos a través de la red En ocasiones, los atacantes pueden aprovechar la API del servidor para realizar solicitudes falsificadas u obtener datos adicionales. La protección de la API introduciría una capa adicional de cifrado de datos y evitaría los ataques de repetición de solicitudes y falsificación.
Aplicaciones de IA
Proteger las aplicaciones de IA en el borde es crucial, ya que los ciberdelincuentes pueden realizar ingeniería inversa y manipularlas, extrayendo información valiosa para su propio beneficio. Sin las medidas de seguridad adecuadas, pueden explotar las vulnerabilidades de estas aplicaciones para acceder sin autorización a los datos almacenados. Al realizar ingeniería inversa, descubren algoritmos y modelos propietarios, comprometiendo así la propiedad intelectual. El conocimiento obtenido mediante esta técnica podría utilizarse para crear nuevas aplicaciones de IA con modelos robados. La manipulación les permite modificar la aplicación, lo que genera resultados sesgados o acceso no autorizado a los datos. Es necesario implementar medidas de seguridad robustas para proteger las aplicaciones de IA en el borde y garantizar la integridad de los datos. safeproteger la propiedad intelectual y mantener un entorno justo y competitivo.
Mitigaciones
- Mecanismos antimanipulación Las técnicas de detección de manipulación de código, como la verificación de sumas de comprobación, detectarán intentos de modificar el comportamiento de la aplicación. En entornos no confiables, se debe utilizar criptografía de caja blanca para prevenir ataques BORE (ataques que permiten romper una vulnerabilidad una vez y ejecutarla en cualquier lugar), especialmente cuando la aplicación interactúa con archivos cifrados, como datos y modelos de IA.
- Análisis antiestático – La ofuscación y transformación del código aumentan considerablemente el tiempo necesario para realizar ingeniería inversa de la lógica de negocio y, en ocasiones, incluso la impiden por completo.
- Análisis antidinámico El análisis dinámico es crucial para comprender cómo se comporta el software y cómo la interrupción oportuna de dicho análisis puede prevenir análisis de software adicionales.
- Mecanismos de elevación anticódigo – Métodos como el daño al código, el enmascaramiento y la autorreparación impiden que los atacantes copien el código y lo ejecuten en un dispositivo diferente al previsto inicialmente.
- comprobaciones de integridad de la plataforma El software puede extraerse del dispositivo Edge AI y ejecutarse en un entorno ajeno, o bien el dispositivo Edge AI puede ser manipulado. Verificar la integridad de la plataforma puede alertar sobre intentos de ingeniería inversa de la aplicación.
Todo esto se puede lograr con herramientas de fortalecimiento de aplicaciones. Para obtener una guía sobre cómo incorporar el fortalecimiento de aplicaciones en su... DevSecOps Para obtener más información, consulte el documento destacado de IDC. aquí.
Hardware
Debido a que opera en el Edge, fuera del perímetro de seguridad, el hardware de IA en el borde puede ser vulnerable a ataques de ciberdelincuentes. Estos ataques tienen consecuencias significativas. Los atacantes pueden explotar vulnerabilidades en el hardware para obtener acceso no autorizado, interrumpir operaciones o extraer información confidencial. Podrían realizar ataques físicos, como manipular los componentes del dispositivo, comprometer su funcionalidad o robar datos valiosos almacenados en él. Además, los atacantes pueden atacar el firmware o los componentes de software del hardware de IA en el borde, inyectando código malicioso o malware que puede comprometer la seguridad e integridad del sistema. Los resultados de dichos ataques pueden abarcar desde el acceso no autorizado a datos confidenciales y violaciones de la privacidad hasta la interrupción de servicios críticos que dependen del hardware de IA en el borde. Asimismo, un hardware de IA en el borde comprometido puede ser un punto de entrada para ataques de red más amplios, lo que permite a los ciberdelincuentes infiltrarse en sistemas conectados o lanzar ciberataques a gran escala.
Mitigaciones
Para mitigar estos riesgos, implemente medidas de seguridad robustas, que incluyan: funciones de seguridad a nivel de hardware, actualizaciones regulares de firmware y una supervisión integral para detectar y prevenir el acceso no autorizado o los intentos de manipulación en el hardware de Edge AI.
Resumen
La IA en el borde (Edge AI) consiste en implementar aplicaciones de IA en dispositivos físicos, más cerca de donde se generan los datos, en lugar de depender de la computación en la nube centralizada. Ofrece varias ventajas, como baja latencia, mayor privacidad, menor carga en la red y reducción de los costos de transferencia de datos. Sin embargo, la naturaleza descentralizada de la Edge AI introduce nuevos riesgos de seguridad y superficies de ataque. Los componentes principales de la Edge AI, incluidos los modelos de IA, los datos, las aplicaciones de IA y el hardware, deben protegerse para evitar el acceso no autorizado, el uso indebido, la manipulación y el robo. Las estrategias de mitigación incluyen:
- cifrado e incrustación de modelos de IA
- Cifrado de datos
- Cifrado de caja blanca de claves criptográficas
- Computación confidencial
- Tránsito seguro de datos a través de redes
- Mecanismos antimanipulación
- Mecanismos de elevación anticódigo
- Ofuscación de código
- Técnicas de análisis anti-dinámico
- comprobaciones de integridad de la plataforma
- Funciones de seguridad a nivel de hardware
La implementación de estas medidas es crucial para proteger la información confidencial, garantizar un despliegue responsable de la IA, mantener la integridad de los datos y safeProtección de la propiedad intelectual en ecosistemas de IA en el borde.
También puede interesarle
Lo que la prensa convencional no entiende sobre Mythos
Hemos visto cómo algunas historias sobre ciberseguridad han llegado a los medios de comunicación...
Ataques de IA con agentes: El agente Smith ha salido de su retiro.
Los atacantes de Nature-Free Evolution siguen ampliando los límites de la IA…
Combatir el fuego con fuego: usar la IA para combatir la IA
Los ataques a aplicaciones aumentaron al 83% en enero de 2025, frente al 65% de hace apenas…