Publié: Août 4, 2023
Intelligence artificielle en périphérie : explorer les avantages et les risques
Qu'est-ce qu'Edge AI ?
L'IA en périphérie (Edge AI) consiste à déployer des applications d'IA sur des appareils du monde physique. On parle d'« IA en périphérie » car les calculs sont effectués à proximité de l'utilisateur, en périphérie du réseau, près des données, et non de manière centralisée dans un centre de données ou un cloud computing privé. Grâce à la portée mondiale d'Internet, la périphérie du réseau peut désigner n'importe quel lieu : un magasin, une usine, un hôpital, ou encore les objets connectés qui nous entourent, comme les feux de circulation, les caméras de sécurité, les dispositifs médicaux, les capteurs, les machines autonomes et les téléphones.
Pourquoi l'IA en périphérie est-elle nécessaire ?
Disposer d'un hub de calcul d'IA centralisé dans le cloud n'est pas toujours optimal. Certaines technologies d'IA exigent une faible latence entre la collecte des données et la prise de décision. De nombreuses tâches de calcul d'IA sont trop gourmandes en ressources pour être exécutées simultanément par des milliers d'utilisateurs. Par ailleurs, la sécurité et la confidentialité des données sensibles, telles que les informations personnelles identifiables (IPI), transférées sur le réseau et traitées à distance, soulèvent des problèmes.
Les algorithmes d'IA, capables de comprendre le langage, les images, les sons, les odeurs, la température, les visages et d'autres formes d'informations analogiques non structurées, sont particulièrement utiles dans les lieux fréquentés par les utilisateurs finaux confrontés à des problèmes concrets. Leur déploiement dans un cloud centralisé ou un centre de données d'entreprise serait impraticable, voire impossible, en raison des problèmes de latence, de bande passante et de confidentialité.
Compromis liés à l'IA en périphérie
L'un des principaux avantages de l'IA en périphérie (Edge AI) réside dans la proximité des dispositifs d'IA avec les lieux d'application. Cette décentralisation réduit considérablement la charge de traitement sur le serveur central, les coûts de transmission des données et la charge réseau, et diminue les risques en éliminant la nécessité de transférer des données sensibles sur le réseau. Le principal inconvénient de l'IA en périphérie est que les algorithmes d'IA et la adresse IP associée se trouvent hors d'un environnement contrôlable et sécurisé.
Surfaces d'attaque et mesures d'atténuation de l'IA en périphérie
Le fait que l'Edge place les dispositifs d'IA hors de l'environnement de confiance modifie radicalement l'étendue et la nature de la surface d'attaque. L'écosystème d'IA Edge peut être décomposé en composants plus petits. Dans la section suivante, nous décrirons les principaux composants de la technologie d'IA Edge afin d'identifier les risques de sécurité, les surfaces d'attaque et les options d'atténuation.
Modèle IA
La sécurisation des modèles d'IA dans les applications d'IA est primordiale car elle permet de les protéger contre les accès non autorisés et les utilisations abusives. Ces modèles, fruits de recherches approfondies, renferment des informations précieuses. En l'absence de protection adéquate, des acteurs malveillants peuvent causer divers problèmes. Par exemple, ils peuvent manipuler les résultats du modèle pour diffuser de fausses informations ou commettre des fraudes (évasion de sécurité et attaques adverses). De plus, ils peuvent modifier les algorithmes du modèle pour en dégrader les performances ou le rendre inéquitable. Cela peut entraîner des pertes catastrophiques dans des secteurs critiques tels que les véhicules autonomes, la santé ou les infrastructures. Par ailleurs, les entreprises dont les modèles d'IA embarqués sont volés, divulgués ou adaptés peuvent subir de graves préjudices financiers. En définitive, la sécurisation des modèles d'IA empêche leur utilisation non autorisée et contribue à garantir un déploiement responsable et éthique de l'intelligence artificielle.
Atténuation
- chiffrement par modèle d'IA Le modèle d'IA constitue une adresse IP précieuse de l'entreprise. Par conséquent, par mesure de sécurité de base, il est impératif de le conserver chiffré sur le disque. Il existe un risque que le modèle d'IA soit extrait de la mémoire de l'application. Lors de son utilisation, il convient de prendre en compte ce risque et de ne pas conserver le modèle brut en mémoire, ou du moins de le décharger dès que le moteur d'IA l'a analysé. De plus, la cryptographie en boîte blanche empêchant les attaques de type « break once run everywhere » (BORE), il est recommandé d'envisager une solution de cryptographie en boîte blanche.
- intégration de modèles d'IA – Lorsque l’IA en périphérie nécessite que les modèles d’IA soient intégrés aux applications, assurez-vous que l’application hébergeant le modèle d’IA est protégée par des outils de renforcement et que les communications vers et depuis l’application sont protégées par une solution de cryptographie en boîte blanche.
Date
La sécurisation des données d'IA dans les applications Edge AI est cruciale en raison des risques potentiels liés à un accès non autorisé et à une utilisation abusive. Ces applications fonctionnent souvent sur des appareils aux capacités de calcul et de stockage limitées, ce qui impose le stockage et le traitement local des données sensibles. Ceci peut entraîner des violations de la vie privée, avec exposition d'informations personnelles ou confidentielles. De plus, des acteurs malveillants peuvent exploiter les données d'IA acquises pour entraîner leurs modèles ou en extraire des informations précieuses, ce qui peut conduire à un vol de adresse IP ou à un avantage concurrentiel indu. Par ailleurs, la falsification des données d'IA dans les applications Edge AI peut entraîner la manipulation des algorithmes d'IA, provoquant des résultats biaisés ou déformés, également appelés « attaques par empoisonnement des données ». Ceci peut avoir de graves conséquences dans des domaines critiques tels que le diagnostic médical ou les bases de données criminelles.
Atténuation
- Cryptage des données – La adresse IP en matière de données et d'IA est généralement safeLes données sont protégées par chiffrement et protocoles de sécurité lorsqu'elles sont stockées ou en transit sur un réseau. Cependant, lors de leur utilisation, notamment lors de leur traitement et de leur exécution, elles deviennent vulnérables aux intrusions potentielles dues à des accès non autorisés ou à des attaques en cours d'exécution. C'est pourquoi les organisations doivent éviter de laisser les clés de chiffrement en clair pendant tout le cycle de vie de l'application, en utilisant des méthodes de cryptographie en boîte blanche.
- Informatique confidentielle – comble la lacune en matière de protection des données utilisées en effectuant des calculs dans un environnement sécurisé et isolé au sein du processeur de l'ordinateur, également appelé environnement d'exécution de confiance (TEE). En revanche, l'utilisation d'un TEE expose les composants matériels comme vecteur d'attaque. Plus d'informations sont disponibles. ici.
- Sécurisation du transit des données sur le réseau Il arrive que des attaquants exploitent l'API du serveur pour effectuer des requêtes falsifiées ou obtenir des données supplémentaires. La protection de l'API introduit une couche supplémentaire de chiffrement des données et empêche les attaques par rejeu de requêtes et par falsification.
Applications d'IA
La sécurisation des applications d'IA en périphérie est cruciale, car les acteurs malveillants peuvent les décompiler et les altérer, en extrayant des informations précieuses à leur avantage. Sans mesures de sécurité adéquates, ils peuvent exploiter les vulnérabilités de ces applications pour accéder sans autorisation aux données stockées. La décompilation d'applications permet de découvrir des algorithmes et des modèles propriétaires, compromettant ainsi la adresse IP. Les connaissances acquises grâce à cette méthode peuvent être utilisées pour créer de nouvelles applications d'IA à partir de modèles volés. L'altération de ces modèles leur permet de modifier l'application, ce qui peut entraîner des résultats biaisés ou un accès non autorisé aux données. Des mesures de sécurité robustes sont donc indispensables pour protéger les applications d'IA en périphérie et garantir l'intégrité des données. safeprotéger la adresse IP et maintenir un environnement concurrentiel équitable.
Atténuation
- Mécanismes anti-falsification Les techniques de détection de falsification de code, comme le calcul de sommes de contrôle, permettent de détecter les tentatives de modification du comportement de l'application. Le chiffrement en boîte blanche doit être utilisé dans les environnements non fiables afin de prévenir les attaques BORE (« casse une fois, exécution partout »), notamment lorsque l'application interagit avec des fichiers chiffrés, tels que des données et des modèles d'IA.
- Analyse antistatique – L’obfuscation et la transformation du code augmentent considérablement le temps nécessaire à la rétro-ingénierie de la logique métier et l’empêchent parfois même complètement.
- Analyse anti-dynamique – L’analyse dynamique est cruciale pour comprendre le comportement des logiciels et comment l’arrêt de cette analyse à temps peut empêcher d’autres analyses logicielles.
- Mécanismes anti-levage de code – Des méthodes comme l’endommagement du code, le masquage et l’auto-réparation empêchent les attaquants de récupérer du code et de l’exécuter sur un appareil différent de celui initialement prévu.
- Contrôles d'intégrité de la plateforme Il est possible d'extraire un logiciel du dispositif Edge AI et de l'exécuter dans un environnement non sécurisé, ou de compromettre le dispositif lui-même. La vérification de l'intégrité de la plateforme permet de détecter les tentatives de rétro-ingénierie de l'application.
Tout cela est possible grâce aux outils de renforcement de la sécurité des applications. Pour un guide sur l'intégration du renforcement de la sécurité des applications dans votre… DevSecOps Pour plus de pratique, consultez le document IDC Spotlight. ici.
Hardware
Du fait de son emplacement en périphérie du réseau, hors du périmètre de sécurité, le matériel d'IA périphérique (Edge AI) est vulnérable aux attaques. Ces attaques ont des conséquences importantes. Les attaquants peuvent exploiter les vulnérabilités du matériel pour obtenir un accès non autorisé, perturber les opérations ou extraire des informations sensibles. Ils peuvent mener des attaques physiques, comme la manipulation des composants de l'appareil, la compromission de son fonctionnement ou le vol de données précieuses qui y sont stockées. De plus, les attaquants peuvent cibler le micrologiciel ou les logiciels du matériel d'IA périphérique, en y injectant du code malveillant ou des logiciels malveillants susceptibles de compromettre la sécurité et l'intégrité du système. Les conséquences de telles attaques peuvent aller de l'accès non autorisé à des données sensibles aux violations de la vie privée, en passant par l'interruption de services critiques reposant sur le matériel d'IA périphérique. Par ailleurs, un matériel d'IA périphérique compromis peut servir de point d'entrée pour des attaques réseau de plus grande envergure, permettant aux acteurs malveillants d'infiltrer les systèmes connectés ou de lancer des cyberattaques à grande échelle.
Atténuation
Pour atténuer ces risques, mettez en œuvre des mesures de sécurité robustes, notamment : des fonctionnalités de sécurité au niveau matériel, des mises à jour régulières du micrologiciel et une surveillance complète pour détecter et empêcher les accès non autorisés ou les tentatives de falsification du matériel Edge AI.
Résumé
L'IA en périphérie (Edge AI) consiste à déployer des applications d'IA sur des appareils du monde physique, au plus près du lieu de génération des données, plutôt que de s'appuyer sur un cloud computing centralisé. Elle offre plusieurs avantages, tels qu'une faible latence, une confidentialité accrue, une réduction de la charge réseau et une diminution des coûts de transfert des données. Cependant, la nature décentralisée de l'IA en périphérie introduit de nouveaux risques de sécurité et de nouvelles surfaces d'attaque. Les principaux composants de l'IA en périphérie, notamment les modèles d'IA, les données, les applications d'IA et le matériel, doivent être sécurisés afin de prévenir tout accès non autorisé, toute utilisation abusive, toute falsification et tout vol. Les stratégies d'atténuation comprennent :
- Cryptage et intégration de modèles d'IA
- Cryptage des données
- Chiffrement en boîte blanche des clés cryptographiques
- Informatique confidentielle
- Sécuriser le transit des données sur les réseaux
- Mécanismes anti-falsification
- Mécanismes anti-levage de code
- Obfuscation de code
- Techniques d'analyse anti-dynamique
- Contrôles d'intégrité de la plateforme
- Fonctionnalités de sécurité au niveau matériel
La mise en œuvre de ces mesures est cruciale pour protéger les informations sensibles, garantir un déploiement responsable de l'IA, maintenir l'intégrité des données et safeProtection de la adresse IP dans les écosystèmes d'IA de périphérie.
Vous aimerez aussi
Ce que la presse traditionnelle ignore à propos de Mythos
Nous avons vu quelques histoires de cybersécurité faire leur apparition dans les médias grand public…
Attaques d'IA agentiques : l'agent Smith sort de sa retraite
Les auteurs d'attaques contre l'évolution sans nature continuent de repousser les limites de l'IA…
Combattre le feu par le feu : utiliser l'IA pour combattre l'IA
Les attaques d'applications ont atteint 83 % en janvier 2025, contre 65 % juste…