Google a lancé le Cadre IA Sécurisé (SAIF), un cadre conceptuel destiné à sécuriser la technologie de l’intelligence artificielle (IA). Avec l’avancement rapide de l’IA, le cadre vise à établir des normes de sécurité dans toute l’industrie pour le développement et la mise en œuvre responsable de ces technologies.
Le SAIF est conçu pour s’attaquer aux risques spécifiques des systèmes d’IA, tels que le vol de modèles, l’empoisonnement des données d’entraînement, l’injection d’instructions malveillantes et l’extraction d’informations confidentielles. En fournissant une approche structurée, Google cherche à protéger ces systèmes et à assurer que les applications d’IA soient sécurisées par défaut.
Les six piliers du SAIF
- Renforcer les bases de sécurité dans l’écosystème IA
Le cadre recommande d’utiliser des protections d’infrastructure sécurisée par défaut, développées au cours de deux décennies. Il suggère également d’adapter les atténuations aux menaces évolutives de l’IA, comme l’injection d’instructions. - Étendre la détection et la réponse pour inclure les menaces d’IA
La détection opportune et la capacité de réponse aux incidents liés à l’IA est cruciale. Google suggère d’intégrer l’intelligence de la menace pour anticiper les attaques, en collaborant avec des équipes spécialisées dans la confiance et la sécurité. - Automatiser les défenses pour s’adapter aux menaces nouvelles et existantes
L’utilisation de l’IA pour répondre aux incidents de sécurité peut augmenter la vitesse et l’échelle des défenses. Cette approche cherche à égaler la vitesse des attaquants qui peuvent également utiliser l’IA. - Unifier les contrôles au niveau de la plateforme pour assurer la cohérence
Standardiser les contrôles de sécurité aide à atténuer les risques sur différentes plateformes, assurant des protections évolutives pour toutes les applications d’IA au sein de l’organisation. - Adapter les contrôles pour offrir des réponses plus rapides et des cycles de rétroaction
Par des tests continus et un apprentissage constant, les organisations peuvent ajuster leurs stratégies d’atténuation et améliorer leurs modèles pour faire face aux menaces émergentes. - Contextualiser les risques dans les processus d’affaires
Réaliser des évaluations de risque complètes permet aux organisations d’évaluer l’impact de leurs systèmes d’IA et d’établir des contrôles qui garantissent la sécurité opérationnelle et l’intégrité des données.
Mise en œuvre et prochaines étapes
Google prévoit de travailler avec des organisations, des clients et des gouvernements pour encourager la compréhension et l’application du SAIF. Il collaborera également au développement de normes de sécurité spécifiques à l’IA, telles que le Cadre de gestion des risques IA du NIST et la norme ISO/IEC 42001 Système de gestion de l’IA.
Ce cadre représente une première étape vers une communauté IA sécurisée, avec l’engagement de continuer à développer des outils et à collaborer pour parvenir à une IA sûre et bénéfique pour tous.