Rechercher
Fermer ce champ de recherche.

San Francisco accueille la première rencontre du Réseau International des Instituts de Sécurité de l’IA

Ingecom Ignition signe un accord avec Cyber Guru pour renforcer la sensibilisation à la cybersécurité en Espagne et au Portugal

La rencontre réunit des représentants de 10 pays pour discuter des risques et des avantages des systèmes avancés d’intelligence artificielle.

Les 20 et 21 novembre 2024, San Francisco est devenue l’épicentre de la collaboration mondiale en matière de sécurité de l’intelligence artificielle (IA) avec la première réunion du Réseau International des Instituts de Sécurité de l’IA. Cet événement historique a rassemblé des instituts et des bureaux gouvernementaux de pays tels que l’Australie, le Canada, la France, le Japon, le Kenya, la Corée du Sud, Singapour, le Royaume-Uni, les États-Unis et la Commission Européenne.

Un nouveau cadre pour la coopération internationale

Cette rencontre marque le début d’une nouvelle ère de coopération internationale en matière de sécurité de l’IA. L’initiative prend sa source dans la Déclaration d’intention de Séoul pour la coopération internationale en science de la sécurité de l’IA, présentée lors du Sommet de l’IA de Séoul le 21 mai 2024.

Le Réseau cherche à promouvoir une compréhension globale des risques associés aux systèmes avancés d’IA et à favoriser des solutions pour les atténuer. Dans sa Déclaration de mission, les membres soulignent que la coopération internationale est essentielle pour relever les défis de l’IA, stimuler l’innovation responsable et assurer que les bénéfices de cette technologie soient distribués de manière équitable à travers le monde.

Objectifs et priorités du Réseau

Le Réseau International des Instituts de Sécurité de l’IA se pose comme un forum de collaboration pour développer des stratégies de mitigation des risques et promouvoir des pratiques sûres dans la conception et l’utilisation de systèmes avancés d’IA. Ses objectifs sont regroupés en quatre domaines clés :

  1. Recherche : Collaborer avec la communauté scientifique pour approfondir l’étude des risques et capacités des systèmes d’IA avancés. Les découvertes seront partagées pour renforcer la science de la sécurité de l’IA.
  2. Tests : Établir et partager les bonnes pratiques pour évaluer les systèmes d’IA avancés, y compris des exercices conjoints et l’échange des apprentissages des évaluations nationales.
  3. Orientations : Développer des approches communes pour interpréter les résultats des tests, garantissant des réponses cohérentes et efficaces face aux risques potentiels.
  4. Inclusion : Impliquer des partenaires de toutes les régions dans les différentes étapes du développement, en partageant des outils et de l’information de manière accessible pour élargir la participation à la science de la sécurité de l’IA.

Engagement envers la diversité et la sécurité globale

Un des points forts du Réseau est son engagement envers la diversité culturelle et linguistique, fondamental pour aborder les risques de manière globale et promouvoir des solutions inclusives. De même, les membres cherchent à garantir que l’innovation en IA soit fiable, sûre et accessible, bénéficiant à l’ensemble de la société.

La collaboration technique entre les membres permettra non seulement d’atténuer les risques, mais aussi de guider le développement et le déploiement responsable des systèmes d’IA. Cela inclut le soutien à des pratiques de transparence, d’équité et de respect des droits de l’homme.

Le chemin vers une IA plus sûre et fiable

La création du Réseau International des Instituts de Sécurité de l’IA représente un progrès significatif vers l’alignement mondial en matière de sécurité de l’IA. Cet effort conjoint cherche à maximiser le potentiel de l’IA tout en minimisant ses risques, contribuant à un environnement technologique plus sûr et profitable pour tous.

Les participants à la réunion de San Francisco ont réitéré leur engagement à travailler ensemble pour assurer que les avancées en intelligence artificielle ne soient pas seulement sûres, mais aussi accessibles et éthiques, en promouvant un impact positif au niveau mondial.

source : Noticias inteligencia artificial