Dans une récente mise à jour de ses principes d’intelligence artificielle (IA), Google a supprimé l’une des restrictions les plus cruciales de sa précédente politique : l’interdiction explicite de développer des armements ou des technologies destinées à causer des dommages aux personnes. Selon une analyse effectuée par Actualités Intelligence Artificielle, ce changement implique l’élimination d’une section clé du document, soulevant des questions sur la position éthique de l’entreprise concernant l’utilisation de l’IA dans les domaines militaire et de surveillance.
Cette modification de la politique de Google s’inscrit dans une tendance croissante au sein de l’industrie technologique. En 2023, OpenAI a également ajusté sa position en supprimant certaines restrictions dans sa réglementation avant d’annoncer un partenariat avec le Pentagone. À présent, Google a mis à jour son cadre de principes relatifs à l’IA, éliminant une catégorie spécifique qui détaillait explicitement les applications qui ne seraient développées en aucun cas.
Google supprime la liste des applications interdites de son IA
Récemment, la politique de l’IA de Google comprenait une section intitulée « Applications d’IA que nous n’allons pas aborder », où l’entreprise détaillait explicitement les usages qu’elle éviterait dans ses développements technologiques. Cette liste comprenait :
- Des technologies pouvant causer des dommages significatifs, à moins que les bénéfices n’emportent largement sur les risques.
- Le développement d’armements ou de systèmes dont le but principal est de causer des dommages aux personnes.
- Systèmes de surveillance massive violant des normes internationales.
- Applications contraires aux droits humains et au droit international.
Avec cette récente mise à jour, cette section a disparu complètement. À la place, la nouvelle version des principes de Google mentionne simplement que l’entreprise s’efforcera de « mitiger les résultats non désirés ou nuisibles » et « de s’aligner sur des principes acceptés du droit international et des droits humains », sans établir de restrictions explicites sur le développement de l’IA pour des applications militaires.
Pourquoi Google a-t-il opéré ce changement ?
Ce changement dans la politique de l’IA de Google intervient dans un contexte d’intérêt croissant du secteur technologique pour les contrats gouvernementaux et militaires. Bien que l’entreprise ait précédemment évité de s’impliquer dans des projets avec le Département de la Défense des États-Unis, ces dernières années, sa participation aux appels d’offres pour des infrastructures technologiques destinées aux organismes de défense et de sécurité a augmenté.
Le Projet Maven et le précédent de Google
En 2017, Google avait collaboré avec le Pentagone dans le cadre du Projet Maven, une initiative qui utilisait l’IA pour traiter des images captées par des drones et aider à l’identification d’objectifs dans des zones de conflit. La révélation de cet accord avait déclenché une protestation massive parmi les employés, qui dénonçaient l’utilisation de la technologie de Google à des fins militaires. En conséquence, la société avait décidé de ne pas renouveler le contrat et avait renforcé son engagement à ne pas développer d’IA pour des armes.
Cependant, le changement des principes de l’IA de Google suggère une possible ouverture à ce type de collaboration à l’avenir. Ces dernières années, l’entreprise a travaillé avec des gouvernements sur des projets d’infrastructure cloud, d’analyse de données et de cybersécuritéLes solutions de cybersécurité sont essentielles dans l’ère di, ce qui pourrait indiquer une stratégie plus flexible concernant sa participation à des projets de défense.
La réponse de Google et le débat sur l’éthique de l’IA
“Nous reconnaissons la rapidité avec laquelle la technologie sous-jacente et le débat sur l’avancement, l’implémentation et l’utilisation de l’IA continueront d’évoluer. Nous continuerons d’adapter et de peaufiner notre approche à mesure que nous apprendrons tous avec le temps.” – Google IA
Bien que la déclaration souligne la nécessité d’une gestion responsable de l’IA, elle ne traite pas des raisons sous-jacentes à la suppression de l’interdiction d’applications militaires. Cela soulève des interrogations quant à savoir si l’entreprise prépare le terrain pour de nouveaux accords avec le Pentagone ou si elle a simplement choisi une position moins restrictive pour éviter des conflits dans de futures négociations.
Les implications du changement de politique de Google
Le changement dans les principes de l’IA de Google pourrait avoir diverses conséquences à court et à long terme :
1. Plus de flexibilité pour les contrats militaires
La suppression de la restriction contre le développement d’armements suggère que Google pourrait envisager de futurs accords avec le Pentagone ou d’autres gouvernements sur des projets d’IA avec des applications militaires. Bien que cela ne signifie pas nécessairement le développement d’armes létales, cela ouvre la porte à des collaborations dans le domaine de l’analyse de données, de la sécurité informatique et de l’automatisation militaire.
2. Réaction possible des employés
L’historique du Projet Maven a montré que les employés de Google ont une posture critique face à la participation de l’entreprise dans des initiatives militaires. Si Google avance sur de nouveaux contrats avec le Département de la Défense, il est probable qu’elle soit à nouveau confrontée à des protestations internes et des débats sur l’éthique de l’IA.
3. Régulation et supervision gouvernementale
Alors que l’IA devient un élément stratégique dans la défense et la sécurité nationale, il est probable que les gouvernements commencent à imposer des régulations plus strictes sur son utilisation. Tant aux États-Unis que dans l’Union européenne, des normes sont déjà en discussion pour contrôler le développement et l’application de l’IA dans les contextes militaires, ce qui pourrait affecter Google et d’autres entreprises technologiques.
4. Impact sur la concurrence dans le secteur
Si Google, qui avait précédemment refusé de collaborer avec le secteur militaire, modifie maintenant ses principes, d’autres entreprises technologiques comme Microsoft, Amazon et OpenAI pourraient suivre le même chemin. Cela ouvrirait une nouvelle phase de concurrence sur le marché de l’IA pour la défense et la sécurité, avec des contrats multimillionnaires en jeu.
Conclusion : Un changement stratégique avec des conséquences à long terme
La suppression de la restriction sur le développement d’IA pour armements dans la politique de Google marque un changement stratégique qui pourrait redéfinir son rôle dans le secteur de la défense. Bien que l’entreprise continue d’évoquer le respect des droits humains et du droit international, l’omission d’une interdiction explicite a suscité des inquiétudes au sein de la communauté technologique ainsi que parmi les experts en éthique de l’IA.
À un moment où l’intelligence artificielle devient un outil clé pour la sécurité mondiale, cette décision de Google pourrait influencer la posture d’autres grandes entreprises technologiques et l’évolution de l’IA dans le domaine militaire. À présent, l’attention se porte sur l’éventualité que l’entreprise annonce de nouveaux contrats avec le Pentagone et sur la façon dont ses employés réagiront à ce changement de cap.
Référence : IA Google et version ancienne des principes de l’IA Google sur le web archive