Meta se démarque du Code de conduite pour l’IA à usage général de l’UE : tensions croissantes entre innovation et régulation

La Commission de protection des données irlandaise inflige une amende de 91 millions d'euros à Meta

Dans un contexte de tensions croissantes entre Bruxelles et la Silicon Valley, Meta a officiellement annoncé qu’elle ne signera pas le Code de conduite pour l’intelligence artificielle à objectif général (GPAI) présenté par la Commission européenne le 10 juillet dernier. Bien que ce code soit volontaire et ne viole aucune loi, cette décision marque une opposition directe à un instrument conçu pour aider à respecter le règlement européen ambitieux sur l’IA, connu sous le nom d’AI Act, qui vise à encadrer le développement de l’intelligence artificielle sur le continent.

Joel Kaplan, responsable des affaires mondiales chez Meta, a déclaré que « l’Europe prend la mauvaise voie en matière d’IA ». Il a critiqué le code en affirmant qu’il introduisait « une incertitude juridique pour les développeurs » et comportait des mesures « allant au-delà du champ d’application de l’AI Act ». Cette position n’est pas nouvelle pour la société, qui s’est déjà élevée contre la législation communautaire, mais c’est la première fois qu’elle choisit de rejeter un cadre que d’autres acteurs du secteur considèrent comme un outil utile pour éviter des sanctions ou faciliter leur conformité réglementaire.

Le Code de conduite pour les modèles d’IA à objectif général est structuré en trois chapitres : la transparence, avec un formulaire standardisé pour documenter la formation et le fonctionnement des modèles ; les droits d’auteur, avec des indications pratiques pour respecter la législation européenne sur la propriété intellectuelle ; et la sécurité, qui s’adresse aux fournisseurs de systèmes avancés présentant un risque systémique, en proposant des bonnes pratiques pour prévenir des impacts négatifs.

Bien que non contraignant, ce code permet aux entreprises signataires de démontrer leur conformité à l’AI Act plus rapidement et avec une moindre charge administrative. La signature offre une meilleure prévisibilité juridique et réduit les risques liés à d’éventuelles sanctions pouvant atteindre jusqu’à 7 % du chiffre d’affaires annuel mondial en cas de non-respect.

Le refus de Meta s’inscrit également dans une stratégie globale visant à limiter ses obligations réglementaires en dehors des États-Unis. La société avait qualifié l’AI Act d’« excessif » et de « contre-productif », arguant qu’il pourrait retarder le lancement de nouveaux produits et freiner l’innovation. Pendant ce temps, Meta investit massivement dans sa division de « superintelligence », rivalisant avec OpenAI et Google DeepMind, en recrutant d’importants talents et en développant des modèles toujours plus puissants. Toutefois, en choisissant de ne pas se conformer au cadre européen, l’entreprise s’expose davantage à d’éventuelles enquêtes réglementaires, des litiges ou des restrictions en Union européenne, surtout si certains de ses modèles sont jugés à risque systémique.

Ce mouvement s’inscrit également dans une dimension géopolitique, la administration Trump, réélue en janvier, ayant exprimé son mécontentement face à l’AI Act en le qualifiant de « forme de taxation sur l’innovation ». En avril dernier, Washington a activement poussé Bruxelles à revoir ou relâcher cette réglementation, cherchant à aligner la position des États-Unis avec celle des grandes entreprises technologiques américaines.

Alors que d’autres acteurs comme Mistral, Aleph Alpha ou même Microsoft observent la situation avec prudence et envisagent une possible adhésion comme solution pragmatique, Meta privilégie une confrontation calculée avec les autorités européennes. Dans un contexte critique pour la gouvernance mondiale de l’intelligence artificielle, la posture d’un des acteurs les plus influents pourrait accentuer le fossé réglementaire transatlantique.

Reste à savoir jusqu’où Meta pourra ignorer les règles de Bruxelles sans en subir de conséquences et si l’Europe pourra, de son côté, imposer ses standards globaux en matière d’IA en l’absence de l’adhésion des géants américains. La réponse à ces questions reste encore à écrire, tout comme l’évolution de l’intelligence artificielle elle-même.

le dernier