À mesure que l’intelligence artificielle (IA) continue de progresser rapidement, les gouvernements du monde entier sont confrontés à des défis complexes pour formuler et mettre en œuvre des réglementations régissant son utilisation. Le développement de l’IA, y compris le ChatGPT soutenu par Microsoft, soulève des préoccupations en matière de confidentialité, de sécurité et d’éthique. Voici un aperçu complet des dernières mesures prises par les organes gouvernementaux nationaux et internationaux pour réguler les outils d’IA.
AUSTRALIE
Réglementation en cours
L’Australie a annoncé son intention de rédiger de nouveaux codes visant à empêcher le partage de matériel pédopornographique généré par l’IA et la production de deepfakes de ce même matériel. L’autorité de régulation d’Internet du pays a révélé cette initiative le 8 septembre.
ROYAUME-UNI
Réglementation en cours
Au Royaume-Uni, l’organisme de surveillance des données a émis un avis d’exécution préliminaire à l’encontre de Snapchat de Snap Inc. le 10 octobre. Cet avis concerne les inquiétudes quant aux risques pour la vie privée posés par le chatbot génératif de l’entreprise, en particulier pour les enfants. De plus, l’autorité de la concurrence du pays a établi sept principes le 18 septembre pour garantir la responsabilité des développeurs, prévenir les pratiques monopolistiques des géants de la technologie et mettre un terme à des comportements anticoncurrentiels tels que le regroupement. Ces principes façonneront l’approche du Royaume-Uni en matière de réglementation de l’IA à mesure qu’il acquiert de nouveaux pouvoirs pour superviser les marchés numériques.
CHINE
Réglementation temporaire en place
La Chine a mis en place des mesures temporaires à partir du 15 août, obligeant les fournisseurs de services à passer des évaluations de sécurité et à obtenir une autorisation avant de lancer des produits d’IA grand public.
UNION EUROPÉENNE
Réglementation en cours
Dans l’Union européenne, des négociations sont en cours pour l’Acte sur l’IA, dirigées par le législateur de l’UE Brando Benifei. Le 21 septembre, il a exhorté les pays membres à parvenir à des compromis dans des domaines clés pour finaliser les règles de base, qui deviendront finalement une législation. La présidente de la Commission européenne, Ursula von der Leyen, a appelé le 13 septembre à la création d’un groupe mondial chargé d’évaluer les risques et les avantages de l’IA.
FRANCE
Enquête sur des violations potentielles
L’organisme de protection de la vie privée de la France a lancé une enquête en avril suite à des plaintes concernant ChatGPT.
G7
Consultation sur la réglementation
Les dirigeants du G7 ont appelé en mai au développement et à l’adoption de normes techniques pour garantir la fiabilité de l’IA.
ITALIE
Enquête sur des violations potentielles
L’autorité italienne de protection des données a prévu de passer en revue les plateformes d’IA et d’embaucher des experts en la matière. ChatGPT a été temporairement interdit dans le pays en mars, mais il a été de nouveau autorisé en avril.
JAPON
Enquête sur des violations potentielles
Le Japon prévoit d’introduire des réglementations d’ici la fin de 2023, avec une approche réglementaire plus proche de celle des États-Unis que des règles strictes prévues par l’UE. L’organisme de protection de la vie privée du pays a averti OpenAI de ne pas collecter de données sensibles sans le consentement des personnes.
POLOGNE
Enquête sur des violations potentielles
Le Bureau de protection des données personnelles de la Pologne a annoncé le 21 septembre qu’il enquêtait sur OpenAI pour des allégations selon lesquelles ChatGPT enfreint les lois de protection des données de l’UE.
ESPAGNE
Enquête sur des violations potentielles
L’agence espagnole de protection des données a lancé une enquête préliminaire en avril sur d’éventuelles violations de données par ChatGPT.
NATIONS UNIES
Réglementation en cours
Le Conseil de sécurité des Nations unies a tenu sa première discussion formelle sur l’IA en juillet, abordant les applications militaires et non militaires de l’IA, qui “pourraient avoir des conséquences très graves pour la paix et la sécurité mondiales”, a déclaré le Secrétaire général Antonio Guterres. Guterres a également soutenu la proposition de certains dirigeants de l’IA de créer une instance de régulation de l’IA et a annoncé des plans pour mettre en place un organe consultatif de haut niveau sur l’IA d’ici la fin de l’année.
ÉTATS-UNIS
Consultation sur la réglementation
Aux États-Unis, le Congrès a organisé des audiences sur l’IA du 11 au 13 septembre, avec la participation du PDG de Meta, Mark Zuckerberg, et du PDG de Tesla, Elon Musk. Plus de 60 sénateurs ont pris part aux discussions, au cours desquelles Musk a plaidé en faveur d’un “arbitre” américain pour l’IA. Les législateurs ont souligné un consensus sur la nécessité de réglementer l’IA par le gouvernement. Le 12 septembre, la Maison Blanche a annoncé qu’Adobe, IBM, Nvidia et cinq autres entreprises avaient signé des engagements volontaires régissant l’utilisation de l’IA, notamment des mesures telles que le marquage des contenus générés par l’IA. En août, un juge du district de Washington D.C. a statué que des œuvres d’art créées par l’IA sans aucune contribution humaine ne pouvaient pas être protégées par le droit d’auteur en vertu de la loi américaine. Par ailleurs, en juillet, la Federal Trade Commission des États-Unis a ouvert une enquête sur OpenAI pour des allégations de violation des lois sur la protection des consommateurs.