Alors que les applications d’intelligence artificielle deviennent de plus en plus sophistiquées, les préoccupations concernant les risques potentiels, notamment les menaces existentielles pour l’humanité, le chômage, la discrimination et les infractions au droit d’auteur, ont incité les législateurs du monde entier à élaborer des cadres réglementaires.
L’Union européenne, représentant 450 millions de citoyens à travers l’Europe, s’est imposée comme un leader dans cette course réglementaire. Vendredi dernier, les États membres ont signé l’Acte sur l’IA, convenu par le Conseil européen et le Parlement européen en décembre. Destiné à devenir loi cette année, l’Acte sur l’IA impose des limites significatives aux entreprises déployant des outils d’IA en Europe, influençant potentiellement le développement et l’utilisation mondiale de l’IA. Cependant, les fuites récentes du texte évolutif de l’acte et les préoccupations soulevées par les experts mettent en lumière des défis persistants.
Aperçu et Portée de l’Acte sur l’IA
L’Acte sur l’IA, l’une des plusieurs réglementations technologiques récentes de l’UE, aborde des problèmes critiques tels que l’interdiction des logiciels de reconnaissance des émotions sur les lieux de travail et dans les écoles, l’interdiction des systèmes de profilage racistes et discriminatoires, et l’établissement de lignes directrices éthiques pour le développement de l’IA. Selon Catalina Goanta, professeur associé à l’Université d’Utrecht, de telles réglementations visent un équilibre délicat entre la promotion de l’innovation et la protection des droits individuels, un défi accentué par l’évolution rapide du secteur technologique.
Réglementations en Évolution et Controverses
Les fuites du projet de l’Acte sur l’IA révèlent des amendements, notamment des exemptions pour les modèles d’IA open-source et des changements dans la définition des systèmes d’IA couverts. Alors que certains experts considèrent cela comme significatif, d’autres expriment des inquiétudes concernant les éventuels échappatoires et les interprétations larges des applications d’IA “à haut risque”. Claudio Novelli, chercheur en éthique et en droit numérique, met en garde contre des mesures susceptibles de décourager les entreprises d’IA ou d’étouffer l’innovation.
Défis de Mise en Œuvre et Implications Mondiales
La mise en œuvre de l’Acte sur l’IA pose des défis, avec des incertitudes concernant le rôle de l’Office européen de l’IA et les mécanismes de surveillance de la conformité. Michael Veale, professeur associé à l’University College London, souligne la dépendance potentielle à l’égard d’organismes privés pour l’application, soulevant des questions sur la responsabilité et l’efficacité. Malgré les défis, l’approche réglementaire de l’UE pourrait influencer les normes mondiales, incitant à l’adaptation par les entreprises d’IA du monde entier.