L’intelligence artificielle (IA) est un label qui peut couvrir un giant éventail d’activités liées aux machines effectuant des tâches avec ou sans intervention humaine. Notre compréhension des applied sciences d’IA dépend largement de l’endroit où nous les rencontrons, des outils de reconnaissance faciale et chatbots aux logiciels de retouche photograph et aux voitures autonomes.
Si vous pensez à l’IA, vous pourriez penser aux entreprises technologiques, depuis les géants existants tels que Google, Meta, Alibaba et Baidu, jusqu’aux nouveaux acteurs tels que OpenAI, Anthropic et d’autres. Moins visibles sont les gouvernements du monde, qui façonnent le paysage des règles dans lesquelles les systèmes d’IA fonctionneront.
Depuis 2016, les régions et pays férus de technologie d’Europe, d’Asie-Pacifique et d’Amérique du Nord ont établi des réglementations ciblant les applied sciences d’IA. (L’Australie est à la traîne et étudie toujours la possibilité de telles règles.)
Il existe actuellement plus de 1 600 politiques et stratégies en matière d’IA dans le monde. L’Union européenne, la Chine, les États-Unis et le Royaume-Uni sont devenus des figures déterminantes dans le développement et la gouvernance de l’IA dans le paysage mondial.
Renforcer la réglementation sur l’IA
Les efforts de réglementation de l’IA ont commencé à s’accélérer en avril 2021, lorsque l’UE a proposé un premier cadre de réglementation appelé AI Act. Ces règles visent à fixer des obligations pour les fournisseurs et les utilisateurs, en fonction de divers risques associés aux différentes applied sciences d’IA.
Alors que la loi européenne sur l’IA était en attente, la Chine a proposé sa propre réglementation sur l’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur désir d’être les premiers et d’offrir un management mondial en matière de développement et de gouvernance de l’IA.
Lire la suite : Les appels à réglementer l’IA se font de plus en plus forts. Mais remark réglementer exactement une technologie comme celle-ci ?
Alors que l’UE a adopté une approche globale, la Chine a réglementé les uns après les autres certains features spécifiques de l’IA. Celles-ci vont des recommandations algorithmiques à la technologie de synthèse profonde ou « deepfake » et à l’IA générative.
Le cadre complet de la Chine pour la gouvernance de l’IA sera constitué de ces politiques et d’autres à venir. Le processus itératif permet aux régulateurs de développer leur savoir-faire bureaucratique et leur capacité de régulation, et leur laisse la flexibilité nécessaire pour mettre en œuvre une nouvelle législation face aux risques émergents.
Un appel au réveil’
La réglementation chinoise sur l’IA a peut-être été un sign d’alarme pour les États-Unis. En avril, l’influent législateur Chuck Shumer a déclaré que son pays ne devrait « pas permettre à la Chine de prendre la tête de l’innovation ou d’écrire les règles de la route » pour l’IA.
Le 30 octobre 2023, la Maison Blanche a publié un décret sur une IA sûre, sécurisée et digne de confiance. L’ordre tente d’aborder des questions plus larges d’équité et de droits civils, tout en se concentrant également sur des purposes spécifiques de la technologie.
Lire la suite : Les États-Unis viennent de prendre l’motion la plus ferme jamais menée au monde en matière de réglementation de l’IA. Voici à quoi s’attendre
Aux côtés des acteurs dominants, des pays dont le secteur informatique est en croissance, notamment le Japon, Taiwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont également cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels associés à l’intégration généralisée de l’IA.
Les réglementations mondiales en matière d’IA reflètent une course contre l’affect étrangère. À l’échelle géopolitique, les États-Unis sont en concurrence économique et militaire avec la Chine. L’UE met l’accent sur l’établissement de sa propre souveraineté numérique et la lutte pour l’indépendance vis-à-vis des États-Unis.
Au niveau nationwide, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques historiques par rapport aux concurrents émergents. En effet, il est souvent coûteux de se conformer à la législation, ce qui nécessite des ressources qui manquent parfois aux petites entreprises.
Alphabet, Meta et Tesla ont soutenu les appels en faveur d’une réglementation de l’IA. Dans le même temps, Google, propriété d’Alphabet, s’est joint à Amazon pour investir des milliards dans le concurrent d’OpenAI, Anthropic, et xAI, du patron de Tesla, Elon Musk, vient de lancer son premier produit, un chatbot appelé Grok.
Imaginative and prescient partagée
La loi européenne sur l’IA, la réglementation chinoise sur l’IA et le décret de la Maison Blanche témoignent d’intérêts partagés entre les nations concernées. Ensemble, ils ont préparé le terrain pour la « déclaration de Bletchley » de la semaine dernière, dans laquelle 28 pays, dont les États-Unis, le Royaume-Uni, la Chine, l’Australie et plusieurs membres de l’UE, se sont engagés à coopérer en matière de sécurité de l’IA.
Les pays ou régions considèrent l’IA comme un contributeur à leur développement économique, à leur sécurité nationale et à leur management worldwide. Malgré les risques reconnus, toutes les juridictions tentent de soutenir le développement et l’innovation de l’IA.
Lire la suite : La couverture médiatique de l’intelligence artificielle reflète le battage médiatique des entreprises et du gouvernement – et non les voix critiques
D’ici 2026, les dépenses mondiales consacrées aux systèmes centrés sur l’IA pourraient dépasser 300 milliards de {dollars}, selon une estimation. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait à lui seul valoir 1 300 milliards de {dollars}.
Des chiffres comme ceux-ci, ainsi que les discussions sur les avantages perçus de la half des entreprises technologiques, des gouvernements nationaux et des sociétés de conseil, ont tendance à dominer la couverture médiatique de l’IA. Les voix critiques sont souvent mises de côté.
Des intérêts concurrents
Au-delà des avantages économiques, les pays se tournent également vers les systèmes d’IA pour des purposes de défense, de cybersécurité et militaires.
Lors du sommet britannique sur la sécurité de l’IA, les tensions internationales étaient évidentes. Même si la Chine était d’accord avec la déclaration de Bletchley faite le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.
Un level de désaccord concerne le système de crédit social chinois, qui fonctionne avec peu de transparence. La loi européenne sur l’IA considère les systèmes de notation sociale de ce sort comme créant un risque inacceptable.
Les États-Unis perçoivent les investissements chinois dans l’IA comme une menace pour la sécurité nationale et économique des États-Unis, notamment en termes de cyberattaques et de campagnes de désinformation.
Ces tensions sont susceptibles d’entraver la collaboration mondiale sur des réglementations contraignantes en matière d’IA.
Les limites des règles actuelles
Les réglementations existantes en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas d’ensemble clair et commun de définitions des différents varieties de applied sciences d’IA dans les réglementations actuelles des différentes juridictions.
Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur caractère pratique. Ce giant champ d’utility signifie que la réglementation couvre un giant éventail de systèmes qui présentent des risques différents et peuvent mériter des traitements différents. De nombreuses réglementations manquent de définitions claires du risque, de la sécurité, de la transparence, de l’équité et de la non-discrimination, ce qui pose des problèmes pour garantir une conformité juridique précise.
Lire la suite : Avons-nous besoin d’une nouvelle loi pour l’IA ? Bien sûr – mais nous pourrions d’abord essayer d’appliquer les lois que nous avons déjà
Nous voyons également les juridictions locales lancer leurs propres réglementations dans les cadres nationaux. Celles-ci peuvent répondre à des préoccupations spécifiques et contribuer à équilibrer la réglementation et le développement de l’IA.
La Californie a présenté deux projets de loi visant à réglementer l’IA dans l’emploi. Shanghai a proposé un système de notation, de gestion et de supervision du développement de l’IA au niveau municipal.
Cependant, une définition étroite des applied sciences d’IA, comme l’a fait la Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.
Avancer
Des ensembles de « meilleures pratiques » pour la gouvernance de l’IA émergent des juridictions locales et nationales et des organisations transnationales, sous la supervision de groupes tels que le conseil consultatif de l’IA de l’ONU et le Nationwide Institute of Requirements and Expertise des États-Unis. Les cadres de gouvernance de l’IA existants au Royaume-Uni, aux États-Unis, dans l’UE et – dans une mesure limitée – en Chine sont susceptibles d’être considérés comme des lignes directrices.
La collaboration mondiale sera étayée à la fois par un consensus éthique et, plus essential encore, par des intérêts nationaux et géopolitiques.