S’engager avec la communauté technologique n’est pas «une bonne chose à avoir» pour les décideurs de la défense – il est «absolument indispensable de faire engager cette communauté dès le départ dans la conception, le développement et l’utilisation des cadres qui guideront la sécurité et la sécurité des systèmes et capacités de l’IA», a déclaré Gosia Loy, co-chef de la recherche de l’ONU pour la recherche sur le désarmement (UNIDIR).
S’exprimant lors de la récente conférence mondiale sur la sécurité et l’éthique de l’IA organisées par l’UNIDIR à Genève, elle a souligné l’importance de l’érection de garde-corps efficace alors que le monde navigue sur ce qui est souvent appelé le «moment d’Oppenheimer» de l’IA le plus connu pour son rôle pivot dans la création du bombe atomique.
Une surveillance est nécessaire pour que les développements de l’IA respectent les droits de l’homme, le droit international et l’éthique – en particulier dans le domaine des armes guidées par l’IA – pour garantir que ces technologies puissantes se développent de manière contrôlée et responsable, a insisté le responsable d’Unidir.
Technologie imparfait
L’IA a déjà créé un dilemme de sécurité pour les gouvernements et les militaires du monde entier.
La nature à double usage des technologies de l’IA – où elles peuvent être utilisées dans des milieux civils et militaires – signifie que les développeurs pourraient perdre le contact avec les réalités des conditions du champ de bataille, où leur programmation pourrait coûter des vies, a averti Arnaud Valli, chef des affaires publiques à Comand AI.
Les outils sont encore à leurs balbutiements, mais ont longtemps alimenté les craintes de pouvoir être utilisées pour prendre des décisions de vie ou de mort dans un cadre de guerre, supprimant la nécessité d’une prise de décision et d’une responsabilité humaines. Par conséquent, les appels croissants à la réglementation, pour s’assurer que les erreurs sont évitées, ce qui pourrait entraîner des conséquences désastreuses.
«Nous voyons ces systèmes échouer tout le temps», a déclaré David Sully, PDG de la société londonienne Advai, ajoutant que les technologies restent «très peu robustes».
“Donc, les faire mal tourner n’est pas aussi difficile que les gens le pensent parfois”, a-t-il noté.
Une responsabilité partagée
Chez Microsoft, les équipes se concentrent sur les principes de base de la sécurité, de la sécurité, de l’inclusion, de l’équité et de la responsabilité, a déclaré Michael Karimian, directeur de la diplomatie numérique.
Le géant américain de la technologie fondé par Bill Gates établit des limites à la technologie de reconnaissance faciale en temps réel utilisée par les forces de l’ordre qui pourraient causer des dommages mentaux ou physiques, a expliqué M. Karimian.
Des garanties claires doivent être mises en place et les entreprises doivent collaborer pour briser les silos, a-t-il déclaré à l’événement à l’ONU Genève.
«L’innovation n’est pas quelque chose qui se produit au sein d’une seule organisation. Il est responsable de partager», a déclaré M. Karimian, dont l’entreprise s’associe à UNIDIR pour garantir la conformité de l’IA avec les droits de l’homme internationaux.
Paradoxe de surveillance
Une partie de l’équation est que les technologies évoluent à un rythme si rapidement, les pays ont du mal à suivre.
«Le développement de l’IA dépasse notre capacité à gérer ses nombreux risques», a déclaré Sula Nur Abdullah, qui est chef de la planification stratégique et conseiller spécial du secrétaire général de l’Union internationale des télécommunications (UIT).
“Nous devons aborder le paradoxe de la gouvernance de l’IA, reconnaissant que les réglementations sont parfois à la traîne de la technologie en font un must pour le dialogue continu entre les experts politiques et les experts techniques pour développer des outils pour une gouvernance efficace”, a déclaré Mme Abdullah, ajoutant que les pays en développement doivent également obtenir un siège à la table.
Lacunes de responsabilité
Il y a plus d’une décennie en 2013, le célèbre expert des droits de l’homme Christof Heyns dans un rapport sur la robotique autonome létale (LARS) a averti que «la sortie des humains de la boucle risque également de retirer l’humanité de la boucle».
Aujourd’hui, il n’est pas moins difficile de traduire les jugements juridiques dépendants du contexte dans un logiciel et il est toujours crucial que les décisions de «vie et de la mort» soient prises par les humains et non les robots, a insisté Peggy Hicks, directeur de la Division du droit au développement du Bureau des droits de l’ONU (OHCHR).
Société miroir
Alors que les grands dirigeants de la technologie et de la gouvernance voient en grande partie un œil sur les principes directeurs des systèmes de défense de l’IA, les idéaux peuvent être en contradiction avec les résultats des entreprises.
«Nous sommes une entreprise privée – nous recherchons également la rentabilité», a déclaré M. Valli de Comand AI.
“La fiabilité du système est parfois très difficile à trouver”, a-t-il ajouté. “Mais lorsque vous travaillez dans ce secteur, la responsabilité pourrait être énorme, absolument énorme.”
Défis sans réponse
Alors que de nombreux développeurs s’engagent à concevoir des algorithmes qui sont «justes, sécurisés, robustes» selon M. Sully – il n’y a pas de feuille de route pour mettre en œuvre ces normes – et les entreprises peuvent même ne pas savoir exactement ce qu’ils essaient de réaliser.
Ces principes «dictent tous comment l’adoption devrait avoir lieu, mais elles n’expliquent pas vraiment comment cela devrait se produire», a déclaré M. Sully, rappelant aux décideurs politiques que «l’IA en est encore aux premiers stades».
Les grandes technologies et les décideurs politiques doivent zoomer et réfléchir sur la vue d’ensemble.
“Ce qui est la robustesse pour un système est un objectif incroyablement technique et vraiment difficile à déterminer et il est actuellement sans réponse”, a-t-il poursuivi.
Non, vous avez des “ empreintes digitales ”
M. Sully, qui s’est décrit comme un «grand partisan de la réglementation» des systèmes d’IA, a utilisé pour travailler pour l’organisation complète du traité de bane nucléaire non obligé à Vienne, qui surveille si les essais nucléaires ont lieu.
Mais l’identification des armes guidées par l’IA, dit-il, pose un tout nouveau défi que les bras nucléaires – portant des signatures médico-légales – ne le font pas.
“Il y a un problème pratique en ce qui concerne la façon dont vous contrôlez une sorte de réglementation au niveau international”, a déclaré le PDG. “C’est le morceau que personne ne veut aborder. Mais jusqu’à ce que cela ne s’adresse pas … Je pense que ce sera un énorme obstacle énorme.”
Future sauvegarde
Les délégués de la conférence Unidir ont insisté sur la nécessité d’une prévoyance stratégique, pour comprendre les risques posés par les technologies de pointe qui sont actuellement nés.
Pour Mozilla, qui forme la nouvelle génération de technologues, les futurs développeurs «devraient être conscients de ce qu’ils font avec cette technologie puissante et ce qu’ils construisent», a insisté M. Elias de l’entreprise.
Des universitaires comme Moses B. Khanyile de l’Université de Stellenbosch en Afrique du Sud pensent que les universités ont également une «responsabilité suprême» de protéger les valeurs éthiques de base.
Les intérêts des militaires – les utilisateurs prévus de ces technologies – et les gouvernements en tant que régulateurs doivent être «harmonisés», a déclaré le Dr Khanyile, directeur de l’unité de recherche sur l’intelligence artificielle de la défense à l’Université de Stellenbosch.
«Ils doivent voir la technologie de l’IA comme un outil pour de bon, et donc ils doivent devenir une force pour de bon.»
Pays engagés
Interrogé sur quelle action unique ils prendraient pour renforcer la confiance entre les pays, les diplomates de Chine, les Pays-Bas, le Pakistan, la France, l’Italie et la Corée du Sud ont également pesé.
«Nous devons définir une ligne de sécurité nationale en termes de contrôle des exportations des technologies de haute technologie», a déclaré Shen Jian, ambassadeur extraordinaire et plénipotentiaire (désarmement) et représentant permanent adjoint de la République populaire de Chine.
Les voies de la recherche et du développement futurs de l’IA doivent également inclure d’autres domaines émergents tels que la physique et les neurosciences.
“L’IA est compliquée, mais le monde réel est encore plus compliqué”, a déclaré Robert dans Den Bosch, ambassadeur du désarmement et représentant permanent des Pays-Bas à la Conférence sur le désarmement. “Pour cette raison, je dirais qu’il est également important de regarder l’IA dans la convergence avec d’autres technologies et en particulier le cyber, le quantum et l’espace.”