[ad_1]
La race pour développer l’intelligence générale artificielle s’accélère, mais l’approche américaine pour l’assurer reste dangereusement inadéquate. Alors que Washington célèbre son nouveau «plan d’action de l’IA», qui défend un modèle de réglementation léger pour favoriser l’innovation, les services de renseignement chinois visent très probablement des laboratoires d’IA américains avec des opérations d’espionnage sophistiquées. Cette adoption officielle de la surveillance minimale ignore une réalité qui donne à réfléchir: la recherche d’IA la plus avancée du pays – la technologie même qui définira le prochain siècle de pouvoir mondial – reste de manière critique au vol et au sabotage.
Les mathématiques font réfléchir: il faut des années pour créer des centres de données sécurisés, établir des chaînes d’approvisionnement protégées et mettre en œuvre le type de garanties de qualité militaire qui pourraient résister aux acteurs déterminés de l’État-nation. Pendant ce temps, les principaux modèles d’IA progressent vers des capacités de niveau humain sur les délais mesurés en mois, pas aux années. Chaque jour, nous retardons la mise en œuvre de mesures de sécurité sérieuses est un autre jour où la recherche critique sur l’IA reste vulnérable au vol, au sabotage ou pire.
Les défenseurs d’une approche légère – les laboratoires et leurs lobbyistes, les décideurs politiques axés sur l’innovation et certains conservateurs – soutiennent que les entreprises ont déjà de fortes incitations à agir de manière responsable. Il n’y a pas besoin de réglementations onéreuses, soutiennent-ils, lorsque les entreprises veulent déjà éviter la domination chinoise et les catastrophes techniques (par exemple, la superintelligence mal alignée). Associez cela avec des contrôles à l’exportation pour ralentir les progrès de la Chine, et vous avez l’intégration d’une formule gagnante: laissez les États-Unis innover plus rapidement et gardez les systèmes les plus puissants des mains de Pékin.
Le PDG d’Anthropique, Dario Amodei, a récemment proposé un compromis: des exigences de transparence obligatoires qui obligeraient les laboratoires à divulguer les évaluations de la sécurité et les plans d’atténuation, tout en préservant leur liberté d’innover. Une norme fédérale serait une solution facile, dit-il, car elle «codifierait ce que font déjà de nombreux développeurs». C’est un terrain d’entente raisonnable pour un moment politiquement contraint. Mais la transparence ne peut à elle seule résoudre le problème fondamental que les laboratoires d’IA développant des systèmes potentiellement supentintelligents fonctionnent toujours comme des entreprises technologiques commerciales alors qu’elles devraient être traitées comme des actifs nationaux stratégiques. Dans cette course, les demi-mesures sont une formule d’échec stratégique.
Amodei a raison d’appeler à la divulgation et à la surveillance, mais sa proposition repose sur une hypothèse erronée: que la transparence seule peut gérer les menaces des systèmes d’IA qui peuvent un jour dépasser l’intelligence humaine. En tant que personne qui a beaucoup écrit sur les préjudices du secret excessif du gouvernement, j’apprécie profondément la transparence. Mais je comprends aussi ses limites comme une solution aux risques de sécurité nationale urgents auxquels nous sommes confrontés. Ceux-ci incluent le contrôle et l’alignement, et l’acteur malveillant menace qu’Amodei présente comme exemples de dangers d’IA. Le moins est aussi important que la possibilité très réelle développe une intelligence générale artificielle avancée avant les États-Unis. Cela permettrait à Pékin d’atteindre la supériorité militaire et économique, ce qui lui donne un monopole stratégique sur le pouvoir mondial. Il pourrait le faire plus ou moins seul, ou il pourrait y parvenir par l’espionnage et / ou le sabotage. Nous avons des preuves détaillées montrant des efforts chinois persistants pour voler la propriété intellectuelle, notamment des principales entreprises technologiques construisant des modèles d’IA frontaliers.
Alors que les choses sont maintenant, les principaux laboratoires AI «sont l’équivalent de sécurité du fromage suisse». Le rapport d’avril 2025 de Gladstone AI, écrit avec un accès intérieur extraordinaire probablement en raison de sa relation avec le gouvernement fédéral, documente des vulnérabilités importantes à tous les niveaux de développement de modèles: attaques qui pourraient paralyser les centres de données pour moins de 20 000 $; Les pièces chinoises offrant des opportunités d’accès et de sabot à la porte arrière, sans options alternatives en raison de la domination par la Chine de la chaîne d’approvisionnement matérielle; Les capacités chinoises de l’intelligence humaine et signale, qui donnent probablement déjà accès à la propriété intellectuelle d’une importance extrêmement importante, y compris les poids et les architectures du modèle.
Un exemple du rapport décrit «une attaque qui permet aux pirates de reconstruire l’architecture d’un petit modèle d’IA en utilisant rien d’autre que le profil de consommation d’énergie du matériel qui l’exécute.» Des «attaques d’extraction d’informations» beaucoup plus fortes utilisant des «signaux électromagnétiques, sonores ou vibrationnelles» sont également disponibles. Au-delà du cauchemar stratégique de la Chine, réalisant un monopole avancé de l’intelligence générale artificielle, les conséquences d’une telle violation de la sécurité pourraient être immédiates et catastrophiques pour les Américains, ciblant potentiellement tout, des marchés financiers aux infrastructures critiques. Alors que la Chine reste le principal concurrent de l’Amérique pour l’IA et d’autres domaines, les services de renseignement très compétents de la Russie pourraient également voler des secrets et faire des ravages pour aller de l’avant.
Comme l’a dit publiquement Amodei, la menace de l’espionnage industriel chinois est une préoccupation principale pour la direction des laboratoires d’IA. Ce n’est pas une menace lointaine – c’est un siège actif. Depuis des années, le FBI a sonné l’alarme, l’ancien réalisateur Chris Wray avertissant que la campagne de vol de la Chine est «plus effrontée, plus dommageable que jamais», forçant le Bureau à ouvrir une nouvelle enquête sur la contre-espionnage liée à la Chine «toutes les 12 heures». Alors que les autorités fédérales ont obtenu des succès notables – comme le récent acte d’accusation d’un ressortissant chinois pour un complot présumé pour voler la technologie de l’IA propriétaire de Google – ces actions sont fondamentalement réactives. Ils révèlent une stratégie de capture d’espions après avoir déjà pénétré les portes, ce qui est inadéquat lorsque l’objectif devrait être d’empêcher le vol de la technologie définissant la nation en premier lieu.
La proposition d’Amodei pourrait être politiquement viable à court terme. Avec la réglementation des républicains aux droits de contrôle de la Maison Blanche et du Congrès, la notion de requises de transparence limitée apparaît comme un compromis raisonnable, «la meilleure façon d’équilibrer les considérations en jeu». Mais la transparence ne peut pas protéger les laboratoires d’IA contre l’espionnage chinois et le sabotage. Les laboratoires travaillant vers l’intelligence générale artificielle avancée ne sont pas seulement des entités commerciales, comme les entreprises pharmaceutiques, où la divulgation et la sécurité des produits sont les principaux objectifs réglementaires. Ils ressemblent davantage à des installations nucléaires privées ou à des laboratoires de bio-armes, des sites d’importance nationale stratégique. Les normes de divulgation et la surveillance post-hoc sont loin d’être suffisantes. Le problème n’est pas seulement que les laboratoires AI ne sont pas sûrs. C’est qu’ils sont traités comme des entreprises commerciales lorsqu’elles fonctionnent déjà comme des sites stratégiques ciblés par des services de renseignement rivaux. Le coup léger, avec ou sans exigences de transparence, est fondamentalement mal aligné avec le risque national. Demander aux entreprises commerciales de se défendre contre un adversaire déterminé au niveau de l’État est une recette d’échec.
Bien qu’un «programme de type projet de Manhattan» puisse ne pas être nécessaire, l’approche actuelle est intenable. Ce dont nous avons besoin maintenant, c’est un cadre de gouvernance des risques à plusieurs niveaux qui distingue les niveaux de danger et évolue les exigences réglementaires en conséquence. Les modèles à faible risque resteraient non réglementés, avec une divulgation publique minimale requise, peut-être suffisamment pour permettre la surveillance de la société civile. Les modèles à risque intermédiaire pourraient opérer sous un régime de transparence obligatoire, d’évaluations de la sécurité et de secre de l’État pour des actifs particulièrement sensibles (par exemple, des poids du modèle, de nouveaux algorithmes et architectures). Les modèles à haut risque nécessiteraient quelque chose de plus proche de la gouvernance de qualité militaire. Cela comprend non seulement des garanties techniques telles que des centres de données sécurisés, au gouvernement et un nouveau système de classification qui traite les modèles et les méthodes pour les construire en tant que secrets d’État, mais également des protocoles de sécurité du personnel rigoureux. Le personnel nécessiterait non seulement une vérification fédérale et une autorisation, mais également une formation continue, la participation à des programmes de sensibilisation aux menaces d’initié et la culture d’une culture d’abord en sécurité. Les seuils seraient basés sur des facteurs tels que la prise de décision autonome, les capacités de planification stratégique, la préservation des objectifs dans des conditions contradictoires et le potentiel à double usage. Pour faire les distinctions, la Maison Blanche devrait convoquer un groupe de travail composé de dirigeants de laboratoire, d’informaticiens indépendants et de professionnels de la sécurité nationale de la communauté du renseignement, du ministère de la Défense, du ministère de l’Énergie et de l’Agence de sécurité de la cybersécurité et des infrastructures.
Le passage du coup léger à la gouvernance des risques à plusieurs niveaux fera face à une résistance politique, en particulier dans l’environnement actuel. Cependant, le cadrage de la sécurité nationale peut attirer suffisamment de soutien des législateurs soucieux de la défense pour rendre les progrès possibles, d’autant plus que le Congrès est déjà aux prises avec l’ampleur de cette menace dans les audiences sur le vol systématique de la technologie américaine de la Chine, y compris l’IA avancée. Surtout, cette approche recadreait les dépenses de sécurité non comme un fardeau réglementaire, mais en tant que co-investissement stratégique du gouvernement, renforçant financièrement les principaux laboratoires de l’IA par le biais de partenariats fédéraux tout en laissant la grande majorité du développement de l’IA non réglementé
Ce ne sont pas des propositions radicales. Nous traitons déjà les installations nucléaires et les cyber-armes avec ce niveau de précaution. Les enjeux stratégiques de l’IA avancée ne sont pas moins graves, et le moment d’agir est maintenant. La loi bipartite de préparation à la sécurité de l’IA avancée proposée est une première étape essentielle. Alors que le projet de loi tâche à juste titre, le centre de sécurité de l’IA de la NSA avec la conception d’un livre de jeu de sécurité de l’IA pour lutter contre les vulnérabilités, la détection des menaces, les stratégies de sécurité et de sécurité physique et les plans d’urgence pour les systèmes d’IA hautement sensibles », son succès dépendra de la coopération avec les sols du FBI. L’adoption de ce projet de loi serait un acompte critique sur le Frame de sécurité robuste dont America a besoin.
Jason Ross Arnold est professeur et président des sciences politiques à la Virginia Commonwealth University, avec une nomination affiliée au département d’informatique. Il est l’auteur de Secrecy in the Sunshine Era: The Promise and défaillance des lois du gouvernement ouvert américaines (2014), des dénonciateurs, des fuites et leurs réseaux, de Snowden à Samizdat (2019), et des menaces incertaines: le FBI, la nouvelle gauche et l’intelligence de la guerre froide (à venir, 2025).
Image: Midjourney
[ad_2]
Source link

