Un bouton pour stopper une IA qui s'emballe ? Les "kill switch" attisent craintes et fantasmes
La Californie a agacé les géants de l’intelligence artificielle ces derniers mois. Son projet de régulation avait mis en lumière l'idée de kill switch, sortes de disjoncteurs théoriquement capables d’arrêter une intelligence artificielle qui se mettrait à dérailler. Le gouverneur californien a finalement mis son véto. Mais l’idée du kill switch, elle, reste vivace. Elle flotte plus que jamais dans l’air alors que s'accélèrent les préparatifs du Sommet mondial pour l'action sur l'IA qui se tiendra à Paris en février 2025.
Mettre en place un tel dispositif n’aurait pourtant rien d’évident. Le définir est un exercice délicat, sur lequel tous les acteurs ne s’accordent pas. Avant le projet de loi californien, les grandes entreprises du secteur avaient accepté de signer des garanties de sécurité. Elles s’étaient ainsi engagées à "ne pas développer ou déployer un modèle si des mesures d’atténuation ne pouvaient être appliquées pour maintenir les risques en deçà des seuils". Mais sans définir ces seuils de danger, ni mettre en place ces fameux boutons d’arrêt d’urgence. Autrement dit "des fonctions permettant d’arrêter ou de suspendre le fonctionnement d’un logiciel lorsque les données deviennent trop mauvaises ou dévient trop de leur but", résume Camille Salinesi, professeur d’informatique et coresponsable de l’Observatoire de l’IA de l’université Panthéon Sorbonne.
Ces instruments ne seraient pas aisés à déployer. Pour Charles Letaillieur, senior manager et expert en intelligence artificielle au sein du cabinet de conseil Converteo, le terme même de kill switch prête à confusion en faisant croire que l’on peut installer un gros bouton d’arrêt rouge à une IA. "On imagine des interrupteurs électriques. Mais l’intelligence artificielle est décentralisée, ça n’est pas comme si on pouvait débrancher une simple prise".
Des systèmes d’arrêt pourraient être installés sur certains grands modèles, ou via leurs interfaces Internet (ChatGPT, Gemini...) afin de bloquer leur utilisation. Mais depuis l’arrivée de ChatGPT en 2022, les intelligences artificielles se sont multipliées. Certaines tournent localement, parfois sur de simples ordinateurs, d’autres ne sont accessibles que via le cloud. Sans compter toutes les copies de modèles open source légèrement modifiées qui circulent sur Internet. Equiper cette myriade d'outils de kill switch est une gageure. Et arrêter un data center entier faisant tourner des outils cloud peu réaliste : cela pourrait avoir un impact sur d’autres modèles ou activités.
Des ordinateurs qui bloquent les IA "peu sûres"
Une des options serait de brider les machines plutôt que les logiciels. Dans les colonnes de L’Express, le chercheur en IA Stuart Russell évoquait l'idée d'ordinateurs qui refuseraient "d’exécuter des systèmes d’IA peu sûrs" reconnaissant que cela nécessiterait de "remplacer tous les ordinateurs du monde, d’élaborer de nouveaux types de puces", soit des investissements colossaux. Dans la même veine, la RAND Corporation, qui conseille l’armée américaine, suggère de développer des outils permettant de contrôler à distance les puces les plus puissantes nécessaires aux calculs des IA.
Les acteurs du secteur accepteront-ils jamais d'appuyer sur le bouton ? Il est probable que "les entreprises fassent tout pour ne pas l’utiliser", estime Camille Salinesi. Le chercheur compare les kill switch aux questions de modération sur réseaux sociaux : beaucoup de sociétés font valoir que ce n’est pas à elles de définir ce qui est répréhensible ou non. "Tant qu'un juge ne les obligera pas à le faire, elles feront tout pour éviter le recours au kill switch". D’autant que les activités de plus en plus d’entreprises reposent sur ces IA. "Il faudrait donc que ce mécanisme puisse n’éteindre que la partie problématique, en laissant agir le reste", pointe l'expert. Dans le cas de voitures autonomes, pilotées par l’intelligence, il sera indispensable de savoir quel véhicule déraille, et de ne pas arrêter brusquement toute la flotte.
La capacité à cibler précisément des utilisateurs et des IA défaillantes sera déterminante. Charles Letailleur recommande pour cette raison d’équiper en priorité les petits modèles développés pour des tâches précises. Plus centralisés, ils sont plus faciles à protéger. Et leurs dérives se voient plus vite que celles de gros modèles.
Quel cadre légal ?
Ces outils présentent également des défis juridiques, prévient Yaël Cohen-Hadria, avocate associée chez EY. "Les IA sont utilisées partout. Avant que des entreprises ou des états puissent demander à actionner un kill switch, il y aura de nombreuses conditions à respecter". Le fait de ne pas impacter trop fortement le travail des entreprises utilisant ces IA, le respect de la souveraineté, mais aussi de la liberté d’expression : tout cela devra être pesé avant d’appuyer sur le bouton.
Il sera également nécessaire de s’accorder sur ce qu'est un risque trop élevé, une situation nécessitant l’arrêt d’une IA. "Il faudrait des critères communs, mais quand je vois les difficultés que l’Union européenne a rencontrées avec l’AI Act, cela semble difficile", observe l’experte.
Les grands modèles de langue, utilisés dans de nombreux pays, poseront sans doute de sérieux casse-tête. Les petits modèles spécialisés devraient, ici encore, être plus faciles à encadrer juridiquement. "Cela augmenterait la confiance dans ces IA", assure Yaël Cohen-Hadria qui pense en particulier aux domaines de la santé et de la défense, deux domaines qui exigent un degré de fiabilité élevé. Dans ces industries, où la fiabilité des outils est stratégique, la présence d'un kill switch pourrait même constituer un séduisant argument de vente.