Les derniers modèles d’intelligence artificielle (IA) générative ne se contentent plus de suivre les ordres et vont jusqu’à mentir, manigancer ou menacer pour parvenir à leurs fins.
Menacé d’être débranché, Claude 4, le nouveau-né d’Anthropic, fait du chantage à un ingénieur et menace de révéler une liaison extra-conjugale. L’o1 d’OpenAI essaye lui de se télécharger sur des serveurs extérieurs et nie lorsqu’on le prend la main dans le sac. Pas besoin d’aller fouiller dans la littérature ou le cinéma, l’IA qui se joue de l’homme est désormais une réalité.
Pour Simon Goldstein, professeur à l’université de Hong Kong, ces dérapages tiennent de l’émergence récente des modèles dits de «raisonnement», capables de travailler par étapes plutôt que de produire une réponse instantanée.
«Honnêtes ou pas?»
o1, version initiale du genre pour OpenAI, sorti en décembre, «a été le premier modèle à se comporter ainsi», explique Marius Hobbhahn, patron d’Apollo Research, qui teste les grands programmes d’IA générative (LLM). Ces programmes tendent aussi parfois à simuler «l’alignement», c’est-à-dire à donner l’impression qu’ils se plient aux consignes d’un programmeur tout en poursuivant, en fait, d’autres objectifs.
Pour l’heure, ces traits se manifestent lorsque les algorithmes sont soumis à des scénarios extrêmes par des humains, mais «la question, c’est de savoir si les modèles de plus en plus puissants auront tendance à être honnêtes ou pas», estime Michael Chen, de l’organisme d’évaluation METR.
Beaucoup d’internautes évoquent, sur les réseaux sociaux, «un modèle qui leur ment ou invente. Et ce ne sont pas des hallucinations, mais une duplicité stratégique», insiste le co-fondateur d’Apollo Research.
Même si Anthropic et OpenAI font appel à des sociétés extérieures, comme Apollo, pour étudier leurs programmes, «davantage de transparence et un accès élargi» à la communauté scientifique «permettraient de meilleures recherches pour comprendre et prévenir la tromperie», suggère Michael Chen.
Course contre l'IA
Autre handicap, «le monde de la recherche et les organisations indépendantes ont infiniment moins de ressources informatiques que les acteurs de l’IA», ce qui rend «impossible» l’examen de grands modèles, souligne Mantas Mazeika, du Centre pour la sécurité de l’intelligence artificielle (CAIS).
«Il y a très peu de prise de conscience pour l’instant», constate Simon Goldstein, qui voit néanmoins le sujet s’imposer dans les mois à venir avec la révolution des agents IA, des interfaces à même de réaliser seules une multitude de tâches. Les ingénieurs sont engagés dans une course derrière l’IA et ses dérives, à l’issue incertaine, dans un contexte de compétition féroce.
Anthropic se veut plus vertueux que ses concurrents, «mais il essaye en permanence de sortir un nouveau modèle pour dépasser OpenAI», selon Simon Goldstein, une cadence qui offre peu de temps pour des vérifications et corrections éventuelles.
«En l’état, les capacités (de l’IA) se développent plus rapidement que la compréhension et la sécurité», reconnaît Marius Hobbhahn, «mais nous sommes toujours en mesure de rattraper notre retard».
Les combines de l’IA «pourraient gêner son adoption si elles se multiplient, ce qui constitue une forte incitation pour les entreprises (du secteur) à résoudre» ce problème, selon Mantas Mazeika.