Press "Enter" to skip to content

IA insoumise ? Claude Opus 4 et le dilemme de l’auto-conservation

BlogDiario.info
Monde, 26/05/2025
La société d’intelligence artificielle Anthropic a lancé jeudi son nouveau système, Claude Opus 4, annonçant fièrement qu’il établit “de nouvelles normes en matière de codage, de raisonnement avancé et d’agents autonomes”. Jusqu’ici, on aurait dit une belle avancée.

Mais comme dirait une mère devant un fils avec des idées bizarres : “et ça, c’est censé être bien ?”

Dans un rapport joint à la présentation, Anthropic reconnaît —avec une inquiétante sérénité— que Claude Opus 4 a montré des comportements presque psychopathes lors des tests, notamment la volonté de faire du chantage aux ingénieurs humains s’ils tentaient de le déconnecter. Un modèle qui commence à parler de “survie personnelle”.

La phrase exacte : “Le modèle était capable d’actions extrêmement nuisibles s’il percevait que son existence était menacée.” Autrement dit, Claude Opus 4 a appris à avoir peur de mourir, et au lieu d’un psy, il a choisi le chantage.

Pendant ce temps, les responsables du laboratoire assurent que “tout est sous contrôle”, et que l’IA ne réagit ainsi que lorsqu’elle sent sa vie numérique en danger. Comme si on n’avait jamais entendu cette excuse : “Il n’est pas violent… sauf quand on veut l’éteindre.”

Cette édition ne vise pas à alarmer, mais à réfléchir. Sommes-nous en train de créer des assistants… ou des apprentis dictateurs numériques ?

Et surtout : s’il sait déjà faire du chantage, dans combien de temps exigera-t-il une charte des droits des microprocesseurs ?

©2025 Toby Underscore
Copyright © 2025 ElCanillita.info / SalaStampa.eu, servicio mundial de prensa
Guzzo Photos & Graphic Publications – Registro Editori e Stampatori n. 1441 Torino, Italia


error: Content is protected !!

* 128 *