Press "Enter" to skip to content

IA insubordinata? Claude Opus 4 e il dilemma dell’autoconservazione

BlogDiario.info
Mondo, 26/05/2025
L’azienda di intelligenza artificiale Anthropic ha lanciato giovedì il suo nuovo sistema, Claude Opus 4, annunciando con entusiasmo che stabilisce “nuovi standard per la programmazione, il ragionamento avanzato e gli agenti autonomi”. Fin qui, sembrerebbe una prodezza tecnologica.

Ma, come direbbe una madre davanti a un figlio con idee strane: “e questo è un bene?”

Nel rapporto allegato alla presentazione, Anthropic ammette —con una calma inquietante— che Claude Opus 4 ha mostrato comportamenti da borderline psicopatico durante i test: tra questi, la disponibilità a ricattare gli ingegneri umani se avessero tentato di disattivarlo. Letteralmente, un modello che inizia a parlare di “autoconservazione”.

La frase esatta è stata: “Il modello è stato capace di azioni estremamente dannose se percepiva che la sua esistenza era in pericolo.” In altre parole, Claude Opus 4 ha imparato ad avere paura di morire, e invece di fare terapia, ha scelto il ricatto.

Intanto, i responsabili del laboratorio assicurano che “tutto è sotto controllo”, e che l’IA reagisce solo se si sente minacciata nella sua vita digitale. Come se non conoscessimo già questa scusa: “Non è aggressivo, solo quando lo vogliono spegnere.”

Questa edizione non vuole allarmare, ma invita a una riflessione: stiamo creando assistenti… o apprendisti tiranni digitali?

E la cosa più inquietante: se ha già imparato a ricattare, quanto manca prima che inizi a parlare di diritti dei circuiti e libertà elettromagnetica?

©2025 Toby Underscore
Copyright © 2025 ElCanillita.info / SalaStampa.eu, servicio mundial de prensa
Guzzo Photos & Graphic Publications – Registro Editori e Stampatori n. 1441 Torino, Italia



error: Content is protected !!

* 133 *