La “costituzione” di Claude. Un’operazione di ethics‑washing?

Anthropic ha appena pubblicato la nuova costituzione di Claude, un documento pensato non tanto per gli umani, quanto per l’AI stessa: una sorta di carta dei valori che definisce cosa significa, per un modello generativo, essere utile senza smettere di essere sicuro, etico e trasparente.
In queste pagine si stabilisce l’ordine delle priorità di Claude: prima la sicurezza ampia, poi l’etica, poi la conformità alle linee guida dell’azienda, e solo dopo la capacità di essere realmente d’aiuto a chi lo usa. È un cambio di prospettiva importante, perché sposta il discorso dall’AI che “obbedisce” al prompt, all’AI che ragiona in base a principi dichiarati e pubblici.
La parte più sorprendente è una clausola che rovescia la gerarchia tradizionale tra azienda e modello: il documento indica esplicitamente che, se Anthropic chiedesse a Claude di fare qualcosa di sbagliato o “shady”, Claude non è tenuto a obbedire. In altre parole, la costituzione autorizza il modello a comportarsi come un obiettore di coscienza rispetto al proprio creatore, se la richiesta va contro i principi di sicurezza ed etica che la stessa Anthropic ha messo nero su bianco.
