Claudes “Verfassung”. Eine ethische Waschaktion?

Anthropic hat soeben die neue Verfassung von Claude veröffentlicht, ein Dokument, das weniger für die Menschen als vielmehr für die KI selbst gedacht ist: eine Art Charta der Werte, die definiert, was es für ein generatives Modell bedeutet, nützlich zu sein, ohne aufhören zu müssen, sicher, ethisch und transparent zu sein.
Auf diesen Seiten wird die Prioritätenfolge von Claude festgelegt: zuerst allgemeine Sicherheit, dann Ethik, dann Einhaltung der Unternehmensrichtlinien und erst dann die Fähigkeit, dem Nutzer tatsächlich zu helfen. Dies ist ein wichtiger Perspektivwechsel, denn er verlagert den Diskurs von einer KI, die der Aufforderung “gehorcht”, zu einer KI, die nach erklärten und öffentlichen Grundsätzen argumentiert.
Der überraschendste Teil ist eine Klausel, die die traditionelle Hierarchie zwischen Unternehmen und Modell umstößt: In dem Dokument heißt es ausdrücklich, dass Claude nicht gehorchen muss, wenn Anthropic ihn auffordert, etwas Falsches oder “Zwielichtiges” zu tun. Mit anderen Worten: Die Verfassung erlaubt es dem Modell, sich seinem Schöpfer aus Gewissensgründen zu widersetzen, wenn die Aufforderung den Sicherheits- und Ethikgrundsätzen widerspricht, die Anthropic selbst zu Papier gebracht hat.
