ai
Halluzination ist kein Bug. Es ist der Preis des Denkens.
Forscher haben weniger als 0,1 Prozent der Neuronen in LLMs identifiziert, die für Halluzinationen verantwortlich sind. Sie können sie nicht entfernen, ohne das System zu brechen. Was das über KI sagt. Und über unser eigenes Denken.