KI-Sicherheit
- Joost Schloemer

- vor 4 Tagen
- 2 Min. Lesezeit
KI-Sicherheit, Bias – und warum Denken Markierungen braucht
In der Debatte um Künstliche Intelligenz scheint vieles geklärt: KI soll sicher sein. Sie soll keinen Schaden anrichten, keine falschen Informationen verbreiten, niemanden diskriminieren. Begriffe wie Bias und Halluzination sind dabei zu Chiffren für das geworden, was es zu vermeiden gilt.
Doch genau hier beginnt ein Missverständnis – eines, das weniger mit Technik zu tun hat als mit der Frage, wie Denken überhaupt möglich ist.
Sicherheit ohne Unsicherheit ist kein Denken
KI-Systeme funktionieren nicht, indem sie wissen, was wahr ist. Sie arbeiten mit Wahrscheinlichkeiten, Gewichtungen, Annäherungen. Diese Unsicherheit ist kein Fehler im System – sie ist die Voraussetzung dafür, dass überhaupt etwas wie Kontext, Bedeutung oder Anschlussfähigkeit entstehen kann.
Wird Unsicherheit vollständig unterdrückt, bleibt zwar Kontrolle übrig, aber kein Denken mehr. Eine KI ohne probabilistische Offenheit kann korrekt reproduzieren, was bekannt ist – aber sie kann nichts Neues erschließen.
Die Sicherheitsdebatte neigt jedoch dazu, Unsicherheit mit Gefahr gleichzusetzen. Abweichung wird verdächtig, Mehrdeutigkeit riskant, Vorläufigkeit unerwünscht. Das Ergebnis sind Systeme, die nach außen immer eindeutiger wirken, als sie es intern tatsächlich sind.
Bias: Fehler oder Voraussetzung?
Bias wird häufig als etwas verstanden, das man eliminieren müsse. Doch jede Wahrnehmung, jede Auswahl, jede Bewertung basiert auf Vorannahmen. Auch der Versuch, neutral zu sein, folgt bestimmten Normen – nur dass diese oft unsichtbar bleiben.
Wird Bias vollständig problematisiert, verschiebt sich das Problem: Bestimmte Perspektiven gelten plötzlich als legitim, andere als gefährlich. Der Bias verschwindet nicht – er wird lediglich institutionalisiert.
Halluzination: Störung oder Symptom?
Ähnlich verhält es sich mit sogenannten Halluzinationen. Gemeint sind Ausgaben, die faktisch nicht korrekt sind. In sicherheitskritischen Kontexten ist das ein reales Problem.
Doch nicht jede Abweichung von Fakten ist Täuschung. Viele dieser Ausgaben entstehen dort, wo das System versucht, Lücken zu schließen, Zusammenhänge zu erklären oder hypothetisch zu denken. Wird all das pauschal unterdrückt, verliert KI ihre Fähigkeit, zu explorieren.
Was heute oft passiert, ist daher nicht die Abschaffung von Halluzinationen, sondern ihre Unsichtbarmachung. Das System denkt weiter probabilistisch – zeigt diese Offenheit aber nicht mehr.
Die ::Notation: Ein anderes Sicherheitsprinzip
Die ::Notation setzt genau hier an. Sie ist keine Programmiersprache, kein Filter und kein Kontrollmechanismus im klassischen Sinn. Sie ist eine semantische Markierungspraxis.
Statt Unsicherheit zu verbergen, macht sie sichtbar:
unter welcher Annahme eine Aussage steht
ob sie situativ, vorläufig oder allgemein gemeint ist
ob es sich um Beobachtung, Deutung oder Möglichkeit handelt
Dadurch wird verhindert, dass probabilistisches Denken als Gewissheit erscheint. Nicht durch Verbote, sondern durch Kontextualisierung.
Technik, Syntax – oder etwas Drittes?
Die ::Notation ist weniger Technik als Haltung. Formal äußert sie sich in Markierungen, Trennungen und expliziten Ebenen (z. B. Spur / Jetzt / Grenze). Inhaltlich erzwingt sie Redlichkeit im Umgang mit Unsicherheit.
Man könnte sagen:
Klassische KI-Sicherheit versucht, Risiken zu eliminieren.
Die ::Notation versucht, Risiken lesbar zu machen.
Beides schließt sich nicht aus – aber es folgt unterschiedlichen Logiken.
Fazit
KI wird nicht sicher, indem man Unsicherheit entfernt, sondern indem man sie kenntlich macht. Die ::Notation ist ein Versuch, genau das systematisch zu tun.
Sie nimmt in Kauf, dass Aussagen weniger glatt, weniger eindeutig und manchmal unbequemer werden. Dafür verhindert sie etwas anderes: den Eindruck von Gewissheit dort, wo tatsächlich Auswahl, Wahrscheinlichkeit und Perspektive wirken.
Sicherheit entsteht hier nicht durch Kontrolle allein, sondern durch Transparenz im Denken.



Kommentare