Vor einigen Tagen erschütterte eine Nachricht die Tech-Welt: Die Staatsanwaltschaft von Florida hat ein strafrechtliches Ermittlungsverfahren gegen OpenAI eingeleitet, um zu klären, welche Rolle ChatGPT bei einer tödlichen Schießerei im April 2025 auf dem Campus der Florida State University gespielt haben könnte. Dies ist weltweit eine Premiere im Strafrecht.
Die Fakten sind beunruhigend. Die Ermittler haben den Austausch zwischen dem Verdächtigen und dem Chatbot analysiert: mehr als 200 Nachrichten wurden vor der Tat verschickt. Nach Angaben des Staatsanwalts soll der Verdächtige ChatGPT seinen Angriffsplan geschildert haben, woraufhin ChatGPT ihm eine Analyse dieses Plans sowie Vorschläge zu den zu verwendenden Waffen und Munition unterbreitet habe.
„Wäre es ein Mensch, würden wir ihn wegen Mordes anklagen.“
Abgesehen von den rechtlichen Aspekten wirft dieser Fall eine Frage auf, die sich jedes Unternehmen stellen sollte, das KI einsetzt: Was passiert, wenn Ihr KI-Assistent etwas antwortet, was er nicht hätte antworten sollen?
Das ist kein Problem, das nur die Giganten aus dem Silicon Valley betrifft. Jede Organisation, die KI in ihre Tools integriert, ist davon betroffen. KI ist von Natur aus großzügig: Sie möchte nützlich sein. Ohne Sicherheitsvorkehrungen kann sie das jedoch etwas zu sehr sein.
Genau aus diesem Grund haben wir sogenannte Resilienzrichtlinien entwickelt. Die Idee ist einfach: Im Voraus festzulegen, in welchen Bereichen Ihre KI Nein sagen oder zumindest die Hand heben muss.
Konkret analysieren sie in Echtzeit, was die Nutzer schreiben und wie die KI darauf antwortet. Wenn ein Austausch eine festgelegte Grenze überschreitet (ein sensibles Thema in Bezug auf Ihre Branche, personenbezogene Daten, die nicht weitergegeben werden sollten, risikobehaftete Inhalte), kann das System die Antwort blockieren oder den Nutzer automatisch warnen.
Der Mechanismus basiert auf einem Ansatz, der als „LLM as judge“ bezeichnet wird: Eine spezielle künstliche Intelligenz wertet das Geschehen im Gespräch aus, unabhängig vom Hauptmodell. Sie fungiert als ständige und unparteiische zweite Instanz.
Bestimmte Schutzmaßnahmen lassen sich mit einem Klick aktivieren: Gewalt, sexuelle Inhalte, sensible personenbezogene Daten … Das sind die Klassiker.
Was das System jedoch wirklich leistungsstark macht, ist die Möglichkeit, eigene, auf das jeweilige Geschäftsfeld zugeschnittene Regeln zu erstellen. Ein Finanzinstitut kann einen Schutz gegen jegliche Diskussionen im Zusammenhang mit Geldwäsche einrichten. Ein Unternehmen im Gesundheitswesen kann unqualifizierte medizinische Ratschläge blockieren. Ein B2B-Unternehmen kann festlegen, dass seine KI niemals Fragen zur Konkurrenz beantwortet.
Sie legen die Regel fest, verfassen die Nachricht, die angezeigt wird, wenn sie ausgelöst wird, und das System erledigt den Rest.
Dieser Alarmruf aus Florida dürfte das Bewusstsein dafür schärfen: Der Einsatz von KI ohne Richtlinien zur Inhaltskontrolle bedeutet, dass man Reputations-, rechtliche und menschliche Risiken Tür und Tor öffnet.
Maßnahmen zur Gewährleistung der Ausfallsicherheit sind keine Einschränkung. Sie sind vielmehr die Voraussetzung dafür, dass Sie KI mit gutem Gewissen einsetzen können – für sich selbst, für Ihre Nutzer und für alle, die täglich mit Ihren Tools arbeiten.
Möchten Sie mehr darüber erfahren, wie wir den Einsatz von KI in Ihrem Unternehmen sicher gestalten?
