Zum Inhalt springen
Agentic AI: Wer haftet, wenn die KI einen Fehler macht?
Tech

Agentic AI: Wer haftet, wenn die KI einen Fehler macht?

2 Minuten
Zum TikTok

2026 ist das Jahr, in dem Künstliche Intelligenz aufhört, nur zu antworten. Sogenannte 'Agentic AI' – agentische KI – handelt eigenständig. Sie plant Aufgaben, greift auf externe Systeme zu, trifft Entscheidungen und führt sie aus. Ohne dass du jeden Schritt bestätigst.

In der Versicherungsbranche läuft das bereits: KI-Systeme prüfen Schadensansprüche, entscheiden über Deckung, erkennen Betrug – und tun das schneller als jedes Sachbearbeiter-Team. In Unternehmen buchen KI-Agenten Reisen, beantworten Kundenanfragen, verhandeln Lieferbedingungen.

Das klingt nach Zukunft. Ist es auch. Die Frage ist nur: Ist Deutschland vorbereitet?

Laut einer Gartner-Studie ist die Aufsichtspflicht über autonome KI-Systeme einer der bestimmenden Sicherheitstrends 2026. Das heißt im Klartext: Wenn eine KI eigenständig handelt und dabei einen Schaden verursacht – einen falschen Bescheid schickt, einen Vertrag zu ungünstigen Konditionen abschließt, eine Datenschutzverletzung begeht – dann muss jemand haften. Und dieser 'jemand' ist das Unternehmen, das die KI einsetzt.

Das Problem: Nur 48 Prozent der deutschen Unternehmen haben überhaupt interne Regeln, wie KI eingesetzt werden darf. Die anderen 52 Prozent experimentieren – ohne Netz.

Und der rechtliche Rahmen? Kommt. Ab August 2026 gelten die zentralen Pflichten des EU AI Acts verbindlich. Governance, Transparenz, Aufsicht über Hochrisiko-KI – alles vorgeschrieben. Was das konkret bedeutet, müssen Unternehmen aber größtenteils noch herausfinden.

Hier liegt das eigentliche Problem: Deutschland und Europa regulieren KI, während andere sie einsetzen. Das ist nicht grundsätzlich falsch – Regeln für autonome Systeme sind sinnvoll. Aber die Geschwindigkeit der Regulierung passt nicht zur Geschwindigkeit der Technologie.

Was müsste jetzt passieren? Erstens: Unternehmen brauchen klare Haftungsregeln – nicht nach dem Prinzip 'haben wir noch nicht geregelt'. Zweitens: Die Öffentlichkeit muss verstehen, wann KI entscheidet – Transparenzpflicht, nicht Transparenzwunsch. Drittens: Deutschland muss KI nicht nur regulieren, sondern auch entwickeln und einsetzen. Wir sind bei der Regulierung vorne, bei der Anwendung hinten.

Fazit: KI handelt schon für dich – dein Chef, deine Bank, deine Versicherung. Nur wer für die Fehler gerade steht, hat noch niemand geregelt. Das ist kein technisches Problem. Das ist ein politisches.

@bessernews

🔥 Kein Take mehr verpassen

Die heißesten Takes der Woche. Jeden Freitag. Kein Spam. Kein Bullshit.