Ich bin ziemlich überzeugt: Bevor irgendjemand in der KI-Branche die Hand hebt und sagt „Ja, wir übernehmen die Verantwortung für den Code, den unser Modell geschrieben hat“ – werden wir schon lange ohne Fahrer durch die Gegend rollen. Klingt provokant? Ist es auch. Aber lass mich erklären, warum ich das wirklich so sehe.
Autofahren hat Regeln – und das ist der Schlüssel
Straßenverkehr wirkt chaotisch, aber im Kern ist er ein System mit klaren Grenzen. Verkehrszeichen, Fahrbahnmarkierungen, Bremsphysik – das alles ist endlich und berechenbar. Klar gibt es Grenzfälle, Nebel, betrunkene Fußgänger. Aber hier greift irgendwann gnadenlos die Statistik: Wenn autonome Systeme nachweislich zehnmal seltener Unfälle bauen als Menschen, wird die Datenlage schlicht unbestreitbar. Und Versicherungen – die kühlsten Rechner der Welt – folgen der Mathematik, nicht dem Bauchgefühl. Das Prinzip kennen wir schon lange: Autopiloten in Flugzeugen und automatisierte Züge tragen seit Jahrzehnten Verantwortung für Menschenleben. Das Auto wird da irgendwann nachziehen.
Software hat keine Straßen
Bei KI-generiertem Code ist die Welt eine komplett andere. Es gibt kein Regelwerk, das alle Situationen abdeckt. Jedes Softwareprojekt ist ein Unikat – eigene Architektur, eigene Abhängigkeiten, eigener Kontext. Und vor allem: eigene menschliche Anforderungen. Genau da liegt der Hund begraben. Code ist immer nur so gut wie die Anforderungen dahinter. Ob etwas „korrekt“ ist, entscheidet kein Modell – das entscheiden die Menschen, die es bauen, benutzen und betreiben.
Und wenn dann etwas schiefläuft? Die Verantwortungskette ist ein Trümmerfeld: Wer hat die Anforderung gestellt? Wer hat den Prompt formuliert? Wer hat den Output reviewed? Wer hat deployed? An welchem Punkt genau soll da ein KI-Anbieter haften? Dazu kommt: Die möglichen Schäden sind prinzipiell unbegrenzt – Datenverlust, Systemausfall, Sicherheitslücken, Datenschutzverstöße. Ein Risiko ohne Deckel. Das ist für keine Versicherung der Welt kalkulierbar.
Der Moment, der das alles gerade sehr konkret macht
Anfang 2025 hat ein KI-Agent auf Basis von Claude Code die Inhalte einer Lernplattform gelöscht – 2,5 Jahre Arbeit, weg. Unwiederbringlich. Die Reaktion von Anthropic? Keine Haftung. Steht so in den AGBs. Das ist keine böse Absicht – das ist schlicht die einzig rationale Position eines Unternehmens, das Werkzeuge verkauft und keine Verantwortung für das übernehmen kann, was jemand anderes damit anstellt.
Und jetzt zum viel diskutierten Thema: Verlieren Entwickler ihren Job?
Kurze Antwort: Nein. Lange Antwort: Erst recht nicht.
Genau weil kein KI-Anbieter je haften wird, muss ein Mensch diese Verantwortung tragen. Und dieser Mensch ist der Softwareentwickler. Er ist derjenige, der Anforderungen hinterfragt, generierten Code bewertet, Risiken erkennt und im Zweifel den Kopf hinhalten muss. KI macht das Schreiben von Code schneller – aber sie ersetzt nicht das Verständnis für Systeme, das Abwägen von Entscheidungen oder das Urteil darüber, was ein Stück Software in einer realen Umgebung anrichten kann.
Die Komplexität verschwindet nicht – sie verschiebt sich. Was früher Implementierungsaufwand war, wird morgen Review-, Anforderungs- und Kontrollaufwand. Wer als Entwickler versteht, was er da reviewed, deployed und verantwortet, wird wertvoller – nicht günstiger. Softwareentwickler werden die Verantwortung für ihre Systeme noch sehr, sehr lange tragen. Ob sie wollen oder nicht.
Warum sich das auch nicht ändern wird
Ein KI-Anbieter, der für generierten Code haften würde, müsste die Konsequenzen für Systeme tragen, auf die er null Einfluss hatte – keine Kontrolle über Anforderungen, Architektur oder Betrieb. Das ist schlicht nicht lösbar, egal wie gut die Modelle werden. Beim autonomen Fahren gibt es irgendwann einen klaren Benchmark: weniger Unfälle. Bei Software gibt es keinen universellen Maßstab für „besser als ein Mensch in diesem konkreten Projekt“. Ohne messbares Risiko keine Versicherung, ohne Versicherung keine Haftung, ohne regulatorischen Druck keine Änderung.
Was bleibt
KI ist ein brutally powerful Werkzeug. Aber eben ein Werkzeug – kein Auftragnehmer, kein Dienstleister mit Gewährleistung. Wer KI-Agenten produktiv einsetzt, trägt die volle Verantwortung: für Reviews, Tests, Rollbacks und vernünftige Berechtigungskonzepte. Die Frage ist nicht mehr „Kann die KI das?“ – sondern: „Darf die KI das, und wer trägt die Konsequenzen?“
Autonome Autos kommen – weil Statistik und Regulierung das irgendwann erzwingen. Aber jemanden, der für KI-generierten Code den Kopf hinlegt? Den werden wir noch sehr lange nicht sehen. Nicht weil die Modelle zu schlecht sind. Sondern weil das Problem tiefer liegt – und weil Softwareentwickler genau deshalb noch lange gebraucht werden.


Schreibe einen Kommentar