
„Die Singularität ist Bullshit“
Aus der KI-Geschichte lernen und erkennen, welche Risiken wir wirklich fürchten sollten.
Die künstliche Intelligenz (KI) durchlebt gerade einen beispiellosen Hype. Von ChatGPT bis zu dystopischen Warnungen vor einer „Singularität“ dominiert die Debatte oft Spekulationen, nicht Fakten. Doch Oxford-Professor Michael Wooldridge, ein Pionier der agentenbasierten KI, mahnt zur Besonnenheit. In einem Gespräch mit dem Cosmos Institute entlarvt er Mythen, erklärt, warum die Vergangenheit der Schlüssel zur Zukunft ist, und zeigt, welche Risiken wir wirklich fürchten sollten.
Die Lehren der KI-Geschichte: Von Turing bis GPT-4
Die Geschichte der KI begann nicht mit neuronalen Netzen, sondern mit symbolischer KI – dem Versuch, menschliche Denkprozesse durch explizite Regeln nachzubilden. Alan Turing legte mit seiner Arbeit zum „Entscheidungsproblem“ in den 1930er-Jahren den Grundstein: Er bewies, dass Mathematik automatisiert werden kann, und erfand dabei quasi nebenbei den modernen Computer.
In den 1950er- und 60er-Jahren folgte die „Goldene Ära“ der KI: Forscher:innen entwickelten Systeme, die Schach spielten, mathematische Probleme lösten und simulierten Denkprozesse. Doch der Optimismus scheiterte an der Combinatorial Explosion – der schieren Unmöglichkeit, alle Lösungswege für komplexe Probleme wie das „Traveling Salesman Problem“ durchzuprobieren. „Diese Ära lehrte uns, dass reine Rechenkraft allein nicht ausreicht“, erklärt Wooldridge.
In den 1980ern kam die Wende zu Expertensystemen wie MYCIN, das Blutkrankheiten diagnostizierte. Die Idee: KI braucht Wissen, nicht nur Algorithmen. Doch Projekte wie Cyc – ein Versuch, das gesamte menschliche Wissen in logische Regeln zu gießen – scheiterten grandios. „Cyc wurde zur Lachnummer. Aber es zeigte, wie gefährlich übertriebene Erwartungen sind“, so Wooldridge.
Warum KI-Winter kommen – und gehen
Die KI-Forschung durchlief immer wieder Zyklen aus Hype und Ernüchterung. In den 1970er- und 90er-Jahren führten überzogene Versprechen zu Finanzkürzungen und einem Vertrauensverlust („KI-Winter“). Selbst neuronale Netze galten lange als „esoterische Medizin“.
Doch Wooldridge sieht auch Vorteile in diesen Phasen: „In ruhigen Zeiten konnten Forscher:innen ungestört arbeiten. Heute ist das Feld überlaufen – jeder jagt denselben Durchbrüchen.“ Erst mit der Verfügbarkeit riesiger Datenmengen und leistungsstarker GPUs erlebte die KI ab den 2000ern eine Renaissance. Deep Learning und Transformer-Architekturen katapultierten sie zurück ins Rampenlicht.
Die Singularität: Science-Fiction vs. Realität
Das Gespenst der „Singularität“ – einer Superintelligenz, die sich selbst verbessert und die Menschheit bedroht – hält Wooldridge für unrealistisch. „Diese Debatte verdrängt die echten Risiken“, kritisiert er. Zwar gibt es Gedankenspiele wie den „Paperclip Maximizer“ (eine KI, die alles in Büroklammern verwandelt), doch sie setzen voraus, dass wir KI ohne Sicherungen einsetzen – was unwahrscheinlich ist.

Stattdessen warnt er vor konkreten Gefahren. Erstens könnten Deepfakes und Desinformation die digitale Landschaft überschwemmen. „Bald wird der Großteil online generierter Content KI-gesteuert sein. Wie erkennen wir, was echt ist?“, fragt Wooldridge. Zweitens droht politische Manipulation: Autokratische Regime könnten Wahlen mit massenhaft gefälschten Nachrichten untergraben. Drittens warnt er vor Verantwortungsdiffusion: „Wir dürfen KI nicht als moralische Akteure behandeln. Die Verantwortung liegt bei uns.“
Regulierung: Warum „Neuronetz-Gesetze“ nicht funktionieren
Wooldridge lehnt pauschale KI-Gesetze ab: „Das wäre, als wolle man Mathematik regulieren.“ Stattdessen plädiert er für branchenspezifische Regeln. Im Gesundheitswesen etwa müsse Diagnose-KI transparent sein, um Fehlentscheidungen zu vermeiden. Im Militärbereich gelte es, klare Verantwortung für autonome Waffen zu definieren – wer haftet, wenn eine KI versehentlich Zivilisten angreift? In sozialen Medien müsse KI-generierte Hetze konsequent bekämpft werden. „Wir müssen den Einsatz von Technologie regulieren, nicht die Technologie selbst“, betont er.
Large Language Models: Revolution oder Sackgasse?
ChatGPT & Co. haben die öffentliche Wahrnehmung der KI geprägt. Doch Wooldridge bleibt skeptisch: „*LLMs sind beeindruckend, aber sie sind *disembodied* – sie existieren nicht in der realen Welt.*“ Zwar können sie Texte generieren, doch für Aufgaben wie Robotersteuerung oder logisches Planung fehlt ihnen die Embodiment-Komponente. Ohne physische Präsenz und sensorische Wahrnehmung bleiben sie auf textbasierte Mustererkennung beschränkt.
Auch ihre „Intelligenz“ ist trügerisch: „LLMs lösen keine Probleme aus ersten Prinzipien. Sie erkennen Muster – ähnlich wie wir Rezepte nachkochen, ohne die Chemie dahinter zu verstehen.“ Die Architektur von Transformern (nächste Token-Vorhersage) begrenzt ihre Fähigkeiten. So kann ein KI-Modell zwar eine Reise planen, indem es bestehende Guides imitiert – doch wenn man die Ortsnamen durch fiktive Begriffe ersetzt, scheitert es. „Es fehlt an echter Problemlösungskompetenz“, so Wooldridge.
Die Zukunft: Multi-Agenten-Systeme und vergessene Paradigmen
Wooldridge sieht Potenzial in Multi-Agenten-Systemen – KI-Entitäten, die wie digitale Assistenten kooperieren. „Stellen Sie sich vor, Ihr Kalender verhandelt direkt mit dem Ihres Kollegen.“ Solche Systeme könnten heutige Apps obsolet machen. Siri und Alexa seien frühe Vorläufer dieser Vision, doch die nächste Generation werde komplexere Aufgaben übernehmen – von der automatischen Terminabstimmung bis zur Ressourcenverteilung in Smart Cities.
Gleichzeitig fordert er, vergessene Ansätze der KI-Geschichte neu zu beleben. Die Logikprogrammierung etwa ermöglichte einst mit Sprachen wie Prolog, komplexe Planungsprobleme in nur 100 Codezeilen zu lösen. „Heute könnte diese Eleganz mit moderner Rechenkraft neue Anwendungen finden“, erklärt er. Auch die behavioristische KI, wie sie in Roombas genutzt wird, verdiene mehr Aufmerksamkeit. Diese Roboter kombinieren einfache Verhaltensschichten – etwa Hindernisvermeidung und Staubsaugen –, um robuste Lösungen für reale Umgebungen zu schaffen.
Fazit: Warum wir die KI-Geschichte studieren müssen
Die Geschichte der KI ist keine Aneinanderreihung veralteter Technologien, sondern ein Lehrbuch für die Zukunft. Erstens hilft sie, Hype zu durchschauen: Jeder Durchbruch löst apokalyptische Ängste aus – doch die meisten prophezeiten Revolutionen blieben aus. Zweitens birgt sie vergessene Innovationen: Alte Ansätze wie logikbasierte KI könnten mit moderner Rechenkraft neu glänzen. Drittens zwingt sie uns, echte Risiken zu priorisieren: Statt über Sci-Fi-Szenarien zu debattieren, müssen wir Deepfakes, Überwachung und Manipulation bekämpfen.
„KI ist keine Magie“, resümiert Wooldridge. „Sie ist ein Werkzeug – und wie wir es einsetzen, entscheidet über ihren Wert.“ In einer Welt, die immer mehr von Algorithmen geprägt wird, ist diese Erkenntnis vielleicht die wichtigste von allen.
Inspiriert von einem Interview mit Michael Wooldridge, geführt von Jonathan Bi (Cosmos Institute). Das vollständige Gespräch finden Sie hier.