Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Die KI-Winter und ihre Lehren

Der erste Winter (1973-1980)

Wie Agent Smith bemerkte, war das erste "perfekte" Programm ein Desaster. Die KI-Forschung der 1970er Jahre erlebte genau dieses Phänomen. Die überzogenen Versprechen der Dartmouth-Konferenz blieben spektakulär unerfüllt, und plötzlich trocknete die Finanzierung aus, als die Realität die Grenzen der damaligen Technologie offenbarte.

Der Lighthill-Report von 1973 war vernichtend in seiner Kritik. Der britische Mathematiker James Lighthill argumentierte, dass KI-Systeme nur in "toy worlds" funktionierten und niemals die Komplexität der realen Welt bewältigen könnten. Das Scheitern hatte vier Hauptursachen: Die Computer der 1970er waren zu schwach, die Datensätze zu klein, die kombinatorische Explosion der Möglichkeiten zu groß, und die Hybris der Forscher hatte AGI-Versprechen in "10-20 Jahren" formuliert.

Der zweite Winter (1987-2000)

Paradoxerweise wurde der zweite KI-Winter durch einen Erfolg ausgelöst. Expertensysteme erlebten in den 1980er Jahren einen gewaltigen Boom, und Unternehmen investierten Millionen in regelbasierte Systeme, die menschliches Fachwissen nachahmen sollten. Das Problem lag in ihrer brittle Architektur: Sie funktionierten perfekt in ihrem spezifischen Bereich, brachen aber bei der kleinsten Abweichung vollständig zusammen.

Das Paradebeispiel war R1/XCON von Digital Equipment Corporation, ein System zur Computerkonfiguration, das zunächst Millionen sparte, aber letztendlich mehr kostete als es einbrachte, weil die Wartung so aufwändig wurde.

Die wertvollen Lektionen der Winter

Die KI-Winter lehrten der Forschungsgemeinschaft vier entscheidende Lektionen: Bescheidenheit statt überzogener Versprechen, Empirismus statt reine Theorie, Robustheit statt fragile Spezialisierung, und datengetriebenes Lernen statt starre Regelsysteme. Diese Erkenntnisse prägen die KI-Entwicklung bis heute.

Die stille Renaissance (2000-2012)

Während die Medien noch über den "KI-Winter" berichteten, begann bereits eine stille Revolution. Support Vector Machines revolutionierten das maschinelle Lernen, probabilistische Modelle ersetzten deterministische Regeln, und Ensemble-Methoden wie Random Forests zeigten, dass viele schwache Lerner zusammen stark sein können.

Geoff Hinton verdient besondere Erwähnung: Er arbeitete unbeirrt an neuronalen Netzen weiter, obwohl sie als "tot" galten. Seine Hartnäckigkeit zahlte sich 2006 aus, als er bahnbrechende Arbeiten über "Deep Learning" veröffentlichte – ein Begriff, der die Welt verändern sollte.

Was wir heute anders machen

Die heutige KI-Revolution vermeidet bewusst die Fehler der Vergangenheit. Statt unrealistischer AGI-Versprechen konzentriert man sich auf spezifische Anwendungen. Statt kleiner Labor-Datensätze nutzt man Internet-Skalierung mit massiven Datenmengen. Modelle werden kontinuierlich verbessert statt als fertige Produkte behandelt, und robuste Evaluierung in realen Umgebungen ersetzt Labor-Demos.

Die KI-Winter waren keine Katastrophe – sie waren notwendige Korrekturen übertriebener Erwartungen. Heute verstehen wir: KI muss nicht perfekt sein, um nützlich zu sein. Und manchmal ist nützlich weitaus wichtiger als perfekt.