Keyboard shortcuts

Press or to navigate between chapters

Press S or / to search in the book

Press ? to show this help

Press Esc to hide this help

Von den Anfängen bis zum Deep-Learning-Durchbruch

Die Geburt einer Idee (1950-1970)

Die Geschichte der künstlichen Intelligenz beginnt mit einer deceptively einfachen Frage: "Can machines think?" Als Alan Turing diese Worte 1950 in seinem bahnbrechenden Aufsatz "Computing Machinery and Intelligence" formulierte, ahnte er vermutlich nicht, dass es 74 Jahre dauern würde, bis moderne KI-Systeme seinen Test tatsächlich bestehen würden.

Sechs Jahre später, 1956, versammelten sich die Pioniere der KI-Forschung zur legendären Dartmouth Conference. John McCarthy prägte hier den Begriff "Artificial Intelligence", während er und seine Kollegen – darunter Marvin Minsky und Herbert Simon – optimistisch prognostizierten, dass Maschinen "in einer Generation" menschliche Intelligenz erreichen würden. Diese Vorhersage sollte sich als spektakulär falsch erweisen.

Erste Erfolge, große Illusionen (1960-1980)

Die frühen Jahre der KI waren geprägt von beeindruckenden Demonstrationen in sehr eng begrenzten Bereichen. Joseph Weizenbaums ELIZA (1966) konnte simple Gespräche führen und überzeugte viele Menschen von seiner "Intelligenz". Der Roboter SHAKEY (1966-1972) war der erste, der Pläne erstellen und ausführen konnte. Expertensysteme wie DENDRAL (1965) lösten komplexe wissenschaftliche Probleme der Molekülanalyse.

Doch diese Erfolge erwiesen sich als trügerisch. Die Systeme funktionierten nur in sorgfältig kontrollierten Umgebungen und konnten nicht verallgemeinern. Die Forscher hatten die schiere Komplexität des menschlichen Verstands dramatisch unterschätzt – ein Fehler, der zu den ersten großen Rückschlägen führen sollte.

Der ImageNet-Moment (2012)

Der wahre Durchbruch kam schließlich 2012 mit einem Wettbewerb, der die KI-Welt elektrisierte. Alex Krizhevskys AlexNet revolutionierte die Computer Vision, indem es die Fehlerrate bei der Bilderkennung von 26% auf dramatische 15% senkte. Was diesen Sprung möglich machte, war nicht eine völlig neue Erfindung – neuronale Netze existierten bereits seit den 1960er Jahren – sondern das perfekte Zusammentreffen dreier Faktoren.

Zum ersten Mal standen massive Datenmengen zur Verfügung: ImageNet bot 1,2 Millionen sorgfältig kategorisierte Bilder. Gleichzeitig ermöglichten CUDA-fähige Grafikkarten die nötige Rechenleistung, während verbesserte Algorithmen wie Convolutional Neural Networks die Architektur lieferten.

Die Kernerkennnis war revolutionär: Daten sind wichtiger als Algorithmen. Mit genug Beispielen lernt KI, Muster zu erkennen, die selbst menschliche Experten übersehen. ImageNet legte das Fundament für alles, was folgte – von Spracherkennung über autonomes Fahren bis zu den Sprachmodellen von heute.