Für „Maschinen, die lernen“: Physik-Nobelpreis geht an John Hopfield und Geoffrey Hinton

© Nobel Prize Outreach/Illustration: Niklas Elmehed

Für „Maschinen, die lernen“: Physik-Nobelpreis geht an John Hopfield und Geoffrey Hinton

Die beiden Forscher aus Nordamerika erhalten den Nobelpreis für ihre Grundlagenforschung. Mit dieser ist maschinelles Lernen mit künstlichen neuronalen Netzen möglich.

Von

Der Nobelpreis für Physik geht in diesem Jahr an den US-Amerikaner John Hopfield und den kanadischen Forscher Geoffrey Hinton für grundlegende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen. Das teilte die Königlich-Schwedische Akademie der Wissenschaften in Stockholm mit.

Computer übersetzen heute Sprachen, interpretieren Bilder, können sogar mit uns ziemlich menschliche Gespräche führen. Obwohl ChatGPT und Co. nicht „denken“ können, ahmen sie Gedächtnis- und Lernfunktionen nach.

Maschinelles Lernen ist ein Teilgebiet der künstlichen Intelligenz, das es Computern ermöglicht, aus Daten zu lernen, Muster zu erkennen und basierend auf diesen Daten Vorhersagen oder Entscheidungen zu treffen, ohne explizit dafür programmiert zu sein. Sie lernen anhand großer Datenmengen, und je mehr Training die erhalten, desto besser werden sie.

KI wird vergleichbar sein mit der industriellen Revolution. Aber anstatt die körperliche Kraft der Menschen zu übertreffen, wird sie die intellektuellen Fähigkeiten übersteigen.

Physik-Nobelpreisträger Geoffrey Hinton, Informatiker und Kognitionspsychologe

Die diesjährigen zwei Physik-Nobelpreisträger haben die Grundlage für die heutigen leistungsfähigen „lernenden Maschinen“ gelegt. John Hopfield entwickelte ein assoziatives Gedächtnis, was im Grunde bedeutet, dass ein Computer Daten so speichern kann, dass es sich an sie „erinnert“ und sie sogar wiederherstellen kann – selbst wenn sie teilweise fehlen oder beschädigt sind.

Zeigt man einem Menschen ein etwas verschwommenes Bild, kann er normalerweise noch erkennen, was es darstellt, weil er ähnliche Bilder schon einmal gesehen hat. Das Hopfield-Netzwerk funktioniert ähnlich. Es kann lernen, bestimmte Muster zu speichern, und wenn ihm später ein verzerrtes oder unvollständiges Bild gezeigt wird, kann es das „richtige“ Bild rekonstruieren, das dem Originalbild am nächsten kommt.

Ich bin platt, ich hatte keine Ahnung, dass das passiert, ich bin sehr überrascht.

Physik-Nobelpreisträger Geoffrey Hinton, Kognitionswissenschaftler und Informatiker

Auf dem Hopfield-Netzwerk baute der in Kanada arbeitende Brite Geoffrey Hinton auf und entwickelte die Boltzmann-Maschine. Diese Maschine kann Daten analysieren und dabei Muster und Eigenschaften erkennen. Sie kann also „lernen“, was an bestimmten Daten, wie einem Bild, besonders oder typisch ist.

Zeigt man der Boltzmann-Maschine viele Bilder von Hunden, erkennt die Maschine automatisch die wichtigen Merkmale, die ein Hund hat – zum Beispiel Ohren, Fell, Schnauze – und kann dann sagen, ob ein neues Bild, das man ihr zeigt, auch einen Hund darstellt oder nicht.

Was maschinelles Lernen so besonders macht

Traditionelle Software funktioniert wie ein Rezept: Sie verarbeitet Daten nach festen Regeln, um ein vorhersehbares Ergebnis zu erzielen. Maschinelles Lernen unterscheidet sich davon grundlegend. Statt nach festen Anweisungen zu arbeiten, lernt die Maschine durch Beispiele und kann so Aufgaben bewältigen, die zu komplex oder zu vage sind, um sie mit festen Schritten zu lösen. Ein Beispiel dafür ist die Interpretation von Bildern, bei der das System lernt, Objekte zu identifizieren, ohne explizit dafür programmiert zu sein. Damit Ansatz ermöglicht es, Probleme zu lösen, die vorher als unlösbar galten.

Neurale Netzwerke und das Gehirn

Hopfield und Hinton erfanden dafür künstliche neuronale Netzwerke (ANN). Diese sind vom menschlichen Gehirns inspiriert: Ein ANN besteht aus vielen miteinander verbundenen „Neuronen“ oder Knoten, ähnlich wie die Nervenzellen in unserem Gehirn, die Informationen verarbeiten. Die Knoten sind in Schichten organisiert:

• Eingabeschicht: Hier werden die Daten in das Netzwerk eingespeist. Zum Beispiel könnte ein Bild von einem Hund als viele einzelne Pixel in das Netzwerk eingespeist werden.

• Verborgene Schichten: Diese Schichten verarbeiten die Informationen. Die Knoten in diesen Schichten nehmen die Eingaben, gewichten sie, und geben sie an die nächste Schicht weiter. Dies ist der entscheidende Teil, in dem das Netzwerk lernt, wichtige Muster zu erkennen.

• Ausgabeschicht: Das Ergebnis des neuronalen Netzwerks. Zum Beispiel könnte das Netzwerk nach der Verarbeitung eines Bildes vorhersagen, dass es sich um einen Hund handelt.

Hopfields Gedächtnis und Hintons Maschine

1982 stellte Hopfield sein Netzwerkmodell vor, das als assoziatives Gedächtnis fungiert. Es speichert Muster aus Daten und kann unvollständige oder verzerrte Eingaben mit den gespeicherten Mustern abgleichen, um die nächstliegende Übereinstimmung zu finden. Das ist ein bisschen so, als würde man versuchen sich an ein Wort zu erinnern, dass einem nicht so richtig einfallen mag. Dabei würde man ähnliche Begriffe durchgehen, bis man das richtige Wort gefunden hat. Hopfields Netzwerk kann mehrere Daten speichern und diese differenziert wiedergeben, auch wenn die Eingaben durch Rauschen oder Auslassungen gestört sind.

Während Hopfield an seinem Netzwerkmodell arbeitete, entwickelte Geoffrey Hinton das Konzept der Boltzmann-Maschine.

Maschinelles Lernen – heute und morgen

Die Boltzmann-Maschine von Hinton war ein frühes Modell des maschinellen Lernens, das jedoch relativ ineffizient war. In den 2000ern Jahren trug Hinton dazu bei, das Feld des maschinellen Lernens erheblich voranzutreiben. Er entwickelte eine Methode zum „Vorab-Trainieren“ von Netzwerken, das sogenannte Pretraining. Das funktioniert so: Bevor das Netzwerk richtig trainiert wird, werden seine Verbindungen so eingestellt, dass sie eine gute Startbasis haben. Dadurch lernt das Netzwerk anschließend schneller und besser, insbesondere wenn es darum geht, Muster in Bildern zu erkennen.

Die Forschung von John Hopfield und Geoffrey Hinton in den 1980er Jahren war der Startschuss für die große Entwicklung des maschinellen Lernens. Sie sind Grundlage dafür, dass heute größere und komplexere neuronale Netze gebaut werden, sogenannte tiefe neuronale Netze. Im Vergleich zu Hopfields frühen Netzwerken, die aus wenigen Dutzend Knoten bestanden, bestehen heutige Netzwerke wie die großen Sprachmodelle, wie ChatGPT, aus über einer Milliarde Verbindungen zwischen den Knoten.

Wenn ich etwas wissen will, frage ich GPT4, mit Vorsicht, weil es halluzinieren kann. Aber es ist gut und deswegen sehr nützlich.

Physik-Nobelpreisträger Geoffrey Hinton, Informatiker und Kognitionspsychologe

Nach der Bekanntgabe der Ehrung wurde der Informatiker Hinton zur Königlich-Schwedischen Akademie der Wissenschaften in Stockholm per Telefon zugeschaltet. Er prognostizierte: „KI wird einen großen Einfluss haben und wird vergleichbar sein mit der industriellen Revolution. Aber anstatt die körperliche Kraft der Menschen zu übertreffen, wird sie die intellektuellen Fähigkeiten übersteigen.“ KI werde die Gesundheitsversorgung verbessern und die Menschheit „in fast allen Bereichen“ effizienter machen.

Allerdings sieht der Physik-Nobelpreisträger auch Gefahren: „Wir müssen aber auch eine Reihe von negativen Folgen befürchten, vor allem, wenn diese Dinge auch außer Kontrolle geraten können.“ Schon vergangenes Jahr gestand Hinton in einem Interview mit der New York Times, ein Teil von ihm bedauere die Arbeit, die er geleistet habe. Im Rahmen der Nobelpreisverkündung ordnete er das nochmal ein: „Es gibt zwei Arten des Bedauerns: Es gibt das Bedauern, bei dem man sich schuldig fühlt, weil man etwas getan hat, von dem man weiß, dass man es nicht hätte tun sollen. Und dann gibt es das Bedauern, bei dem man etwas getan hat, das man unter den gleichen Umständen wieder tun würde, aber es könnte am Ende nicht gut ausgehen.“

Er habe diese zweite Form des Bedauerns. „Unter den gleichen Umständen würde ich das Gleiche wieder tun. Aber ich bin besorgt, dass die Folgen davon Systeme sein könnten, die intelligenter sind als wir und schließlich die Kontrolle übernehmen“, so der Geehrte.

Zur Startseite

showPaywall:falseisSubscriber:falseisPaid:showPaywallPiano:false

Eine Quelle: www.tagesspiegel.de

Comments (0)
Add Comment