Nachrichten, Lokalnachrichten und Meldungen aus Berlin und Brandenburg, Polizeimeldungen und offizielle Pressemeldungen der Landespressestelle des Landes Berlin.

Wartest du auf die nächste Stufe der künstlichen Intelligenz? Bald könnten wir menschliches Denken kopieren können!

Die nächste Stufe künstlicher Intelligenz: „Bald wird menschliches Denken reproduzierbar sein“

© Gestaltung: Tagesspiegel; Foto: freepik

Die nächste Stufe künstlicher Intelligenz: „Bald wird menschliches Denken reproduzierbar sein“

Computer, die schlauer sind als Menschen: Für den Münchner Forscher Simon Hegelich werden sie in wenigen Jahren Realität sein. Sind wir darauf vorbereitet?

Von

Herr Hegelich, Sie gehen davon aus, dass die Menschheit ganz kurz vor einem Durchbruch in Richtung einer allgemeinen künstlichen Intelligenz steht, kurz AGI genannt. Was bedeutet das konkret?
Zunächst ist AGI kein besonders gut definierter Begriff, damit sind oft verschiedene Dinge gemeint. Ich meine mit meiner Aussage, dass wir bezüglich der logischen und kognitiven Fähigkeiten des Menschen, also dem Denken, sehr bald so weit sind, dass sie von künstlicher Intelligenz reproduziert werden können.

Was heißt sehr bald für Sie?
2026 oder 2027 werden wir eine denkende Maschine haben. Allerdings würde ich da Bereiche wie Bewusstsein, Gefühle oder andere Emotionen ausklammern. Davon sind wir noch ein ganzes Stück entfernt.

Es gibt eine ganze Menge Forschende, die der Meinung sind, dass wir noch ein Dutzend Nobelpreise von einer solchen denkenden Maschine entfernt sind. Wie kommen Sie zu Ihrer doch etwas anderen Einschätzung?
Sie ist gar nicht so anders. Tesla- und SpaceX-Chef Elon Musk sagte kürzlich erst, dass er in den kommenden drei Jahren mit einer AGI rechnet. Der Chef des US-Chipherstellers Nvidia hat sich ganz ähnlich geäußert. Und ich selbst habe schon 2017 gesagt, dass wir 2022 die ersten „Artificial Spirits“ sehen würden, also Computer, die so wirken, als würden sie selbstständig denken – auch wenn sie es tatsächlich nicht tun. Diese Prognose hat mit ChatGPT ja gepasst.

Welche Indizien sehen Sie aktuell für den von Ihnen erwarteten Durchbruch?
Weil die aktuellen KIs, wie etwa ChatGPT, die Entwicklung in diesem Bereich selbst beschleunigen. Indem wir sie flächendeckend benutzen und damit auf ein ganz neues Level heben – und damit einen wichtigen Baustein für eine AGI schaffen. Gleichzeitig gehen die großen KI-Konzerne, gerade OpenAI und Meta, die nächsten Schritte. Mit unterschiedlichen Ansätzen zwar, aber bei beiden in Richtung planender, rationalisierender KI. Dabei glaube ich gar nicht, dass sie dabei den richtigen Weg gehen.

Was machen sie falsch?
Aktuell wird vor allem der Ansatz verfolgt, durch Simulation des Denkens einen ähnlichen Stand zu erreichen wie das menschliche Denken. Das wird aber nicht klappen.

Warum nicht?
Als der Mensch fliegen wollte, hat er lange versucht, die Vögel zu imitieren. Das hat nicht funktioniert. Wir konnten erst fliegen, als wir die Gesetze der Thermodynamik verstanden haben. Das Ziel wurde ohne die direkte Simulation erreicht.

Eine allgemeine künstliche Intelligenz wird die gesamte Zivilisation betreffen und verändern. Die Frage ist, ob zum Guten oder zum Schlechten.

KI-Experte Simon Hegelich

Sie wollen sagen, dass wir für die Entwicklung einer AGI die Gesetze des Denkens verstehen müssen?
Genau, heute haben wir dank der bestehenden KI-Systeme unheimlich starke Werkzeuge, um darauf aufbauend eine denkende Maschine zu bauen. Und ich würde sagen: Wir haben die Gesetze des Denkens seit gut 200 Jahren verstanden – weil sie von dem Philosophen Georg Wilhelm Friedrich Hegel in einer unglaublichen Akribie in seiner „Logik“ niedergeschrieben wurden. Wenn wir diese in einen Algorithmus packen würden, hätten wir eine AGI.

Was genau hat Hegels „Logik“ mit künstlicher Intelligenz zu tun?
Im Grunde sagt sie aus, dass Objektivität nichts ist, was einfach so in der Welt liegt, sondern sie muss in unserem Denken erst geschaffen werden. Und das ist genau das Problem von aktuellen KI-Systemen: Sie nehmen Daten aus der Welt und lernen eben nur das, was in diesen schon enthalten ist. Meiner Meinung nach müsste man dem Computer vielmehr beibringen, dieses komprimierte Wissen selbst zu hinterfragen und zu sagen: Nein, genau das Gegenteil ist der Fall – und dann die Aussage und die Negation auf einer höheren Ebene analytisch wieder zusammenzubringen.

Würde das nicht auch wieder zu Problemen führen, wenn wir eine KI hätten, die sich nicht entscheiden kann?
So eine Hegel-Maschine, wie ich sie nenne, wäre in vielen Bereichen gar nicht anwendbar, weil sie da ganz großen Unfug ausspucken würde. Auf lange Sicht wäre aber das Schöne, dass der Gedankenprozess in diesem Fall, anders als bei aktuellen KI-Systemen, nachvollziehbar wäre. Wir könnten also mit der Maschine in die Argumentation gehen. Und es gäbe tatsächlich neue Ergebnisse, die am Ende womöglich viel besser wären als das, was wir heute haben.

Wenn wir also in zwei bis drei Jahren Maschinen haben, die dem Menschen kognitiv ebenbürtig oder sogar überlegen sind: Was heißt das für unser Zusammenleben?
Es gibt einen Grund, warum die KI-Forschung seit den 1960er Jahren genau dieses Ziel einer AGI hatte: Sie wird die gesamte Zivilisation betreffen und verändern. Die Frage ist jetzt, ob zum Guten oder zum Schlechten. Das ist aktuell nämlich noch absolut offen.

Die nächste Stufe künstlicher Intelligenz: „Bald wird menschliches Denken reproduzierbar sein“

Aktuelle KI-Anwendungen, sagt Experte Simon Hegelich, legen den Grundstein für die Entwicklung einer „denkenden Maschine“. Hier das Sprachmodell ChatGPT der kalifornischen Firma OpenAI.

© Imago/Zuma Wire/David Talukdar

Wie meinen Sie das konkret?
Wenn ich mir anschaue, welche Geschäftsideen in vielen Fällen hinter den Entwicklungen stecken, werde ich pessimistisch. Bei OpenAI würde der Durchbruch etwa bedeuten, dass eine AGI in Microsofts Office-Software integriert würde. Das wäre so tiefgreifend, dass damit ganz viele Arbeiten, die wir Menschen bislang selbst und kreativ erledigt haben, recht schnell obsolet würden.

Die Arbeitswelt von morgen sähe dann so aus, dass man nur noch Zuarbeiter dieser Programme ist und selbst von diesen kreativen Prozessen entfremdet. Ähnlich dystopisch sieht es bei Meta und seinem großen Ziel aus, dem Metaverse. Deshalb finde ich es so wichtig, dass man neue Ansätze entwickelt, die nicht in der Hand dieser Konzerne liegen.

Und was wäre das positive Szenario?
Wir haben als Menschen das Problem, dass wir so viel Wissen angehäuft haben, dass bei speziellen Fragestellungen niemand nur ansatzweise die ganze Bandbreite davon anzapfen kann. Wenn wir eine denkende Maschine haben, mit der man in einen echten Dialog auf Augenhöhe führen kann, dann kann man anhand dessen völlig neue Blickwinkel auf uns, unsere Umwelt und die Gesellschaft entwickeln. Davon könnten wir alle profitieren.

Wir werden KI-Systeme brauchen, die uns im Alltag beim Umgang mit der KI unterstützen.

KI-Experte Simon Hegelich über die Auswirkungen einer AGI

Was braucht es für diese positive Entwicklung?
Drei Bedingungen. Erstmal muss es natürlich stabil und verlässlich funktionieren. Zweitens müssen wir uns die Frage stellen, wer über die Technik verfügt und wer sie einsetzen kann. Da habe ich einen radikalen Ansatz, weil ich denke, dass sie Open Source und für absolut alle zugänglich sein sollte. Das Risiko eines Missbrauchs ist bei Intransparenz und einer beschränkten Verfügbarkeit zu groß. Und drittens bräuchten wir als Menschen viel mehr Bildung auf dem Gebiet. Damit wir an einen Punkt kommen, an dem man sagt, okay, was die KI sagt, ist interessant. Aber nicht zwingend wahr.

Aktuell befürchtet man, dass fortschrittliche KI-Systeme etwa für besonders effektive Desinformation genutzt werden könnten. Teilen Sie diese Sorge?
Wenn man sich vorstellt, dass es eine KI gibt, die in der Lage ist, einen Manipulationsprozess zu planen, wird das ziemlich übel. Das wäre eine KI, die nichts als Manipulation zum Ziel hat – und eine, die zumindest theoretisch auf die ganze Öffentlichkeit anwendbar wäre.

Was kann man dagegen tun?
Wir brauchen dringend eine unabhängige AGI. Denn wenn wir massiv von Informationen manipuliert werden, bei denen nicht einmal die Akteure, die sie in Auftrag geben, verstehen, wie sie eigentlich funktionieren, dann können wir das als Menschen nicht mehr allein überblicken. Wir werden technische Hilfe brauchen. Es braucht Unterstützersysteme auf dem neuesten Stand der Technik, KI-Systeme, um uns im Umgang mit der KI zu assistieren. Sonst werden wir nicht dagegen ankommen.

Zuletzt geriet ein weiteres Anwendungsfeld von KI ins Blickfeld: Israel, heißt es in einem Medienbericht, nutze im Gaza-Krieg ein KI-System namens „Lavender“, um Zielpersonen für Angriffe zu identifizieren.
Ich kenne die Berichte und halte sie für plausibel. Und es ist absolut dystopisch. Da werden augenscheinlich Daten aus den sozialen Medien, aus Gesichtserkennung, aus Bewegungsprofilen und so ziemlich allem anderen, was verfügbar ist, zusammengeführt. Der Computer erstellt dann anhand dieser Daten auf Grundlage von Wahrscheinlichkeiten eine Liste von möglichen Angriffszielen.

Die nächste Stufe künstlicher Intelligenz: „Bald wird menschliches Denken reproduzierbar sein“

Entscheidung eines Computers? Eine Explosion in Gaza, wo Israel laut Medienberichten KI zur Identifizierung von militärischen Zielen einsetzt.

© AFP/Uncredited

Israel beharrt darauf, dass die finale Entscheidung bei Menschen liegt.
Trotzdem stellt sich die Frage, auf welcher Grundlage das passiert. Laut Bericht vergleicht das Militär die KI-Liste mit einer Kartei von Hamas-Mitgliedern, was zu einer Genauigkeit von 90 Prozent führen soll. Das halte ich für sehr wenig, wenn es um Leben und Tod geht. Obendrein basieren diese 90 Prozent nur auf den Daten, die erfasst werden können.

Was meinen Sie damit?
Dass eben alle anderen Aspekte nicht mit einfließen. Auf Grundlage eines begrenzten Datensatzes wird die dortige Bevölkerung katalogisiert und daraus Ziele definiert. Einem Computersystem wird auf dieser Grundlage die Entscheidungshoheit über menschliches Leben gegeben. Das können wir eigentlich nicht wollen.

Welche Rolle könnte eine AGI in Konflikten der Zukunft spielen?
Das wird schwierig, selbst wenn das System ethisch einwandfrei programmiert ist, also beispielsweise mit der Maxime, dass zivile Opfer um jeden Preis zu vermeiden sind. Was, wenn der Computer berechnet, dass durch die Bombardierung eines Krankenhauses langfristig zivile Ziele vermieden werden können? Das ist ein absolut realistisches Szenario – und niemand wird mehr wissen, wie der Computer überhaupt darauf gekommen ist.

Was Sie sagen, klingt wenig hoffnungsvoll. Was können Politik wie Zivilgesellschaft da noch tun?
Neben den besagten Unterstützungssystemen für den Alltag mit AGI brauchen wir internationale Abkommen, die die Nutzung von KI im Krieg untersagen. Wer sich letztlich daran hält, ist natürlich offen, aber wir brauchen ein solches völkerrechtliches Signal.

Sehen Sie Deutschland gut vorbereitet?
Deutschland hat AGI überhaupt nicht auf dem Schirm, in der KI-Strategie der Bundesregierung ist sie explizit ausgeklammert. Das muss sich ändern. Wenn wir Lösungen finden wollen, müssen wir ein Bewusstsein dafür entwickeln, dass es sich dabei eben nicht um Science-Fiction handelt, die vielleicht in hundert Jahren relevant wird. Sondern, dass es jetzt gerade schon programmiert wird.

Zur Startseite

  • ChatGPT
  • Digitalisierung & KI
  • Digitalpolitik
  • Elon Musk
  • Meta

showPaywall:falseisSubscriber:falseisPaid:falseshowPaywallPiano:false

Eine Quelle: www.tagesspiegel.de

1 Kommentar
  1. Frau Müller sagt

    Ich persönlich finde die Aussicht, dass menschliches Denken bald von künstlicher Intelligenz reproduziert werden kann, faszinierend. Es ist jedoch wichtig, dabei auch ethische Fragen und potenzielle Risiken zu berücksichtigen. Sind wir als Gesellschaft wirklich bereit für eine Technologie, die möglicherweise intelligenter ist als wir selbst?

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.