Nachrichten, Lokalnachrichten und Meldungen aus Berlin und Brandenburg, Polizeimeldungen und offizielle Pressemeldungen der Landespressestelle des Landes Berlin.

KI liegt ziemlich oft daneben : Aber gefährlich ist sie aus einem anderen Grund

KI liegt ziemlich oft daneben : Aber gefährlich ist sie aus einem anderen Grund

© Montage: Glage/Tagesspiegel/Getty Images/iStockphoto; IMAGO/Alexander Hald; imago images/POP-EYE

KI liegt ziemlich oft daneben : Aber gefährlich ist sie aus einem anderen Grund

Künstliche Intelligenz kann erstaunliche Dinge. Nur trauen sollte man ihr nicht, dafür spuckt sie zu viel Nonsens aus. Das ist aber nicht das eigentliche Problem.

Eine Kolumne von

Neulich fuhr ich im ICE nach Frankfurt. Einige Mitreisende waren besorgt, ihre Anschlüsse zu verpassen, weil der Zug laut App bereits eine halbe Stunde Verspätung hatte. Also fragten sie den Schaffner. Der versprach, sich zu erkundigen.

Wenig später gab er per Durchsage Entwarnung: „Die KI versucht die ganze Zeit, unseren Fahrplan umzuschreiben.“ Sie behaupte Verspätungen, die überhaupt nicht existierten. „Bitte achten Sie einfach nicht drauf!“

Die Künstliche Intelligenz mal wieder. Sie kann erstaunliche Dinge. Aber man kann ihr einfach nicht trauen, oder? Als Ende 2022 der große Hype losbrach und die ganze Welt mit ChatGPT herumspielte, versuchte ich wochenlang vergeblich, dem Programm die deutschen Kommaregeln beizubringen.

Von „Sie“ zu „du“ – aber immer noch mit Fehlern

Es entschuldigte sich jedes Mal, sobald ich es auf einen Fehler hinwies, gelobte Besserung – und vermasselte es bei der nächsten Antwort erneut.

Du hast recht, ich entschuldige mich für den Fehler.

ChatGPT gesteht dem Autor eine falsche Aussage ein

Ich scheiterte auch mit dem Versuch, das Programm dazu zu zwingen, mich zu duzen. Solange die beliebteste KI der Welt nicht einmal das schafft, kommuniziere ich lieber mit Menschen, dachte ich damals.

Mehr als anderthalb Jahre später stelle ich nun fest, dass ChatGPT beides gelernt hat. Die Kommaregeln und das Duzen. Keine Ahnung, wie viele Besserwisser wie ich dazu nötig waren, ihr das einzutrichtern.

Doch leider unterlaufen ChatGPT immer noch katastrophale Fehler. Zum Beispiel, wenn ich ChatGPT zu Songs meiner Lieblingsband Tocotronic befrage. Das Programm behauptet allen Ernstes, der Song „Let There Be Rock“ stamme vom zweiten Album einer Band namens „Nach der verlorenen Zeit“.

Als ich widerspreche, antwortet es: „Du hast recht, ich entschuldige mich für den Fehler.“ Tatsächlich stamme das Lied vom Album „Wir kommen, um uns zu beschweren“. Auch das ist falsch. ChatGPT korrigiert sich erneut und sagt, es stamme vom Debütalbum „Digital ist besser“. Wieder falsch! Als Nächstes ist es sich ganz sicher, das Lied stamme von der EP „Nach Bahrenfeld im Bus“. Eine solche EP existiert aber gar nicht.

Die Warnungen vor der KI sind vor allem PR

Ein Blick auf Wikipedia hätte die richtige Antwort längst ergeben. Doch ChatGPT rät lieber weiter herum, stets im Brustton der Überzeugung, selbstverständlich die Wahrheit zu kennen. Im fünften Anlauf behauptet es erneut, das Lied stamme von „Digital ist besser“.

Im sechsten tippt es auf die EP „Meine Freundin und ihr Freund“ (die gibt es aber ebenfalls nicht). Im siebten behauptet es schließlich, das Lied sei auf überhaupt keinem Album enthalten. Entnervt gebe ich auf. Im Vergleich zu ChatGPT scheint mir Donald Trump eine ehrliche Haut zu sein.

Der Informatiker und Philosoph Jürgen Geuter, bekannt als „tante“, hielt auf der letztjährigen re:publica einen fulminanten Vortrag, in dem er erklärte, dass die offenen Briefe, die vor bevorstehender Versklavung der Menschheit durch KI warnen, vor allem von Unternehmern aus der KI-Branche stammen. Geuter hält dies für eine PR-Maßnahme. Der Fachbegriff hierfür lautet „Criti-Hype“.

Weiter argumentierte er, bei KI handle es sich um eine konservative Technologie, da alle Trainingsdaten und somit die Grundlagen für ihre Antworten logischerweise aus der Vergangenheit stammen. Und dass hinter vielem, was als KI ausgegeben wird, in Wahrheit unterbezahlte Clickworker aus dem Globalen Süden steckten.

Vom eigenen Versagen ablenken

In seiner Generalabrechnung erwähnte Geuter auch den Betreiber einer US-amerikanischen Hotline für Menschen mit Essstörungen, der sämtliche Mitarbeiter feuerte und durch KI ersetzte, da die Mitarbeiter sich gewerkschaftlich organisieren wollten. Nach wenigen Tagen musste er die Hotline abschalten. Die KI hatte begonnen, Hilfesuchenden radikale Diäten vorzuschlagen.

„Die Gefahr ist nicht, dass eine KI so gut ist wie ein Mensch“, behauptete Geuter. „Die Gefahr ist, dass deinem Boss das scheißegal ist.“

Die Gefahr ist nicht, dass eine KI so gut ist wie ein Mensch. Die Gefahr ist, dass deinem Boss das scheißegal ist.

Jürgen Geuter, Informatiker und Philosoph

Kürzlich wurden ChatGPT und andere KI beim Verbreiten von Verschwörungsmythen erwischt. Air Canada musste Schadensersatz zahlen, weil die eigene KI einen Kunden falsch beraten hatte. Ein Anwalt wollte sich von ChatGPT Urteile heraussuchen lassen, die für seinen aktuellen Fall hilfreich sein könnten. Das Programm bot ihm Urteile an, die gar nicht existierten. Und so weiter.

Was KI dagegen höchst zuverlässig liefert: einen Vorwand für Menschen, von eigenem Versagen abzulenken. Zum Beispiel bei den Zeitangaben im ICE nach Frankfurt. Wie ich inzwischen erfahren habe, nutzt die Deutsche Bahn in diesem Bereich gar keine KI.

Zur Startseite

  • ChatGPT
  • Digitales Leben
  • Digitalisierung & KI

showPaywall:falseisSubscriber:falseisPaid:showPaywallPiano:false

Eine Quelle: www.tagesspiegel.de

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.