Chat GPT (Teil 2)

Foto: OpenAI

Von Franz Rochus

Korrekt erkannt. Teil 1 der Geschichte entstammt vollständig Chat GPT. Irgendwie kann man es doch leichter erkennen als befürchtet: alles klingt irgendwie …fad und woke. Was will man auch von einem Chatbot erwarten? Chatbots sind überall, oder glauben sie, dass sie bei Amazon mit einem Menschen kommunizieren, wenn sie den Support Bereich kontaktieren? Bei einer Frage zu einer Bestellung erwarte ich eine rasche, und lösungsorientierte Antwort, kein Traktat.

Ende der Geschichte? War sonst noch was? Ja, doch …

Der Text ist nicht aktuell, sondern 5 Monate alt. Im Zuge einer mehrtägigen Informationsveranstaltung zu Neuerungen im Medizinproduktegesetz fanden sich im Herbst 2022 ca. 20 Personen in einem größeren Schulungs- und Besprechungsraum in Konstanz ein. Das Zimmer entsprach mit seiner Multimediaausstattung eher einem Studio, denn die Technik ermöglichte neben Filmaufnahmen aller Teilnehmer auch die Audioaufnahme der Gespräche samt automatischer Transkription. Natürlich verfügten die Teilnehmer über eigene Technik- die Grundausstattung Notebook, Handys, Smartwatches, usw.- welche allesamt im Netzwerk angemeldet miteinander kommunizierten.

In seinem Vortrag stellte dann einer der Sprecher (IT-Profi, welcher sämtliche Geräte der Teilnehmer in wenigen Sekunden mit einem KI-Programm geknackt hatte) die Möglichkeiten der künstlichen Intelligenz (KI) im Hinblick auf Automatisierung der Prozessabläufe in der Medizinproduktbranche vor- und nebenbei fand auch Chat GPT Erwähnung.

Aber eben nicht in jener dystopischen Bedeutung, welche die Massenarbeitslosigkeit und den unmittelbar bevorstehenden Weltuntergang sah, sondern eher als -naja- Spielzeug. Da gebe es ganz andere KI-Raketen, welche der Öffentlichkeit niemals zur Verfügung stünden, sondern nur dem Militär, und-oha- der politischen Elite. Also dem Abschaum. Natürlich sei Chat GPT ein verlockendes Mittel für z.B. Studierende, oder Schüler. Aktuell seien die Fähigkeiten jedoch mehr als eingeschränkt.

Da hatte der kundige Mann einen Nerv getroffen, denn zu dieser Zeit -irgendwann im Sommer 2022- ploppte das Thema Chat GPT überall und bei jeder Gelegenheit auf wie Popcorn, zahlreiche Tutorials im Netz machten Lust auf den Chatbot. An Unis drehte sich fortan alles um dasselbe Anliegen: wie komme ich schnell und günstig an die Abschlussarbeit.

Ein gewagtes Spiel, denn zu diesem Zeitpunkt fantasierte Chat GPT einfach Quellen herbei, und lieferte so substanzlose Quellenlisten z.B. von Wikipedia! Aus Wikipedia zu zitieren, galt an österreichischen Hochschulen schon immer als Unding- gerechtfertigt, wie wir alle in den letzten 2 Jahren erfahren durften. Niemand will Wikipedia in der Quelle haben, wenn sein Werk ernstgenommen werden soll. Doch die Quellenangaben passte Chat GPT nach Belieben an: wurde ein Zusatztext generiert, änderte sich auch Ruckzuck die Quelle. Nicht zu gebrauchen für wissenschaftliches Arbeiten.

Je nach Fachgebiet zeigte die Software im Selbstversuch jedenfalls merkliche Stärken, aber auch abgrundtiefe Defizite. Besonders im Bereich Medizin, Medizintechnik, Bildgebende Verfahren, aber auch Diagnostik erwiesen sich die Ergebnisse der Anfragen an Chat GPT als fast schon fahrlässig.

Auf die Fragestellung: „Besteht ein Zusammenhang zwischen Impfnebenwirkung und einer nicht erfolgten Aspirationsprüfung bei Impfstoffen?“ war die Antwort von Chat GPT:“ Es besteht kein Zusammenhang, weil es im Oberarm keine Gefäße gibt, welche bei einer Impfung verletzt werden könnten.“ Dies ist aus vielen Gründen definitiv falsch. Die Antwort erinnerte mich an unseren ehemaligen Gesundheitsminister Mückstein, welcher bei einer parlamentarischen Anfrage und Live auf ORF 3 dieselbe fatale Antwort gab- als „Arzt“. (Mücke hat wohl an der BOKU studiert).

Manche Anfrage lehnte Chat GPT sogar ab, so z.B. „Prüfe den Zusammenhang zwischen dem White Lung Syndrom (in China) und Covid.“ Die AW: „Wegen sicherheitspolitischen Bedenken kann ich keine Antwort darüber geben. China hat eine sehr geringe Impfquote. Der Staat setzt auf Präventivmaßnahmen.“ Hm. Gut, damals machte das White Lung Syndrom nur in den kanadischen und australischen Medien die Runde, und passte offensichtlich nicht ganz in die Welt Agenda- angesichts der bevorstehenden „Russenoffensive im Winter“ hatte hier die mediale Inquisition andere Hexen am Scheiterhaufen. Immerhin- die nächste Medien Pandemie fand so erst gar nicht statt.

Ok Ok, die Software Chat GPT hat laut Angaben von OpenAI die Anwaltsprüfung in den USA bestanden- doch was sagt uns das über das amerikanische Rechtssystem? Das kann wohl ein Anwalt besser kommentieren …

Langer Rede, kurzer Sinn: in einer Pause gab ich meine Anweisung an Chat GPT ein: „Schreib mir eine Geschichte über Lehrpersonen, welche sich kritisch über Chat GPT unterhalten. Sie haben Bedenken vor den Auswirkungen dieser Technik.“

Chat GPT benötigte ca. 10 Sekunden, um den Text zu generieren. Beim ersten Querlesen fiel mir auf, wie langweilig der Text war. Beim erneuten Lesen traf mich fast der Schlag: ich erkannte Textpassagen und Schlüsselwörter-, welche im Verlauf der Informationsveranstaltung gesagt worden waren- und zwar im Wortlaut!

Am Ende der Informationsveranstaltung nahm ich als gefühlt thematischer Neandertaler allen Mut zusammen und stellte eine OFF Topic Frage- also eine Frage die nichts mit der Informationsveranstaltung zu tun zu haben schien.

Ich schilderte dem Plenum mein Experiment und das Ergebnis, und zitierte aus dem Text: „P1 bis P6, Exponentialfunktion und Wahrscheinlichkeitsrechnung, Auswirkungen von künstlicher Intelligenz auf die Berufstätigkeit, Wirtschaftssanktionen gegen Russland, ethische Bedenken…sind diese Worte und Sätze nicht in den letzten 2 Tagen hier in diesem Raum gefallen? Wie hoch ist die Wahrscheinlichkeit, dass ein Chatbot genau jene Gesprächsinhalte wiedergibt? Ich meine, das ist doch auffällig?“

Meine Ausführungen wurden zuerst lautstark belacht- immerhin ein Erfolg angesichts der IT-Mannschaftsstärke, denn die IT verfügt bekanntlich über keinen Humor, von dem sie wüsste. Doch eben jener Vortragende, welcher Chat GPT erwähnte, hörte ganz genau zu, und meinte dann trocken: „Glaube ich sofort“.

Es herrschte danach so etwas wie betroffene Betattertheit, perplexe Blicke wurden ausgetauscht, manche reagierten mit zustimmendem Kopfnicken. Sogleich konterte ein Fachexperte, dass dies nicht sein könne, weil Chat GPT ja nur Texteingaben verstehe. Andere argumentierten, dass Sprache in Code und dann in Text umgewandelt werde, Chat GPT mache beim Codieren keine Unterschiede. Wieder andere bestätigten ähnliche Erfahrungen, Siri, Alexa, Cortana und Teams schienen mit von der Partie zu sein.

Es entwickelte sich eine angeregte Diskussion mit unglaublich interessanten Aussagen, welche nicht nur ich in dieser Form noch nie zuvor gehört hatte. Bewusstseinserweiternd auf jeden Fall. Und auch ein klein wenig beunruhigend.

Wussten Sie etwa, dass Sam Altman (OpenAI CEO) ein Hardcore Prepper ist, und angeblich seit Jahren in seinem Bunker in Kalifornien (Big Sur) lebt? Was sagt uns das, wenn sich die führenden Köpfe der KI und des AI in Bunkern verkriechen, oder ist das der kalifornische Way of Life? Vorschlag: Recherchieren Sie doch mal über Sam Altman! Wenn sie nach 5 Minuten nicht wissen sollten, wen sie angesichts der auftauchenden Akteure vor sich haben, dann nutzen sie bitte so schnell als möglich jede Art von künstlicher Intelligenz, denn ihre Natürliche reicht für die Zukunft nicht aus.

Oder: wussten sie, dass der Turing Test schon 70 Jahre alt ist, und es noch keine Software gab, welche diesen Test bislang bestand? Turing sagt Ihnen nichts? Enigma? Klingelts jetzt? Wenn nicht: nach der Recherche zu „Turing“ werden sie jedenfalls auch verstehen, weshalb ich strikt gegen gesetzlich verordnete Zwangsbehandlungen bin, nur weil eine Gesellschaft ihre Werte und Moralvorstellungen zementieren will.

Fun Fact am Rande: besonders lustig verhält sich übrigens die Diktierfunktion von Word, wenn man Chat GPT ins Mikrofon spricht:

Word macht aus Chat GPT- Chat Dschibuti.

Ausblick auf Teil 3

Die mobile Version verlassen