ChatGPT – Was die KI für die Hochschulzukunft bereithält

Autorin: Caroline Beck | Bild: In einer Studie wurde der neue Chatbot unter die Lupe genommen. [Foto: pixabay]

Seit Ende November 2022 ist der KI-Chatbot ChatGPT in seiner Testversion der Öffentlichkeit kostenlos zugänglich. Seitdem hat das Sprachsystem so großen Anklang gefunden, dass wegen zu hoher Anfragen die Server von Zeit zu Zeit überlastet sind. Was die Künstliche Intelligenz bereithält und warum sie besonders im Hochschulkontext für Umschwünge sorgen könnte. 

ChatGPT ist ein KI-Textgenerator, der vom kalifornischen Forschungslabor OpenAI entwickelt wurde. Das Dialogsystem ist in der Lage, im Chat eine Unterhaltung in natürlicher Sprache zu simulieren und unmittelbar Antworten zu generieren – man muss nur die richtige Frage stellen. Das gelingt, weil die KI mit unzähligen Texten gefüttert wurde und dadurch auf eine riesige Datenbank zurückgreift. Dabei ist sie nicht nur dazu imstande, Fakten und Konzepte verständlich wiederzugeben und zu erläutern, sondern auch Bewerbungen zu schreiben, Gedichte zu verfassen, Programmcodes zu erstellen oder ganze Textzusammenfassungen oder Aufsätze anzufertigen. 

Das hat sich bei Schüler:innen und Studierenden herumgesprochen. Die Versuchung, die KI lästige Textaufgaben oder ganze Hausarbeiten verfassen zu lassen und anschließend als eigene Leistung einzureichen, liegt nahe. Wie gut sich wissenschaftliche Arbeiten mit ChatGPT tatsächlich fälschen lassen, haben Forscher:innen an der Northwestern University und der University of Chicago kürzlich in einer Studie untersucht. Dabei wurde ChatGPT dazu aufgefordert, wissenschaftliche Zusammenfassungen von 50 echten, bereits veröffentlichten medizinischen Artikel zu verfassen. Diese 50 Abstracts wurden dann, nach Zufallsprinzip gemischt, zusammen mit 50 echten Abstracts von einem KI-Erkennungstool, einem Plagiatserkennungstool und Medizinier:innen auf ihre Echtheit hin geprüft. 

32 Prozent der KI-Texte wurden nicht erkannt 

Während das KI-Erkennungstool die meisten Fälschungen ausmachen konnte, erkannten die Gutachter:innen nur 68 Prozent der KI-generierten Abstracts und schätzten 14 Prozent der echten Abstracts als Fälschungen ein. Die Gutachter:innen merkten dabei an, dass sich eine klare Differenzierung der Original-Abstracts und der KI-Abstracts als überraschend schwierig herausgestellt habe; die künstlich generierten Texte hätten sich – wenn überhaupt – durch ihren teils ungenauen und eher formalen, hölzernen Sprachstil zu erkennen gegeben. Das Plagiatserkennungstool schätzte alle Abstracts als Originale ein, was sich darauf zurückführen lässt, dass die ChatGPT-Texte zwar künstlich generiert sind, aber keine eins-zu-eins kopierten Stellen enthalten, es sich dabei also nicht im herkömmlichen Sinne um Plagiate handelt.

Dass die Expert:innen 32 Prozent der Fälschung nicht als solche erkannten, lässt aufhorchen. Die Studienergebnisse zeigen, dass ChatGPT in der Lage ist, überzeugende wissenschaftliche Texte zu verfassen, die sogar Expert:innen zu täuschen vermögen, die nach Fälschungen Ausschau gehalten haben. Das lässt die Vermutung zu, dass im Hochschulkontext KI-generierte Texte in einzelnen Fällen unentdeckt bleiben können, besonders, wenn von vornherein kein Verdacht geschöpft wird.

Zu bedenken bleibt, dass es sich hierbei um eine kleine Studie mit geringer Stichprobengröße und wenigen Gutachter:innen handelt. Auch die genaue Formulierung der Aufforderung zur Textgenerierung hätte noch so weit ausgeschöpft werden können, dass womöglich noch glaubwürdigere Texte entstanden wären.  

Dennoch spuckt der Chatbot je nach Fachbereich und Komplexität oberflächliche und weniger kreative Texte aus, die sich schnell als nicht menschengemacht erkennen lassen. Ebenso neigt die KI immer wieder zu Falschinformationen oder erfundenen Quellen, da sie ihre Informationen nicht nur aus wissenschaftlichen Artikeln, sondern zum Beispiel aus Internetforen bezieht. Zudem wurde das Sprachsystem lediglich mit Daten auf dem Stand von 2021 gespeist. 

Zukünftiger Umgang im (Hoch)schulkontext unklar

(Hoch)schulen müssen davon ausgehen, dass die KI als Hilfestellung verwendet werden kann. In Schulen in New York wurde der Zugriff auf den Chatbot durch das Schulnetzwerk bereits gesperrt. Jedoch kann das Sprachmodell nicht nur als Schummelhilfe, sondern auch als Lernstütze genutzt werden. Es kann komplexe Konzepte in einfacher Sprache wiedergeben und so zum Verständnis beitragen, oder beispielsweise Vorschläge bei der Themenfindung für Hausarbeiten bieten. 
Problematisch kann es werden, wenn die Software eigenes kritisches Denken ersetzt und Lernprozesse behindert. Da ChatGPT-Texte zumindest zum jetzigen Zeitpunkt nicht eins-zu-eins übernommen werden können, sondern vor Abgabe noch einmal vom Menschen auf ihre Kohärenz und mögliche Fehler überprüft werden sollten, bleibt ein erforderliches Maß an Reflexionsfähigkeit und Urteilsvermögen unerlässlich. Wie in Zukunft am besten mit den Vorteilen und Risiken der KI im (Hoch)schulkontext umgegangen wird, bleibt abzuwarten.


Beitrag veröffentlicht

in

von

Schlagwörter: