Sprachprogramm ChatGPT

Die Uni-Hausarbeit hat ausgedient

04:49 Minuten
Illustration: Buchstaben fliegen aus einem digitalen Tablet.
Hausarbeiten und wissenschaftliche Aufsätze: Alles bald mit ChatGPT geschrieben? © Getty Images / iStockphoto / Peshkov
Von Piotr Heller · 22.12.2022
Audio herunterladen
Das Sprachprogramm ChatGPT kann bereits recht gute wissenschaftliche Aufsätze schreiben: Ob von Studenten oder der Software verfasst, ist kaum mehr zu unterscheiden. Das muss zwangsweise das Prüfungswesen an den Hochschulen revolutionieren. Doch wie?
Wer hat sich nicht schon mal Gedanken über relationale Verträge im Zusammenhang mit Zulieferern des Autobauers Toyota gemacht? Wahrscheinlich keiner, außer einer Handvoll Management-Experten. Dennoch könnte so gut wie jeder heutzutage einen Aufsatz darüber schreiben – oder besser gesagt: schreiben lassen. Das hat der kanadische Management-Professor Kevin Bryan jüngst vorgeführt. Er stellte dem Sprachmodell ChatGPT ein paar Fragen. Das System spuckte seiner Meinung nach eine raffinierte Antwort zu diesem komplexen Thema aus.
Robert Lepenies, Präsident der Karlshochschule, wiederum hat dem Chatbot aufgetragen, eine Forschungsfrage zu entwickeln. Thema: Wie hängen Fake News auf Facebook mit Einstellungen zu LGBTQ-Plus-Fragen zusammen? Note, die er für die Antwort gegeben hätte: eine zwei. „Aber das hängt entscheidend von der Art der Frage ab, die man dem System stellt. Wenn man nachhakt und auch kreative Fragen stellt, dann gibt es auch gute Antworten.“

Aufgaben wie bisher aufgeben: sinnlos

Viele Hochschullehrer haben solche Erfahrungen gemacht. Ihr Urteil: Wir können Studenten keine Hausaufgaben mehr aufgeben. Das ist ein Problem, denn Zweck dieser Arbeiten sei auch, „durch wissenschaftliche Methoden, aufzuzeigen, wie man Wissen diskutiert, infrage stellt und uns sozusagen als Gesellschaft weiterbringt“.
Studenten lernen damit aber Gedanken zu formulieren, zu sortieren – überhaupt zu fassen. Mit ChatGPT können sie all das vortäuschen. Eine anonyme Studentin oder ein Student offenbarte jüngst in einer neuseeländischen Zeitschrift, solch ein System bereits für sich schreiben zu lassen. Die Noten hätten sich verbessert. Klar ist der erste Reflex, die Systeme zu verbieten oder ihre Macher zu zwingen, zufällige Fehler in die generierten Texte einzubauen, um Schummeleien auffliegen zu lassen. Es gibt zudem – noch unzuverlässige – technische Versuche, maschinengeschriebene Texte zu erkennen.

Neue Ansätze bei Prüfungsaufgaben

Robert Lepenies denkt weiter. Er überlegt, wie Hochschulen sich anpassen können. Eine Idee: „Man schreibt eine Hausarbeit und darf auch gerne dieses Tool dazu nutzen, aber dann sollte man am Ende noch mal einen kleinen Reflexionspassus darüber schreiben: Warum wurde das Tool wie eingesetzt und wie hat das sozusagen das eigene Denken beflügelt oder auch nicht beflügelt?“
Aber – Überraschung – diese Art von Selbstreflexion bekommt ChatGPT auch hin. Robert Lepenies hat die Fragen mit seinen Studenten diskutiert. „Ein Vorschlag war, dass man sich eben eine Woche lang auf eine Schreibklausur begibt und dann den Prozess des Schreibens zusammen bewertet und gemeinsam darüber während des Schreibens oder zwischen den Schreibeinheiten miteinander spricht.“ Das würde die Hochschule auch eher zu einem Ort des Erlebens machen. Etwas, das laut Lepenies derzeit zu kurz komme.

Mit statt gegen ChatGPT

Dennoch darf man bei der Debatte nicht die Chancen künstlicher Intelligenz für die Hochschulen übersehen. Ethan Mollick von der University of Pennsylvania meint, dass solche Systeme Studenten etwa helfen könnten, Wissen auf anderen Felder zu übertragen. Solch ein Transfer erfordere tiefes Verständnis – also genau das, was die Hochschule den Studenten vermitteln soll.
Mollick schlägt also vor, ChatGPT selbst Wissen transferieren zu lassen, etwa indem man ihm sagt: „Erstellen Sie ein Star-Wars-Drehbuch, das zeigt, wie ein Gesetzentwurf zu einem Gesetz wird.“ Die Studenten sollen die Ergebnisse dann beurteilen – und verbessern.
Auch Robert Lepenies hat die nützliche Seite von ChatGPT und Co. für sich entdeckt. „Ich nutze GPT-3 jetzt schon als intellektueller Sparringspartner“, sagt er. „Ich entwickle beispielsweise zehn Prüfungsfragen und frage das Programm: Was könnte man denn noch fragen? Teilweise kommt Blödsinn raus. Aber es ist dieser Blödsinn, der mich dann kreativ angeregt, mir richtig gute Fragen weiter zu stellen.“
Mehr zum Thema