Seit Ende 2022 und verstärkt in jüngster Zeit entwickelt sich ein intensiver und mittlerweile in breiter Öffentlichkeit geführter Diskurs um die Auswirkung von KI-Systemen wie ChatGPT für Lehre und Studium an Hochschulen. Die Leistungsfähigkeit dieses Chatbots (und auch anderer KI-Systeme wie z.B. www.jenni.ai) wurde inzwischen wiederholt im akademischen Kontext medienwirksam unter Beweis gestellt. Es ergeben sich Fragen zum Einsatz und der Nutzung von KI-Systemen in der Hochschullehre, die im Folgenden kurz beantwortet werden sollen. Die Auseinandersetzung befindet sich erst am Anfang und wir werden das Thema weiterhin für Sie beobachten.  

1. Was ist “ChatGPT”? 

ChatGPT ist ein vom Unternehmen OpenAI entwickelter frei zugänglicher KI-basierter Natural-Language-Processing-Chatbot, der in der Lage ist, menschliche Konversationen zu simulieren. Er verwendet neuronale Netzwerke und basiert auf einem sehr großen Textkorpus (ein sog. LLM = Large Language Model), um natürliche Sprache zu verstehen und darauf basierende Antworten auf von Nutzerinnen und Nutzern gestellte Fragen zu generieren. Die Interaktion mit ChatGPT findet dialogisch statt, und es ist möglich sich auf vorherige Konversationsinhalte zu beziehen. Dabei greift ChatGPT auf umfangreiche Wissensbestände zurück, die auch wissenschaftliche Publikationen umfassen. ChatGPT kann dadurch komplexe und umfangreiche Texte unterschiedlicher Gattungen verfassen, domänenspezifische Wissensstände zusammenfassen sowie systematisieren und teilweise durchaus elaborierte Antworten auf anspruchsvolle wissenschaftliche Fragen geben. Die Ausgaben von ChatGPT werden probabilistisch erzeugt, d.h. das variierende Antworten auf die jeweils gleiche Eingabe (=“Prompt”) erzeugt werden können. Da die zu Grunde liegende Textkorpora unklar, potenziell unvollständig oder einseitig sind, werden nicht selten sachlich falsche oder unvollständige Ausgaben generiert; man spricht in diesem Zusammenhang auch von “halluzinierten” Ausgaben. 

Hinweise des Unternehmens OpenAI zur Nutzung von ChatGPT im Bildungssektor finden Sie hier (engl.).

2. Welche Herausforderungen sind mit von KI-Systemen wie ChatGPT für Prüfungsleistungen verbunden? 

KI-Systeme wie ChatGPT können verwendet werden, um Fragestellungen zu bearbeiten, wie sie im Kontext der Hochschullehre häufig im Rahmen von Klausuren, Seminar- und Abschlussarbeiten, Übungen oder regelmäßigen Hausaufgaben an Studierende gestellt werden. Dies geht soweit, dass die Antworten bzw. Lösungen komplett und umfassend von der KI erbracht werden können. Dies ist mit der Problematik verbunden, dass für diese Art von Leistungen die selbstständige/eigenständige Bearbeitung ein wichtiges Kriterium für den Studienerfolg ist.  

  • Durch die Verwendung der KI zur Lösung von Prüfungsfragen, ist die geforderte eigenständige Bearbeitung nicht mehr gegeben.  Das wäre der Fall, wenn Studierende den Einsatz von KI nicht kenntlich machen oder die Bearbeitung zu großen Teilen durch die KI erfolgt ist. Damit würden Studierende schließlich der ehrenwörtlichen Erklärung widersprechen, die vielen schriftlichen Leistungsnachweisen abverlangt wird. Es besteht also die Gefahr, dass Studierende diese KI-Tools verwenden, um in prüfungsrelevanten Leistungen zu täuschen. 
  • Das Betrugspotenzial wird erhöht, da gängige Plagiatssoftware Texte, die von KI-Tools wie ChatGPT erstellt wurden, nicht erkennt. Auch wenn Plagiatserkennungssoftware Betrug nicht aufdecken kann, weisen die, zumindest mit ChatGPT, erstellten Texte einige Merkmale auf, die einen KI-Einsatz im akademischen Kontext verraten: Zitate sind oft falsch, Quellenangaben enthalten erfundene Quellen.  

3. Welche Auswirkungen kann das für die Formulierung von Aufgabenstellungen für schriftliche Prüfungen und Hausarbeiten haben?  

Aufgrund der generativen und variablen Art und Weise, in der ChatGPT seine Antworten produziert, ist es im Vergleich zu “klassischen” Plagiaten schwieriger, die Verwendung dieses Tools in schriftlichen Leistungen von Studierenden zu erkennen. Es kann im Einzelfall zwar trotzdem möglich sein, durch eigene Überprüfung der KI mit den jeweiligen Fragen Antwortschemata und systematische Muster im Antwortverhalten zu erkennen, jedoch ist dies mit erhöhtem Aufwand verbunden. Inwieweit die Verwendung spezialisierter automatisierter Detektionssoftware (z.B. GPTZero: https://gptzero.me/, AI Content Detector: https://writer.com/ai-content-detector/, GLTR: http://gltr.io/) erfolgversprechend ist, kann derzeit noch nicht abschließend bewertet werden. 

Um die Verfälschbarkeit von Prüfungsleistungen zu reduzieren, empfiehlt sich für die Gestaltung schriftlicher Prüfungs-(Leistungen): 

  • Vermeiden Sie Fragestellungen, die überwiegend Reproduktion oder einfache Anwendungen von Wissen erfordern. Stattdessen bietet es sich an, eher Fragestellungen verwendet werden, die eine konstruktive Anwendung bzw. (Praxis-Theorie-)Transfer von Fachwissen und fachbezogenen Methoden und Fertigkeiten erfordern (also z.B. Bewerten von Ergebnissen, Aussagen oder Schlussfolgerungen; Synthetisierung und (Re-)Kombination bekannter Konzepte und Theoreme; Analysieren von Sachverhalten und Problemstellungen auf Basis wesentlicher Konzepte; Identifikation von Desiderata für die zukünftige Forschung). 
  • Da ChatGPT jedoch auch zu elaborierteren Leistungen in der Lage ist, empfiehlt sich als zusätzliche Strategie, verstärkt mit konkreten und ggf. aktuellen (oder fiktiven) Inhalten, Situationen oder Fallbeispielen zu arbeiten, die für die KI schwerer zu kontextualisieren und in Zusammenhang mit trainierten Wissensbeständen zu setzen sind. Im günstigen Fall ermöglicht Ihnen diese Strategieas, nicht-adäquate Lösungen schneller zu detektieren, da ChatGPT zumindest zum jetzigen Zeitpunkt gerne noch “halluziniert”, d.h. fiktive, unsinnige Angaben macht.

4. Welche Chancen und Potenziale liegen in der Nutzung von KI-Systemen wie ChatGPT in der Hochschullehre?

Der konstruktive und reflexive Umgang mit KI-Systemen wird aus gesellschaftlicher Perspektive zunehmend wichtiger und spielt insbesondere in beruflichen und wissenschaftlichen Kontexten eine große Rolle. Insofern kann es ein wichtiges Kompetenzziel akademischer Ausbildung sein, domänenspezifische Kompetenzen im Umgang mit KI-Systemen zu entwickeln (AI Literacy, d.h. Kompetenzerwerb im Umgang mit KI und deren kritische Reflexion). 

Lehrende kann ChatGPT beispielsweise bei folgenden Aufgaben unterstützen: 

  • Redigieren und Korrigieren von Texten bzw. Textbausteinen 
  • Erstellen von templateartigen Kommunikationselementen (z.B. Mailvorlagen, Feedbackvorlagen) 
  • Anpassung von Texten an unterschiedliche Zielgruppen bzw. Lernende mit unterschiedlichen Wissensniveaus 
  • Generieren von Ideen für Planung und didaktische Ausgestaltung der Lehre (z.B. Brainstorming Seminartitel, Erstellen eines Entwurfs für eine Seminarsitzung) 
  • Erstellen von Lehrmaterial (z.B. Aufgabenstellung, Fallbeispiele, (nicht adäquate) Beispiellösungen, Guidelines zur Verfassung von Texten)
  • Erstellen von Prüfungsfragen Studierenden ermöglicht ChatGPT vor allem einen individuellen Zugang zu Wissensbeständen und damit individualisierte und dialogische Lernprozesse. Dabei zeigen sich die Potenziale von ChatGPT insbesondere dann, wenn Studierende mit dem KI-System in eine Interaktion treten, in der sie Rückfragen stellen, dem System Feedback geben oder einen Abgleich der Antworten mit anderen Wissensbeständen vollziehen.  

Ausführlich hierzu auch: https://www.hul.uni-hamburg.de/selbstlernmaterialien/dokumente/hul-chatgpt-im-kontext-lehre-2023-01-20.pdf 

5. Wie kann ich mit meinen Studierenden über die (Nicht-)Nutzung von ChatGPT adäquat kommunizieren?

Es kann sinnvoll sein, Studierende über die Nutzung von KI-Systemen wie ChatGPT aufzuklären, trotz der aktuellen medialen Auseinandersetzung, die nicht immer die akademische Perspektive einnehmen. Ein KI-System wie ChatGPT ist, aufgrund seiner auf Basis der vortrainierten oder dynamisch hinzugezogenen Wissensbestände und in Abhängigkeit von den Eingaben der Nutzer und Nutzerinnen, nicht vor systematischem Bias und fehlerhaften bzw. falschen Informationen gefeit. Anders formuliert: Ausgaben von ChatGPT können schlicht falsch sein – gerade unter wissenschaftlichen Gesichtspunkten und mit wissenschaftlichen Ansprüchen. Alle Ergebnisse müssen kritisch reflektiert und auf Basis wissenschaftlicher Forschungsstände bewertet werden:  

  • Da bisher von Seiten der Firma OpenAI der Korpus, der ChatGPT zu Grunde liegt, nicht veröffentlicht ist, muss davon ausgegangen werden, dass beispielsweise wissenschaftliche Quellen, die nicht öffentlich zugänglich sind, nicht berücksichtigt wurden, wodurch sich ein negativ zu bewertender Selektionseffekt auf referenzierte Wissensbestände ergibt.  
  • Auch die Frage, ob der Korpus bereits Plagiate oder fehlerhafte Quellen umfasst, kann aufgrund der fehlenden Transparenz nicht beantwortet werden. Aktuelle Quellen nach 2021 fanden zum jetzigen Zeitpunkt noch keine Berücksichtigung.  

Es erscheint außerdem sinnvoll, die mögliche Rolle von KI-Systemen wie ChatGPT in Bezug auf die Kompetenzerwartung an die Studierenden für sich selbst zu reflektieren und eine Bewertung vorzunehmen, inwiefern und mit welchem Aufwand die Kompetenzerwartungen durch KI-Systeme erfüllbar sind. Dies lässt sich beispielsweise erreichen, indem exemplarische Aufgabenstellungen in ChatGPT eingeben und die Antwort geprüft wird. 

6. Was empfiehlt sich zusammengefasst bzgl. des Umgangs mit KI-Systemen wie ChatGPT in Lehre und Studium?

Es empfiehlt sich ein kritisch-konstruktiver und in die Zukunft gerichteter Umgang mit KI-Tools wie ChatGPT, die zunehmend in gesellschaftlichen, wirtschaftlichen und wissenschaftlichen Kontexten an Bedeutung gewinnen.  

  • Den Studierenden zu kommunizieren, dass die Nutzung von ChatGPT in schriftlichen Leistungen im Sinne einer Zitation und / oder als Hilfsmittel auszuweisen ist (dazu kann die Angabe der Prompts gehören, d.h. die Anfragen, die an die KI gestellt wurden, sowie die Dokumentation der Ergebnisse des KI-Tools. Dies kann z.B. in ähnlicher Weise geschehen, wie es in den Standards wissenschaftlichen Arbeitens zu Interviews den Gepflogenheiten des jeweiligen Fachs entspricht.  
  • Den Studierenden beharrlich klarzumachen, dass Seminar- und Prüfungsleistungen, die nicht eigenständig erbracht werden, aber als eigenständig deklariert werden, nicht akzeptiert und als Täuschung mit “nicht bestanden” gewertet werden. In schweren Fällen der Täuschung oder wiederholten und/oder besonders schweren Fällen kann dies, je nach Prüfungsordnung auch zur Exmatrikulation führen. 
  • Mit den Studierenden zu Beginn des Seminars/der Vorlesung die eigenen Erwartungen und Regelungen im Umgang mit KI-Tools wie ChatGPT zu besprechen und transparent zu machen (z.B. im Sinne von Rules for Tools: https://csp.uber.space/phhd/rulesfortools.pdf). 
  • Mit den Studierenden gemeinsam diskursiv zu prüfen und zu testen, welche Einsatzmöglichkeiten KI-Tools wie ChatGPT für die Auseinandersetzung mit Lerninhalten und den Kompetenzerwerb bieten. 
  • Kompetenzanforderungen und Prüfungsfragen für schriftliche Leistungen zu reevaluieren und ggf. anzupassen, so dass die Wahrscheinlichkeit, dass diese durch KI mittels einfacher Prompts erfüllt werden können, verringert wird. 

7. Wo kann ich mich über die Fähigkeiten von ChatGPT und damit verbundene Herausforderungen und Chancen für Universitäten weitergehend informieren, und welche Unterstützungsleistungen bietet die Universität Augsburg ihren Lehrenden mit Blick auf ChatGPT?

Es werden regelmäßig verschiedene Informationsveranstaltungen und Weiterbildungsmaßnahmen zu Chancen und Herausforderungen von KI-Tools wie z.B. ChatGPT in der Hochschullehre angeboten. Insbesondere empfehlen wir in diesem Zusammenhang die Weiterbildungsangebote von ProfiLehre. Bitte informieren Sie sich auf der verlinkten Webseite über die Angebote für das jeweiliger Semester. Auch Mitarbeiter:innen des DigiLLab bieten regelmäßig Weiterbildungsformate über ProfiLehre an.

Wenn Sie spezifische Rückfragen zur technischen Nutzung von ChatGPT und / oder zur Einbettung in digitale Lehr-Lernszenarien haben, können Sie mit dem Zentrum für digitales Lehren und Lernen (DigiLLab) der Universität Augsburg für eine individuelle Beratung via Mail Kontakt aufnehmen

Eine umfangreiche und kommentierte Linkliste zu vielfältigen Perspektiven auf das Themenfeld KI in der Bildung (v.a. ChatGPT in der Lehre) ist auf den Seiten des Hochschulforums Digitalisierung zu finden.  


Ihr Feedback zu dieser FAQ…

Bitte schreiben Sie uns bei Feedback eine E-Mail an: team@digillab.uni-augsburg.de