KI-Tools beim Lehren, Lernen und Prüfen

Richtlinien, Handlungsempfehlungen, Anlaufstellen und weiterführende Informationen

Die Entwicklungen im Bereich KI werden auch an der Universität Konstanz aufmerksam verfolgt und Chancen, aber auch Herausforderungen, die sich aus KI-Tools für Lernen, Lehren und Prüfen ergeben, diskutiert. Dies betrifft unter anderem sprachbasierte, textproduzierende Tools wie z. B. ChatGPT. Es ist davon auszugehen, dass sich sowohl die Anzahl entsprechender Tools und ihrer Einsatzfelder als auch die Qualität der erhaltenen Ergebnisse schnell weiterentwickeln wird, weshalb sich die Universität aktiv mit sinnvollen Einsatzmöglichkeiten von KI in der Hochschullehre, aber auch kritisch mit Auswirkungen auf Lehr- und Prüfungssituationen auseinandersetzt.

Letzte Überarbeitung: 27.10.2023

Richtlinien und Handlungsempfehlungen

Aufgrund der Vielzahl von Anwendungsbereichen und Tools ist es weder sinnvoll noch möglich, KI generell zu ignorieren oder zu verbieten. Stattdessen bieten universitäre Lehrveranstaltungen die Möglichkeit, den verantwortungsvollen Umgang mit den Chancen und Risiken des Einsatzes von KI-Tools aktiv anzusprechen, zu überdenken und ggf. zu üben, da der reflektierte und verantwortungsvolle Umgang mit digitalen Tools sowohl im Kontext universitären Lehrens und Lernens als auch in akademischen Arbeitsumfeldern unverzichtbar ist.

Die freie Verfügbarkeit einer Vielzahl von Werkzeugen und die schnellen technologischen Entwicklungsschübe stellen neue Anforderungen an Lehrende und Prüfende. Die folgenden Informationen sollen es Lehrenden ermöglichen, die Nutzung von KI in ihren Lehrveranstaltungen zu thematisieren und sowohl die Verwendung als auch den Ausschluss der Nutzung zu erläutern. Studierenden sollen diese Informationen eine Orientierung zu Hintergründen universitärer Regelungen geben und eine Gesprächsgrundlage für Überlegungen, ob generative KI in bestimmten Szenarien eingesetzt werden kann, liefern.

KI Tools und ihre Funktionsweise

Was ist in diesem Kontext mit KI-Tools gemeint?

Die folgenden Informationen beziehen sich auf generative KI, die neue Inhalte erzeugen kann, z. B.:

  • Tools, die deutlich über etablierte Tools wie die Rechtschreibkontrolle hinausgehen, weil sie neue Textinhalte generieren (auf Sprachmodellen beruhende Tools wie chatGPT)
  • Tools, die nach Eingabe eines Prompts die ihnen zur Verfügung stehenden Datenbanken durchforsten und Zusammenfassungen generieren (Research Assistent Tools wie Elicit, Perplexity)
  • Tools, die Bildmaterial durch maschinelles Lernen generieren (Diffusionsmodelle wie Midjourney, Stable Diffusion)
  • Tools, die Studierende nutzen können, um individualisiertes Lernmaterial zu erstellen oder sich über Inhalte abfragen zu lassen (Recommender und Learning Analytics Tools wie ChatPDF, TutorAI)

Ein Überblick über KI Tools im Hochschulkontext ist beim Virtuellen Kompetenzzentrum VK:KIWA verfügbar.

Funktionsweise textgenerierender KI

Textgenerierende KI beruht auf Sprachmodellen, die über Wahrscheinlichkeiten funktionieren. Wenn ein Text fortgesetzt werden soll, wird das nächste Wort aus einer Gruppe von Wörtern ausgewählt, die in einer bestimmten Wahrscheinlichkeitsklasse liegen. Dieses Zufallselement führt dazu, dass bei gleicher Eingabe unterschiedliche Texte generiert werden. Damit die generierten Texte möglichst wie von Menschen geschriebene Texte klingen, werden diese Sprachmodelle mit einer riesigen Menge an Trainingsdaten trainiert und können sowohl Wortbedeutungen als auch den Kontext von Wörtern mit einbeziehen.

Breit diskutiert wird derzeit ChatGPT. Hierbei kann das Sprachmodell GPT 3.5 über ein Chat-Interface sehr einfach eingesetzt werden, da es Anfragen in natürlicher Sprache verarbeiten und beantworten kann. Ziel war dabei, dass ChatGPT Texte erzeugt, die menschengemacht klingen, zur Eingabe passen und die Menschen mit hoher Wahrscheinlichkeit plausibel finden. Diese Texte müssen aber inhaltlich nicht korrekt sein.

Deutlich wird dies zum Beispiel bei Rechenaufgaben. Da ChatGPT auf einem Sprachmodell basiert, kann es nicht rechnen. Dennoch erzeugt es in manchen Fällen überraschend korrekte Ergebnisse von mathematischen Aufgaben. Das System weiß zwar nicht, was Addieren ist, kann aber den Text "17 + 12 =" aufgrund von statistischen Wahrscheinlichkeiten korrekt mit "29" fortsetzen.

Das System ist darauf trainiert, auch dann plausibel klingende Antworten zu generieren, wenn es keine Information über die richtige Antwort auf eine Frage hat. Das heißt, dass Antworten "erfunden" werden, die oberflächlich plausibel sind und sprachlich korrekt formuliert werden. Diese sogenannten Halluzinationen sind auch damit zu erklären, dass - zumindest in der aktuellen Version - kein Mechanismus integriert ist, mit dem Fakten vor der Ausgabe überprüft werden. Dies betrifft auch im Ausgabetext erwähnte Publikationen, die teilweise sehr überzeugend klingen, die es aber nicht gibt. Zwar lernt das System kontinuierlich dazu und gibt Warnhinweise aus, etwas nicht beantworten zu können, aber weiterhin sind Halluzinationen häufig. Gute Eingaben, also Prompts, können die Qualität der generierten Texte steigern.

Weitere Erläuterungen zur Funktionsweise von chatGPT: Krapp, KI in Schule und Uni (Video), Weßels, Was ist ChatGPT? (Video) und Arnold, ChatGPT für Nicht-Informatiker (Video)

Reproduzierbarkeit, Blackbox und Bias

Aufgrund der stochastischen Algorithmen, über die KI-Sprachmodelle arbeiten, sind die Ergebnisse nicht reproduzierbar, dieselbe Eingabe führt zu unterschiedlichen Ergebnissen. Dazu kommt, dass die Verfügbarkeit von Rechenleistung und die Datenübertragungsqualität sich offensichtlich auf die Qualität der Ergebnisse auswirkt, d. h. die Qualität der Ergebnisse kann je nach „Traffic“ und „Load Balancing“ deutlich voneinander abweichen.

Ein großes Problem ist der "Blackbox Charakter" der kommerziellen Sprachmodelle, denn sowohl die Trainingsdaten, als auch der Algorithmus selbst sind intransparent. Bei den Trainingsdaten von ChatGPT besteht der überwiegende Großteil des Datenbestands  aus Daten der westlichen Länder oder der Nordhalbkugel. Trainingsdaten tragen naturgemäß auch ihre Kultur und Wertvorstellungen inhärent in sich und reproduzieren sich bei der Textgenerierung wieder. Die generierten Texte enthalten also einen Bias und festigen damit schleichend den Status Quo. 

Nachhaltigkeit und Ethik

Das Analysieren von Trainingsdaten durch Sprachmodelle und die dafür betriebenen Serverfarmen ist sehr energieaufwendig und im Sinne von Nachhaltigkeit und Klimaerwärmung problematisch. Studien zum Energieverbrauch verschiedener Sprachmodelle variieren, aber zeigen dennoch, dass mit dem Betreiben und der Nutzung dieser Tools ein sehr hoher Energiebedarf verbunden ist. Bei GPT-3 von OpenAI verursacht das Training laut Forscher:innen von Google und der Universität Berkeley den Verbrauch von 1.287 Megawattstunden Energie.  Das kommt dem Energieverbrauch von 320 Vierpersonenhaushalten in einem Jahr gleich.

An ethischen Fragestellungen stellen sich neben der Gefahr des Bias auch Fragen zu den Arbeitsbedingungen der Angestellten, die KI-Modelle trainieren. Teile des Trainings werden meist an Subunternehmen ausgelagert, dabei ist oft weder öffentlich bekannt, welche das sind, noch, welche Arbeitsbedingungen bei diesen Unternehmen vorliegen.

Öffentlich bekannt und einer breiteren Debatte unterzogen wurde die Arbeit von etwa drei Duzend Angestellten in Nairobi bei einem amerikanischen Unternehmen, das von OpenAI mit dem Labeln von Daten für das Training von ChatGPT betraut worden war. Dabei war es Aufgabe der Angestellten, “Negativ-Beispiele”, etwa Beschreibungen von Gewalt, sexueller Gewalt oder Hassrede zu klassifizieren, so dass die KI später dazu trainiert werden konnte, diese Art von Output zu verhindern.

Möglichkeiten und Einschränkung der Nutzung

In Bezug auf die Nutzung von generativer KI bei der Erstellung von Studien- und Prüfungsleistungen können vier Szenarien unterschieden werden:

1. Ausschluss jeglicher Nutzung von generativer KI

Immer wenn es darum geht, dass Studierende in einem ersten Schritt Basiskompetenzen erwerben sollen, um kognitive Aufgaben bewältigen können, kann es sinnvoll sein, die Nutzung von generativer KI auszuschließen. Manche dieser Aufgaben können möglicherweise schneller oder besser von generativer KI erledigt werden. Um Studierende zu motivieren, diese Basisfähigkeiten dennoch zu erlernen und zu üben, sollte dies in der Lehrveranstaltung erläutert werden. Es kann außerdem sinnvoll sein, Studierende solche Aufgaben während der Präsenzlehre üben zu lassen und den Austausch der Studierenden untereinander zu fördern.

Der Ausschluss der Nutzung von generativer KI bei der Erstellung von Studien-/Prüfungsleistungen sollte bereits zu Beginn der Lehrveranstaltung klar kommuniziert werden. Die Durchführung einer - ergänzenden oder alternativen - Präsenzprüfung (schriftlich, mündlich oder praktisch), kann empfehlenswert sein, sofern die Prüfungsordnung und die Vorgaben des Fachbereichs dies erlauben. Bei Aufgabenstellungen, bei denen die Nutzung von KI einen großen Vorteil bringen kann, ist darauf zu achten, dass ehrliche Studierende nicht benachteiligt werden.

2. Beschränkung auf bestimmte Arten von generativer KI

Bei der Vielfalt von generativen KI-Tools kann es sinnvoll sein, in einer Lehrveranstaltung bestimmte Arten von generativer KI explizit zu thematisieren und deren Nutzung zu erlauben. Es kann sich anbieten, auch in der Lehrveranstaltung selbst diese KI-Tools zu reflektieren, Hinweise hierzu finden Sie bei Nutzung von KI in der Lehre.

Soll die Nutzung generativer KI bei Studien- und Prüfungsleistungen beschränkt sein, kann dies so in der Lehrveranstaltungsbeschreibung formuliert werden: „Bei der Erstellung der Studien-/Prüfungsleistung können Sie folgende Werkzeuge der generativen künstlichen Intelligenz nutzen: [Name oder Art der Werkzeuge einsetzen]. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der Übernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit.“

3. Einschränkung der Art und Weise der Verwendung von KI

Eine andere Möglichkeit, die Verwendung von KI einzuschränken, besteht darin zu regeln, wie und wofür KI genutzt werden darf. So kann zum Beispiel die Nutzung für die Ideenfindung oder sprachliche Textüberarbeitung erlaubt werden, nicht aber das Erzeugen von Textbausteinen, die dann in eine eigene Arbeit übernommen werden.

Soll die Art und Weise der Verwendung generativer KI bei Studien- und Prüfungsleistungen beschränkt sein, kann dies so in der Lehrveranstaltungsbeschreibung formuliert werden: „Generative künstliche Intelligenz kann in dieser Studien-/Prüfungsleistung für die folgenden Aufgaben genutzt werden: [Art und Weise der Verwendung]. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der Übernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit.“

4. Keine Einschränkung bei der Nutzung von KI

Auch wenn keine Einschränkung bei der Nutzung von KI in Studien- und Prüfungsleistungen erfolgen soll, sollte dies Studierenden gegenüber klar kommuniziert werden. Dies ist beispielsweise so möglich: "Die Verwendung von Werkzeugen der generativen künstlichen Intelligenz ist in diesem Leistungsnachweis uneingeschränkt möglich. Die Nutzung von generativer künstlicher Intelligenz muss von Ihnen benannt werden (bzw. nicht benannt werden). Mit der Übernahme von Inhalten übernehmen Sie als Autor:in die Verantwortung für die inhaltliche Richtigkeit."

Nutzung von KI in der Lehre

Erwerb und Vermittlung von KI-Kompetenzen

KI-Tools versprechen, dass sie Menschen bestimmte kognitive Aufgaben abnehmen können. Mit diesen Werkzeugen können also manche Aufgaben schneller oder besser erledigt werden, was in vielen Situationen in Wissenschaft und Beruf, beim Lehren und Lernen sowie im Alltag hilfreich sein kann. Dafür ist es jedoch nötig, geeignete Tools für die anliegende Aufgabe zu kennen, ihre Funktionsweise genügend zu verstehen, um den Output des KI-Tools bewerten zu können, und Rahmenbedingungen der Nutzung dieser Tools (wie z. B. Datenschutzaspekte) zu reflektieren. Ebenso muss das Prompting, also die Eingabe geeigneter Impulse, um das KI-Tool inhaltlich in die richtige Richtung zu lenken und verwertbare Ergebnisse zu erhalten, erprobt und geübt werden.

Ein verantwortungsvoller und gewinnbringender Umgang mit KI-Tools kann (auch) im Rahmen von Hochschullehre und Studium erlernt werden. Studierende müssen an der Universität auch ihre KI-Literacy weiterentwickeln. Auch über Lehrveranstaltungen im Rahmen des Advanced Data and Information Literacy Track hinaus kann Studierenden ermöglicht werden, den Einsatz neuer digitaler Möglichkeiten zu reflektieren, erproben und auszuwerten und dabei ihre Fähigkeiten des kritischen Denkens einzubringen und weiterzuentwickeln. Aufgrund der Neuheit vieler KI-Tools wird es hierbei weniger darum gehen, dass Lehrende KI-Kompetenzen vermitteln, als dass Studierende und Lehrende gemeinsam durch die Auseinandersetzung mit Nutzungsmöglichkeiten, Grenzen und Gefahren von KI-Tools KI-Kompetenzen erwerben und ausbauen.

Beispiele für die Erprobung und Auswertung der Nutzung von KI-Tools

Beispiele für die Erprobung und Auswertung der Nutzung von KI-Tools in Lehrveranstaltungen sind:

  • Wie kann ein Tool wie ChatGPT eingesetzt werden, um den Schreibanfang zu erleichtern oder die stilistische Überarbeitung eines Textes zu unterstützen?
  • Inwieweit kann ein Tool wie ResearchRabbit die bibliografische Recherche vereinfachen und unterstützen?
  • Wie kann ein Research-Assistant-Tool wie Elicit die Strukturierung von Forschungsaufgaben unterstützen?

Beim aktiven Einsatz von KI-Tools in Lehrveranstaltungen sind datenschutzrechtliche Vorgaben zu beachten, wenn Studierende direkt mit diesen Tools arbeiten sollen. Alternativ kann gemeinsam in der Gruppe mit dem Tool gearbeitet werden oder Lehrende bringen den Output eines Tools zur Reflexion mit in die Lehrveranstaltung.

Chancengleichheit

In Zusammenhang mit KI in der Lehre sind auch Aspekte der Chancengleichheit relevant. Einerseits können frei zugängliche oder einer kompletten Studierendengruppe zur Verfügung gestellte KI-Tools Ungleichheiten ausgleichen und liegen Chancen für Inklusion und Individualisierung in der Nutzung von KI-Tools. Andererseits wird diskutiert, dass leistungsstarke Studierende möglicherweise mehr von der Nutzung von KI profitieren können als leistungsschwächere, so dass im Gegenteil Ungleichheiten verstärkt werden können (Matthäus-Effekt). Die gemeinsame Auseinandersetzung mit KI-Tools in Lehrveranstaltungen kann einen Beitrag dazu leisten, dass alle Studierenden den reflektierten Umgang damit erlernen können und nicht nur digital affine Studierende ihre KI-Kompetenzen ausbauen.

Unterstützung bei der Vorbereitung von Lehrveranstaltungen

KI-Schreibtools wie ChatGPT können für Lehrende bei angemessener Nutzung auch ganz praktischen Nutzen haben.

  • Erstellung von Material: Ein Programm schreibt Texte, mit denen Studierende als Lernaufgaben weiterarbeiten (z. B. fremdsprachliche Texte auf einem bestimmten Sprachniveau). Dabei ist es möglich, solche Texte unkompliziert auch auf individuelle Bedürfnisse auszurichten - wenn das Programm mit relevanten  Informationen versorgt wird. Auch die Erstellung von Multiple Choice-Aufgaben, Quizzes sowie von Vorschlägen für Veranstaltungspläne sind möglich.
  • Bewertung von Leistungen: Viele Lehrende haben seit der Veröffentlichung von chatGPT schon gezeigt, dass die Tools nach Eingabe von Bewertungskriterien auch plausible Ergebnisse dabei erzielen, Texte im Lichte der Kriterien zu bewerten. Dies funktioniert nicht einwandfrei, sondern es lassen sich durchaus auch Unterschiede bei wiederholten Bewertungen derselben Inhalte erkennen, z.B. durch „Load-Balancing“, „Traffic“ oder auch durch unterschiedliches Accounting. ChatGPT kann auch  dabei helfen, auf Dinge aufmerksam zu werden und dadurch den Aufwand zur Bewertung zu verkürzen, aber am Ende sollte natürlich die Lehrperson die Bewertung durchführen.
  • Dekonstruktion“: Lehrende können sich durch generative Sprachmodelle Texte unterschiedlicher Komplexität und Qualität erstellen lassen und diese anhand der Bloom Taxonomie bewerten lassen – besonders Evaluieren und Analyse eignen sich dabei besonders.

Datenschutz

Mit der Nutzung von KI-Tools stellen sich eine Reihe von datenschutzrechtlichen Fragen, die reflektiert und beachtet werden müssen. Es werden personenbezogene Daten verarbeitet, diese Verarbeitung erfolgt häufig auf Servern in den USA; teilweise ist auch intransparent, welche Daten wie verarbeitet werden.

Zu unterscheiden ist zwischen persönlichen Daten der Nutzer:innen einer KI, die bei Registrierung und Nutzung erhoben und gespeichert werden, und Daten, die von Nutzer:innen im Zuge eines Prompts eingegeben werden.

  • ChatGPT verarbeitet beispielsweise im Zuge der Registrierung Vor- und Nachname, E-Mailadresse sowie Telefonnummer, bei der Nutzung die IP-Adresse des Computers. Falls für die aktive Nutzung eines KI-Tools im Rahmen von Lehrveranstaltungen eine Registrierung mit Eingabe persönlicher Daten notwendig ist, muss dies für alle Veranstaltungsteilnehmer:innen freiwillig sein, da die Europäische Datenschutzgrundverordnung eingehalten werden muss. Freiwilligkeit liegt nur vor, wenn es sich bei der betreffenden Lehrveranstaltung um keine Pflichtveranstaltung handelt, sondern um einen Kurs im Wahlpflicht- oder Ergänzungsbereich. Genauere Erläuterungen dazu finden Sie beim Justiziariat der Universität. Beratung zum datenschutzkonformen aktiven Einsatz von KI Tools in der Lehre erhalten Sie außerdem über das KIM.
  • Von der Eingabe personenbezogener Daten von lebenden Dritten im Rahmen eines Prompts z.B. an ChatGPT, ist abzuraten, weil dafür normalerweise die Zustimmung der betreffenden Person eingeholt werden müsste. Als „personenbezogene Daten“ kommen alle Informationen in Betracht, die zur Identifizierung einer natürlichen Person verwendet werden können. Verschiedene Teilinformationen, die in Kombination miteinander zur Identifizierung einer bestimmten Person führen können, stellen ebenfalls personenbezogene Daten dar. Anders als bei der Personensuche z. B. bei Google gibt ChatGPT nicht nur aus, was es schon weiß, sondern verarbeitet die ihr "spendierten" Daten nach unbekannten Algorithmen weiter. Hinzu kommt, dass OpenAI, der Betreiber von ChatGPT,  diese Daten verwendet, um die KI zu trainieren und weiter zu verbessern. Deshalb sollte auch die Eingabe von vertraulichen Daten (z. B. aus Forschungsinterviews) oder aktuellen Forschungsdaten vermieden werden.

Nutzung von KI beim Lernen

Lernbegleitung

Generative KI-Tools können als Lernbegleiter genutzt werden, da in natürlicher Sprache mit ihnen kommuniziert werden kann. Beispielsweise kann damit im Dialog individualisiertes Lernmaterial erzeugt werden. Eine weitere Möglichkeit ist, sie zur Korrektur und Verbesserung eigener Antworten auf Übungsaufgaben einzusetzen. Somit können KI-Tools als adaptive Feedbacksysteme („Sparringspartner“) individuelle Lernwege stärken.

Schreibkompetenzen

Bei der Frage nach Scheibkompetenzen reicht es nicht aus, die Qualität und inhaltliche sowie sprachliche Korrektheit von KI generierten Texten in den Blick zu nehmen, sondern stellt sich auch die Frage nach der Rolle des Schreibprozesses für den eigenen Lern- und Denkprozess. Textgenerierende KI-Tools wie ChatGPT können zwar beim Schreiben unterstützen, Menschen werden aber dennoch weiter umfassende Schreibkompetenzen benötigen und diese erwerben müssen. Dies gilt besonders im Zusammenhang mit Studium und Hochschullehre, da hier komplexes (fach-)wissenschaftliches Denken und Schreiben erlernt werden muss.

Die schreibende Auseinandersetzung mit Lerninhalten und wissenschaftlichen Fragestellungen und das Bemühen, komplexe Sachverhalte mit eigenen Worten ausdrücken zu können, erweitert nicht nur die wissenschaftliche Schreibkompetenz, sondern hilft auch beim Verstehen und Erlernen von Inhalten des Studiums. Das Schreibzentrum berät, wozu und wie hierbei KI-Tools eingesetzt werden können.

Expertensysteme versus Sprachmodelle

Mit Hilfe von Sprachmodellen können Texte erzeugt werden, die sprachlich weitgehend fehlerfrei sind und häufig überzeugend klingen. Dadurch kann im ersten Moment der Eindruck entstehen, die produzierten Inhalte sind korrekt und vollständig. Allerdings zeigt sich beim genauen Lesen häufig, dass der generierte Text an einigen Stellen sehr oberflächlich ist und inhaltliche Fehler oder auch frei erfundene Aussagen enthält. Zu beachten ist dabei, dass auch Quellen erfunden werden können, die aber häufig durchaus plausibel erscheinen (vgl. Funktionsweisen textgenerierender KI).

Wichtig ist bei der Nutzung von KI-Tools zu verstehen, wie die Funktionsweise des Tools ist und auf welche Wissensbasis es zugreift. Ein Sprachmodell ist kein Expertensystem, weshalb Nutzer:innen als Expert:innen die inhaltliche Korrektheit überprüfen und die Verantwortung dafür übernehmen müssen. Die mangelnde Transparenz, welche Quellen herangezogen wurden, kann es erschweren, zu überprüfen, ob der Output eines KI-Tools korrekt ist.

Bewusste Entscheidung über Nutzung oder Nicht-Nutzung

Trotz der vielen Einsatzmöglichkeiten von KI beim Lernen und wissenschaftlichen Arbeiten, kann es sinnvoll sein, sich bewusst gegen die Nutzung zu entscheiden, um den eigenen Lernprozess nicht zu behindern und um unabhängig von KI-Tools zu bleiben. Gerade wenn es um Basiskompetenzen geht, die sehr gut an ein KI-Tool abgegeben werden können, kann es im Lernprozess sinnvoll sein, diese erst einmal einzuüben, um sie wirklich zu begreifen und um bei einer späteren Nutzung von KI den Prozess überwachen und die Ergebnisse überprüfen und einordnen zu können. Zu Bedenken ist dabei auch, dass Denk- und Formulierungsarbeit Hand in Hand gehen. Somit kann der Einsatz textgenerierender KI-Tools zwar einerseits eine sinnvolle Entlastung im Schreibprozess darstellen, andererseits kann er aber auch hinderlich sein, um beim Formulieren ein tieferes Verständnis der Inhalte zu gewinnen.

Es lohnt sich deshalb, vor der Nutzung von KI-Tools zu überlegen, ob damit der Lernprozess unterstützt wird oder ob man sich die Erledigung einer Aufgabe nur möglichst bequem damit macht. Orientierung kann hierbei auch geben, ob und wie bei der Prüfung die Nutzung von KI erlaubt ist.

Auch die Aspekte, die unter Datenschutz, Nachhaltigkeit und Ethik benannt sind, sollten in die bewusste Entscheidung eingehen.

Nutzung von KI in Prüfungen

Fragen zur Kennzeichnung der Nutzung von generativer KI in studentischen Texten

Folgende Fragen helfen zu entscheiden, ob und wie Studierende in ihren Prüfungsleistungen die erlaubte Nutzung von generativer KI angeben müssen (vgl. auch Möglichkeiten und Einschränkung der Nutzung):

  • Fällt die Nutzung von KI unter die Forschungsmethode und muss zur Nachvollziehbarkeit des wissenschaftlichen Arbeitsprozesses angegeben werden? - z. B. Einsatz von Research-Assistent-Tools wie Elicit oder Perplexity bei der Literaturrecherche und Auswertung
  • Wird von einer KI-generiertes Material als Primärmaterial verwendet und muss deshalb wie andere Quellen/Primärmaterialien zitiert werden? - z. B. linguistische Analyse von mit KI-generierten Texten
  • Ist die Nutzung generativer KI Teil des Lehrinhalts und soll reflektiert werden? - z. B. kritische Reflexion und Überarbeitung einer mit Ki-generierten Zusammenfassung eines oder mehrerer fachwissenschaftlicher Texte als Prüfungsleistung
  • Sind die Aufgaben, die von einer KI oder mit Hilfe einer KI erledigt werden können, für die zu prüfenden Kompetenzen relevant? - z. B. Nutzung von Übersetzungstools von Sprachstudierenden bei einer Übersetzungsklausur versus von Studierenden, die im Fachstudium eine Zweitsprache verwenden müssen
  • Soll die Angabe der Nutzung von generativer KI - negativ oder auch positiv - in die Bewertung eingehen?

Von didaktischen und prüfungsrechtlichen Aspekten abgesehen kann aufgrund der Nutzungs-/Lizenzbedingungen eines KI-Tools eine Kennzeichnungspflicht vorhanden sein.

Möglichkeiten der Kennzeichnung von KI

Um KI generierte Inhalte zu kennzeichnen, ist es möglich, sie zu zitieren oder im Text bzw. in einer Eigenständigkeitserklärung die Nutzung von KI anzuzeigen:

  • Wenn es sinnvoll und notwendig ist, einzelne von einer KI generierte Textpassagen oder andere Materialien als direktes oder indirektes Zitat zu kennzeichnen, stellt sich die Frage, wie das im verwendeten Zitationsstil umgesetzt werden kann. Die Möglichkeiten der Nutzung von Werkzeugen der generativen KI entwickeln sich ständig weiter, deshalb ist nicht jede Form der Nutzung in gängigen Zitierstilen vorgesehen. Hinweise dazu finden sich z. B. im APA Style Blog (7.4.2023) und im MLA Style Center (17.3.2023).
  • Möglicherweise reicht es bereits aus, an geeigneter Stelle (z. B. in der Einleitung oder im Methodenteil einer wissenschaftlichen Arbeit oder in einem Verzeichnis verwendeter Hilfsmittel) die Nutzung von generativer KI anzugeben. Die Eigenständigkeitserklärung, die Studierende abgeben müssen, kann regeln, welche Informationen hier notwendig sind (Art des genutzten KI-Systems, Art der Nutzung, Eingaben/Prompts).

Falls die Eingaben/Prompts, die bei der Nutzung eines KI-Systems verwendet wurden, angegeben werden sollen, ist es bei ChatGPT mittlerweile möglich, einen stabilen Link zu dem Chatverlauf zu erzeugen, so dass die Angabe relativ einfach erfolgen kann.

Bestehende Leistungsnachweise und generative KI

Prüfen Sie als Lehrende Ihre bestehenden Aufgabenstellungen selbst mit Werkzeugen der generativen künstlichen Intelligenz und wägen Sie ab, wie Sie die Nutzung dieser Werkzeuge gemeinsam mit Ihren Studierenden kritisch reflektieren können.

  • Wie können Sie die Chancen und Risiken des Einsatzes von generativer KI thematisieren?
  • Können Sie den Einsatz von generativer KI im Seminar demonstrieren, um diese Chancen und Risiken aufzuzeigen und gemeinsam zu reflektieren?
  • Welche Vor- und Nachteile ergeben sich durch die Nutzung?
  • Welche ethischen Aspekte sprechen für oder gegen den Einsatz von generativer KI?
  • Vermitteln Sie in Ihrer Lehre grundlegende Kompetenzen, die die Nutzung von KI ausschließen, oder können Sie diese voraussetzen?
  • Welche Möglichkeiten gibt es, nicht nur das Endprodukt, sondern auch den Prozess sichtbar und bewertbar zu machen?
  • Gibt es Szenarien, in denen der Einsatz von generativer KI Ihren Studierenden ermöglicht, mehr Zeit in höherwertige Aufgaben zu investieren?
  • Welchen Einfluss hat die Nutzung dieser Werkzeuge auf Ihre Lernziele?

KI und gute wissenschaftliche Praxis

In der Satzung der Universität Konstanz zur Sicherung guter wissenschaftlicher Praxis ist geregelt, was als wissenschaftliches Fehlverhalten angesehen wird. Alle wissenschaftlich Tätigen sowie die Studierenden sind zu wissenschaftlicher Redlichkeit verpflichtet. Relevant im Zusammenhang mit der Nutzung von generativer KI ist hierbei:

  • die Frage, in welchen Fällen die Nutzung von generativer KI als wissenschaftliches Fehlverhalten eingestuft werden muss:
    Hier sind Fragen berührt, wer als Urheber KI-generierten Materials angesehen werden kann - Ist dies die Person, die mit der KI arbeitet, die KI selbst oder andere Dritte? Von der Beantwortung dieser Frage hängt ab, ob KI-generiertes Material als von anderen Autor:innen stammend gekennzeichnet werden muss, um mit der Nutzung der KI nicht zu plagiieren. Auch Anforderungen an Reproduzierbarkeit und Nachprüfbarkeit wissenschaftlicher Ergebnisse könnten durch die Nutzung einer KI als nicht erfüllt gelten. Da die rechtliche Bewertung solcher Fragen noch diskutiert wird, ist ein sehr vorsichtiger und bewusster Umgang mit KI angeraten.
  • die Frage, ob KI-generiertes Material nicht zitiertes Material Dritter enthält:
    Da KI unterschiedliche Quellen verwertet, die zum Teil auch urheberrechtlich geschützt sind, ist es denkbar, dass die KI zum Beispiel Textpassagen erzeugt, die zitiert werden müssten. ChatGPT beispielsweise verwertet Quellen unterschiedlichster Art (Webseiten, PDFs, öffentlich zugängliche Datenbanken u. a.) auch dann, wenn diese von namentlich bekannten Personen bereits veröffentlicht wurden. Da ChatGPT seinerseits - jedenfalls bis auf Weiteres - keine Quellen für von ihr erzeugte Antworten angibt, ist deshalb grundsätzlich davon auszugehen, dass zumindest Teile davon aus Quellen stammen können, die anzugeben wären. Auch wenn dies aufgrund der Funktionsweise von ChatGPT in vielen Fällen nicht der Fall sein wird, muss Nutzer:innen klar sein, dass das Risiko eines Plagiatsvorwurfs besteht. Um die Verletzung geistigen Eigentums und ggf. urheberrechtliche Ansprüche Dritter zu vermeiden, müssen Quellen ggf. nachträglich recherchiert und in dem eigenen Text referenziert werden. Die Verantwortung für die inhaltliche Richtigkeit und wissenschaftlich redliche Kennzeichnung verwendeter Quellen liegt vollständig bei den Autor:innen.

KI und Täuschungsversuch

Versuchen Studierende, das Ergebnis einer Prüfungs- oder Studienleistung durch Täuschung (z. B. Plagiat) oder Benutzung nicht zugelassener Hilfsmittel zu beeinflussen, gilt die betreffende Prüfungs- bzw. Studienleistung als mit „nicht ausreichend“ (5,0) bewertet. Zu klären ist bei Prüfungs- und Studienleistungen somit, ob KI ein zugelassenes Hilfsmittel ist oder nicht, wobei vier verschiedene Szenarien grundsätzlich denkbar sind.

Die Universität Konstanz hat Formulierungsvorschläge erarbeitet, um die Nutzung textgenerierender KI in Eigenständigkeitserklärungen explizit aufzunehmen, und den Fachbereichen zugänglich gemacht. Eigenständigkeitserklärungen können damit um entsprechende Abschnitte ergänzt werden. Weitere Informationen dazu können Natascha Foltin und Heike Meyer geben.

Lehrende müssen mit den Informationen zur Prüfungs- und Studienleistung schriftlich bekannt geben, welche Hilfsmittel erlaubt sind. Hilfreich ist es außerdem, mit den Studierenden zu thematisieren, welche Art und welcher Umfang der Nutzung einer (spezifischen) KI möglich und sinnvoll ist. Eine Orientierungshilfe kann dabei sein, dass die Nutzung von KI in jedem Fall so lange keinen Täuschungsversuch darstellt, wie vergleichbare Hilfe auch von natürlichen Personen angenommen werden kann (z. B. Gespräch zur Ideenfindung oder als Hilfe beim Verstehen des Lernstoffs).

Detektionssoftware

Durch textgenerierende KI wie ChatGPT werden mit Hilfe eines randomisierten Algorithmus neue Antworten bzw. Texte erstellt. Das Tool greift also nicht auf einen Fundus an alten Texten zurück und wählt daraus passende Abschnitte aus. Somit entstehen hier also keine Plagiate, sondern Unikate, wodurch die Erkennung über klassische Plagiatssoftware nicht möglich ist.

Es ist gegenwärtig kaum möglich, Texte, die durch generative Sprachmodelle erstellt wurden, mittels Software zu erkennen. Die Erkennungsrate beim AI Classifier von OpenAI liegt lediglich bei 26%, neben falsch negativen liegen auch falsch positive Klassifizierungen vor. Momentan arbeiten Firmen wie openAI dringlich daran, diese Quote signifikant zu verbessern. Weitere Informationen zur Erkennungsrate.

Das größte Problem liegt bei  Erkennungstools  bei den zahlreichen falsch positiven Klassifizierungen. So können die Erkennungstools zwar im besten Fall einen Anfangsverdacht auf die direkte Übernahme eines Textes von einem generativen KI-Tool liefern, es ist aber gar nicht so unwahrscheinlich, dass ein durch das Tool so klassifizierter Text letztlich doch selbst geschrieben wurde. Im Gegensatz zur Erkennung von Plagiaten mittels Plagiatserkennungssoftware gibt es hier keinen verfügbaren Originaltext, anhand dessen man im Detail nachprüfen und dann auch nachweisen könnte, dass ein Betrugsversuch vorliegt. Hier stellt sich die Frage, wie man nach einem Anfangsverdacht weiter vorgehen möchte.

Eine gute Methode und erster Schritt zur Erkennnung liegt im Nutzen des "gesunden Menschenverstands". Hat der Text eine indivuelle Note? Ist der Text stringent und argumentativ stimmig? Gibt es Anzeichen von "Halluzination" oder handelt es sich beim Text um das Ergebnis eines "stochastischen Papageis"?

Ihre Anlaufstellen an der Universität Konstanz

Arbeitskreis KI in der Lehre und allgemeine Anfragen

Es wurde ein Arbeitskreis eingerichtet, um die Vernetzung innerhalb der Universität und die Nutzung von andernorts entwickelten Materialien und Ergebnisse voranzutreiben. Damit die Arbeitsergebnisse und Erfahrungen über verschiedene Fach- und Arbeitsbereiche der Universität hinweg nutzbar gemacht werden können, werden alle Hochschulangehörigen, die in diesem Bereich aktiv sind, gebeten, sich über KI-Lehre@uni.kn zu melden. Der Arbeitskreis wird koordiniert von Alexander Klein, Academic Staff Development/Hochschuldidaktik.

Mit allen Fragen und Anliegen zum Thema KI in der Lehre können Sie sich gerne an KI-Lehre@uni.kn wenden.

Rechtliche Fragestellungen

Anuschka Haake-Streibel und Ralph Kraemer für datenschutzrechtliche Fragen

Natascha Foltin für prüfungsrechtliche Fragen und wissenschaftliche Redlichkeit

Karin Günther für urheberrechtliche Fragen

Hochschuldidaktische Fragestellungen zu Lehre und Prüfungsgestaltung

Das ASD unterstützt beim Einsatz von KI-Tools in der Lehre

  • Entwicklung von KI-Kompetenzen und KI-Literacy
  • Ethische Reflexion bei der Anwendung von KI-Tools 
  • Testen von KI-Tools für die Lehre 
  • Prüfungsgestaltung im Kontext von KI-Tools

Einen Überblick über die Angebote zum Thema  KI-Tools in der Lehre finden Sie auf der "Format ohne Namen" Homepage. Dort können Sie auch selbst KI-Tools, die Sie interessieren, zum Testen, Diskutieren und Analysieren vorschlagen. Für weitere Informationen schreiben Sie Alexander Klein.

Wissenschaftliches Schreiben von Studierenden

Das Schreibzentrum unterstützt Sie bei der Gestaltung von Schreibaufgaben für Studierende:

  • Entwicklung von Basiskompetenzen (ohne KI)
  • Kritische Reflexion und Anwendung von KI-Tools im Schreibprozess

Einen Überblick über Angebote zum Thema Schreiben und KI finden Sie auf der Homepage.  Für weitere Informationen stehen Ihnen Stefanie Everke Buchanan und Stephanie Kahsay jederzeit gern zur Verfügung: E-Mail an Schreibzentrum.

KI-basierte Recherchetools und Plagiatserkennungssoftware

Wenden Sie sich mit Ihren Fragen gerne an die zuständigen Fachreferate im KIM.

Funktionsumfang und datenschutzkonforme technische Möglichkeiten der Nutzung von KI-Tools in der Lehre

Academic Staff Development (ASD) und das KIM unterstützten beim Einsatz von KI-Tools in der Lehre und bei Prüfungen. Einen Überblick über die Angebote des ASD zum Thema KI -Tools  in der Lehre finden Sie auf der "Format ohne Namen"-Webseite. Dort können Sie auch das Testen von KI-Tools, die Sie interessieren, selbst anregen. Für weitere Informationen schreiben Sie Alexander Klein.

Für technische Fragen und den dateschutzkonformen Einsatz von KI-Tools in der Lehre wenden Sie sich an den Ansprechpartner im KIM Fabian Stöhr.

KI Tools in Lehrer:innenbildung und Schule

In der Veranstaltungsreihe Schule aktuell ging es am 20.06.2023 um das Thema KI in Schule und Hochschule. Die Aufzeichnung des Vortrags und die Präsentation werden hier (4.7.2023) zur Verfügung gestellt.