KI in der Lehre nutzen

Die folgenden Grundsätze geben Orientierung für den verantwortungsvollen Einsatz von KI-Systemen in der Lehre. Sie sollen dazu beitragen, die Chancen digitaler Werkzeuge sinnvoll zu nutzen, ohne die wissenschaftliche Integrität, Eigenleistung und Fairness im Lehrbetrieb zu gefährden.

Fortbildungs- und Informationsangebote

Die Universität bietet  Weiterbildungs- und Beratungsangebote zur KI-Nutzung in der Lehre an. Der kollegiale Austausch über Good Practices und Lessons Learned beim Umgang mit KI-Werkzeugen in der Lehre wird ausdrücklich begrüßt.

Das Prorektorat IT bietet ab dem 7. November bis zum 12. Dezember jeden Freitag eine KI-Fragestunde an. Sie findet zwischen 10 und 11 Uhr statt. Den Webex-Link finden Sie im Lernportal KI.

RAI – Das datenschutzkonforme KI-Tool der Universität

RAI (Responsible AI) ist unser zentrales, datenschutzkonformes Tool. Es ist ein Allrounder im Textbereich. Aufgaben wie z. B. Bildgenerierung oder webnahe Recherchen werden durch andere freigegebene Tools aus der Whitelist ergänzt. RAI ist nur im Uni-Netz oder über VPN zugänglich und bietet zwei Modelloptionen.

RAI wird in der EU betrieben. Eingaben werden nicht zum Training genutzt. RAI kann für die Erstellung von Lehrmaterialien, Kursaufbau, Skizzen für Bewertungen/Feedback und vieles Weitere genutzt werden. Zusätzlich kann RAI verpflichtend in Kursen eingesetzt werden und es steht eine Gruppenchat-Funktion zur Verfügung.

Modellwahl in RAI

Typische Beispiele:

  • Lehrmaterialien oder Syllabi, die vor einer breiten Öffentlichkeit veröffentlicht werden (können), werden als C1 klassifiziert.
  • Präsentationsmaterial von Studierenden, welches nur innerhalb eines Kurses gezeigt werden soll, wird als C2 klassifiziert.
  • E-Mail-Entwürfe mit Klarnamen und persönlichem Feedback werden als C3 klassifiziert. Ein weiteres Beispiel: Prüfungsaufgaben mit Lösungsschlüssel vor dem Abhalten der Prüfung.
  • E-Mail-Texte, aus denen der Gesundheitszustand von Studierenden hervorgeht, werden als C4 klassifiziert.   

 

Vertraulichkeitsklassen

Die Whitelist ist ein Living Document und wird regelmäßig aktualisiert. Bitte immer die aktuelle Fassung verwenden.


Whitelist KI-Tools

GWDG-Modelle
Geeignet für C1-C3 (C3 ggf. mit dokumentierter Freigabe), ideal für sensible Text-/Code-Entwürfe, Prüfungsaufgaben, Musterlösungen.

Azure/OpenAI in RAI
Für C1–C2, keine vertraulichen Inhalte.

Nutzung von KI in Prüfungen

Als Prüfende entscheiden Sie, ob die Nutzung von KI für Ihre Prüfung erlaubt ist. Wählen Sie pro Prüfungsleistung eine Option und dokumentieren Sie diese im Syllabus/ILIAS. Kommunizieren Sie die gewählte Option früh und konsistent.

Erlauben

KI-Hilfe zulassen, Eigenleistung bleibt entscheidend 

Ausweichen

Prüfungsform und Inhalte so wählen, dass KI-Nutzung nicht möglich ist z. B. mündliche Ergänzungsprüfung, Live-Demonstration

Voraussetzen

KI-Einsatz gezielt verlangen

Verbieten

KI-Nutzung klar ausschließen (Verbieten)

  • Option 1 (erlauben): „Sie dürfen KI-Werkzeuge zur Ideenfindung, Strukturierung und sprachlichen Überarbeitung nutzen. Bitte kennzeichnen Sie Tool, Datum und Zweck. Die inhaltliche Verantwortung liegt bei Ihnen.“
  • Option 2 (ausweichen): „Die Prüfung ist so gestaltet, dass KI-Nutzung nicht möglich ist (z. B. mündliche Ergänzungsprüfung, Bearbeitung unter Aufsicht, individuelle Daten oder Live-Demonstrationen). Bewertet wird ausschließlich Ihre Eigenleistung.“
  • Option 3 (voraussetzen): „Für die Bearbeitung ist der Einsatz von [Tool] vorgesehen. Es besteht keine Pflicht zu privaten Accounts. Kennzeichnung wie in [Kennzeichnungsregelung] beschrieben ist erforderlich.“
  • Option 4 (verbieten): „Die Nutzung generativer KI zur Bearbeitung dieser Prüfungsleistung ist nicht gestattet. Zuwiderhandlungen gelten als Täuschungsversuch und werden gemäß Prüfungsordnung bewertet.“
  • Aufgaben KI-robust gestalten: Wählen Sie Prüfungsformen oder Inhalte, bei denen die Eigenleistung sichtbar wird (z. B. mündliche Ergänzungsprüfungen, Bearbeitung unter Aufsicht, individuelle Datensätze, praxisnahe Projekte).
  • KI als Lernhilfe gezielt einsetzen: Nutzen Sie die neuen Möglichkeiten, indem Sie etwa Reflexionsfragen zu KI-Ergebnissen stellen oder Studierende auffordern, KI-Vorschläge kritisch zu prüfen und zu verbessern.
  • Nachvollziehbarkeit sichern: Bitten Sie um Zwischenschritte, Versionen oder kurze Protokolle, damit der Arbeitsprozess transparent bleibt.
  • Fairness und Zugang gewährleisten: Verlangen Sie keine privaten Accounts; stellen Sie immer eine gleichwertige Alternative ohne KI bereit.
  • Transparenz schaffen: Kommunizieren Sie Ihre gewählte Option (1–4) früh und klar im Syllabus und erläutern Sie, wie Kennzeichnungspflichten umgesetzt werden sollen.
  • KI-Detektoren mit Vorsicht nutzen: Bedenken Sie, dass automatisierte Erkennung nicht gerichtsfest ist; Sanktionen erfordern belastbare Indizien (z. B. erfundene Quellen, Widersprüche, unplausible Ergebnisse).
  • Fachliche Verantwortung betonen: Machen Sie deutlich, dass Studierende die Richtigkeit und Quellenqualität von KI-Ergebnissen selbst prüfen und dafür verantwortlich sind.

Grundsätze für einen verantwortungsvollen Einsatz von KI für Lehrende

1. KI-Nutzung ist erlaubt

KI-Systeme können grundsätzlich in der Lehre eingesetzt werden, sofern dies in didaktisch sinnvoller Weise und konform mit den Regelungen der KI-Verordnung geschieht.

2. Gestaltung von Prüfungsbedingungen und Lehrveranstaltungen

Lehrende definieren transparent und verbindlich, ob und in welchem Umfang die Nutzung von KI-Systemen in Prüfungsleistungen (Hausarbeiten, Projektberichte, Abschlussarbeiten etc.) sowie in Lehrveranstaltungen (bei Übungsabgaben, Aufgabenstellungen oder Gruppenarbeiten etc.) erlaubt oder untersagt ist.

Diese Regelungen sollen den Studierenden rechtzeitig und klar kommuniziert werden – z. B. über ILIAS, in der Veranstaltungseinführung oder in schriftlicher Form.

  • den zulässigen Zweck der KI-Nutzung (z. B. Recherche, Schreibunterstützung),
  • etwaige Grenzen der Nutzung,
  • Anforderungen an die Kennzeichnung (z. B. Offenlegung verwendeter KI-Tools im Anhang).

Detaillierte Optionen und Empfehlungen bietet die Handreichung für Prüfende zu KI-Werkzeugen und Prüfungen (Universität Stuttgart, Version 1.0, Juli 2023).

3. Verantwortung für Daten und Eingaben

Beim Einsatz von KI-Systemen sind datenschutzrechtliche, urheberrechtliche und ethische Vorgaben zu beachten. Insbesondere dürfen keine personenbezogenen, vertraulichen oder urheberrechtlich geschützten Inhalte in KI-Systeme eingegeben werden, welche diese Eingaben für Trainingszwecke nutzen und möglicherweise an anderer Stelle wieder ausgeben. Vertrauliche, interne oder personenbezogene Daten dürfen nur in solche KI-Systeme eingegeben werden, deren Nutzung durch die Universität für diese Daten ausdrücklich freigegeben wurde.

4. Verantwortung für KI-generierten Output

Lehrende tragen die Verantwortung für die Inhalte, die durch KI-Systeme erzeugt und in der Lehre verwendet werden. KI-generierter Output ist vor der Verwendung sorgfältig zu prüfen – insbesondere hinsichtlich:

  • fachlicher Richtigkeit,
  • ethischer Vertretbarkeit,
  • diskriminierender oder voreingenommener Inhalte,
  • sowie möglicher Plagiate und Halluzinationen.

5. Transparenz gegenüber Studierenden

Wird KI in Lehrmaterialien, Aufgabenstellungen oder Bewertungskriterien eingesetzt, ist dies für Studierende nachvollziehbar und eindeutig kenntlich zu machen. Transparenz ist essenziell, um Vertrauen, Fairness und kritisches KI-Verständnis zu fördern.

6. Förderung von KI-Kompetenz

Lehrende sind aufgerufen, Studierende zum reflektierten und kompetenten Umgang mit KI-Werkzeugen anzuleiten. Wo sinnvoll, sollen Potenziale, Risiken und Grenzen von KI-Systemen thematisiert und kritisch diskutiert werden – z. B. im Rahmen von Lehrinhalten oder Übungsformaten.

7. Bevorzugte Nutzung universitärer Systeme & Fair Use

Lehrende sind angehalten, bevorzugt auf universitätsbetriebene, DSGVO-konforme KI-Systeme wie das von der Universität Stuttgart bereitgestellte Tool RAI zurückzugreifen. Der Einsatz solcher Systeme ermöglicht es, KI-Anwendungen in Kursen zu integrieren und – wo didaktisch sinnvoll – auch verpflichtend vorzusehen. Auch bei der Verwendung universitärer Systeme ist auf eine faire, ressourcenschonende Nutzung zu achten, um allen Angehörigen der Universität den gleichberechtigten Zugang zu ermöglichen.

Studierenden kann nicht abverlangt werden, private Accounts bei externen, potenziell nicht DSGVO-konformen KI-Systemen (z. B. ChatGPT) anzulegen oder zu nutzen. Eine Pflicht zur Nutzung von KI-Werkzeugen ist nur dann zulässig, wenn keine datenschutzrechtlichen Bedenken bestehen (wie bei RAI) oder eine gleichwertige Alternative ohne KI-Nutzung durch die Universität bereitgestellt wird.

8. Rechtliche Grenzen gemäß EU-KI-Verordnung

Bestimmte KI-Praktiken wie „Social Scoring“ oder versteckte Verhaltensbeeinflussung durch KI-Systeme sind gemäß Art. 5 der EU-KI-Verordnung ausnahmslos verboten. Andere Systeme, etwa zur automatisierten Leistungsbewertung oder Prüfungsüberwachung (auch in Lernmanagement-Systemen), gelten als Hochrisiko-KI: Sie sind nicht verboten, dürfen aber nur unter strengen Auflagen eingesetzt werden (z. B. mit Transparenz, menschlicher Aufsicht und unter Beachtung von Datenschutz). Bitte beachten Sie, dass der Einsatz von KI-Systemen zur automatischen Notenvergabe oder automatischen Zulassung ohne finale menschliche Entscheidung nach aktuellem Rechtsstand unzulässig ist.

Weitere Informationen hierzu finden Sie in der Handreichung der Rechtsinformationsstelle bwDigiRecht zur KI-Verordnung, März 2025.

Häufige Fragen (FAQ)

Ja, wenn dies in Ihrer Veranstaltung vorgesehen ist. Wählen Sie eine der vier Optionen und dokumentieren Sie diese im Syllabus.

Nutzen Sie bevorzugt RAI mit GWDG-Modellen (C1–C3). Öffentliche KI-Ssysteme sind nur für C1-Inhalte geeignet.

Nein. KI-Systeme dürfen unterstützen, die Entscheidung bleibt eine menschliche Bewertung.

Nein. Es besteht keine Pflicht für Studierende KI-Systeme zu nutzen, die nicht in datenschutzkonformer Weise von der Universität bereitgestellt werden. Nutzen Sie RAI oder eine Alternative ohne KI-System.

Dieses Bild zeigt Lisa Schöllhammer

Lisa Schöllhammer

 

Referentin für KI

 

Zentrum für Lehre und Weiterbildung (zlw)

Azenbergstraße 16, 70174 Stuttgart

Zum Seitenanfang