Fortbildungs- und Informationsangebote
Die Universität bietet Weiterbildungs- und Beratungsangebote zur KI-Nutzung in der Lehre an. Der kollegiale Austausch über Good Practices und Lessons Learned beim Umgang mit KI-Werkzeugen in der Lehre wird ausdrücklich begrüßt.
- ILIAS Lernportal KI
- Selbstlernkurs „ChatGPT und Künstliche Intelligenz in der Hochschullehre“
- Selbstlernkurs „Wissenschaftliche Seminar- und Abschlussarbeiten betreuen in Zeiten von KI“
- Aufzeichnungen aus der Reihe „Die digit@Le Lehre stärken“
z.B. mit Beiträgen von Dr. Christian Spannagel zu „Generative KI als Lern- und Lehrpartner“ und von Prof. Dr. Dirk Heckmann zu „Prüfungen in Zeiten von ChatGPT“ - Kurs „Literaturrecherche und KI“ (Universitätsbibliothek)
Webex- oder Präsenzkurs, Dauer ca. 90 Minuten - Artificial Intelligence Software Academy (AISA)
Kurse zu KI-Grundlagen, Softwareentwicklung mit KI sowie zu ethischen, gesellschaftlichen und technischen Aspekten, offen für Promovierende aller Fachrichtungen. - Kursangebote des Hochschul Didaktik Zentrums (HDZ)
Einzelne Kurse im Programm haben einen KI Bezug
Das Prorektorat IT bietet ab dem 7. November bis zum 12. Dezember jeden Freitag eine KI-Fragestunde an. Sie findet zwischen 10 und 11 Uhr statt. Den Webex-Link finden Sie im Lernportal KI.
Externe Lernangebote
- KI-Campus
Nationale Lernplattform für Künstliche Intelligenz mit kostenfreien Online-Kursen, Videos, Podcasts und Tools - Hochschulforum Digitalisierung (HFD) [de]
Praxisnahe Studien - OpenHPI
Strukturierte Online-Kurse mit Zertifikatoption
Unterstützungsangebot
- Lehrprojekt der Schreibwerkstatt zu KI WissenD25
Das Team der Schreibwerkstatt entwickelt dreistündige Kursformate für Studierende zum Thema Schreiben mit und ohne KI und bietet diese als Inhouse-Veranstaltungen an den Instituten an. Dadurch sollen Lehrende und Institute in ihrer didaktischen Arbeit unterstützt werden. - RISING
Ressourcen und Lehrangebote zur kritischen Reflexion von intelligenten Systemen
RAI – Das datenschutzkonforme KI-Tool der Universität
RAI (Responsible AI) ist unser zentrales, datenschutzkonformes Tool. Es ist ein Allrounder im Textbereich. Aufgaben wie z. B. Bildgenerierung oder webnahe Recherchen werden durch andere freigegebene Tools aus der Whitelist ergänzt. RAI ist nur im Uni-Netz oder über VPN zugänglich und bietet zwei Modelloptionen.
RAI wird in der EU betrieben. Eingaben werden nicht zum Training genutzt. RAI kann für die Erstellung von Lehrmaterialien, Kursaufbau, Skizzen für Bewertungen/Feedback und vieles Weitere genutzt werden. Zusätzlich kann RAI verpflichtend in Kursen eingesetzt werden und es steht eine Gruppenchat-Funktion zur Verfügung.
Modellwahl in RAI
Typische Beispiele:
- Lehrmaterialien oder Syllabi, die vor einer breiten Öffentlichkeit veröffentlicht werden (können), werden als C1 klassifiziert.
- Präsentationsmaterial von Studierenden, welches nur innerhalb eines Kurses gezeigt werden soll, wird als C2 klassifiziert.
- E-Mail-Entwürfe mit Klarnamen und persönlichem Feedback werden als C3 klassifiziert. Ein weiteres Beispiel: Prüfungsaufgaben mit Lösungsschlüssel vor dem Abhalten der Prüfung.
- E-Mail-Texte, aus denen der Gesundheitszustand von Studierenden hervorgeht, werden als C4 klassifiziert.
- C1: Alle Tools nutzbar, für den besseren Datenschutz die Einstellungen im Tool anpassen, siehe Video Datenschutzfreundliche Konfiguration von ChatGPT, Perplexity und Gemini
- C2: RAI mit OpenAI Modellen sowie zukünftig MS CoPilot Chat (bei Anmeldung mit Uni-Account)
- C3: RAI mit GWDG-Modellen bis C3.
- C4: Bisher kein Tool verfügbar. Daher für C4 keine KI-Tools nutzen.
Die Whitelist ist ein Living Document und wird regelmäßig aktualisiert. Bitte immer die aktuelle Fassung verwenden.
GWDG-Modelle
Geeignet für C1-C3 (C3 ggf. mit dokumentierter Freigabe), ideal für sensible Text-/Code-Entwürfe, Prüfungsaufgaben, Musterlösungen.
Azure/OpenAI in RAI
Für C1–C2, keine vertraulichen Inhalte.
Nutzung von KI in Prüfungen
Als Prüfende entscheiden Sie, ob die Nutzung von KI für Ihre Prüfung erlaubt ist. Wählen Sie pro Prüfungsleistung eine Option und dokumentieren Sie diese im Syllabus/ILIAS. Kommunizieren Sie die gewählte Option früh und konsistent.
- Handreichung „KI-Werkzeuge und Prüfungen“
Universität Stuttgart, Stand Juli 2023 - Handreichung Plagiatsprävention
Universität Stuttgart, Stand Juli 2025 - „Wissenschaftliche Seminar- und Abschlussarbeiten betreuen in Zeiten von KI“
ILIAS Selbstlernkurs
- Erlauben
-
KI-Hilfe zulassen, Eigenleistung bleibt entscheidend
- Ausweichen
-
Prüfungsform und Inhalte so wählen, dass KI-Nutzung nicht möglich ist z. B. mündliche Ergänzungsprüfung, Live-Demonstration
- Voraussetzen
-
KI-Einsatz gezielt verlangen
- Verbieten
-
KI-Nutzung klar ausschließen (Verbieten)
- Option 1 (erlauben): „Sie dürfen KI-Werkzeuge zur Ideenfindung, Strukturierung und sprachlichen Überarbeitung nutzen. Bitte kennzeichnen Sie Tool, Datum und Zweck. Die inhaltliche Verantwortung liegt bei Ihnen.“
- Option 2 (ausweichen): „Die Prüfung ist so gestaltet, dass KI-Nutzung nicht möglich ist (z. B. mündliche Ergänzungsprüfung, Bearbeitung unter Aufsicht, individuelle Daten oder Live-Demonstrationen). Bewertet wird ausschließlich Ihre Eigenleistung.“
- Option 3 (voraussetzen): „Für die Bearbeitung ist der Einsatz von [Tool] vorgesehen. Es besteht keine Pflicht zu privaten Accounts. Kennzeichnung wie in [Kennzeichnungsregelung] beschrieben ist erforderlich.“
- Option 4 (verbieten): „Die Nutzung generativer KI zur Bearbeitung dieser Prüfungsleistung ist nicht gestattet. Zuwiderhandlungen gelten als Täuschungsversuch und werden gemäß Prüfungsordnung bewertet.“
- Aufgaben KI-robust gestalten: Wählen Sie Prüfungsformen oder Inhalte, bei denen die Eigenleistung sichtbar wird (z. B. mündliche Ergänzungsprüfungen, Bearbeitung unter Aufsicht, individuelle Datensätze, praxisnahe Projekte).
- KI als Lernhilfe gezielt einsetzen: Nutzen Sie die neuen Möglichkeiten, indem Sie etwa Reflexionsfragen zu KI-Ergebnissen stellen oder Studierende auffordern, KI-Vorschläge kritisch zu prüfen und zu verbessern.
- Nachvollziehbarkeit sichern: Bitten Sie um Zwischenschritte, Versionen oder kurze Protokolle, damit der Arbeitsprozess transparent bleibt.
- Fairness und Zugang gewährleisten: Verlangen Sie keine privaten Accounts; stellen Sie immer eine gleichwertige Alternative ohne KI bereit.
- Transparenz schaffen: Kommunizieren Sie Ihre gewählte Option (1–4) früh und klar im Syllabus und erläutern Sie, wie Kennzeichnungspflichten umgesetzt werden sollen.
- KI-Detektoren mit Vorsicht nutzen: Bedenken Sie, dass automatisierte Erkennung nicht gerichtsfest ist; Sanktionen erfordern belastbare Indizien (z. B. erfundene Quellen, Widersprüche, unplausible Ergebnisse).
- Fachliche Verantwortung betonen: Machen Sie deutlich, dass Studierende die Richtigkeit und Quellenqualität von KI-Ergebnissen selbst prüfen und dafür verantwortlich sind.
- Grundsätze für Lehrende
als Druckversion - Weiter zu den Grundsätzen für Studierende
Grundsätze für einen verantwortungsvollen Einsatz von KI für Lehrende
2. Gestaltung von Prüfungsbedingungen und Lehrveranstaltungen
Lehrende definieren transparent und verbindlich, ob und in welchem Umfang die Nutzung von KI-Systemen in Prüfungsleistungen (Hausarbeiten, Projektberichte, Abschlussarbeiten etc.) sowie in Lehrveranstaltungen (bei Übungsabgaben, Aufgabenstellungen oder Gruppenarbeiten etc.) erlaubt oder untersagt ist.
Diese Regelungen sollen den Studierenden rechtzeitig und klar kommuniziert werden – z. B. über ILIAS, in der Veranstaltungseinführung oder in schriftlicher Form.
- den zulässigen Zweck der KI-Nutzung (z. B. Recherche, Schreibunterstützung),
- etwaige Grenzen der Nutzung,
- Anforderungen an die Kennzeichnung (z. B. Offenlegung verwendeter KI-Tools im Anhang).
Detaillierte Optionen und Empfehlungen bietet die Handreichung für Prüfende zu KI-Werkzeugen und Prüfungen (Universität Stuttgart, Version 1.0, Juli 2023).
3. Verantwortung für Daten und Eingaben
Beim Einsatz von KI-Systemen sind datenschutzrechtliche, urheberrechtliche und ethische Vorgaben zu beachten. Insbesondere dürfen keine personenbezogenen, vertraulichen oder urheberrechtlich geschützten Inhalte in KI-Systeme eingegeben werden, welche diese Eingaben für Trainingszwecke nutzen und möglicherweise an anderer Stelle wieder ausgeben. Vertrauliche, interne oder personenbezogene Daten dürfen nur in solche KI-Systeme eingegeben werden, deren Nutzung durch die Universität für diese Daten ausdrücklich freigegeben wurde.
4. Verantwortung für KI-generierten Output
Lehrende tragen die Verantwortung für die Inhalte, die durch KI-Systeme erzeugt und in der Lehre verwendet werden. KI-generierter Output ist vor der Verwendung sorgfältig zu prüfen – insbesondere hinsichtlich:
- fachlicher Richtigkeit,
- ethischer Vertretbarkeit,
- diskriminierender oder voreingenommener Inhalte,
- sowie möglicher Plagiate und Halluzinationen.
6. Förderung von KI-Kompetenz
Lehrende sind aufgerufen, Studierende zum reflektierten und kompetenten Umgang mit KI-Werkzeugen anzuleiten. Wo sinnvoll, sollen Potenziale, Risiken und Grenzen von KI-Systemen thematisiert und kritisch diskutiert werden – z. B. im Rahmen von Lehrinhalten oder Übungsformaten.
7. Bevorzugte Nutzung universitärer Systeme & Fair Use
Lehrende sind angehalten, bevorzugt auf universitätsbetriebene, DSGVO-konforme KI-Systeme wie das von der Universität Stuttgart bereitgestellte Tool RAI zurückzugreifen. Der Einsatz solcher Systeme ermöglicht es, KI-Anwendungen in Kursen zu integrieren und – wo didaktisch sinnvoll – auch verpflichtend vorzusehen. Auch bei der Verwendung universitärer Systeme ist auf eine faire, ressourcenschonende Nutzung zu achten, um allen Angehörigen der Universität den gleichberechtigten Zugang zu ermöglichen.
Studierenden kann nicht abverlangt werden, private Accounts bei externen, potenziell nicht DSGVO-konformen KI-Systemen (z. B. ChatGPT) anzulegen oder zu nutzen. Eine Pflicht zur Nutzung von KI-Werkzeugen ist nur dann zulässig, wenn keine datenschutzrechtlichen Bedenken bestehen (wie bei RAI) oder eine gleichwertige Alternative ohne KI-Nutzung durch die Universität bereitgestellt wird.
8. Rechtliche Grenzen gemäß EU-KI-Verordnung
Bestimmte KI-Praktiken wie „Social Scoring“ oder versteckte Verhaltensbeeinflussung durch KI-Systeme sind gemäß Art. 5 der EU-KI-Verordnung ausnahmslos verboten. Andere Systeme, etwa zur automatisierten Leistungsbewertung oder Prüfungsüberwachung (auch in Lernmanagement-Systemen), gelten als Hochrisiko-KI: Sie sind nicht verboten, dürfen aber nur unter strengen Auflagen eingesetzt werden (z. B. mit Transparenz, menschlicher Aufsicht und unter Beachtung von Datenschutz). Bitte beachten Sie, dass der Einsatz von KI-Systemen zur automatischen Notenvergabe oder automatischen Zulassung ohne finale menschliche Entscheidung nach aktuellem Rechtsstand unzulässig ist.
Weitere Informationen hierzu finden Sie in der Handreichung der Rechtsinformationsstelle bwDigiRecht zur KI-Verordnung, März 2025.
Häufige Fragen (FAQ)
Ja, wenn dies in Ihrer Veranstaltung vorgesehen ist. Wählen Sie eine der vier Optionen und dokumentieren Sie diese im Syllabus.
Nutzen Sie bevorzugt RAI mit GWDG-Modellen (C1–C3). Öffentliche KI-Ssysteme sind nur für C1-Inhalte geeignet.
Nein. KI-Systeme dürfen unterstützen, die Entscheidung bleibt eine menschliche Bewertung.
Nein. Es besteht keine Pflicht für Studierende KI-Systeme zu nutzen, die nicht in datenschutzkonformer Weise von der Universität bereitgestellt werden. Nutzen Sie RAI oder eine Alternative ohne KI-System.
Lisa Schöllhammer
Referentin für KI