Rahmenwerk zur Nutzung von KI für alle Beschäftigten

Wie kann ich KI-Systeme sicher und verantwortungsvoll im Arbeitsalltag der Universität einsetzen? Folgende Inhalte geben Orientierung: Was darf ich tun? Wo liegen Grenzen? Und welche Unterstützung gibt es?

KI im Arbeitsalltag verantwortungsvoll nutzen

Eine Policy für Forschende folgt.

Die Nutzung von KI-Systemen eröffnet der Universität Stuttgart vielfältige Chancen für mehr Effizienz, Qualität und Innovation. Gleichzeitig erfordert sie einen bewussten, verantwortungsvollen und rechtssicheren Umgang. Daher verfolgt die Universität eine differenzierte Regelung: Sensible Informationen werden konsequent geschützt, während der Zugang zu leistungsfähigen KI-Anwendungen verantwortungsvoll ermöglicht wird. Zu diesem Zweck ergänzt die Universität frei verfügbare Systeme (z. B. ChatGPT) für öffentliche (C1-)Daten durch eigene, datenschutzkonforme Lösungen wie RAI und weitere universitäre KI-Angebote. So entsteht ein sicheres, breit aufgestelltes Portfolio, das Mitarbeitenden erlaubt, die Vorteile moderner KI-Technologien zu nutzen, ohne Datenschutz oder Informationssicherheit zu gefährden.

Bevor Sie ein KI-System im dienstlichen Kontext nutzen, beachten Sie die nachfolgenden Grundschritte und die Pflichtschulung für alle Beschäftigten. Sie bilden den roten Faden der Regelung und helfen, sicher und rechtlich konform zu handeln.

Die wichtigsten Regelungen und Tools im Video erklärt

11:07

Vertraulichkeit bestimmen – Wie sensibel sind meine Informationen?

Bevor Sie ein KI-System verwenden, müssen Sie festlegen, welcher Vertraulichkeitsklasse (C1–C4) Ihre Informationen angehören. Diese Einstufung entscheidet darüber, welche Systeme Sie verwenden dürfen. Jedes KI-System verarbeitet Informationen anders. Manche speichern Eingaben dauerhaft, andere – wie unsere universitären Systeme – nur kurzzeitig oder gar nicht. Einige lernen aus Nutzereingaben über die Nutzenden, andere nicht. Nur wenn Sie wissen, wie vertraulich Ihre Informationen sind und wie das jeweilige KI-System arbeitet, können Sie sicher entscheiden, wo Sie was eingeben dürfen.

C1 – Öffentlich

Informationen, die frei zugänglich oder bereits veröffentlicht sind, wie Webseiten, Pressemitteilungen, öffentliche Vorträge.

C2 – Intern

Informationen, die nur für den universitären Gebrauch bestimmt sind, wie interne Rundschreiben, interne Abläufe, nicht veröffentlichte Lehrmaterialien.

C3 – Vertraulich

Informationen mit erhöhtem Schutzbedarf, wie interne Protokolle, unveröffentlichte Forschungsdaten, Personalinformationen.

C4 – Streng vertraulich

Informationen mit höchstem Schutzbedarf, wie Gesundheitsdaten, Vertragsunterlagen, vertrauliche Forschungskooperationen.

Passenden Systemtyp wählen – Welche KI-Systeme gibt es und worin unterscheiden sie sich?

Nicht alle KI-Systeme sind gleich. Manche werden innerhalb der Universität betrieben, andere extern durch Partner oder kommerzielle Anbieter. Die Typisierung hilft Ihnen zu entscheiden, welches System für welche Informationen geeignet ist.

Vertragliche Absicherung: Interne DS/IS-Freigabe; Audit / Nachvollziehbarkeit verpflichtend
Hosting: Isoliert On-Premises; Cloud (auch EU) i. d. R. nicht erlaubt
Training durch Anbieter: Nie zulässig
Accountbindung: Nur Uni-Accounts; rollenbasiert; Protokollierung / Nachvollziehbarkeit

Vertragliche Absicherung: AVV / Kooperationsvertrag; starke Zusicherung: kein Zugriff Dritter
Hosting: On-Prem oder EU-Cloud des Partners; Nicht-EU unzulässig
Training durch Anbieter: Nicht zulässig (vertraglich ausgeschlossen)
Accountbindung: Uni-Login / föderiert;  pseudonymisiert außerhalb Universität

Vertragliche Absicherung: Enterprise-Vertrag + AVV/SCC
Hosting: EU-Cloud
Training durch Anbieter: Kein Training (vertraglich ausgeschlossen)
Accountbindung: Uni-Login; nur ohne langfristige Anbieter-Protokollierung / Auswertung

Vertragliche Absicherung: Enterprise-Vertrag + AVV
Hosting: Anbieter-Cloud, idR EU/EWR
Training durch Anbieter: Kein Training (Enterprise-Einstellung)
Accountbindung: Uni-Account Pflicht; keine langfristige Anbieter-Protokollierung / Auswertung

Vertragliche Absicherung: Keine (nur AGB)
Hosting: Beliebige externe Cloud (EU/Nicht-EU)
Training durch Anbieter: Training akzeptabel/üblich, Eingaben können genutzt werden
Accountbindung: Individuell / ohne Account; keine Uni-Bindung, keine Nachvollziehbarkeit

Welche Informationen in welches KI-System?

Die Kombination aus Vertraulichkeitsklasse und Systemtyp legt fest, welche Information Sie in welches KI-System eingeben dürfen. 

 

Das KI-Portfolio der Universität Stuttgart

Das Portfolio kombiniert Systeme, die innerhalb oder in enger Partnerschaft mit der Universität betrieben werden, mit externen, kommerziellen Angeboten. Damit entsteht schrittweise ein vernetztes, verantwortungsvolles KI-Ökosystem, das Leistung, Sicherheit und Lernfortschritt vereint. Die jeweils aktuell freigegebenen Systeme finden Sie in der Whitelist der Universität Stuttgart, die laufend aktualisiert wird.

Die Grafik zeigt das KI-Portfolio der Universität Stuttgart als abgestuftes Modell, das die verschiedenen Typen von KI-Systemen nach ihrem Datenschutz- und Betriebsniveau voneinander unterscheidet. Sie verdeutlicht, dass die Universität unterschiedliche Systeme kombiniert – von universitären Eigenentwicklungen bis zu externen Angeboten – um ein komplementäres Portfolio bereitzustellen, das Sicherheit und Innovation miteinander verbindet. Auf der linken Seite werden die universitätseigenen Systeme dargestellt, die vollständig an der Universität betrieben werden und den höchsten Datenschutz gewährleisten. In dieser Kategorie ist ein universitätsinterner Chatbot geplant, der auf einem Open-Weight-Sprachmodell basiert und am TIK gehostet werden soll. Diese Systeme sind für sensible und vertrauliche Informationen vorgesehen und noch im Aufbau. Darauf folgen die universitätsbetriebenen Systeme mit wissenschaftlichen Partnern. Hierzu gehört RAI mit den GWDG-Modellen, das als datensicheres System für interne und vertrauliche Inhalte genutzt werden kann. Ebenfalls im Portfolio enthalten sind universitätsbetriebene Systeme mit kommerziellen Partnern, die über Schnittstellen der Universität Zugang zu leistungsfähigen Modellen bieten. Ein Beispiel hierfür ist RAI mit Azure- bzw. OpenAI-Modellen, die innerhalb der EU gehostet werden und für öffentliche und interne Inhalte (C1–C2) geeignet sind. Darunter werden externe Enterprise-Systeme mit Hochschulverträgen gezeigt, etwa DeepL Pro EDU oder Microsoft Copilot EDU, die über den Hochschul-Account genutzt werden können und für öffentliche sowie interne Inhalte freigegeben sind. Daneben befinden sich die frei verfügbaren, nicht geprüften Systeme wie ChatGPT Team, ChatGPT Free, Perplexity oder Gemini. Diese Tools dürfen ausschließlich für öffentliche Inhalte (C1) verwendet werden und unterliegen keiner institutionellen Datenschutzkontrolle oder zentralen Finanzierung. Die Darstellung trägt die Überschrift „KI-Portfolio“. Sie zeigt den Grundgedanken eines komplementären KI-Portfolios: Die Universität ergänzt leistungsfähige, frei verfügbare Tools um datenschutzkonforme universitäre Systeme, sodass alle Universitätsangehörigen Künstliche Intelligenz sicher, verantwortungsvoll und innovationsfördernd einsetzen können.
Das KI-Portfolio der Universität Stuttgart

Wer externe Tools nutzt, sollte darauf achten, die Verwendung von Eingaben als Trainingsdaten zu deaktivieren. Unterstützung bei der Auswahl von frei verfügbaren Tools bieten die KI-Toolbox im ILIAS-Bereich und die VK:KIWA-Ressourcenliste.

RAI – Das datenschutzkonforme KI-Tool der Universität

RAI (Responsible AI) ist unser zentrales, datenschutzkonformes Tool. Es ist ein Allrounder im Textbereich. Aufgaben wie z. B. Bildgenerierung oder webnahe Recherchen werden durch andere freigegebene Tools aus der Whitelist ergänzt. RAI ist nur im Uni-Netz oder über VPN zugänglich und bietet zwei Modelloptionen.

RAI wird in der EU betrieben. Eingaben werden nicht zum Training genutzt. RAI kann für die Erstellung von Lehrmaterialien, Kursaufbau, Skizzen für Bewertungen/Feedback und vieles Weitere genutzt werden. Zusätzlich kann RAI verpflichtend in Kursen eingesetzt werden und es steht eine Gruppenchat-Funktion zur Verfügung.

Modelloptionen

In RAI stehen mehrere KI-Modelle zur Verfügung, die von der Universität Stuttgart zentral bereitgestellt werden. Die Modelle unterscheiden sich in ihrer Leistung, im zugelassenen Datenumfang und im Hosting-Ort. In RAI stehen zwei Hosting-Varianten zur Verfügung:

  • Azure EU: Modelle von OpenAI, betrieben auf EU-Servern von Microsoft Azure.
  • GWDG (Göttingen): Open-Weight-Modelle, betrieben auf Servern der Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen.

Die folgende Übersicht hilft Ihnen bei der Auswahl des für Ihren Anwendungsfall passenden Modells.

GPT-5 Mini ist eine kompakte Variante der GPT-5-Generation von OpenAI und wird über Azure (EU-Region) bereitgestellt. Das Modell bietet im Vergleich zu früheren GPT-4-Modellen deutlich verbesserte Argumentations-, Coding- und Textfähigkeiten bei geringeren Kosten und höherer Geschwindigkeit als das große GPT-5. Es eignet sich als Standard-Allrounder für längere Texte, Zusammenfassungen, Programmieraufgaben, Literaturarbeit und allgemeine Studien- oder Verwaltungsthemen in sehr gutem Englisch und sehr solidem Deutsch.

Details

  • Entwickler / Land: OpenAI / USA
  • Betrieb: Azure (EU)
  • Datenklassen: Zulässig: C1–C2, nicht zulässig: C3–C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 2 – hoch
  • Leistung Programmieren: 2 – hoch
  • Leistung Bilder verstehen (Vision): aktuell nicht unterstützt (2 – hoch)

GPT-4.1 Mini ist ein kleineres Mitglied der GPT-4.1-Reihe von OpenAI und ebenfalls über Azure (EU-Region) verfügbar. Es wurde speziell auf gute Instruktionsbefolgung und Coding optimiert und erreicht in vielen Benchmarks ein Niveau ähnlich oder sogar besser als GPT-4o – bei deutlich geringerer Latenz und Kosten. Mit seinem sehr großen Kontextfenster eignet sich das Modell für längere Dokumente, Chat-Tutoring, Programmierübungen und sprachlich anspruchsvolle Aufgaben, vor allem in Englisch und gutem Deutsch. Im Vergleich zu GPT-5 Mini ist es etwas schwächer im komplexen Reasoning, dafür oft noch etwas schneller.

Details

  • Entwickler / Land: OpenAI / USA
  • Betrieb: Azure (EU)
  • Datenklassen: Zulässig: C1–C2, nicht zulässig: C3–C4
  • Kontext: ≥ 128 k Tokens (≥ 96 000 Wörter ≥ 320 Seiten)
  • Leistung Text: 2 – hoch
  • Leistung Programmieren: 2 – hoch
  • Leistung Bilder verstehen (Vision): aktuell nicht unterstützt (2 – hoch)

O4 Mini ist ein dediziertes Reasoning-Modell von OpenAI, das besonders für Aufgaben mit vielen Rechenschritten entworfen wurde. Es ist kleiner und günstiger als frühere o-Modelle, erreicht aber in Mathematik, Programmierung und wissenschaftlichen Fragestellungen ein sehr hohes Leistungsniveau und nutzt intern ausführlichere Schritt-für-Schritt-Überlegungen. Damit eignet sich O4 Mini vor allem für komplexe Rechen- oder Logikaufgaben, Gutachtenentwürfe oder technische Analysen; für einfache Chats ist GPT-5 Mini meist schneller.

Details

  • Entwickler / Land: OpenAI / USA
  • Betrieb: Azure (EU)
  • Datenklassen: Zulässig: C1–C2, nicht zulässig: C3–C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 2 – hoch
  • Leistung Programmieren: 2 – hoch
  • Leistung Bilder verstehen (Vision): aktuell nicht unterstützt (2 – hoch)

GPT-OSS 120B ist ein offenes „open-weight“ Modell von OpenAI. Es ist auf starke Reasoning-Fähigkeiten und Agenten-Szenarien ausgelegt und erreicht auf vielen Benchmarks ein Niveau ähnlich zu O4 Mini, bleibt dabei aber vollständig lokal betreibbar. In dieser Plattform läuft GPT-OSS 120B auf Servern der GWDG in Göttingen, sodass alle Daten deren Infrastruktur nicht verlassen. Es ist besonders geeignet für rechenintensive Analysen, Planungs- und Coding-Aufgaben sowie Forschungsprojekte, bei denen Transparenz und Datensouveränität wichtig sind.

Details

  • Entwickler / Land: OpenAI / USA
  • Betrieb: GWDG
  • Datenklassen: Zulässig: C1–C3, nicht zulässig: C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 2 – hoch
  • Leistung Programmieren: 2 – hoch
  • Leistung Bilder verstehen (Vision): nicht unterstützt

Gemma 3 27B ist ein offenes Modell von Google, das auf der Gemini-Technologie basiert und Text- und Bild­eingaben verarbeiten kann. Es verfügt über großes Kontextfenster und unterstützt über 140 Sprachen, wodurch es sich besonders für mehrsprachige Szenarien und die Kombination aus längeren Dokumenten und Abbildungen eignet. Beim tiefen mathematischen Reasoning liegen Modelle wie R1 oder GPT-OSS allerdings meist vorn.

Details

  • Entwickler / Land: Google / USA
  • Betrieb: GWDG
  • Datenklassen: Zulässig: C1–C3, nicht zulässig: C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 2 – hoch
  • Leistung Programmieren: 2 – hoch
  • Leistung Bilder verstehen (Vision): nicht unterstützt

Llama 3.1 8B ist ein kompaktes Sprachmodell von Meta, das als effizientes Modell für viele Standardaufgaben dient. Es ist für Dialoganwendungen und allgemeine Textverarbeitung optimiert, bietet ein großes Kontextfenster und sehr geringe Latenz, bleibt aber in komplexem Reasoning und anspruchsvollem Coding deutlich hinter größeren Modellen wie Mistral Large 2 oder GPT-OSS zurück. Aufgrund seiner Effizienz eignet es sich insbesondere für einfache Auskünfte, kurze Zusammenfassungen, erste Entwürfe oder Lehr-/Übungsszenarien mit vielen parallelen Anfragen.

Details

  • Entwickler / Land: Meta / USA
  • Betrieb: GWDG
  • Datenklassen: Zulässig: C1–C3, nicht zulässig: C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 1 – solide
  • Leistung Programmieren: 0 – gering
  • Leistung Bilder verstehen (Vision): nicht unterstützt

Mistral Large 2 ist das große Flaggschiff-Modell des französischen Unternehmens Mistral AI und wurde speziell für starke mehrsprachige Text-, Coding- und Reasoning-Fähigkeiten entwickelt. Es eignet sich für komplexe Analysen, längere wissenschaftliche Texte und anspruchsvolle Programmier-Tasks. Im direkten Vergleich liegt Mistral Large 2 meist zwischen den kleineren Modellen (Llama 3.1 8B) und den spezialisierten Reasoning-Modellen (R1, GPT-OSS) – mit einem guten Kompromiss aus Qualität und Geschwindigkeit.

Details

  • Entwickler / Land: Mistral / Frankreich
  • Betrieb: GWDG
  • Datenklassen: Zulässig: C1–C3, nicht zulässig: C4
  • Kontext: 128 k Tokens (≈ 96 000 Wörter ≈ 320 Seiten)
  • Leistung Text: 1 – solide
  • Leistung Programmieren: 1 – solide
  • Leistung Bilder verstehen (Vision): nicht unterstützt

Dieses Modell von dem chinesischen Unternehmen DeepSeek ist speziell auf komplexes logisches Denken sowie mathematische und technische Aufgaben ausgelegt. In Benchmarks erreicht es sehr hohe Leistungen in Mathematik, Programmierung und Problemlösung. Es arbeitet am zuverlässigsten in Englisch und Chinesisch, Deutsch wird gut unterstützt, kann stilistisch aber schwächer ausfallen. R1 ist deutlich langsamer als die meisten anderen Modelle und kann bei politisch sensiblen Themen inhaltliche Voreingenommenheiten zeigen; es eignet sich daher vor allem für technisch-wissenschaftliche Fragestellungen mit hohem Reasoning-Anspruch.

Details

  • Entwickler / Land: DeepSeek / China
  • Betrieb: GWDG
  • Datenklassen: Zulässig: C1–C3, nicht zulässig: C4
  • Kontext: 32 k Tokens (≈ 24 000 Wörter ≈ 80 Seiten)
  • Leistung Text: 3 – sehr hoch
  • Leistung Programmieren: 3 – sehr hoch
  • Leistung Bilder verstehen (Vision): nicht unterstützt

Video-Tutorial: Was ist RAI?

05:09

Schulungen und Kompetenzentwicklung

Im Lernportal KI in ILIAS stehen Schulungsangebote für Beschäftigte bereit:

  • Pflichtmodul: Wahlweise der BW-Basis-Kurs oder der Videokurs des KI-Campus. Beide vermitteln Grundlagen für den sicheren Umgang mit KI-Systemen. Nach Bestehen erhalten Sie ein Zertifikat, das vor der dienstlichen Nutzung von KI bei der oder dem Vorgesetzten vorzulegen ist.
  • Erweiterte Selbstlernangebote: Vertiefende Kurse auf KI-Campus, OpenHPI sowie interne ILIAS-Kurse.
  • Schulungen zu KI-Regelungen: Online-Video zu Vertraulichkeitsklassifikation, Systemtypen und Richtlinie; Führungskräfteschulungen (Termine im Veranstaltungskalender, Kontakt: Alina Gräber).
  • Kurzanleitungen & Tutorials: Hilfen zur Anmeldung und Nutzung von RAI und frei verfügbaren Tools.

Für den Zugriff auf einige der Angebote ist eine Anmeldung in ILIAS mit dem ac- oder gs-Account erforderlich.

Das Prorektorat IT bietet ab dem 7. November bis zum 12. Dezember jeden Freitag eine KI-Fragestunde an. Sie findet zwischen 10 und 11 Uhr statt. Den Webex-Link finden Sie im Lernportal KI.

Austausch zu KI-Fragen

Seit Mai 2024 trifft sich der universitätsweite KI-Kreis regelmäßig online per Webex zum offenen Austausch. Ziel ist es, die dynamische Entwicklung generativer KI-Systeme gemeinsam zu reflektieren und ihren sinnvollen, verantwortungsvollen Einsatz an der Universität Stuttgart zu fördern. Der Kreis diskutiert aktuelle KI-Themen sowie hochschulspezifische Fragen zu Strategie, Tools, Regelungen, Schulungen und ethischen Aspekten. Er vernetzt Initiativen, bündelt Aktivitäten und trägt dazu bei, Wissen über KI-Anwendungen zu verbreiten.

Organisiert wird der KI-Kreis vom Prorektorat IT. Interessierte können sich per E-Mail an wenden, um in den Verteiler aufgenommen zu werden und Informationen zu den nächsten Treffen zu erhalten.

Häufige Fragen zur Nutzung von KI-Systemen

Nur, wenn Systemtyp und Vertraulichkeitsklasse laut Whitelist dies zulassen. Personenbezogene Daten setzen zudem immer eine rechtliche Grundlage voraus. Für C3/C4 ist grundsätzlich eine dokumentierte Freigabe der Leitung bzw. einer höheren Instanz nötig. Wenn Sie unsicher sind, nutzen Sie das System nicht für diese Daten und fragen Sie nach.

Es gilt der Restriktivfall: Nutzen Sie das System nur für öffentliche Inhalte (C1), bis die Einstufung geklärt ist bzw. eine Freigabe in der Whitelist vorliegt.

Ja, wenn ein KI-System Inhalte in größerem Umfang mitgestaltet (z. B. Textentwurf) oder wenn KI‑generierte Inhalte ohne weitere Bearbeitung veröffentlicht werden (Webseite, offizielles Schreiben, Mail an Externe). Bei sehr geringem Einsatz (z. B. einzelne Formulierungsvorschläge) ist keine Kennzeichnung erforderlich. Bei Antworten an Studierende/Externe muss die Nutzung eines KI-Systems erkennbar sein.

Eingaben können gespeichert, ausgewertet oder zum Training genutzt werden und ggf. einem Account zugeordnet werden. Nutzen Sie solche Systeme ausschließlich für C1‑Inhalte und deaktivieren Sie – wenn möglich – die Verwendung Ihrer Eingaben als Trainingsdaten.

Nein. RAI ist ein datensicheres Allround‑KI‑System für Textarbeit (Ideen, Umformulierungen, Übersetzungen, Analysen im Rahmen der Richtlinie). Fachrecherchen, Spezialanalysen oder Datenbanken ersetzen Sie damit nicht.

Nachdem Sie sich bei RAI angemeldet haben, klicken Sie in das Eingabefenster des KI-Tools. Rechts wird Ihnen nun das im Moment verwendete Sprachmodell angezeigt, z.B. „Microsoft Azure (C1-C2): OpenAI GPT 4.1 Mini, Apr 2025“. Links neben dem Modellnamen finden Sie einen kleinen Pfeil/Dreieck, welches nach oben zeigt. Wenn Sie auf den Pfeil klicken, sehen Sie alle Sprachmodelle, die Sie nutzen können. Alle Bezeichnungen der GWDG-Modelle beginnen mit „GWDG (C1-C3)“. Alle Bezeichnungen der OpenAI-Modelle über Microsoft Azure beginnen mit „Microsoft Azure (C1-C2)“. Eine visuelle Darstellung finden Sie in den RAI Tutorials.

Werfen Sie einen Blick in die aktuelle Whitelist. Nur dort gelistete Systeme sind für die dienstliche Nutzung zugelassen – mit Angabe der zulässigen Vertraulichkeitsklassen. Fehlt ein System, gilt: nur C1‑Nutzung oder Freigabeprozess anstoßen.

Für Systeme, die nicht in der Whitelist stehen, ist vor der dienstlichen Nutzung mit C2 oder höher eine Prüfung erforderlich. Starten Sie die Anfrage über Ihre Leitung an das Prorektorat IT. Die Universitätsleitung entscheidet letztinstanzlich über die Zulassung.

Nur in zugelassenen Systemen und nur nach Freigabe (C3/C4) bzw. bei gegebener Rechtsgrundlage. In frei verfügbaren Systemen (Typ 5) ist das verboten.

Melden Sie den Vorfall an Datenschutz und Informationssicherheit. Eine schnelle, offene Meldung hilft, Risiken zu begrenzen und den Vorfall korrekt zu behandeln.

Vor der dienstlichen Nutzung müssen Sie sich über sichere, rechtliche und verantwortungsvolle Nutzung informieren. Die Universität bietet dafür Schulungen (asynchron) an. Sie sensibilisieren u. a. für Bias, Diskriminierung, Halluzinationen sowie nachhaltige, digital‑souveräne Nutzung.

Ja, für dienstliche Tätigkeiten außerhalb der Forschung. Für Forschungstätigkeiten gelten zusätzlich forschungsspezifische Regelungen (siehe Kurzpolicy KI in der Forschung).

Ja. Wenn sie KI-Systeme dienstlich (also im Rahmen ihrer bezahlten Tätigkeit an der Universität) nutzen, sollten sie das Pflichtmodul absolvieren. Der BW-Basis-Kurs ist im Lernportal KI für Studierende in ILIAS verfügbar und kann mit st-Account abgeschlossen werden (inkl. Zertifikat). Der inhaltliche Kurs ist identisch mit dem BW-Basis-Kurs im Lernportal KI für Beschäftigte.

Bitte senden Sie Ihr Zertifikat an Ihre direkte Vorgesetzte / Ihren direkten Vorgesetzten. Die Ablage erfolgt analog zu anderen Pflicht-/Sicherheitsschulungen in der Einheit. Meist werden diese Unterlagen in den Sekretariaten gesammelt aufbewahrt. Die Ablage erfolgt nicht in der Personalakte.

Kontakt

Dieses Bild zeigt Lisa Schöllhammer

Lisa Schöllhammer

 

Referentin für KI

 

Datenschutz

 

Stabsstelle Informationssicherheit

Zum Seitenanfang