UniService Digitalisierung Lehre (UDL)

September 2024 (v. 1)

Handreichung für Lehrende zum Einsatz von generativer KI in der Lehre

Kurz zusammengefasst: Studierende sollten im Zusammenhang mit Lehrveranstaltungen nicht verpflichtet, aber positiv ermutigt werden, sich grundlegende Fähigkeiten im Umgang mit KI-Applikationen anzueignen, und den Umgang mit KI-Tools kritisch reflektiert zu erproben. Im Rahmen von Lehrveranstaltungen empfiehlt es sich, die in der Veranstaltung und den zugehörigen Studienleistungen erlaubte und nicht erlaubte Verwendung von KI-Tools transparent anzuzeigen.

———

Damit Studierende angesichts der technologischen Entwicklungen unserer Zeit sprach- und handlungsfähig bleiben, ist es notwendig, sie in der Nutzung dieser Technologien zu unterstützen, sie gleichzeitig aber auch zu einer kritischen Reflexion dieser Nutzung und zu einer sachlich-fundierten Auseinandersetzung mit diesen Technologien anzuleiten.

Daher sollten Studierende ermutigt werden, sich mit der generativen KI auseinanderzusetzen und unterschiedliche Programme und Tools auszuprobieren. Eine sachbezogene Einbeziehung der Technologie in die Hochschullehre verdeutlicht auch stärker als eine abstrakte Behandlung die Abgrenzung von eigenständiger wissenschaftlicher Arbeit und Plagiat beziehungsweise fälschlicherweise reklamierter Autorenschaft. Sie als Lehrende können die Möglichkeiten der kreativen Nutzung aufzeigen und die Studierenden anleiten, wie diese zum Beispiel Texte verbessern oder variieren können. Gleichzeitig können Sie die derzeit noch bestehenden Schwächen vieler KI-Tools bei inhaltlichen Antworten demonstrieren

Sofern die Verwendung generativer KI oder der Erwerb von KI-Kompetenzen nicht ausdrücklich zum Lernziel der Veranstaltung gehört, sollten Studierende jedoch nicht verpflichtet werden, bestimmte Tools oder pauschal generative KI zu verwenden. Mögliche Bedenken der Lernenden sollten ernstgenommen und gegebenenfalls gemeinsam reflektiert werden.

Handlungsempfehlungen:

Formulieren Sie zu Beginn Ihrer Veranstaltungen deutlich, ob und in welchem Umfang Sie einen Einsatz generativer KI-Tools in ihrer Veranstaltung zulassen oder verbieten, gegebenenfalls sogar ausdrücklich fordern. Letzteres sollte aber im Sachthema Ihrer Veranstaltung begründet sein.

Benennen Sie gegebenenfalls konkrete Regeln. Ein Beispiel für derartige Regeln bietet die „Rules for Tools“ von Prof. Dr. Christian Spannagel (PH Heidelberg).

Kurz zusammengefasst: Die KI-Technologie und die KI-Tools sind zum einen – im Sinne von KI-Kompetenzen – Objekt der Lehre. Zum anderen kann die KI auch als Werkzeug die Lehre und das eigenständige Lernen der Studierenden unterstützen. Viele Anwendungsfelder befinden sich zwar noch in der Erprobung oder müssen ihren langfristigen Nutzen noch erweisen, aber möglich ist ein Einsatz generativer KI etwa im Bereich der Erstellung von Lern- und Lehrmaterialien oder bei der Lehrveranstaltungsplanung. Denkbar wäre unter anderem das Aufsetzen eines virtuellen Tutors oder die (Teil-)Automatisierung von Feedbackprozessen.

———

Die Hochschullehre soll Studierende konsequent auf ihre zukünftigen beruflichen Tätigkeiten vorbereiten. Eine Berücksichtigung der gesellschaftlichen und technischen Entwicklungen ist in diesem Zusammenhang unumgänglich. Da anzunehmen ist, dass die Technologien der Künstlichen Intelligenz künftig in vielen Lebensbereichen starke Veränderungen mit sich bringen und zunehmend selbstverständlicher Teil des beruflichen (wie auch privaten) Alltags werden, ist es eine Aufgabe der universitären Lehre, Studierende bei der Aneignung von KI-Kompetenz zu unterstützen. Dabei dürften sich die Art der KI-Kompetenzen sowie der Umfang spezifischer Fähigkeiten von Fach zu Fach stark unterscheiden.

Im gleichen Maße wird KI vermutlich nicht nur zunehmend sachliches Objekt der Lehre werden, sondern als Werkzeug die Lehre unterstützen. Auch hier dürften sich die Anwendungsfälle je nach Fachgebiet und je nach unterstütztem Studienabschnitt stark unterscheiden. Absehbar ist jedoch, dass die Nutzung von KI neue Formen des adaptiven Lernens ermöglichen und so Auswirkungen auf die Lehrprozesse haben wird. 

 

Anwendungsbeispiele

Beispiele, die primär die Lernenden und ihre Lernprozesse unterstützen

Erstellung von individualisierten Lernmaterialien: Generative KI kann bei der Produktion individualisierter Lernmaterialien helfen. So kann beispielsweise auf Basis eines Materialsatzes ein neues Lernmaterial automatisch zusammengestellt werden, oder es kann auf Basis eines bereits bestehenden Lernmaterials eine neu generierte Version erstellt werden. Diese kann dann die individuellen Bedürfnisse oder Vorlieben der Lernenden einbeziehen, indem zum Beispiel der jeweilige Berufswunsch bei Aufgabenstellungen einbezogen wird.

Tutoring: Generative KI kann von den Studierenden als persönlicher Tutor genutzt werden. Insbesondere, wenn das hierfür verwendete Tool auf Materialien der Veranstaltungen zugreifen kann, bietet sich für die Studierenden so die Möglichkeit, schwierige Konzepte in eine für sie geeignete Form zu überführen, zu verstehen oder ihr Wissen zu rekapitulieren. Eine binnendifferenzierende Bereitstellung zusätzlichen Materials durch die Lehrenden kann hierdurch entfallen.

 

Beispiele, die primär den Lehrenden und seinen Lehrplanungsprozess unterstützen

Erstellung von Aufgaben: Zahlreiche auf generativer KI basierende Tools sind in der Lage, auf Basis eines im Prompt umschriebenen oder anderweitig der KI zugänglich gemachten Materials Textaufgaben oder Multiple Choice-Tests zu entwerfen. Es darf betont werden, dass eine solche Erstellung im realen Prüfungskontext nicht das Zwei-Prüfer-Prinzip ersetzt (vgl. hierzu die Empfehlung der DH.nrw). Es erleichtert aber den Erstellungsprozess und kann insbesondere bei der Formulierung von Übungsaufgaben zur höheren Effektivität beitragen.

Automatisierung von Tätigkeiten: Zahlreiche der in der jüngeren Vergangenheit erwogenen Möglichkeiten einer Automatisierung von Tätigkeiten durch den Einsatz von KI sind rechtlich nicht umsetzbar. So bleibt die Begutachtung und Bewertung einer Studienleistung Pflicht der prüfenden Person und darf nicht an eine KI delegiert werden. Siehe hierzu unten unter Bewertung Studierender.
Der Einsatz von KI-Anwendungen bei der Plagiatserkennung ist zwar technisch prinzipiell denkbar. Zum derzeitigen Zeitpunkt sind diese Anwendungen aber recht fehleranfällig und juristisch nicht hinreichend aussagekräftig. Zudem steht ein solcher Prüfungsversuch juristisch vor dem Problem, dass die zu überprüfende Arbeit ein urheberrechtlich geschütztes Werk darstellt. Arbeiten Studierender dürfen infolgedessen nicht ohne eine Einverständniserklärung kopiert werden, was aber zum Beispiel bei einem (unvereinbarten) Upload oder der Eingabe von Textabschnitte in den Prompt gängiger KI-Applikationen zur Plagiatserkennung notwendig wäre. Dies gilt grundsätzlich auch für Übungsklausuren oder Übungstests, wenngleich eine Unterstützung der Lehrenden durch eine KI bei der Bewertung von Übungsaufgaben und der Formulierung individueller Feedbacks eine reizvolle Möglichkeit darstellen würde.   

Fortschrittsanalysen und Unterstützung des adaptiven Lernens: Aus dem rein technischen und didaktischen Blickwinkel heraus können KI-Tools in einem (sehr) engen rechtlichen Rahmen eingesetzt werden, um den Lernfortschritt einer Lerngruppe (zum Beispiel Seminar, Übung oder auch Studiengangskohorte) oder einzelner Lernenden zu analysieren und über einen längeren Zeitraum zu monitoren. Eine zielgerichtete und zeitnahe Intervention oder erweiternde Anpassung des Lehr-/Lernstoffes wird so auch in größeren Gruppen möglich. Aufgrund der hohen juristischen Komplexität ist ein solcher Einsatz an der Bergischen Universität Wuppertal zum gegenwärtigen Zeitpunkt nicht vorgesehen.

Unterstützung bei der Lehrveranstaltungsplanung: Die Möglichkeiten der generativen KI sind hier vielfältig. Zu nennen ist u.a. die Unterstützung bei der Formulierung von Lernzielen oder Veranstaltungsbeschreibungen durch generative KI-Tools. Viele dieser Anwendungen eignen sich aber auch als Ideengeber für Lehrveranstaltungssequenzen und sogar als Hilfe für allererste – freilich immer nachzubearbeitende, da fast immer in irgendeiner Form fehlerhafte – Lehrveranstaltungsentwürfe. Nützlich ist auch die Generierung kleinerer visueller oder auditiver Elemente für Präsentationen oder Ähnliches.

Unterstützung bei der Recherche (sowohl in Lehre als auch in Forschung): Generative KI-Systeme können genutzt werden, um akademische Texte zu lesen und zusammenzufassen. Generative KI-Tools eignen sich daher auch sehr gut, um Literaturüberblicksartikel zu erstellen. Zunehmend lassen sich auch Lehr-/Lernvideos auf diese Art auswerten.

Bewertung Studierender: Studienleistungen und Prüfungsleistungen sollten nie (auch nicht in Teilen) von KI-Tools bewertet werden. Vor allem zwei Gründe sprechen gegen diesen Einsatz, der dennoch immer wieder in Ausführungen über die Möglichkeiten generativer KI genannt wird:
Zum einen unterliegen auch Studienleistungen und Prüfungsleistungen dem Urheberrecht. Das Hochladen einer derartigen Leistung in ein KI-Tool entspricht jedoch in der Regel einer Vervielfältigung und stellt daher einen Verstoß gegen das Urheberrecht dar (vgl. § 16 UrhG).
Zum anderen ist nach Art. 22 Abs. 1 DSGVO eine auf ausschließlich automatisierter Verarbeitung beruhende Entscheidung unzulässig, wenn sie gegenüber der betroffenen Person rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt. Zumindest die rechtliche Wirkung liegt im Falle von Studienleistungen und Prüfungsleistungen vor.

Daher bestünde bei Einsatz einer Datenschutz-konformen, inneruniversitären KI-Anwendung zwar die theoretische Möglichkeit, sich bei der Entscheidungsfindung durch den betreffenden KI-Dienst unterstützen zu lassen, sofern die Letztentscheidungskompetenz nachweislich bei der prüfenden Person verbleibt. Die juristischen Hürden und technischen Vorbedingungen sind hierbei aber sehr hoch und ein entsprechendes Verfahren an der Bergischen Universität Wuppertal derzeit nicht vorgesehen.
Mittel- bis Langfristig betrachtet könnte eine rechtlich und technisch abgesicherte Campus-KI allerdings durchaus eine effiziente Unterstützung anbieten, um beispielsweise eine große Anzahl an Übungsaufgaben für die Studierenden zu stellen und die jeweiligen Bearbeitungen mit einem aussagekräftigen Feedback versehen zu können. Auch ist es durchaus denkbar, Hausarbeiten von Studierenden anhand eines anhand eines vorgegebenen Bewertungsrasters von der generativen KI vorab sichten und sich so bei der eigenen Bewertung unterstützen zu lassen. Allerdings wäre auch hier zu beachten, dass die Ergebnisse einer KI ausdrücklich kritisch zu hinterfragen sind. Denn die technische Funktionsweise der aktuellen KI-Programme kann dazu führen, dass individuelle Lösungen ungerechtfertigterweise herabgewertet werden, oder dass es zu einer systematischen Ungleichbehandlung von Studierenden aufgrund der Algorithmus-Bias der verwendeten Softwarelösung kommt.

Kurz zusammengefasst: Da zu prüfende Studierende die Inhalte und den Prozess der Leistungserbringung ihrer Prüfung verantworten müssen, ergibt sich von selbst, dass sie bei der Erbringung von Studien- und Prüfungsleistungen nicht ohne Kenntlichmachung auf KI-Systeme zurückgreifen dürfen. Die sogenannte Eigenständigkeitserklärung schriftlicher Arbeiten ist eine Möglichkeit, hier eine eindeutige rechtliche Grundlage zu Abwehr von Täuschungsversuchen zu schaffen. Technisch betrachtet gibt es jedoch kaum eine Möglichkeit, einen Täuschungsversuch durch ein eine ungekennzeichnete Nutzung von KI nachzuweisen. Diesem Problem kann durch ein kluges Prüfunsgdesign entgegengewirkt werden.

———

Die Möglichkeiten der generativen KI stellen das akademische Prüfungswesen vor große Herausforderungen sowohl im prüfungsdidaktischen wie auch im prüfungsrechtlichen Bereich. Insbesondere Letzteres stellt gegenwärtig (Sommer 2024) ein großes Problem dar, da die bestehenden Prüfungsordnungen auf die rasanten Entwicklungen im Bereich der generativen KI noch nicht eingehen konnten. Besonders betroffen sind die Prüfungsform der Hausarbeit und die Prüfungsform einer zuvor vorbereiteten Präsentation.

Grundsätzlich gilt – und ist den Studierenden auch sachbegründet nahezubringen: Studien- und Prüfungsleistungen setzen eine Eigenleistung in Form einer eigenständigen, geistigen Auseinandersetzung mit den Lerninhalten voraus. Selbst in den Fällen in denen die Nutzung von KI-Systemen zugelassen ist, bedeutet dies, dass Studierende bei der Erbringung von Studien- und Prüfungsleistungen nicht ausschließlich auf KI-Systeme zurückgreifen dürfen (außer dies wird durch die Aufgabenstellung verlangt). Darüber hinaus müssen Studierende Verantwortung für ihre Studien- und Prüfungsleistungen übernehmen. Sie verantworten die Inhalte und den Prozess der Leistungserbringung.

 

Möglichkeit der Erkennung eines Täuschungsversuches

Zum gegenwärtigen Stand existiert keine technische Möglichkeit, einen Täuschungsversuch durch Einsatz einer generativen KI zweifelsfrei und damit rechtlich sicher nachzuweisen. Zwar können einige Programme (zum Beispiel AI Text Classifier oder ChatGPT Zero) in ihrer Auswertung eine statistische Wahrscheinlichkeit aufzeigen, nach der ein solcher Täuschungsversuch gegebenenfalls naheliegt. Jedoch haben sich eben Programme dieser Art auch als fehleranfällig und juristisch nicht hinreichend aussagekräftig erwiesen. Die Nutzung solcher Programme ist vor diesem Hintergrund daher nicht zu empfehlen und ist an der Bergischen Universität Wuppertal auch nicht vorgesehen.

Darüber hinaus ist der Einsatz generativer KI zur Erstellung einer Hausarbeit oder Präsentation nur dann als Täuschungsversuch zu bewerten, wenn gegen die Kennzeichnungspflicht verstoßen wurde und in weiterer Konsequenz die Eigenständigkeitserklärung eine falsche Angabe macht.

 

Kennzeichnungspflicht und Eigenständigkeitserklärung 

Die Pflicht zur Kennzeichnung KI-generierter Texte oder Bilder im akademischen Kontext (und dort insb. im Kontext einer Prüfungsleistung) entspricht nicht nur einer guten wissenschaftlichen Praxis, sondern kann sich bereits aus den Nutzungsbedingungen des verwendeten Programmes ergeben. Vor allem aber kann sich eine Kennzeichnungspflicht, wenn es sich um eine universitäre Prüfungsleistung handelt, aus der jeweils geltenden Prüfungsordnung oder den Rahmenvorschriften einer Hochschule ergeben.

In der Regel ergibt sich an der Bergischen Universität Wuppertal eine Kennzeichnungspflicht aus der in der jeweiligen Prüfungsordnung eines Studienganges geforderten Eigenständigkeitserklärung. Da die Studierenden in dieser Erklärung rechtlich verbindlich niederlegen müssen, alle verwendeten Hilfsmittel angegeben zu haben, stellt eine nicht kenntlich gemachte Verwendung eines KI-Tools (somit eines Hilfsmittels) oder hiermit erstellter Produkte einen Täuschungsversuch dar.

Ebenfalls muss ein Täuschungsversuch postuliert werden, wenn über die Eigenständigkeit der Prüfungsleistung oder die Autorenschaft nachweislich getäuscht wurde, da auch dies der Eigenständigkeitserklärung zuwiderlaufen würde. Es handelt sich zwar nicht um ein Plagiat im klassischen Sinne, da der Text beziehungsweise das Bild (oder Ähnliches) von einer nicht urheberrechtsfähigen Software erstellt wurde. Dennoch wurde keine eigenständige Leistung mehr erbracht. Im Einzelfall kann sich der rechtssichere Nachweis eines Täuschungsversuches aber als schwierig erweisen.

Exkurs: Eigenständigkeit

Handlungsempfehlungen:

Nach den aktuellen Musterprüfungsordnungen der BUW müssen die Studierenden bei Abschlussarbeiten eine Eigenständigkeitserklärung abgeben (jeweils § 15 Absatz 7). Verschiedene Fächer beziehungsweise Studiengänge fordern eine derartige Eigenständigkeitserklärung für sämtliche wissenschaftliche Hausarbeiten und gegebenenfalls Sammelmappen. Die die Prüfungsleistung erbringende Person hat in diesen Fällen bei der Abgabe der Arbeit schriftlich zu versichern, dass sie diese selbständig verfasst und alle von ihr benutzten Quellen und Hilfsmittel in der Arbeit angegeben hat.

Die meisten Fächer beziehungsweise Studiengänge der Bergischen Universität Wuppertal halten für ihre Studierenden Vorlagen für eine Eigenständigkeitserklärung vor. Der UniService Digitalisierung Lehre empfiehlt, diese Vorlagen um einen optional auszuwählenden Passus bezüglich der Verwendung generativer KI zu erweitern:

Option 1: Ich versichere, dass ich in vorliegender Arbeit keine generativen KI-Tools oder hierauf zurückgehende Produkte verwendet habe.

Option 2: Ich versichere, dass ich in vorliegender Arbeit text- und bildgenerierende KI-Tools sowie andere Produkte generierende KI-Anwendungen lediglich als Hilfsmittel verwendet habe und mein gestalterischer Einfluss überwiegt. Des Weiteren versichere ich, sämtliche Textpassagen, Abbildungen und anderweitige Produkte, die unter Zuhilfenahme KI-gestützter Programme erstellt wurden, entsprechend gekennzeichnet sowie mit einem Hinweis auf das verwendete KI-gestützte Programm versehen zu haben. Ich versichere, dass ich keine KI-Schreibwerkzeuge verwendet habe, deren Nutzung der*die Prüfer*in explizit schriftlich ausgeschlossen hat oder deren Nutzung von der Prüfungsordnung explizit verboten wird.

Exkurs: Umgang mit Verdachtsfällen einer unzulässigen KI-Nutzung

 

Prüfungsdidaktische Optionen

Der unerlaubte Einsatz von generativen KI-Systemen in Prüfungsleistungen wird sich nicht immer verhindern lassen. Daher ist generell zu überlegen, ob Sie als Lehrperson oder das jeweilige Fach die Verwendung derartiger Applikationen als reguläres (freilich nachzuweisendes) Hilfsmittel zulassen.  

Dessen ungeachtet kann ein durchdachtes Prüfungsdesign den illegitimen Einsatz von KI verhindern oder zumindest erschweren.

Handlungsempfehlungen:

  • Formulieren Sie die Aufgabenstellungen schriftlicher und künstlerischer Arbeiten so, dass sie durch die Verwendung einer generativen KI nicht sinnvoll lösbar sind.
  • Verlagern Sie den Bewertungsschwerpunkt schriftlicher und künstlerischer Arbeiten weg vom Endprodukt hin zum Lern-/Entstehungsprozess (zum Beispiel durch Integration einer Erarbeitungsdokumentation oder Reflexion in die Aufgabenstellung).
  • Fordern Sie – wenn es die studiengangsspezifischen Bestimmungen zulassen und es die Lerngruppengröße erlaubt – nicht nur eine schriftliche oder künstlerische Leistung, sondern führen Sie zusätzlich ein mündliches Prüfungs-/Fachgespräch.
  • Führen Sie schriftliche Prüfungen nicht als Hausarbeit oder Take Home Exams durch, sondern als synchrone Klausur in Präsenz.

Kurz zusammengefasst: Wie bei allen anderen, „klassischen“ wissenschaftlichen Produkten (etwa Aufsatz oder Monographie, aber auch Seminarhandouts) gehört es bei KI-generierten Inhalten im Bereich von Forschung und Lehre zu den Regeln guter wissenschaftlicher Praxis, dass Autor*innen für Dritte nachvollziehbar angeben, welche Quellen sie bei der Erstellung ihrer Texte verwendet haben. Welche Verwendung (nach derzeitigem Stand) nachweispflichtig ist ergibt sich in Analogie zu Printprodukten. Die genaue Form dürfte sich wie dort zunehmend fachspezifisch entwickeln, aber ebenso wie dort immer gewisse Grundangaben beinhalten.

———

Eine gute wissenschaftliche Praxis sollte für Lehrende an der Universität nicht nur selbstverständlich sein, sondern systematisch vorgelebt und den Studierenden im Rahmen der Hochschullehre vermittelt werden. Die folgenden Überlegungen gelten daher sowohl für Lehrende in der Erstellung wissenschaftlicher Arbeiten oder von Lehrmaterialien als auch für Lernende bei der Erstellung von Studienleistungen.

Die Nutzung eines KI-erstellten Produktes unterscheidet sich vor diesem Hintergrund nicht wesentlich von der Verwendung anderer Quellen. Daher gehört es auch bei KI-generierten Inhalten zu den Regeln guter wissenschaftlicher Praxis, dass Lehrende bzw. Wissenschaftler*innen für Dritte nachvollziehbar angeben, welche Quellen sie bei der Erstellung ihrer Texte verwendet haben.

Folgende Aspekte sind (immer vorausgesetzt, dass der Einsatz einer generativen KI in der jeweiligen Arbeit zugelassen ist) zu beachten und den Studierenden nahezubringen – was einschließt, dass diese Gesichtspunkte auch im eigenen Lehr- und Forschungsbetrieb (also zum Beispiel in eigenen Präsentationen, Skripten oder Aufsätzen) beachtet werden:

  1. Eine grundsätzliche Nachweispflicht gilt immer dann, wenn Inhalte (zum Beispiel Texte, Bilder, Daten), die mit einem generativen KI-Tool erstellt wurden, direkt verwendet oder paraphrasiert werden. Das klassische Zitat oder der Verweis auf einen Text der Sekundärliteratur kann hier gut als Pendant dienen. Anders als bei diesen Referenzen sollte jedoch auch die Art der Verwendung erwähnt werden. Dies kann geschehen als Fuß- oder Endnote oder als erklärender Hinweis direkt vor oder nach dem verwendeten Produkt.
  2. Es besteht derzeit keine Nachweispflicht bei nichtgenerativen digitalen Tools wie Rechtschreib- oder Grammatikkorrekturhilfen, Online-Wörterbüchern, Bibliothekskatalogen und Ähnlichem.
  3. Zusätzlich zum Nachweis im Text kann ein Verzeichnis erstellt werden, aus dem hervorgeht, welche Abschnitte des Textes mit welchen Tools und welcher Art der Verwendung erstellt wurden. 
  4. Der gesamte Chatverlauf samt Prompts und Antworten sollte auch außerhalb der KI-Anwendung gespeichert und so dokumentiert werden. Ob diese Chatverlauf im Anhang einer Arbeit (oder an anderer Stelle) beigegeben werden muss, regeln im Normalfall die fachspezifischen Richtlinien. Liegen solche Richtlinien nicht vor, empfiehlt sich eine klar formulierte und schriftlich dokumentierte Absprache der Beteiligten im Vorfeld der Erstellung der jeweiligen Arbeit.
  5. Am Ende der Arbeit sollten die verwendeten KI-Tools in der Liste der verwendeten Hilfsmittel aufgeführt werden.
  6. Bei der Verwendung von KI-basierten Tools sollten die folgenden Elemente erwähnt werden:
    • Name und Version des Tools sowie Anbieter (Firma, Organisation oder Person, die das Tool anbietet oder programmiert hat) 
    • Datum der Generierung der Inhalte 
    • bei Online-Tools die URL des Tools

Die Uni Basel hat eine Handreichung für das Zitieren von KI-Programmen erarbeitet, die auf den aufgestellten Regeln der Modern Language Association of America basiert und für eine vertiefende Auseinandersetzung mit dieser Thematik empfohlen werden kann.

Kurz zusammengefasst: Beim praktischen Einsatz von KI-Tools sind immer auch urheberrechtliche Aspekte zu berücksichtigen. Dies betrifft zum einen urheberrechtliche Ansprüche des im Prompt verwendeten Materials als auch mögliche urheberrechtliche Probleme, die das generierte Produkt mit sich führt. Überdies ist gerade im Bildungsbereich stets der Aspekt des Datenschutzes auf allen Ebenen der KI-Nutzung zu beachten. Vor allem der datenschutzrechtskonforme Einsatz von KI-gestützten Learning-Analytics-Tools ist zum gegenwärtigen Zeitpunkt nur in einem sehr beschränkten rechtlichen Rahmen möglich.

———

In der Verwendung von KI sind nicht selten rechtliche Aspekte zu bedenken. Dabei ist zwischen der Nutzung von Applikationen der generativen KI und der von analytischen (also bestimmte Datenmengen auswertenden und bewertenden) KI-Tools zu unterscheiden. Während bei generativer KI vor allem urheberrechtliche Fragestellungen zu berücksichtigen sind, ist bei analytischen KI-Tools vor allem der umfassende Themenkomplex des Datenschutzes zu beachten.

 

Urheberrecht

Die Beachtung urheberrechtlicher Grundsätze ist in Forschung und Lehre selbstverständlich. Die zahlreichen Möglichkeiten digitaler Produkte und digitaler Produktion haben diesen Themenbereich jedoch in den letzten Jahren verkompliziert. Die weltweite Zugänglichkeit der sogenannten neuen, digitalen Medien hat zudem die unterschiedlichen Rechtstraditionen der unterschiedlichen Kulturräume neu in das Bewusstsein gerückt. Der Einsatz von generativer KI in der Erstellung von Lehr-/Lernmaterialien oder für Forschungspublikationen erweitert diese Komplexität, zumal die juristische Auseinandersetzung mit diesem Themenfeld in den kommenden Jahren noch andauern wird.

Konkret stellt sich die Frage, wer die urheberrechtlichen Ansprüche besitzt: die ein Produkt generierende KI oder die das KI-Tool bedienende Person. Innerhalb der Bundesrepublik Deutschland wird diesbezüglich aktuell (Sommer 2024) mehrheitlich folgende Position vertreten: „KI-gestützte Programme zur Textproduktion können im Sinne des Gesetzes über Urheberrecht und verwandte Schutzrechte (UrhG) nicht als Autor:innen bzw. Urheber:innen des von ihnen generierten Textes gelten.“ (Thomas Hoeren, Peter Salden [Hrsg.],  Didaktische und rechtliche Perspektiven auf KI-gestütztes Schreiben in der Hochschulbildung, 2023, S. 23). Zur Begründung ist auf § 2 Abs. 2 UrhG zu verweisen, wonach Werke im Sinne des Urheberrechtsgesetzes nur persönliche geistige Schöpfungen sein können. Eine persönliche geistige Schöpfung wiederum kann jedoch nur durch eine natürliche Person erfolgen (vgl. ausführlich Hoeren/Salden, op. cit., 25s.). Für nichttextliche Produkte dürfte im bundesdeutschen Rechtsraum Analoges anzunehmen sein, da sich das UrhG nicht nur auf textliche Produkte bezieht. Somit läge weder ein urheberrechtlicher Anspruch seitens des KI-Tools noch seitens der nutzenden Person vor. Allerdings hat der Bundesgerichtshof in einem patentrechtlichen (und damit dem Urheberrecht nahestehenden) Fall entschieden, dass eine Patentanmeldung durch eine natürliche Person als Erfinder grundsätzlich auch möglich ist, wenn ein KI-System verwendet wurde (BGH-Urteil vom 11. Juni 2024 [Az. X ZB 5/22]). Eine höchstrichterliche Klärung der urheberrechtlichen Problemstellung bleibt daher abzuwarten.

Wenn KI-Tools jedoch als reines Hilfsmittel eingesetzt werden und ein signifikantes Maß an geistiger Eigenleistung der schreibenden beziehungsweise kreativ werdenden Person gegeben ist, liegt ein Urheberrechtsanspruch des Ergebnisses durch die betreffende Person (oder Personengruppe) im Bereich des Möglichen.

Neben den rein juristischen Aspekten ist in Fragen des Urheberrechtes auch ein technischer Aspekt zu beachten: Da nicht bekannt ist, auf welche (Trainings-)Daten KI-Tools zugreifen oder welche weiteren Quellen genutzt werden, kann es theoretisch bei einer ungeprüften Veröffentlichung von KI-generierten Materialien zu Urheberrechtsverletzungen kommen, wenn in dem generierten Produkt fremde Werke ganz oder teilweise wiedergegeben werden. Eine ungeprüfte Übernahme von KI-generierten Texten in Studium und Lehre (wie auch in der Forschung) ist daher nicht empfehlenswert.

 

Datenschutz

Nicht nur bei der Programmierung von KI-Systemen, sondern auch in deren Arbeitsprozess werden große Mengen an Daten verarbeitet und vielfach gespeichert. Bereits mit Blick auf den Datengrundstamm vieler KI-Modelle ist festzustellen, dass nicht transparent dargelegt wird, um welches Datenmaterial es sich im Einzelnen handelt und aus welchen Quellen es stammt. Vor allem aber ist in den wenigsten Fällen offengelegt, ob personenbezogene Daten der nutzenden Personen erhoben und DSGVO-konform gespeichert und verwendet werden. Spätestens hier kommen große datenschutzrechtliche Bedenken auf, wenn KI-Tools in der Lehre verwendet werden, sei es in der Nutzung durch die Lehrenden, zum Beispiel bei der Analyse von Studierendendaten, oder in der Nutzung von KI-Tools durch Studierende im Rahmen von gemeinsamen Übungsaufgaben oder Ähnlichem.

Mit Blick auf analysierende Tools bewertet bereits ein 2023 veröffentlichtes Rechtsgutachten von Christian Geminn et al. (Datenschutzrechtliche Beurteilung von Learning Analytics an Hochschulen in NRW), dass ein datenschutzrechtskonformer Einsatz von Learning-Analytics derzeitig nur in einem sehr beschränkten rechtlichen Rahmen möglich ist. Auch der AI Act der Europäischen Union stellt für die analytische Auswertung von Daten im Bildungskontext sehr hohe Hürden auf. Es besteht somit eine Dissonanz zwischen der Verpflichtung, Lernende bestmöglich und gegebenenfalls individualisiert zu unterstützen (und daher über deren Leistungen bestmöglich unterrichtet zu sein), und dem berechtigten Schutz der persönlichen Daten von Lernenden. Im Zweifelsfall dominiert hier das Rechtsgut des Datenschutzes über das didaktisch begründete Anliegen, Lernenden eine adaptive Lernmöglichkeit anbieten zu wollen, und dem moralischen Gedanken, fehlgehende Lernprozesse gegebenenfalls durch eine Intervention zu korrigieren. 

Anders verhält es sich bei der Verwendung generativer KI-Tools. Zwar sind auch hier neben den urheberrechtlichen Aspekten Fragen des Datenschutzes zu bedenken. Diese lassen sich aber bei entsprechend reflektiertem Vorgehen rechtskonform handhaben. In der eigenen Arbeit sind folgende Punkte zu bedenken und Studierende entsprechend darauf hinzuweisen:

  • Bei jeder Nutzung eines nicht selbst gehosteten KI-Tools muss damit gerechnet werden, dass die IP-Adresse, der Standort und natürlich die Nutzungsdaten (das heißt die Eingaben) gespeichert, ausgewertet und weiterverarbeitet werden. Insofern diese Daten nicht automatisch persönliche Daten enthalten müssen, liegt zunächst keine Datenschutzproblematik vor, wenn die Nutzungsdaten keine entsprechenden Informationen enthalten. Aber auch nicht offen erkennbare personenbezogene Informationen können unter Umständen mit anderen Nutzungsdaten verbunden werden. So ist es möglich, über die IP-Adresse Bezüge zu anderen Online-Aktivitäten (zum Beispiel Social Media) herzustellen und auszuwerten.
  • Bei der Eingabe des Promptes verrät die eingebende Person zumindest ein fachlich/sachliches Interesse. In der Verbindung mit der IP kann das theoretisch für die Analyse von Nutzenden verwendet werden.
  • Vor allem aber werden jegliche in den Prompts eingegebenen oder hochgeladenen Informationen gespeichert und weiterverarbeitet. Inwieweit diese direkt für das weitere Training des Tools beziehungsweise der dahinterliegenden Datenstruktur genutzt wird, hängt von der jeweiligen Anwendung ab. Da sich die meisten Applikationsanbieter in ihren AGBs oder Terms of Use eine Nutzung dieser Daten vorbehalten, ist im Regelfall von einer Nutzung der Daten auszugehen. In Konsequenz dieser Tatsache ist sorgfältig darauf zu achten, dass weder bei der Erstellung von Materialien für die Lehre noch im Rahmen der Durchführung universitärer Veranstaltungen sensible Forschungs- oder Personendaten übermittelt werden. Studierende sollten proaktiv auf diesen Sachverhalt hingewiesen werden, da ein unreflektierter Umgang mit KI-Tools (wie auch mit anderen digitalen Applikationen) weit verbreitet ist.

Vor diesen Hintergründen ist es umso wichtiger, als lehrende Person mit KI-basierten Systemen kritisch-reflektierend umzugehen und die Studierenden anzuleiten, eine ebenso kritisch-reflektierende Haltung einzuüben. Es geht dabei ausdrücklich nicht um eine restriktive Haltung gegenüber der neuen Technologie, sondern um eine aufgeklärte Umgangsweise mit den Möglichkeiten des digitalen, insbesondere des KI-basierten Arbeitens.

Kurz zusammengefasst: Die Bergische Universität Wuppertal wird sich an der kommenden NRW-weiten technischen Lösung für den Zugang zu generativen KI-Tools beteiligen. Wer bereits jetzt KI-Lern-/Lehrprojekte umsetzen möchte, findet in KI4BUW den perfekten Partner und hilfreiche Unterstützung.

———

Die Bergische Universität Wuppertal hat ihr Interesse an einer einheitlichen NRW-weiten technischen Lösung für den Zugang zu generativen KI-Tools bekundet, bietet aber als Konsequenz aktuell keine Zugänge zu den derzeitigen Marktführern an. Der UniService Digitalisierung Lehre und die einschlägigen Partnereinrichtungen der Bergischen Universität Wuppertal werden umgehend darüber informieren, sobald ein DSGVO-konformer technischer Zugang zu KI-Tools zentral bereitgestellt wird.

Wie eine zukünftige Lösung aussehen könnte, lässt sich an bestehenden Portallösungen erkennen. Ausdrücklich rein exemplarisch sei hier auf die Open-Source-Lösung HAWKI verwiesen, die bereits an einigen Universitäten im Einsatz ist, und auf den vor allem im schulischen Bereich verbreiteten kommerziellen Anbieter Fobizz. Zahlreiche weitere Anbieter werden in dem unten verlinkten Blog-Beitrag von Peter Salden, Jonas Leschke und Malte Persike vorgestellt.

Beispiel: Infoseite des Projektes HAWKI

Beispiel: Webseite des kommerziellen Anbieters Fobizz

Blog-Post Salden et al.: Die Bereitstellung generativer KI in Hochschulen: Was ist möglich und was wünschenswert?

Wer aber bereits jetzt KI-Projekte realisieren und in den Lehrplan integrieren möchte, findet im KI-Makerspace der Bergischen Universität technische Ressourcen und Unterstützung durch erfahrene KI-Spezialisten. Die Entwicklung von Minimum Viable Products (MVP) ist dabei ein ausgewiesenes Ziel des KI-Makerspaces.

Webseite des KI-Makerspaces der BUW

Eine weitere Möglichkeit, um mit generativer KI zu experimentieren, bietet die vom Land Niedersachsen und mehreren namhaften Einrichtungen geförderte Chat-Applikation der academic cloud der Gesellschaft für wissenschaftliche Datenverarbeitung. Wenngleich der Service eigentlich für niedersächsische Hochschulen gedacht ist, können auch Universitäten und Hochschulen anderer Bundesländer über den Authentifizierungsdienst DFN-AAI (Shibboleth) auf die Applikation zugreifen.

Academic Cloud: KI-Chat| Login-Webseite

Kurz zusammengefasst: Ein erstes Forum für Good Practice-Beispiele bietet der Moodle-Kurs des IGeL-Projektes.

———

Die Anwendung generativer KI in der Lehre befindet sich noch in der Erprobungsphase. Bislang liegt wenig Evidenz über einen didaktischen Mehrwert jenseits der KI-Skills vor. Hiermit verbunden ergibt sich für alle Lehrenden aber auch der indirekte Auftrag, ihre Erfahrungen im Einsatz von KI in der Lehre zu sammeln, wichtige didaktische Hinweise zu dokumentieren, und Good Practices zu veröffentlichen.

Ein Forum für Good Practice-Beispiele (und für viele weitere wertvolle Hinweise zum Thema KI in der Lehre) ist der KI-bezogene Abschnitt des Moodle-Kurses des IGeL-Projektes (Informations- und Lernangebot zur Gestaltung hybrider Lehr-/Lernszenarien) der BUW.

Direktlink IGeL-Kursbereich KI-Tools in der Lehre (Anmeldung nötig)

 

Kurz zusammengefasst: An der Bergischen Universität Wuppertal finden sich für fast alle Themenkomplexe rund um KI in Studium und Lehre ein*e Ansprechpartner*in. Viele didaktische, ethische, juristische und technische Fragen dürften sich daher unkompliziert klären lassen. Die hier genannten Stellen helfen dabei.

———

Das Themenfeld KI (und mit Blick auf universitäre Prüfungen insbesondere das Themenfeld generative KI) berührt mehrere universitäre Bereiche. Aufgrund der zu erwartenden Entwicklungskurve der Leistungsfähigkeit der unterschiedlichen KI-Modelle und KI-Tools sowie möglicher juristischer Detailfragen kann im Einzelfall der persönliche Austausch mit zuständigen Stellen hilfreich sein. Folgende Anlaufpunkte an der BUW können in diesen Fällen Mitarbeitenden der BUW direkt weiterhelfen oder die Frage zielführend weiterleiten:

zu didaktischen Fragen:

  • das Bergische Universität Netzwerk Digitalisierung Lehre (BU:NDLE; https://bundle.uni-wuppertal.de; Beratung zu mediendidaktischen Fragen innerhalb der Fakultäten)
  • der UniService Digitalisierung Lehre (UDL; https://uniservice-dl.uni-wuppertal.de; Fortbildungen für Lehrende und fakultätsübergreifende Beratung zu mediendidaktischen Fragen)
  • die Servicestelle akademische Personalentwicklung (SaPe; https://sape.uni-wuppertal.de; Weiterbildungsangebote für (Jun.-)Professor*innen, Wissenschaftliche Mitarbeiter*innen und Tutor*innen)
  • der Makerspace von KI4BUW (https://ki.uni-wuppertal.de; Unterstützung bei der Integration von KI in der Lehre und Unterstützung beim Erfahrungsaustausch)
  • das zentrale Medienlabor (MediaLab; https://medialab.uni-wuppertal.de; Unterstützung bei der kompetenzorientierten Integration von KI in Lehr-/Lernprozesse und in die Planung von Lehrveranstaltungen)

zu technischen Fragen:

zu rechtlichen Fragen:

bei Konflikten und Problemen:

Kurz zusammengefasst: Das Projekt KI:connect.nrw wird zukünftig in NRW die Hochschulen bei der Bereitstellung generativer KI-Dienste unterstützen und bietet bereits jetzt viele Empfehlungen und Handreichungen, unter anderem auch eine gute Checkliste für die persönliche Verwendung von KI-Tools im Rahmen von Forschung und Lehre.

———

Das mit Mitteln des Landes NRW geförderte Projekt KI:connect.nrw wird zukünftig die Hochschulen des Landes bei der Bereitstellung kommerzieller generativer KI-Dienste unterstützen. Ein User-Interface, das einen DSGVO-konformen Zugang zur KI-Applikationen gewährleisten wird, ist in Vorbereitung.

Unabhängig von einem solchen Zugang ist aber ein kritisch-reflexiver und verantwortlicher Umgang mit KI-Tools unabdingbar. Die Checkliste des Projektes KI:connect fasst alle wesentlichen Aspekte, die es zu bedenken gilt, übersichtlich zusammen, und mag über die hier gebotene Handreichung der BUW hinaus als Orientierung für den eigenen Gebrauch von KI-Tools in Forschung und Lehre dienen. Der folgende Link verweist auf eine Version der Checkliste, in der die Anpassungskommentierungsmarken beseitigt wurden. Die Originalversion lässt sich auf der Webseite des Projektes herunterladen.

Checkliste zum Umgang mit generativen KI-Diensten (KI:Connect.nrw)

Weitere Infos über #UniWuppertal: