Welche rechtlichen und ethischen Aspekte sind bei der Nutzung generativer KI zu beachten?
Datenschutz
Bei vielen KI-Tools ist eine Registrierung nötig, wodurch die eigenen Eingaben mit der E-Mail-Adresse und ggf. mit der Mobiltelefonnummer verknüpft werden. Zudem werden teilweise die Eingaben für weiteres Training verwendet. Es ist daher wichtig, keine personenbezogenen oder betriebssensitiven Daten einzugeben. Bei der Verwendung dieser Tools werden Daten an Server außerhalb der EU (u. a. USA) geschickt, wo andere Gesetze zu Urheberrecht und insbesondere zum Datenschutz gelten.
Datenschutzkonform können Sie nur mit HSBIKI arbeiten, nicht aber mit der ChatGPT-Version, auf die Sie direkt über die Webseite von OpenAI zugreifen. Denn bei der Nutzung von HSBIKI registrieren Sie sich nur mit Ihrer HSBI-Kennung auf der HSBI-Webseite. Aufgrund der Anbindung per Schnittstelle findet kein Datenaustausch zwischen Ihrem persönlichen Benutzer*innenkonto der Hochschule und dem Anbieter OpenAI statt. Weder Ihre Lehrenden noch andere Personen der Hochschule können Ihre Eingaben in HSBIKI einsehen.
Urheberrecht
Eine KI kann nicht Autor*in oder Urheber*in sein. Geben Sie einen simplen Prompt ein, so ist die Ausgabe zunächst einmal gemeinfrei, d. h. nicht urheberrechtlich geschützt. Sie selbst können aber Autor*in bzw. Urheber*in sein, wenn Sie ein „signifikantes Maß an geistiger Eigenleistung“ (Hoeren 2023: 23) einbringen.
Es gibt Gerichtsverfahren gegen verschiedene KI-Unternehmen wegen Urheberrechtsverletzungen im Trainingskorpus, vor allem in der Bildgenerierung. Es besteht daher die Gefahr, bei 1:1-Verwendung eines generierten Textes eine Urheberrechtsverletzung zu begehen. Auch wenn es sehr unwahrscheinlich ist, so ist ebenfalls nicht vollständig auszuschließen, dass nicht doch einmal eine wörtliche Übernahme aus einem Trainingstext ausgegeben wird.
Verzerrungen
In den Trainingsdaten können verzerrte Wahrnehmungen oder Einschätzungen sowie Voreingenommenheit (sogenannte „Bias“) enthalten sein und damit auch in der Ausgabe des KI-Tools auftauchen, z. B. ethnische oder Gender-Bias. Die zugrundeliegenden Texte sind mehrheitlich englischsprachig und westlich geprägt. Darin vorhandene Vorurteile und verzerrte Wahrnehmungen übertragen sich ins Modell und damit in die Ausgabe:
"[Die Textausgaben] können vorurteilsbehaftet, stereotyp, abergläubisch, weltanschaulich gefärbt oder politisch radikal sein und gründen sich auf Privatmeinungen, unseriöse Berichterstattung, Gossip, Werbung, kommerziell und politisch motivierte Desinformation, Propaganda und Fake News. Dies tun sie bedenklicher Weise auch dann, wenn sie nicht im Duktus einer Meinung, sondern im nüchternen Stil einer Tatsachenbehauptung vorgetragen werden." (Oertner 2024: 280)
Insbesondere für Personen, die mit der Funktionsweise generativer KI-Tools wenig vertraut sind sowie bei Themen ohne eigene Fachkenntnis kann dieser sachliche Stil für falsches Vertrauen in die KI und den Wahrheitsgehalt bzw. die faktische Korrektheit der Antworten sorgen.
Ökologischer Fußabdruck
Umwelttechnisch sind textgenerierende KI-Tools problematisch, da vor allem das Training, aber auch der Betrieb, d. h. die tägliche Anwendung durch eine Vielzahl an Nutzenden, einen hohen Stromverbrauch und CO2-Ausstoß aufweisen. Um GPT 3 einmalig vollständig zu trainieren wird mit etwa 552 Tonnen CO2 gerechnet – zum Vergleich betrugen „[d]ie Durchschnittsemissionen aller 2022 in Deutschland angemeldeten Pkw […] bei 10.000 Kilometer Fahrleistung pro Jahr und Fahrzeug etwa 1,1 Tonnen.“ (Zandt 2023). Die für das Training aufgewandte Energie entspricht mit 1.287 Megawattstunden „dem Energieverbrauch von 320 Vierpersonenhaushalten in einem Jahr“ (Strobl 2023, Herv. i. Orig.).
Missbräuchliche Nutzung
Mit Sprachmodellen lassen sich sehr schnell sehr viele Texte generieren, die sprachlich korrekt sind und menschlich klingen, sodass auch die missbräuchliche Nutzung für Fake News und Spam-E-Mails möglich ist. Die Sprachmodelle sind, wie bereits erwähnt, nicht auf faktische Korrektheit optimiert, sondern geben statistisch wahrscheinliche Wortreihenfolgen aus. So ist auch GPT 4 immer noch anfällig für Fehlinformationen.
Arbeitsbedingungen
Um beim Training von Sprachmodellen diskriminierende Sprache herauszufiltern, ist menschliches Feedback nötig, wofür in der Regel eine Vielzahl an möglichst günstigen Arbeitskräften genutzt wird. Es wurde aufgedeckt, dass für das Training von ChatGPT 3.5 Arbeiter*innen in Kenia für weniger als 2 $ pro Stunde gewalttätige, rassistische, sexistische und andere traumatisierende Texte lesen und markieren mussten.
Mehr Informationen finden Sie in der „Handreichung zu generativen KI-Tools für Studierende“ (s. Downloadbox) in Kapitel 1.3 und 1.4.