Von klaren Ansagen und offener Kommunikation – Zum Beziehungsstatus zwischen KI-Tools und den deutschen Hochschulen
Von klaren Ansagen und offener Kommunikation – Zum Beziehungsstatus zwischen KI-Tools und den deutschen Hochschulen
06.07.23KI-Tools verbieten, verwenden oder aufschieben? Immer mehr Hochschulen positionieren sich klar zur Nutzung von KI-Tools in Prüfungsformaten. Trotzdem verwechseln zahlreiche Hochschulen weiterhin unsinnige Verbote mit klarer Kommunikation, sagt Jasper Beyermann (HFD). Aus seiner studentischen Perspektive beleuchtet Jasper anhand von mehreren bundesweiten Beispielen, wie unterschiedlich Hochschulen und ihre Fakultäten mit den digitalen Herausforderungen umgehen – und welche Hürden sich dabei für Studierende auftun.
„Es ist kompliziert.” Das wäre vermutlich die Antwort, die ChatGPT geben würde, wenn man es fragen könnte, wie der Beziehungsstatus zwischen ChatGPT bzw. generativer KI und den deutschen Hochschulen ist. In dieser vielschichtigen Beziehung voller widersprüchlicher Gefühle herrscht ein suboptimales Kommunikationsklima. Viele Hochschulen bemühen sich um eine offene Kommunikation, aber andere verbreiten ein Klima der Abschreckung und der Verbote. Und wer leidet am Ende am meisten unter diesen unklaren Verhältnissen? Natürlich die „Kinder“, also die Studierenden, die im angespannten Kommunikationsklima aufwachsen … Ich meine natürlich: studieren.
Der folgende Artikel versucht, die Kommunikation an Hochschulen über KI-Tools im Prüfungskontext aus studentischer Perspektive zu beleuchten. Hier gibt es auf der einen Seite viele Schritte in die richtige Richtung. Immer mehr Hochschulen positionieren sich klar zu KI-Tools und nehmen die Herausforderung an, sich für die Zukunft aufzustellen. Auf der anderen Seite gibt es immer noch Hochschulen bzw. einzelne Fakultäten, die unklare und unsinnige Verbote mit einer klaren Kommunikation verwechseln.
Schweigen, Chaos und der Verweis auf Dritte
„Reden ist Silber, Schweigen ist Gold”. Noch immer folgen viele Hochschulen derzeit diesem Mantra, wenn es um ChatGPT und andere KI-Tools geht. Es ist zwar recht viel Bewegung in den Hochschulen, immerhin sind es jetzt nur noch 63 % der 100 größten deutschen Hochschulen in Deutschland, die gar keine oder unklare Regelungen zu KI-Tools haben, wo es noch vor wenigen Wochen 74 % waren (Solis 2023: Aufruf mit 74 % am 15.5.2023, Aufruf mit 63% am 19.6.2023). Doch es sind eben immer noch 63 % ohne oder nur mit unklaren Regelungen!
Natürlich gibt es viel Unsicherheit und Hochschulen sind auch nicht für ihre Geschwindigkeit bekannt. Als Zwischenlösung gehen viele den Weg, auf Dritte zu verweisen. Zum Beispiel bekennen sich einige Hochschulen zu den Ergebnissen des Didaktik- und Rechtsgutachten des KI.EDU.NRW Projektes und sprechen sich damit indirekt gegen Verbote aus (RUB-Repository). Die Universität Greifswald und die Heinrich-Heine-Universität Düsseldorf fallen zum Beispiel in diese Kategorie (Rechtsgutachten der Uni Greifswald, Veranstaltung zu Verwendung von ChatGPT und Co. an der HHU Düsseldorf). Doch findet man diese Kundgebungen auch oft nur auf den Seiten der Didaktikzentren.
Hier sieht man schon die erste Hürde aus Sicht der Studierenden. Die Kommunikation über Regelungen und Empfehlungen zu KI-Tools findet extrem uneinheitlich statt. Auf der einen Seite positioniert sich das Didaktikzentrum und /oder das Prüfungsamt auf ihrer Website mit dieser oder jener Haltung. Manche Fakultät ändern ohne Kommentar oder Begründung ihre Eigenständigkeitserklärungen. Ein:e Profssor:in oder auch der/die Rektor:in gibt in einem Interview eine persönliche Meinung aus, ohne dass deren Status klar wäre. In einzelnen Veranstaltungen haben die Lehrenden dann wieder ihre eigenen Regeln. Überall steht dann auch noch etwas Unterschiedliches. Das führt dann bei den Studierenden eher zur der Strategie, dass man im Zweifelsfall besser keine Rückfragen stellt, weil man sich dann erstmal die losesten Regelungen zunutze machen kann. Im Ernstfall zieht man sich dann darauf zurück, dass diese irgendwo vertreten worden ist und man von den anderen ja nichts mitbekommen hat.
Man könnte meinen, dass das Schweigen und die Unsicherheit auch daher rührt, dass die Entwicklung von KI-Tools selbst noch so unsicher und kaum abzusehen ist. Niemand weiß, was diese Tools in drei bis zehn Jahren können werden. Wenn das Gegenüber noch keine klare Vision für die Zukunft hat, warum sollte man dann selbst eine klare Stellung beziehen? Doch in diesem Zusammenhang ist es mit der Technologie wie mit den Mitmenschen. Wenn man seine Wünsche und Vorstellungen nicht ausspricht, dann kann man nicht hoffen, dass sie Beachtung finden. Wenn die Hochschulen und ihre Lehrenden nicht irgendwann von der Technologie überrollt werden wollen, dann sollten sie anfangen auszuprobieren!
Abschreckung
Manche Hochschulen schweigen nicht. Statt in stille Verwirrung zu fallen, versuchen sie, ihre eigene Unsicherheit mit Abschreckungen zu überspielen. Sie versuchen, durch schwammige Verbote Studierende von der Nutzung abzuhalten. Wobei es natürlich aktuell unmöglich ist, Studierende wirklich von der Nutzung abzuhalten, ganz abgesehen von der Frage, ob das denn sinnvoll ist.
So schreibt die Stabsstelle IT-Recht der bayerischen Hochschulen, dass, wenn in einer Eigenständigkeitserklärung kein expliziter Passus zu KI-Tools steht, das Verbot dieser Tools für die Prüfung „letztlich klar” sei (Stabstelle IT-Recht 2023:8, Prüfungsrechtliche Fragen zu ChatGPT an der Uni Würzburg). Im Gutachten des KI.EDU.NRW Projektes findet man allerdings die Einschätzung, dass diese Klarheit nur gilt, wenn es darum geht, direkt Sätze und Textabschnitte von KI-Tools zu übernehmen. Die Verwendung zur Stilkorrektur oder ähnlicher Hilfestellungen ist eine ganz andere Angelegenheit. Bei dieser kommt es dann darauf an, wie groß die Eigenleistung der Studierenden genau ist. (Salden und Leschke 2023:29-30, Stellungnahme im Newsportal der RUB).
Andere Universitäten schreiben die Vorlagen ihrer Eigenständigkeitserklärungen gleich so um, dass jede Nutzung von KI-Tools explizit ausgeschlossen wird, und wieder andere verweisen darauf, dass alles, was nicht explizit als Hilfsmittel zugelassen ist, damit verboten ist und als Täuschungsversuch zu gelten hat (z.B.: KI in Studium und Prüfung an der HTW Berlin).
Man sollte meinen, dass den Akteur:innen eigentlich folgendes bewusst sein sollte: Erstens ist es nicht rechtssicher nachprüfbar, ob KI-Tools verwendet worden sind. Der aktuelle AI-Classifier von OpenAI erkennt nur 26 % der Texte korrekt als KI-generiert und „erkennt” ganze 9 % der Texte fälschlicherweise als KI-generiert (OpenAI: Classifier for indicating AI-written text). Die falsch-positive Rate der bisher existierenden Software würde also fast einem Zehntel der Studierenden fälschlicherweise Betrug unterstellen. Wenn eine solche Technologie Rechtsfolgen hätte, kann das zu einem massiven Vertrauensverlust der Studierenden in Bezug auf die Hochschulen führen. Hinzu kommt, dass in diese Fehlerraten noch überhaupt nicht mit einbezogen werden kann, ob KI-Tools nur unterstützend genutzt worden sind. Zweitens, und noch viel wichtiger: KI-Tools werden die Arbeitswelt der Zukunft prägen und beginnen schon einen deutlichen Einfluss auszuüben. Das gilt auch und vielleicht gerade für den akademischen Raum.
Kategorische Verbote treiben Studierende in die Illegalität. Sie verhindern, dass Studierende und Lehrende in einen Austausch über die Technologie kommen. Studierende versuchen dann nur ihre Nutzung, sei diese sinnvoll oder nicht, zu verschleiern. Der Austausch ist langfristig allerdings die Voraussetzung, um einen sinnvollen Umgang zu finden.
Was mittlerweile viele Akteure sehen, ist, dass die Sinnhaftigkeit von KI-Tools in Prüfungen stark von den Fachspezifika und dem Prüfungsformat abhängt. Deswegen ist es auch angebracht, wenn, wie im Falle der TU Dortmund, Fakultäten ihre eigenen Eigenständigkeitserklärungen schreiben können (Handreichung der TU Dortmund). Es wäre allerdings fatal, wenn die Fakultäten diese Freiheit dann dafür nutzen würden, Verbote auszusprechen. Ein viel sinnvollerer Ansatz wäre, die Transparenzregeln für die jeweiligen Fächer anzupassen.
Transparenz
Die meisten Hochschulen, die sich nicht des Mittels der Abschreckung bedienen und auch nicht in beharrliches Schweigen verfallen, heben die Wichtigkeit der Transparenz hervor. Damit gehen sie den ersten Schritt, den jede positive Gestaltung einer Beziehung braucht: offene Kommunikation.
Auf Seite der Lehrenden wird darauf verwiesen, möglichst klar in ihren Veranstaltungen den Studierenden zu kommunizieren, wie und ob KI-Tools in der Veranstaltung bzw. in daran anschließenden Prüfungen genutzt werden dürfen und wie die Lehrenden erwarten, dass diese Nutzung kenntlich gemacht wird. Als Vorlage breiten sich hier bereits die Rules for Tools aus (Spannagel 2023, Rules for Tools, Universität Gießen).
Auf der Seite der Studierenden bedeutet der Appell an Transparenz, dass sie kenntlich machen, ob und wie sie KI-Tools für ihre Prüfungen genutzt haben. Dabei haben einige wenige Hochschulen bereits ein flexibles Schema entwickelt, wie diese Kenntlichmachung genau aussehen soll. Zwei Beispiele, die hier positiv hervorgehoben werden sollten, sind die Fakultät für Geschichte der Universität Heidelberg und die HAW Zürich (Eigenständigkeitserklärung an der Uni Heidelberg; Richtlinien an der HAW Zürich). Diese haben bereits Regeln erlassen, wie Transparenz hergestellt werden sollte: Durch das Beifügen aller verwendeten Prompts, der Auflistung aller Zwecke, für die KI-Tools verwendet worden sind, und mit Hinweisen, in welchen Textabschnitten die Technologie verwendet worden ist. Wörtliche Übernahmen der durch die Tools produzierten Inhalte sind als Zitate kenntlich zu machen.
So wird für die Lehrenden nachvollziehbar, was die Studierenden getan haben. Die Lehrenden können so auch Beispiele und Erfahrungen sammeln, welche Nutzungsstrategien für KI-Tools die Hausarbeiten und Projekte inhaltlich beflügeln. Es ist erstmal plausibel anzunehmen, dass die Studierenden mehr Raum für inhaltliche Tiefe entwickeln, weil sie für Korrekturen, Lektorat und korrekte Zitate mehr technische Unterstützung erhalten.
Um den Austausch zwischen Studierenden und Lehrenden nachhaltig zu fördern, müssen die Regeln der Transparenz nachvollziehbar sein und dürfen nicht als ein Werkzeug der Gängelung gestaltet werden. Wenn die Dokumentation der Transparenz zum arbeitsintensivsten Teil der eigenen Hausarbeit wird und die Inhalte im Erleben der Studierenden in den Hintergrund treten, ist etwas schief gelaufen. Es ist abzusehen, dass die iterative Verknüpfung von verschiedenen KI-Tools und dem eigenen Denkprozess in Zukunft immer verschlungener wird. Deswegen plädieren Anika Limburg und Isabella Buck von der Hochschule Rhein-Main, dass es weder für den Bereich der Lehre noch der Forschung sinnvoll sein, die einzelnen Textstellen zu markieren, in denen KI-Tools zur Bearbeitung genutzt wurden (Limburg und Buck 2023: 74). Nur wenn Studierende verstehen können, warum Transparenz wichtig ist, entsteht ein Klima des Vertrauens, in dem sie dieser Pflicht freiwillig und aus eigenem Antrieb nachkommen. Die beiden oben angesprochenen Beispielen sind dieser Anforderung gut nachgekommen.
Offen Kommunikation heißt auch offen für die andere Seite zu sein
Ich habe im Eingang mehr offene Kommunikation gefordert. Doch meine ich mit „offen” eben nicht nur offen die eigene Haltung zu äußern. Auch Hochschulen, die klare Verbote aussprechen, sind offen in dieser Hinsicht. Offene Kommunikation, in meinem Sinne, heißt auch offen für die Seite der Studierenden zu sein. In dieser Hinsicht sind Verbote sicher keine offene Kommunikationspolitik.
Es muss ein Rahmen geschaffen werden, in dem Lehrende und Studierende sich, ohne Angst vor Unterstellungen des Betrugs, über ihre Nutzungsstrategien austauschen können. Dazu braucht es sinnvolle Regeln der Transparenz. Einige Hochschulen haben damit begonnen und hoffentlich werden es bald mehr.
Wenn die Lehrenden mit den Studierenden über die erlaubte Nutzung nur streiten anstatt sich auszutauschen oder sinnvolle Regelungen im Kampf zwischen Rektorat und Fakultäten untergehen, dann wäre niemandem geholfen. Also lasst uns doch bitte wirklich offen darüber reden.
Verweise
Buck, I. & Limburg, A. (2023). Hochschulbildung vor dem Hintergrund von Natural Language Processing (KI-Schreibtools). die hochschullehre, Jahrgang 9/2023. DOI: 10.3278/HSL2306W.
Heinrich-Heine Universität Düsseldorf (2023). Frage nicht, wie Du ChatGPT verhindern kannst …, [online] Universität Düsseldorf: „Frage nicht, wie Du ChatGPT verhindern kannst…“ (hhu.de), [abgerufen 13.06.2023].
Hochschule für Technik und Wirtschaft Berlin (2023). Wenn die KI beim Studieren hilft, [online] Wenn die KI beim Studieren hilft (htw-berlin.de), [abgerufen 13.06.2023].
Leschke, J. & Salden, P. (Hrsg.) (2023). Didaktische und Rechtliche Perspektiven auf KI-Gestütztes Scheiben in der Hochschulbildung, Ruhr-Universität Bochum, Universitätsbibliothek. DOI: https://doi.org/10.13154/294-9734
OpneAI (2023). New AI classifier for indicating AI-written text, [online] New AI classifier for indicating AI-written text (openai.com), [abgerufen 13.06.2023].
Solis, Tobias (2023). Die ChatGPT-Richtlinien der 100 größten deutschen Universitäten, [online] https://www.scribbr.de/ki-tools-nutzen/chatgpt-universitaere-richtlinien, [abgerufen 13.06.2023].
Spannagel, Christian (2023). Rules for Tools – 2. Version, [online] Rules for Tools (uni-giessen.de) [abgerufen 13.06.2023].
Stabsstelle IT-Recht der bayerischen staatlichen Universitäten und Hochschulen (2023). Prüfungsrechtliche Fragen zu ChatGPT, [online] Prüfungsrechtliche Fragen zu ChatGPT (uni-wuerzburg.de), [abgerufen 13.06.2023].
Technische Universität Dortmund (2023). Zum Umgang mit ChatGPT in der Lehre – eine erste Handreichung der TU Dortmund, [online] Zum Umgang mit ChatGPT in der Lehre – eine erste Handreichung der TU Dortmund (tu-dortmund.de), [abgerufen 13.06.2023].
Universität Greifswald: Rechtsgutachten erschienen, [online] ChatGPT: Rechtsgutachten zum Umgang mit KI-Schreibtools in der Hochschullehre erschienen – Universität Greifswald (uni-greifswald.de), [abgerufen 13.06.2023].
Universität Heidelberg, Seminar für Alte Geschichte & Epigraphik, (2023). Erklärung über eigenständige Leistungen und Nutzung KI-basierter Hilfsmittel bei Prüfungsleistungen, [online] erklarung_uber_eigenstandige_leistungen_und_nutzung_ki_schriftliche_prufungsleistung__1_.pdf, [abgerufen 13.06.2023].
Züricher Hochschule für Angewandte Wissenschaft, Rektorat (2023). Verwendung generativer KI-Systeme bei Leistungsnachweisen, [online] gpmpublic.zhaw.ch [abgerufen 13.06.2023].