Asset-Herausgeber

Politsnack

Schöne neue KI-Welt? Risiken im Umgang mit ChatGPT und Co.

Die Einsatzmöglichkeiten von KI-Anwendungen wie beispielsweise ChatGPT sind beinahe unendlich. Auch Akteure der politischen Kommunikation müssen sich eingestehen, dass das letzte verbliebene Alleinstellungsmerkmal von Expertinnen und Experten durch die Technologie aufgeweicht wird: Das Fachwissen.

Asset-Herausgeber

ChatGPT kann ein wertvolles Werkzeug sein. Die Nutzung der generativen Sprach-KI birgt aber auch einige Stolpersteine und Risiken. Genau diese stehen im zweiten Teil des Politsnacks zu ChatGPT im Vordergrund.

 

Sind von KI-generierte Werke eigentlich urheberrechtlich geschützt?

Diese Frage wird nicht nur unter Experten seit geraumer Zeit intensiv diskutiert. Sie stellt sich auch bei der Nutzung von ChatGPT – insbesondere dann, wenn Texte gar nicht oder nur sehr wenig verändert übernommen und veröffentlicht werden. Trotz der andauernden Fachdiskussion kann man festhalten, dass KI-generierte Texte zunächst eigentlich nicht dem Urheberschutz unterliegen. Ihnen fehlt – etwas vereinfacht zusammengefasst – die menschliche Schöpfung. Völlig unproblematisch ist ChatGPT aber dennoch nicht, da die damit verbundene KI mit einer enormen Vielzahl an Dokumenten und Daten trainiert worden ist, über die nur sehr wenig bekannt ist. Es ist möglich, dass in den ursprünglichen Trainingsdaten urheberrechtlich geschützte Werke enthalten waren. Sollte auf deren Basis ein Text erstellt werden, welcher noch immer eine starke Ähnlichkeit zu einem urheberrechtlich geschützten Werk aus den Trainingsdaten aufweist, wäre auch der durch die KI neu generierte Text urheberrechtlich geschützt. Dieses Problem wird dadurch verschärft, dass ChatGPT von selbst keine Quellen angibt und wenn man die Ausgabe solcher anweist, Quellenangaben oft inkorrekt sind. Für Nutzer bedeutet das, dass Vorsicht vor allem dann geboten ist, wenn Texte eins-zu-eins oder nur marginal verändert veröffentlicht werden. Hier müssen Mechanismen genutzt werden, welche das Risiko möglicher Urheberrechtsverletzungen minimieren.

 

Stolperstein Nummer 2: Datenschutz und ChatGPT?

Ein weiteres Problem ergibt sich beim Datenschutz. Auch hier kann man aktuell nicht sicher sein, dass in den Trainingsdaten keine besonders schützenswerten Daten enthalten waren und entsprechend verarbeitet wurden. Verstärkt wird dieses Problem dadurch, dass selbst wenn personenbezogene Daten rechtmäßig verfügbar waren, ihre erneute Nutzung und Verarbeitung – wie etwa beim Training von KI-Systemen wie ChatGPT – dennoch einen datenschutzrechtlichen Verstoß darstellen kann. Darüber hinaus ist auch bis heute unklar, wie die Trainingsdaten gesammelt worden sind. Dies ist insofern heikel, da allein schon das massenhafte, automatisierte Einsammeln von öffentlich verfügbaren Daten, rechtlich problematisch ist (auch aber nicht nur aus datenschutzrechtlichen Gründen). Eine weitere offene Frage stellt der Umgang mit Nutzerdaten dar. Aktuell ist zwar klar, dass OpenAI Nutzerdaten und –verhalten speichert und verarbeitet, u.a. um ChatGPT weiterzuentwickeln. Unklar ist hierbei aber, nach welchen Regeln Datensätze genau erfasst und gespeichert werden oder wie Datensätze gelöscht bzw. widerrufene Nutzungsrechte berücksichtigt werden. Weiterhin werden die Daten auf US-amerikanischen Servern gespeichert, wodurch die Frage des überhaupt anzuwendenden und durchsetzbaren Rechts aufgeworfen wird. Für den Nutzer bedeutet dies, dass man wissen sollte, dass die generierten Texte nicht automatisch datenschutzrechtlich konform sind und auch beim Umgang mit Nutzerdaten offene Fragen bestehen.

Aufgrund offener rechtlicher Fragen sollte man weder personenbezogene, sensible und sicherheitsrelevante Daten eingeben.

Sebastian Weise

Zwei weitere Hinweise für eine selbstbestimmte Nutzung von ChatGPT

Authentizität und Transparenz kommen in der politischen Kommunikation eine bedeutende Rolle zu. Gepaart mit der für Deutschland typischen Skepsis gegenüber technologischen Innovationen scheint es daher nur geboten zu sein, den Rückgriff auf ChatGPT bei der Erstellung von veröffentlichten Texten kenntlich zu machen. Hierdurch schafft man nicht nur Transparenz. Man unterstreicht auch die Offenheit für technologische Neuerungen und macht den Mehrwert von KI für Dritte sichtbar. Im Lichte der Vielzahl offener rechtlicher Fragen sollte man weder personenbezogene, sensible und sicherheitsrelevante Daten eingeben. Letzteres hebt übrigens auch OpenAI in seinen FAQ selbst hervor.

Das Risiko der Manipulation öffentlicher Debatten

Bereits kurz nach dem Erscheinen von ChatGPT hat eine Studie nachgewiesen, dass die Anwendung Fake-News und manipulative Erzählungen ohne Einordnung reproduziert, wenn man gezielt nach solchen Inhalten fragt. Entsprechend dessen kann man davon ausgehen, dass bereits in den Trainingsdaten Fake-News und manipulative Erzählungen enthalten waren, welche auch durch menschliche Interventionen nicht herausgefiltert worden sind. Dieser Umstand kombiniert mit der eloquenten Sprache und fehlenden Quellenangaben kann es für Nutzer schwierig machen, bei den von ChatGPT generierten Antworten zwischen Desinformation und Wahrheit zu unterscheiden. Anders als manch reißerische Überschrift suggeriert, macht dies die Anwendung von OpenAI nicht zu einem superspreader für Falschinformationen. Wohl aber ist für jeden Nutzer eine kritische Überprüfung der Antworten unerlässlich.

Zusätzlich zu diesem Aspekt warnen manche Experten davor, dass generative KI-Modelle in Zukunft für die Erstellung überzeugenderer Fake-News und entsprechender Kampagnen genutzt werden könnten. Neben noch wirkmächtigeren Desinformationen besteht auch das Risiko, dass Desinformationen im digitalen Raum zunehmen, weil generative KI-Sprach-Modelle die Zugangshürden zu Instrumenten der böswilligen Manipulation der öffentlichen Meinung absenken. Ein weiteres, hypothetisches Risikoszenario stellt ein „böswilliger Lobbyismus auf KI“ dar. Wäre es doch denkbar: 1) über automatisiert erstellte und echt wirkende Bürgeranfragen die Wahrnehmung von Interessenlagen bei politischen Entscheidungsträgern zu verzerren, 2) dass unzählige, automatisierte Anfragen Institutionen und Stäbe von Mandatsträgern lähmen, 3) mittels KI-generierten Stellungnahmen Konsultationsprozesse von Regierungen „zu verstopfen“.

Antwortmaschinen statt Suchmaschinen – Die schöne neue Welt mit ChatGPT

Für viele Experten gilt es als ausgemacht, dass ChatGPT und ähnliche KI-Modelle die Struktur des digitalen Raums verändern werden. Konkret wird erwartet, dass generative Sprachmodelle in Zukunft im Bereich der Suchmaschinen Anwendung finden. Dies soll dazu führen, dass statt langer Listen von Links direkt Antworten in natürlich anmutender Sprache über Suchmaschinen ausgegeben werden. Aus Suchmaschinen werden also Antwortmaschinen, welche direkt an menschliche Gesprächsgewohnheiten andocken. Im Ergebnis kann das dazu führen, dass Menschen die Informationen der digitalen Welt in Zukunft direkt abrufen, statt sie – wie heute – aus verschiedenen Internetseiten zusammen zu suchen. Diese neuen Antwortmaschinen könnten so zu Machtzentren im öffentlichen Diskursraum aufsteigen.

Damit würde sich nicht allein die Frage nach der angemessenen Rolle privatwirtschaftlicher Akteure im Bereich der Meinungsbildung erneut aufdrängen. Es stellt sich ebenso die Frage, was dies für die politische Kommunikation bedeutet. Eine Frage, die eben nicht so einfach zu beantworten ist, so lange weder die Geschäftsmodelle zur Monetarisierung solcher KI-Modelle offenliegen noch die damit verbundenen, regulatorischen Herausforderungen und Anpassungen. Zwar ist es denkbar, dass sich die alten Probleme des free service for your data-Paradigmas im neuen Gewand stellen. Es sind aber auch adaptierte oder neue Geschäftsmodelle denkbar, wie etwa jenes Abomodell, welches das angekündigte ChatGPT-Pro darstellen würde.

Über den Autor

Sebastian Weise verantwortet in der Hauptabteilung Analyse und Beratung der Konrad-Adenauer-Stiftung die Stelle Digitale Demokratie. In dieser Funktion ist er Experte und Ansprechpartner sowohl für den Bereich Digitalisierung von Staat und Verwaltung als auch Digitalisierung politischer Parteien.
 

Asset-Herausgeber

comment-portlet

Asset-Herausgeber

Über diese Reihe

Rund um die Themen Kommunikation, Kampagnenmanagement und Digitale Strategie gibt der Blog Einblicke in aktuelle Trends der Politischen Kommunikation. Kommunikationsexpertinnen und -experten geben innovative, praktische Tipps für die politische Kampagne und für die Umsetzung.

Saskia Gamradt

Saskia Gamradt

Politische Kommunikation

saskia.gamradt@kas.de +49 30 26996-3252

Daniel Feldhaus

Daniel Feldhaus bild

Politische Kommunikation

daniel.feldhaus@kas.de +49 30 26996-3806