ChatGPT und Co machen es einfach, Texte und andere Inhalte auf Knopfdruck generieren zu lassen. Doch was, wenn darin Fehler sind? Wer steht dafür gerade? Und wenn jemand fürs Texten oder Illustrieren bezahlt wird – verletzt er dann durch den Einsatz von Künstlicher Intelligenz (KI) vertragliche Pflichten? Diese und weitere Fragen wirft Prof. Dr. Renate Schaub in einem Aufsatz in der Neuen Juristischen Wochenschrift vom 20. Juli 2023 auf.
Während bislang vor allem die Pflichten von Herstellern solcher KI-Software im Fokus standen, widmet sie sich – am Beispiel von ChatGPT, aber auch für andere KI-Anwendungen – den Pflichten der Nutzenden und arbeitet erste Grundzüge KI-spezifischer Sorgfaltspflichten heraus.
Ist KI-Text genauso viel wert wie von Menschen geschriebener?
Generative Künstliche Intelligenzen sind schon eine ganze Weile im Einsatz, beispielsweise in Bildgeneratoren und Übersetzungssoftwares. Richtig Furore machen sie aber erst, seit ChatGPT frei zur Verfügung steht. Die KI erzeugt auf eine kurze Anforderung hin Texte aller Art, die sich häufig lesen wie von Menschen verfasst. Für die Rechtswissenschaft ergeben sich daraus eine Menge Fragen, die viele Rechtsgebiete berühren. „Angenommen, ein angestellter Werbetexter lässt ChatGPT seine Texte verfassen. Verletzt er damit die Pflichten, die sich aus seinem Arbeitsvertrag ergeben?“, gibt Renate Schaub ein Beispiel. Man könnte sich – in Bezug auf das Verhältnis von Leistung und Gegenleistung beim Vertrag – auch fragen, ob KI-generierte Texte genauso viel wert sind, wie von Menschen verfasste.
Schwierig wird es auch, wenn es darum geht, wer die Verantwortung für KI-generierte Inhalte übernimmt. Schreibt eine KI etwa eine Anleitung, die sich als fehlerhaft herausstellt, muss geklärt sein, ob es eine Haftung gibt, wenn jemand deswegen zu Schaden kommt. „Muss jemand, der einen solchen Text angefordert hat, diesen bei Weiterverwendung komplett auf Korrektheit überprüfen?“, spitzt Renate Schaub zu.
Eine Reihe von Pflichten lässt sich ableiten
Sie diskutiert diese Fragen auf der Basis geltenden nationalen Rechts und aktueller europäischer Regelungsvorschläge. Dabei fragt sie, wann die Nutzung Künstlicher Intelligenz eine Pflichtverletzung darstellen kann und arbeitet erste Grundzüge KI-spezifischer Sorgfaltspflichten heraus. Solche Pflichten ließen sich teilweise bereits aus bestehenden Regeln und auch aus den europäischen Regelungsvorschlägen ableiten, allerdings vor allem mittelbar aus den Pflichten der Hersteller und Anbieter von Künstlicher Intelligenz.
Dennoch sieht sie weiteren Regelungsbedarf, der beispielsweise die Vertragsgestaltung, die Wartung und von allem die Bedienung und Nutzung von KI betrifft. „Fragen, die geklärt werden sollten, sind zum Beispiel, was Nutzende über die KI und ihre Funktionsweise wissen müssen, bevor sie sie verwenden“, so Renate Schaub. „Nutze ich etwa ChatGPT in der bislang öffentlich zugänglichen Version, muss ich wissen, dass Informationen weitgehend nur bis 2021 eingepflegt wurden und dass Texte auf der Basis von Wahrscheinlichkeiten erstellt werden, nicht aufgrund logischer Zusammenhänge“, erklärt sie. Damit verbunden sei die Verpflichtung der Anbieter, diese und gegebenenfalls weitere Informationen über die Funktionsweise der KI offenzulegen. Ungeklärt sei bislang besonders die Frage der Ergebniskontrolle. Zudem müssten urheberrechtliche Grundfragen neu überdacht werden.
Quelle: Ruhr-Universität Bochum