Künstliche Intelligenz im Nebel des Urheberrechts
Künstliche Intelligenz ist längst im Alltag angekommen. Mit ChatGPT wird sie aber breitenwirksam. Das wirft Rechtsfragen auf. Klare Antworten fehlen teilweise noch.

Eine kurze Frage in die Tastatur getippt, eine schnelle Aufforderung formuliert – und auf Knopfdruck spuckt der Computer selbstgenerierte Texte, Codings und Bilder aus, die man von menschlichen Werken nur noch schwer bis gar nicht unterscheiden kann. „Midjourney“ (für Bilder), vor allem aber „ChatGPT“ für Texte haben Künstliche-Intelligenz-Anwendungen zur Massenware gemacht. Der Hype stößt allerdings auf einen Rechtsraum, der noch keine klaren Grenzen definiert hat. Wie umgehen mit Algorithmen, die geistiges Schaffen von Menschen auf Basis von statistischen Modellen simulieren? Was tun mit textbasierten Chatbots, die selbständig immer „gescheiter“ werden? Wem gehört all der Output, der da entsteht, wie lässt er sich schützen und wer hat ein Recht auf Vergütung? Im Fall von ChatGPT liegen viele Antworten im Unklaren. Hier ein Blick durch die Nebeldecke auf einige Hauptfragen.
Haben Fragesteller einen Urheberrechtsanspruch auf ChatGPT-Texte? Laut österreichischem Urheberrecht sind nur „eigentümliche geistige Schöpfungen“ geschützt. Texte oder Bilder, die von einer weitgehend autonom agierenden KI geschaffen werden, fehlt diese menschliche Schöpfungskraft. Sie sind daher nicht geschützt, können also frei verwendet werden. Die Eingabe einer Anfrage in ein Textfeld oder die Aufforderung für einen Code sind nicht ausreichend „schöpferisch“ und damit auch das Ergebnis nicht urheberrechtlich geschützt.
„Künstliche Intelligenz ist der Tod der Mittelmäßigkeit in der Kreativbranche. Echte Kreativleistung wird eher gewinnen.“

Gilt das Urheberrecht, wenn man ChatGPT nur als ergänzendes „Werkzeug“ verwendet? Da werden Interpretationsspielräume größer und Abgrenzungsfragen komplexer: Denn ist das finale Werk eher das Ergebnis menschlichen Einflusses als dem Chatbot zuzuschreiben, kann ein Urheberrechtsschutz bestehen. Auch wenn man ChatGPT nur heranzieht, um einen eigenen Text zu überarbeiten, gilt die KI nur als technisches Hilfsmittel, der Urheberschutz bleibt. Schafft die KI dagegen ein Bild oder einen Text nur in einem gewissen Stil, ohne Teile aus bestehenden Werken zu übernehmen, greift der Urheberschutz nicht. Allerdings könnten Persönlichkeitsrechte verletzt werden.
Kann man KI-basierte Texte und Bilder also frei nutzen? Es bleibt ein juristisches Minenfeld, weil es auf die Quellen ankommt, auf die die KI zurückgreift. Die Quellen bleiben meist nicht lückenlos nachvollziehbar. Unrechtmäßige Verwendung von fremdem Content kann also nicht ausgeschlossen werden, das Risiko bleibt.

„Die KI muss raus aus der Blackbox und nachvollziehbar sein. Erst dann wird man die gesamten Vorzüge nutzen können.“
Was bedeutet ChatGPT für Unternehmen? „In der aktuellen Form ist ChatGPT ein nettes Spielzeug ohne großen Wert für die Wirtschaft“, glaubt Dominic Neumann, stellvertretender Obmann der Sparte Information und Consulting. „Wir reden in der Kreativbranche zur Zeit noch eher von ,Quassel-Robotern‘“, warnt auch Thomas Zenz, Obmann der Fachgruppe Werbung und Marktkommunikation in der steirischen Wirtschaftskammer, vor zu großer Angst. Es gehe vielmehr um einen gezielten Einsatz, um die Vorteile nutzen zu können. Die Folgen: „Durchschnittsleistungen wie das Erstellen von klassischen Texten, Grafiken und Bewegtbildern werden automatisiert werden und damit für Agenturen kein Business-Case mehr sein“, ist Zenz überzeugt und folgert daraus: „KI ist der Tod der Mittelmäßigkeit.“ Parallel würden echte Kreativleistung und Strategie aber eher gewinnen. Auch Neumann sieht vor allem Vorteile: „Sowohl Unternehmen wie auch Privatpersonen werden von dieser Technologie profitieren.“ Umso wichtiger seien aber die Nachvollziehbarkeit und Transparenz sowie das Klären ethischer Fragen. „Explainable AI ist das, worum es in Zukunft noch viel mehr gehen wird“, so Neumann.
Was braucht es? Da ChatGPT trotz vieler Inputs auch fehlerhafte Outputs produziert, brauche es möglichst großes Wissen und Grundverständnis über die Funktionsweise der Technologie, rät Stefan Strauß vom Institut für Technikfolgen-Abschätzung der Akademie der Wissenschaften.
Vom Milliardengrab zum Start-up mit einer Milliardenbewertung
GPT – ein Kürzel erobert die Welt. Aber was bedeuten die drei Buchstaben eigentlich? Die Abkürzung steht für „Generative Pre-trained Transformer“, also ein vortrainiertes Sprachmodell. Es arbeitet mithilfe künstlicher Intelligenz als textbasiertes Dialogsystem (Chatbot).
Entwickelt wurde ChatGPT vom US-Konzern OpenAI. Das Unternehmen gilt heute mit einer Bewertung von 29 Milliarden Dollar als eines der wertvollsten Start-ups der USA. Gegründet wurde es als Stiftung bereits 2015 unter anderem von Elon Musk, Peter Thiel und Sam Altman. Sie investierten insgesamt eine Milliarde Dollar, um eine Künstliche Intelligenz zu entwickeln, die der Allgemeinheit nutzt. Musk schied 2018 aus, der Stiftung ging das Geld aus, Altmann übernahm, LinkedIn-Gründer Reid Hoffmann stieg ein, Microsoft schoss eine Milliarde Dollar nach – die Erfolgsstory begann.
EU will mit „Artificial Intelligence Act“ Risiko-Anwendung von KI verbieten
Die rasante Verbreitung generativer Systeme wie ChatGPT oder Midjourney hat in der Politik, Forschung und Wirtschaft für erhöhte Betriebsamkeit gesorgt. So hat das EU-Parlament Ende April einen „Artificial Intelligence Act“ auf den Beschlussweg gebracht. Vorgeschlagen wird, KI-Systeme nach ihrem Risikoniveau einzustufen. Je höher das Risiko, desto strenger die Regulierungen. Systeme mit hohem Risiko würden demnach nicht verboten werden, müssten aber ein hohes Maß an Transparenz vorweisen. Bei generativer KI müsste zum Beispiel offengelegt werden, ob urheberrechtlich geschütztes Material bei der Entwicklung verwendet wurde. Verboten wären jedoch Anwendungen, die menschliches Verhalten manipulieren und Menschen schaden könnten – wie etwa das chinesische System, das die Bevölkerung überwacht und Fehlverhalten mit sozialen Nachteilen ahndet.