AI-pirates and large language warez
Gerichtsverfahren gegen Github Copilot wegen AI-Piracy / Pirate Mimetic AI-Model einer Illustratorin / Gespräche mit mimetischen AI-Modellen von Verstorbenen
Gerichtsverfahren gegen Github Copilot wegen AI-Piracy
Der Anwalt Matthew Butterick aus der OpenSource-Community hat zusammen mit einigen Kollegen ein Gerichtsverfahren gegen Microsofts GitHub eingeleitet. Mit dem Tool GitHub Copilot zur Autovervollständigung von Programmier-Code, das auf der generativen AI GPT3 von OpenAI basiert, soll GitHub gegen Lizenzbestimmungen und Urheberrechte von Programmierern verstoßen.
In der Anklage führen die Anwälte drei Beispiele auf, in denen die Software größere Strecken von Code im Wortlaut aus Quellen kopiert, die unter nicht-freien Lizenzen geschützt sind, oder die gegen die Kopiervorgaben freier GPL-Lizenzen verstoßen. Unter anderem konnten die Anwälte zeigen, dass Copilot Code aus dem Spiel "Quake III", der unter einer GPL-2 Lizenz geschützt ist und nur unter bestimmten Bedingungen kopiert werden darf, 1:1 von Copilot generiert wurde. AI-Experte Alex J. Champandard hat einen guten Twitter-Thread mit Einschätzungen zur Klage. Seine Einschätzung: "GitHub, Microsoft and OpenAI are in a very bad position."
Das Gerichtsverfahren zielt direkt in das Herz der OpenSource-Software-Entwicklung. Felix Reda von der Gesellschaft für Freiheitsrechte schrieb bereits im vergangenen Jahr nach der Ankündigung von Copilot einen Artikel auf Netzpolitik.org, der die Hintergründe der Debatte um Urheberrechte für Programmiercode erklärt. Das Dilemma: Ausgaben generativer AI-Systeme sind (angeblich) nicht schutzfähig, da kein menschlicher Urheber vorliegt und maschinelle Outputs gemeinfrei sind. Fallen nun allerdings die Ausgabe von 1:1-Kopien GPL-lizensierten Codes nun ebenfalls unter eine GPL-Lizenz, sind alle Ausgaben von maschinenerzeugtem Code urheberrechtsfähig, was grade den Anhängern der Copyleft-Philosophie eines freieren Umgangs mit Urheberrechten ein Dorn im Auge sein dürfte.
Ich hatte hier auf Piqd bereits mehrfach über die rechtlichen Fallstricke von generativen AI-Systemen im Kontext von Image Synthesis hingewiesen, wie die FairUse-Argumentation von Unternehmen als Data Laundering für die Umgehung von Lizenzbestimmungen genutzt wird oder wie der OpenSource-Release von Stable Diffusion zu einem Schwarzmarkt für Kunststile von Illustratoren führte. Der Fall GitHub Copilot ist ein wenig anders gelagert, da die Software im Gegensatz zu Bildgeneratoren direkte 1:1 Kopien von lizensiertem Code produziert. Bildsynthesis produziert keine direkten Kopien der Trainingsdaten, also der Illustrationen und Kunstwerke.
Dennoch dürfte ein Verfahren, sollte Anklage erhoben werden, Auswirkungen auf die gesamte Branche generativer AI-Systeme haben, und die Debatte um die Lizensierung von Trainingsdaten weiter anheizen. Die Auswirkungen des Verfahrens, das sich jahrelang hinziehen dürfte, auf die Auslegung von Urheberrechten und Fair Use, die Nutzung freier Lizenzen und die gesamte AI-Branche sind potenziell gewaltig.
Pirate Mimetic AI-Model einer Illustratorin
Vor einigen Wochen schrieb ich in einem piq über einen der ersten Fälle einer Pirate Mimetic AI, die auf den Stil und den Strich eines jüngst verstorbenen Illustrators aus Südkorea trainiert und veröffentlicht wurde.
Nun hat Andy Baio ein Interview mit der jungen Illustratorin Hollie Mengert geführt, deren Arbeit vor wenigen Tagen ungefragt dazu benutzt wurde, ein Stable Diffusion-Model zu trainieren, die ihr Werk imitiert, anschließend hat er sich auch mit dem Macher des Pirate Mimetic AI-Models unterhalten.
Die Interviews sind sehr aufschlussreich und mich erinnern viele der Äußerungen des "Style-Piraten" an die Argumente der Verfechter von p2p-Technologien wie Napster oder Bittorrent vor 20 Jahren: "Die Technologie ist da und geht nicht mehr weg, es gibt ohnehin keine Moral und die Zerstörung der Industrie ist unausweichlich". Das sind dieselben alten Argumente der Warez-Szene in neuen Kleidern, die bereits von Peter Sunde oder der Piratenpartei in der Urheberrechtsdebatte in Zeiten von Tauschbörsen vorgetragen wurden, und die sich spätestens mit dem Siegeszug der Streamingdienste in Luft aufgelöst haben.
Hollie Mengert fühlt sich "invaded" und meint, das AI-Model könnte zwar einige Details ihrer Arbeiten imitieren, nicht aber ihre Charakterzeichnungen. Sie hätte ihr Einverständnis dazu nicht gegeben, und auch nicht geben können, da viele der für das AI-Model benutzten Arbeiten Auftragsarbeiten darstellen, für die sie keine Nutzungsrechte hat.
An dieser Stelle hätte ich mir von Andy Baio gewünscht, ob sie sich vorstellen könne, ihren Stil als AI-Model selbst anzubieten und als Plugin zu verkaufen. Es gibt bereits jetzt, wenige Wochen nach dem Release der Open Source-Technologie und der Veröffentlichung der Papers zu Dreambooth und Textual Inversion, Hunderte bis Tausende von AI-Models, die alle möglichen Kunststile, Objekte und Personen darstellen und imitieren können.
Ich selbst habe ein mageres AI-Model mit eher ungenauem Output mit grade einmal 15 Bildern meines Gesichts mit einem freien Google Colab-Account trainiert und kann nun, sagen wir mal, interessante Selbstportraits im Stil Hunderter Maler generieren. Künstler können eine AI auf ihre eigene Arbeit trainieren und sich von der Maschine inspirieren lassen, oder gleich das ganze Model zum Kunstwerk erklären, während gleichzeitig die neue Stable Horde-Technologie es jedem Nutzer erlaubt, Teil eines Distributed Cluster Computing-Netzwerks zu werden, um Bilder für andere Nutzer zu generieren, auch ohne schnelle Grafikkarten – der Bittorrent-Gedanke für Generative AI.
Der Stockphoto-Anbieter Shutterstock deutet bereits an, spezialisierte AI-Modelle für bestimmte Objekte anzubieten und arbeitet mit seinem "Contributor Fund" an einer Kompensation für Künstler. Genauso könnte Adobe verschiedene Künstlerstile als Plugin für einen AI-Brush in Photoshop anbieten – ein Spotify für Illustrationen der AI-Zukunft.
Ob man damit die prinzipielle Entwicklung – die völlige Demokratisierung der visuellen Kreativität – in verwertbare kapitalistische Bahnen lenken können wird, erscheint mir fraglich. Wie sich die Kunst verändern wird, wenn jeder ehemals einmalige Stil mit wenigen Klicks in eine Maschine verwandelt werden kann, ebenfalls.
Gespräche mit mimetischen AI-Modellen von Verstorbenen
Technology Review hat einen langen Artikel über künstliche Intelligenzen veröffentlicht, die die Persönlichkeitsmerkmale von Toten imitieren und in Erinnerung halten sollen – mimetische AI-Modelle von Verstorbenen.
In den vergangenen Jahren gab es mehrere aufsehenerregende Fälle von Menschen, die jüngst verstorbene Familienangehörige oder Partner mit der Hilfe von Chatbots simulierten, um ihre Trauer zu verarbeiten. Psychologen sind über die Effekte uneins, die ein solcher Chatbot auf Trauerarbeit, in der Verlust akzeptiert und in die eigene Persönlichkeit integriert wird, haben kann, und sprechen neben einer Milderung des Verlustschmerzes auch von der Illusion von Lebendigkeit, die die Trauerarbeit stören und im schlimmsten Fall verhindern.
Nun, mit der Entwicklung der Technologie von realistischen, digital simulierten Stimmen, in denen ich mit ein paar Minuten an Audiomaterial jede menschliche Stimme imitieren kann, beginnen Start-ups mit der kommerziellen Verwertung dieser Simulation der Toten. So bietet etwa das Start-up HereAfter AI einen Voice-Chat mit Verstorbenen an, und Amazon präsentierte im Juni die Simulation der Vorlesestimme einer toten Großmutter.
Addiert man die Entwicklungen im diesjährigen Sommer der Generative AI, in dem wir von der Vorstellung von Dall-E 2 bis zum Release von Stable Diffusion und der Flut an Imagegeneratoren inklusive Add-ons zur Bild-Synthesis von eigenen Charakteren und Konterfeis sowie den ersten Ausblicken auf Text-2-Video-Modellen konfrontiert sind, ist es nur eine Frage der Zeit, bis HereAfter AI seinen Voice-Chat nicht nur mit einer realistischen Stimme, sondern auch einem realistischen, animierten Abbild der verstorbenen Person anbieten kann. Menschen ist es dann nicht nur möglich, mit den Stimmen von Verstorbenen zu reden, sondern sie dabei auch zu sehen: Die Gedenkbilder der Toten der Zukunft sprechen mit uns und bewegen sich, als wären sie am Leben.
Aus ethischen Gesichtspunkten ergibt sich, wie so oft bei KI-Modellen, die Frage nach dem Einverständnis. Hätte ich Kinder und würde sterben, ich würde nicht wollen, dass sie sich einer Illusion der Lebendigkeit hingeben, sondern dass ihnen das Begreifen des Todes erleichtert wird. Andererseits würde ich ihnen die Möglichkeit auch nicht verweigern wollen, ihren großartigen, einmaligen, lustigen, oft peinlichen und immer unheimlich fantastisch klugen Vater digital zum Leben erwecken zu können – nach einer Zeit der Trauer, die notwendig ist, um den Verlust zu verstehen. Technologien wie die von HereAfter AI sind zwar ein weiterer Weg, um den Tod aus der Gesellschaft zu verbannen, aber auch eine Möglichkeit, verstorbene Personen als Simulationen in das Leben zu integrieren.
Zusätzlich zu Organspendeausweisen tragen wir möglicherweise schon bald auch Opt-In/Outs für mimetische KI-Modelle bei uns. Man kann nie wissen.
Zuerst erschienen auf dem Expertenportal Piqd.