Die rechtlichen Fallstricke von AI-Bildgeneratoren / Sozialen Medien als diskursive Umweltverschmutzung
Plus: Inauthentic AI-Rappers, AI-Kids-Drawings, Data Visualization generated by AI, a Dall-E piece stitched from 200 prompts, Zuckerberg-Clones, Radio Bostrom, AstroVettes and a Raptor-Rickroll.
SUPPORT // Patreon / Steady / Paypal / Spreadshirt // I post GOOD MUSIC too
Die rechtlichen Fallstricke von AI-Bildgeneratoren
Am Montag wurde mit Stable Diffusion eins der ersten Open Source KI-Modelle für automatisierte Produktion von synthetischen Bildern veröffentlicht. Stable Diffusion ist genau wie das von mir hier vorgestellte Dall-E 2 von OpenAI, ein Image Generator, der auf Texteingabe in der Lage ist, eine Illustration jeglicher Inhalte zu produzieren.
(Transparenz: Ich war Teil der Beta-Phase von Stable Diffusion und habe fleißig Bilder gezaubert. Ein paar meiner Entdeckungen im Latent Space: the giant head of Stanislaw Lem hovering above the futurological congress, Monty Python doing the Silly Spacewalk, a gentleman navigator in a steampunk airship flying above a vast ocean of a very large language model, mad max and tina turner singing we don't need another hero, The Velvet Underground and Nico playing live on stage at a night club, The Moomins in space suits flying around in jetpacks discovering the Mushroom Planet)
Kurz nach Dall-E 2 präsentierte Google mit Imagen und Parti gleich zwei Spielarten dieser Technologie, die auf unterschiedlichen AI-Architekturen basierten und noch bessere und genauere Ergebnisse erzielten. Die Konsequenzen dieser Technologien auf den Kreativmarkt sind absehbar und folgerichtig laufen Kreative auf aller Welt mittlerweile Sturm gegen die neuen Illustrations-Maschinen.
Charlie Warzel, der in seinem Newsletter bereits vor drei Wochen auf Fragen der Ethik und des geistigen Eigentums im Kontext von AI-Systemen wie Dall-E oder Stable Diffusion hinwies, wurde jüngst selbst zum Ziel eines Shitstorms von Künstlern und Illustratoren. Der von mir hier exemplarisch gepiqdte Text von Alexander Wales spricht in seiner dramatischen Überschrift von einer "AI-Art Apocalypse" und beschäftigt sich in einem langen Addendum alleine mit Fragen des Copyrights und Fair Use.
Mir selbst ist die Legalität dieser Bildgeneratoren nicht auf den ersten Blick ersichtlich. Zwar sind die mit Webscraping erstellten Datensätze, mit denen die künstlichen AI-Systeme trainiert wurden, als solche legal und dürfen für Forschung und Bildung angewendet werden, aber sowohl Dall-E als auf Midjourney als auch Stable Diffusion sind mittlerweile kommerzialisierte Projekte, was die Anwendung von Fair Use-Gesetzen erschwert. Deutsche Urheberrechte kennen zwar ebenfalls Ausnahmen für die Anwendung für Forschungszwecke, aber hierzulande gibt es keine Fair Use-Regelungen. Die neuen Kreativbüchsen der Pandora operieren also offensichtlich in einem gesetzlichen Graubereich und es zeichnen sich jetzt bereits eine Menge rechtlicher Auseinandersetzungen zwischen den Haltern der Rechte geistigen Eigentums und den Herstellern von Maschinen ab, die auf den Arbeiten von Millionen von Künstlern trainiert wurden. Hilfreich ist ebenfalls ein Blick auf die rechtliche Situation von Fan-Art im Netz, die von den Rechteinhabern oftmals lediglich toleriert wird, deren Veröffentlichung im Netz aber nicht legal ist. Der rechtliche Status einer Maschine, die Bilder von Batman produzieren kann, und auf jeder Menge Bilder von Bob Kane trainiert wurde, ist offensichtlich.
Deshalb ist die Veröffentlichung des Open Source-Modells Stable Diffusion das Äquivalent zur Öffnung von Pandoras Büchse für den Kreativmarkt: Die Singularität der AI-Kunst.
Mich erinnert diese Situation sehr an Napster im Jahr 2000. Der zentralisierte Filesharing-Dienst wurde 1999 vorgestellt und musste bereits zwei Jahre später seinen Dienst einstellen. Aber bis heute erfreut sich Filesharing als Prinzip größter Beliebtheit. (Transparenz: Ich arbeitete 3 Jahre lang als Art Director für den legalisierten Musikservice Napster Europe.)
Auch synthetische Medien, die mithilfe von Kreativmaschinen, open source oder nicht, kommerziell oder frei zugänglich, werden nicht wieder verschwinden und es ist ein kurioses Faszinosum, dass Systeme künstlicher Intelligenz zuerst in Bereichen Fuß fassen, die vor zehn Jahren noch als sicher vor Automation galten: Kunst, Kreativität und spielerisches Entdecken.
Dall-E und Stable Diffusion und Midjourney werfen heute bereits Fragen auf, die genau in das Herz menschlichen Daseins zielen: Was genau ist Kreativität und Kunst? Wie genau funktionieren Bewusstsein und freie Entscheidungen? Was ist das Wesen von Innovation und welche Bedeutung haben die von uns entwickelten Schutzrechte in einer Welt, in der Maschinen kreative Aufgaben übernehmen können? Und ist das alles überhaupt legal?
Sozialen Medien als diskursive Umweltverschmutzung
Nathaniel Lubinarchive und Thomas Krendl Gilbert stellen im MIT Technology Review ein neues Framework für die Regulation von Plattformen vor (archive.ph). Analog zu Umweltbehörden schlagen sie Institutionen vor, die toxische Wirkungen von Sozialen Medien messbar macht und damit Regulationen ermöglicht.
Die vorrangige Aufgabe einer solchen neuen Behörde wäre es, die Wirkungen von Produktentscheidungen zu begleiten und die dabei anfallenden Daten auszuwerten. Dafür müsste sie standardisierte Protokolle erarbeiten, die eine Zusammenarbeit von Plattformen im Kontext ihrer Design-Entscheidungen und den dabei anfallenden Daten über Nutzerverhalten mit Regulierungsbehörden ermöglicht. In einem ersten Schritt ginge es einer solchen Behörde als um Datentransparenz. So könnten Auswirkungen von Design-Änderungen etwa auf die mentale Gesundheit von Nutzern direkt von Experten in Echtzeit ausgewertet und vom Unternehmen in seinen Entscheidungen dank einer neuen Planungssicherheit durch abwägbare politische Entscheidungen berücksichtigt werden.
Ähnlich wie heute etwa Chemie-Unternehmen die Änderungen an relevanten Leitungen von Chemikalien unter strengen Schutzauflagen von Umweltbehörden vornehmen und diese in Zusammenarbeit mit den Regulatoren vornehmen, würde eine solche neue Behörde zur Plattform-Regulation genau diese Zusammenarbeit ermöglichen, indem sie mit den Protokollen und Prinzipien der Datentransparenz eine gemeinsame Sprache schafft, die Regulation durch die Politik in einem zweiten Schritt ermöglicht.
Diese Analogie muss man mit Vorsicht genießen. So gut ich den Ansatz zur Erarbeitung von formalisierten Wegen zur Datentransparenz und zur praktikablen Regulation von Plattformdesign-Entscheidungen finde, so muss doch auch klar sein, dass manche diskursive Umweltverschmutzung sehr wohl erwünscht ist, etwa in authoritären und antidemokratischen Systemen. Die Autoren betonen allerdings, dass dieses Framework nur maßgebliche gesellschaftliche Störungen überhaupt als "Verschmutzung" erfasst werden soll. Wo dann die Grenze von akkumulierenden und memetisch wirksamen Schneeballeffekten von etwa aktivistischer Protestkommunikation zu toxischen Wirkungen von Plattformentscheidungen gezogen wird, wird aus diesem kurzen Text leider nicht klar. Doch erscheint mir dieses Framework ein zumindest im Ansatz gelungener erster Schritt in Richtung Echtzeit-Messung von memetischen Effekten und Datentransparenz, die zusammen eine wirksame Regulation der Plattformen überhaupt erst ermöglicht.
Im Oktober präsentieren die Autoren ihr Paper zu diesem Regulations-Framework auf der ACM Conference on Equity and Access in Algorithms, Mechanisms, and Optimization.
Major label drops AI-rapper because of inauthentic social justice activism
A few days ago, Capitol signed an “AI Rapper” and yesterday, they droppen FN Meka "following backlash" because the… virtual band created by a corporation? entity? thing? posted imagery online featuring black artificial humans being beaten up by cops, relating to the Black Lives Matter movement.
So, does social commentary via art need authenticity? Can a corporate entity that creates virtual bands create art that can formulate actual messages? Can social commentary via art be uttered by artificial humans at all? Is an artificial rapper allowed to deal with political issues in his lyrics Why are rappers on major labels allowed to do that then? AFAIK they are, as a musical entity, just as synthetic as this virtual act here, besides the CGI-sockpuppet. And what is authenticity in synthetic art anyways? If you use synthetic media for art, how can you transform the authenticity necessary for social commentary into the artform?
The source of the artwork (in this case the artist itself is the artwork) is crucial i think. An artist that is just a product of some corporation can never utter authentic social commentary. It's even more flawed than the greenwashing and LGBTQ-"activism" by corporations when Coca Cola show their rainbow flags on Twitter.
This was a bullshit project to begin with, with some CGI-character on Instagram as a standin for some unknown rapper who is also a standin for a corporate project. Adding to the outcry, the real (and black) rapper involved in the project is serving time in jail right now: “Gunna, a Black artist who is featured on a song with FN Meka, is currently incarcerated for rapping the same type of lyrics this robot mimics”.
This is/was just a vehicle to make a deal with a record label, no human involved, only human resources, from one organizational AI (the virtual record label) to another organizational AI (Capitol). This virtual rapper had nothing going for it, except some contracts. But this case is interesting for the questions stated above, mainly: What is the meaning authenticity in synthetic art, that is by definition not authentic at all?
More on this under the great headline Faster, dumber, weirder from Ryan Broderick at Garbage Day and some more details at Brooklyn Vegan.
Remember The Monster Project from years ago where Illustrators took monsters from kids drawings and turned them into paintings? This is now democratized thanks to AI: PH AI auf Twitter: “With stablediffusion img2img, I can help bring my 4yr old’s sketches to life. Baby and daddy ice cream robot monsters having a fun day at the beach. 😍”
Ethan Mollick auf Twitter: „Data visualization inspiration thanks to DALL-E: how Rothko, Basquiat, Picasso, and Monet would create an academic chart.“ / I want all scientific data to be presented as paintings by Basquiat.
An interview with David Holz, CEO of AI image-generator Midjourney: it’s ‘an engine for the imagination’ and One day consoles will have a 'giant AI chip and all the games will be dreams' / Midjourney maybe is the most interesting of the image generators because of its social nature and its deliberate surrealism that totally amounts to something like its very own unique AI-art-handwriting style.
AI program predicts 'last' selfies ever
Radio Bostrom - Audio narrations of academic papers by Nick Bostrom.
Dalle's notebook doodles after a long day at AI-school - Pretty awesome Dall-E piece generated with more than 200 prompts
Xander Steenbrugge auf Twitter: „"Voyage through Time"
Glenn Marshall auf Twitter: „My AI film 'The Crow' wins Jury Award at Cannes! / Here’s the thing on Youtube. Its neat.
Jonah auf Twitter: „We all know Zuckerberg is an alien in human cosplay. But did you know he’s built clones? A thread. / This is great.
Robot Repeatedly Rearranges Remnants In The Round | Hackaday
But With Raptors on Twitter: "Never Gonna Give You Up" (1987) but with a Velociraptor
Rickroll But Every Lyric Is An AI Generated Image
The Cultural Tutor auf Twitter: „Has the world become less colourful?” / This thread is a short version of this 2 year old research.
Astronaut's grandson partners on project to restore rare Apollo 15 'AstroVette'. I know i know, fossil fuels, but fuckit, i totally want an AstroVette.