AI-Actors from beyond the grave
Plus: The Rise and Fall of Google Reader / Reality Diffusion / Reality check for AI-doomerism
Here’s my latest posts on Piqd, a german language distribution-platform for journalists and experts. I machine translated the posts with ChatGPT for my international readers and edited them for juiciness and kicks. Find the german originals below the english versions.
ENGLISH
The Rise and Fall of Google Reader
David Pierce writing at The Verge recounts the rise and fall of the beloved, most famous and dearly missed RSS reader in internet history, Google Reader.
I can't shake the thought that, instead of focusing on its failed social media experiment Google Plus, Google could and should have expanded its quasi-monopoly in the RSS market. By emphasizing the social features already built into Google Reader and incorporating the back then widely-used Feedburner technology, they could’ve prevented the rise of Facebook's Newsfeed. As a result, we might be living in a different world today — not necessarily a better world, but possibly a slightly less loud and outraged one.
Google Reader was closely intertwined with the rise of blogging as a culture: the act of writing on the internet by explicitly non-journalists who presented their thoughts, links, and discoveries on websites. This culture took hold when Evan Williams and Meg Hourihan founded their platform, Blogger.com. It was this moment that laid the foundation for the modern social media era and its culture: people using a frictionless tool to write and share on the internet. While the major platforms we know today have certainly shaped this culture, they did not create it.
Google had a unique opportunity to nurture (and exploit) this culture and establish a paradigm for social media platforms based on RSS. Unfortunately, they didn't seize this opportunity, and secretly, I still hope for a relaunch of the best and most user-friendly reader software of all time. Although, I've been using the relatively new Inoreader for the past two years, which is built with heavy users in mind reading hundreds of sources, which comes pretty close to being a perfect RSS reader for me.
Reality Diffusion
The Der Spiegel cover story of the current issue delves into the new unreality created by AI image generators like Midjourney or Dall-E, providing a comprehensive overview of the debates of recent months.
Among others, the piece features Boris Elgadsen, whose synthetically generated image "The Electrician" won in the "creative open" category at the prestigious Sony World Photography Awards in April. This category has always been open to experimental approaches and post-photography. Nevertheless, the case gained international attention, especially because Jason M. Allen's AI-generated image "Théâtre D’opéra Spatial" was still fresh in memory after winning a prize in an art competition, fueling the nascent debate on the relationship between art and image synthesis.
In this Spiegel story, however, the focus is not so much on the nature of art in times of stylistic interpolability but rather on the effects of a technology that can create realistic images of practically anything with just a few clicks, on our perception of and societal consensus on reality. Yet, this debate is far from new. Even Stalin famously used image manipulation techniques to create alternative realities, and since the democratization of these techniques formerly reserved to experts by software like Photoshop, most people are aware that images cannot be trusted inherently.
The problem with image generators is not merely that they can realistically depict alternative realities – humans have been able to do that for a long time – but that they democratize and make image making techniques accessible to everyone, including bad actors. Naturally, right-wing politicians were among the first to use AI image synthesis for their election campaigns, including the AfD here in Germany.
Personally, I think the problem is somewhat overestimated. We have been living with the awareness that images can be faked for a long time, especially in social media, and "This is shooped, I can tell by the pixels" has been a common phrase on the internet for quite a while. The actual impact of disinformation is debatable; studies do not find significant effects of Russian disinformation campaigns or social bots, while other papers show how disinformation during the Covid pandemic created an atmosphere of fear and uncertainty. Especially the latter point raises concerns in light of the capabilities of AI image synthesis, because photorealistic images from alternative realities are a different beast then the painted propaganda illustrations we know from history.
However, the Spiegel cover story doesn't only focus on the new possibilities of AI-supported image manipulation but also on what philosopher Daniel Dennett calls "Counterfeit People" [I linked to a podcast interview with Dennett here/4]: mimetic AI systems that imitate real humans. Behind this somewhat brittle term are systems that can produce non-consensual deepfake porn using the faces of real people or convincingly mimic voices, opening up new opportunities for fraudsters and criminals, or even imitate an entire person's personality and way of speaking in a chatbot. In my estimation, this and its psycholoical implications seem to be the most significant problem with this new technology in our digitally enabled post-truth world.
While we have been living with fictional, realistic visual worlds since the invention of photography, and especially since the advent of cinema, we have not encountered fictional people that have a real impact on our psychology, as we automatically attribute human autonomy and cognition to them. A recent study found that people who collaborate with AI systems to write texts can be influenced in their opinions by them, making our opinions susceptible to subtle attacks through prompt hacking we may not even notice.
It is precisely this new vulnerability to hacking, not of technical systems but of our psyche, our attitudes and opinions, our thinking, that has made me very cautious after initially being enthusiastic about AI. When mimetic systems convincingly simulate human behavior, and we as humans cannot help but ascribe human-cognitive attributes to these obviously synthetic systems, making them real social actors in our mind, even though they are just interpolations between data points in a vast latent space, these systems open up a new attack vector for manipulating our behavior. (And I haven't even started discussing the possibilities of self-radicalization through finely tuned open-source language models here.)
The article in Spiegel provides a compelling introduction to all these dimensions of the new AI post-truth era, where the boundaries of reality blur, and we can never be entirely sure of our perception in the digital realm.
Reality check for AI-doomerism
Blake Richards (neuroscientist), Blaise Agüera Y Arcas (Google Research), Guillaume Lajoie (mathematician), and Dhanya Sridhar (Computer Science) realty check the much-hyped debate about the alleged annihilation of humanity by "Rogue AI" and conclude that the discussion largely overlooks facts and obscures actual and more subtle risks already in effect.
The scientists emphasize that the basic assumptions and terminology of the debate alone prevent a well-founded discussion. For instance, the concept of "Superintelligence," introduced by philosopher Nick Bostrom in his book of the same name, is misleading because, although there are plenty of theories about what intelligence is and how it works, there is no real consensus on the matter. Moreover, quantifying intelligence has always proven challenging, and there are different forms of intelligence.
One argument heard often is that a much more intelligent "species" like AI would automatically lead to the displacement and ultimately the extinction of humanity. This does not hold up under scrutiny. While the researchers find examples of the extinction of species caused by humans, they rarely find one caused by other species of higher ordered cognition. There are also cases where the emergence of an unintelligent species led to the extinction of more cognitively capable species, such as the ongoing evolution of flora leading to the extinction of some animal species. Additionally, the evolutionary modus operandi for most species is not one of dominance and subjugation, but of interdependence.
A complete eradication of humanity also would require the full automation of hundreds of processes in the economic cycle, from mining metals, their trade and processing, construction of reactors, chip factories, and data centers, to laying undersea cables for digital communication. It is highly unlikely that we would fully automate these processes without building in human decision-making points. Even the already existing digital twin-factories, which are factories mirrored and controlled in digital simulations, allow the incorporation of human decision points. Therefore, a Rogue AI could simply be halted at hundreds of points. Any future AI regulation will prescribe such safety measures, just as there are fire safety regulations today.
The article serves as a sobering reality check for the overheated AI-doomers, especially Eliezer Yudkowski, who, in my opinion, have not presented a single truly convincing argument for their stance, which posits that an alleged Superintelligence would instantly annihilate humanity.
AI-Actors from beyond the grave
Around a year ago in this piece, I wrote about a series of technologies and initial services from startups which today already allowed for chatbot conversations with mimetic AI models of deceased individuals.
However, the resurrection of the dead thanks to AI technologies does not stop at bots. S.J. Velasquez in a lengthy article at BBC Future now writes about the equally fascinating and unsettling prospect of zombifying long-deceased filmstars and some of the more fine grained details such as the rights of deceased actors to their own image in future movie productions. The AI revolution is also one of the reasons for the ongoing strike by actors and screenwriters in Hollywood.
The article extensively examines the legal aspect of the dilemma: In the US, even the deceased have certain rights to their likeness, managed by their descendants. However, while there may be local legal restrictions for the use of deceased individuals' appearances, such as in New York, their enforcement is not guaranteed. For private use, for example, anyone can upload a few pictures of Marilyn Monroe into an AI software of their choice and create all kinds of videos and images, including porn, soon in professional quality, and as long as they don't publish them, prosecution, even if the technique is prohibited, seems unlikely.
What surprises me is that the article leaves the in my opinion most pressing issue completely unmentioned and only touches on it briefly in the context of the job market:
[Travis] Cloyd [, CEO of WXR, an agency managing the rights for digital clones of figures like James Dean, Malcolm X, Betty Page, or Rosa Parks,] recognizes the potential for a decreasing need for actors but offers a "glass half-full" perspective regarding the use of deceased actors. "Ultimately, it creates many jobs," he says, referring to the other technical and film industry jobs that this technology could generate.
The "decreasing need for actors" is newspeak for a shrinking culture in regression; this is about nothing less than a decline of the arts. As a society, we must ask ourselves if we want to live in a world where the same hundred dead actors play in the same movies for eternity. The same applies equally to literature and music and all cultural expressions, perhapse with the exception of expressive dance — unless one considers compilations of funny robot fails as such.
One superficially functioning way out of the malaise could of course be the already emerging countermovements: A digitally synthetic culture in stagnation creates a counter-movement in the form of limited, uncopyable, unique, and handcrafted art and culture. The film "Memoria" with Tilda Swinton points towards a possible future: The experimental arthouse film was never intended to be shown on streaming services or released for home viewing, which didn’t really work out it seems.
Nothing against Tilda Swinton, but while such elitist cultural products may be a way to distance oneself from the digital-synthetic AI cultural landscape, they also indicate a future where challenging art is reserved for elite circles while the masses are inundated with cheap, synthetically generated AI Marvel films: "Avengers v6.22beta streaming on your Apple Vision now, customized to your identitarian liking by reading your brainwaves in realtime. Enjoy."
Meanwhile, the rich elites indulge in handmade newschool theater with real and handpicked actors who naturally harshly criticize this very cultural situation, so all of them can sleep well at night with their clear conscience providing the softest of all pillows.
Good night, cinema.
GERMAN
Vom Aufstieg und Fall des Google Readers
David Pierce erzählt auf The Verge vom Aufstieg und Fall des wohl bekanntesten RSS-Readers der Internet-Geschichte, des Google Readers.
Ich kann den Gedanken nicht abschütteln, dass Google, anstatt auf sein gescheitertes Social-Media-Experiment Google Plus zu setzen, seine Quasi-Monopolstellung im RSS-Markt weiter ausgebaut und mit der ebenfalls internetweit eingesetzten Feedburner-Technologie die bereits im Reader eingebauten Social Features betont hätte, sie den Aufstieg von Facebooks Newsfeed verhindern hätten können und wir heute deshalb in einer anderen Welt leben würden. Nicht unbedingt in einer besseren, aber möglicherweise in einer etwas weniger laut-empört-aufgeregten Welt.
Googles Reader war auch eng mit dem Aufstieg von Blogging als Kultur verzahnt: Das Schreiben-ins-Internet durch explizit Nichtjournalisten, die auf Websites ihre Gedanken und aktuelle Links zu Meldungen und Fundstücken präsentierten, setzte sich durch, als Evan Williams und Meg Hourihan ihre Platform Blogger.com gründeten. Es war dieser Moment, der die moderne Social-Media-Ära und ihre Kultur begründet: Menschen, die mit einem friktionslosen Tool ins Internet schreiben und Dinge teilen. Die großen Plattformen haben diese Kultur sicher verändert, aber sie begründeten sie nicht.
Google war in der einmaligen Position, diese Kultur zu fördern (und auszubeuten) und ein Paradigma für das Design von Social-Media-Plattformen auf RSS-Basis zu etablieren. Diese Gelegenheit haben sie leider nicht genutzt, und insgeheim hoffe ich immer noch auf einen Relaunch der bislang besten und benutzerfreundlichsten aller Reader-Softwares, auch wenn der von mir seit zwei Jahren benutzte Inoreader einem perfekten RSS-Reader durchaus nahekommt.
Reality Diffusion
Die Spiegel-Titelstory des aktuellen Hefts beschäftigt sich mit der Irrealität geschaffen mit KI-Bildgeneratoren wie Midjourney oder Dall-E und bietet einen guten Überblick über die Debatten der vergangenen Monate.
Unter anderem zu Wort kommt in dem Stück auch Boris Elgadsen, der mit seinem synthetisch generierten Bild "The Electrician" im April bei den renommierten Sony World Photography Awards in der "creative open"-Kategorie gewann. Diese Kategorie war schon immer offen für experimentelle Ansätze und Post-Photography, dennoch sorgte der Fall für internationale Aufmerksamkeit, grade auch weil Jason M. Allens KI-erzeugtes Bild "Théâtre D’opéra Spatial" noch frisch in Erinnerung lag, mit dem er bei einem Kunstwettbewerb einen Preis gewann und damit die noch junge Debatte über das Verhältnis von Kunst und Bildsynthese anfeuerte.
In der Spiegel-Story geht es diesmal allerdings weniger um das Wesen der Kunst in Zeiten stilistischer Interpolierbarkeit, sondern um die Auswirkungen einer Technologie, die mit wenigen Klicks realistische Bilder von praktisch allem erzeugen kann, auf unsere Wahrnehmung von Realität und auf die gesellschaftliche Konsensfähigkeit. Doch diese Debatte ist alles andere als neu, schon Stalin nutzte bekanntermaßen Bildmanipulationstechniken zur Erzeugung alternativer Realitäten und spätestens mit der Demokratisierung dieser ehemals Retusche-Profis vorbehaltenen Techniken durch Software wie Photoshop ist den allermeisten Menschen eigentlich bewusst, dass Bildern per se nicht getraut werden kann.
Das Problem der Bildgeneratoren liegt nicht einfach darin, dass sie alternative Realitäten abbilden können, das können Menschen schon sehr lange, sondern dass sie diese Techniken demokratisieren und allen zugänglich machen, auch Bad Actors. Und so nutzten natürlich zuerst rechte Politiker KI-Bildsynthese für ihre Wahlkämpfe – auch hierzulande durch die AfD.
Ich persönlich denke einerseits, dass das Problem überschätzt wird. Wir leben schon lange, grade in den sozialen Medien, mit dem Bewusstsein, dass Bilder gefälscht werden, und "this is shooped, i can tell by the pixels" ist seit Langem eine gängige Phrase im Internet. Der tatsächliche Einfluss von Desinformation ist nach wie vor umstritten, Studien finden keinen wirklichen Impact von russischen Desinformationskampagnen oder Social Bots, andere Papers zeigen wiederum, wie Desinformation im Zuge der Covid-Pandemie eine Atmosphäre der Angst und Unsicherheit erzeugten. Vor allem der letzte Punkt bereitet angesichts der Möglichkeiten von KI-Bildsynthese Anlass zur Sorge, denn fotorealistische Bilder aus alternativen Realitäten sind etwas anderes als gezeichnete Propaganda-Illustrationen, wie sie aus der Geschichte massenhaft bekannt sind.
Die Titelstory des Spiegels befasst sich aber nicht nur mit den neuen Möglichkeiten KI-gestützter Bildmanipulation, sondern auch mit den vom Philosophen Daniel Dennett sogenannten "Counterfeit People", also mimetischen KI-Systemen, die echte Menschen imitieren. Hinter diesem etwas spröden Begriff stecken Systeme, die etwa nonkonsensualen Deepfake-Porn mit den Gesichtern echter Menschen produzieren können oder Stimmen täuschend echt nachmachen und damit Betrügern und Kriminellen ein neues Spielfeld eröffnen oder auch gleich die ganze Persönlichkeit und Redeweise eines Menschen in einem Chatbot imitieren können – in meinen Augen ist dies das größte Problem dieser neuen Technik in unserer digital ermöglichten Post-Truth-Welt.
Denn mit fiktiven, realistischen Bildwelten leben wir allerspätestens seit der Erfindung der Fotografie, und erst Recht seit der Erfindung des Kinos. Mit fiktiven Menschen allerdings nicht, die einen realen Einfluss auf unsere Psychologie haben, da wir ihnen ganz automatisch menschliche Autonomie und Kognition zuschreiben. So fand eine Studie jüngst heraus, dass Menschen, die in Kooperation mit AI-Systemen Texte verfassen, von diesen in ihrem Meinungen beeinflusst werden können, was unsere Meinungen gleichzeitig anfällig macht für subtile Attacken durch Prompt-Hacking, die wir im Zweifelsfall gar nicht bemerken.
Es ist genau diese neue Anfälligkeit für Hacking, eben nicht für technische Systeme, sondern für unsere Psyche, unsere Haltungen, unser Denken, die mich nach anfänglichem KI-Enthusiasmus sehr vorsichtig werden lässt. Wenn mimetische Systeme menschliches Verhalten täuschend echt simulieren und wir als Menschen gar nicht anders können, als diesen offensichtlich synthetischen Systemen menschlich-kognitive Eigenschaften zuzuschreiben und sie damit zu einem echten sozialen Actor in unserem Denken zu machen, auch wenn sie eigentlich nur Interpolationen zwischen Datenpunkten in einer riesigen Datenbank darstellen, dann eröffnen diese Systeme einen neuen Angriffsvektor für die Manipulation unseres Verhaltens. (Und da habe ich von Selbstradikalisierungsmöglichkeiten durch feinabgestimmte Open-Source-Sprachmodelle noch gar nicht angefangen.)
Der Artikel im Spiegel bietet einen gelungenen Einstieg in diese ganzen Dimensionen der neuen AI-Post-Truth, in der die Grenzen der Realität verschwimmen und wir unserer Wahrnehmung im digitalen Raum niemals sicher sein können.
AI-Doomerism im Reality Check
Blake Richards (Neurowissenschaftler), Blaise Agüera Y Arcas (Google Research), Guillaume Lajoie (Mathematiker) und Dhanya Sridhar (Computer Science) unterziehen die vielzuvielbeachtete Debatte um eine angebliche Auslöschung der Menschheit durch "Rogue AI" einem reality check und kommen zu dem Schluss, dass die Diskussion weitgehend an den Tatsachen vorbeigeht und den Blick auf tatsächliche, subtilere und heute bereits wirksame Gefahren verschleiert.
Die Wissenschaftler betonen, dass die Grundvoraussetzungen und Terminologie der Debatte allein bereits eine fundierte Diskussion verhindern. Der Begriff der "Superintelligenz" etwa, eingeführt vom Philosophen Nick Bostrom in seinem gleichnamigen Buch, führt schon deshalb in die Irre, da wir bislang zwar jede Menge Theorien dafür haben, was Intelligenz ist und wie sie funktioniert, aber keinen wirklichen Konsens darüber – ganz davon abgesehen, dass die Quantifizierung von Intelligenz sich von jeher als schwierig erweist und es unterschiedliche Formen der Intelligenz gibt.
Auch das oft gehörte Argument, eine weitaus intelligentere "Spezies" wie AI würde ganz automatisch zu einer Verdrängung und ultimativ zur Auslöschung der Menschheit führen, hält einer näheren Betrachtung nicht stand. So finden die Forscher zwar Beispiele für eine Auslöschung von Arten durch den Menschen, aber keine für die Auslöschung von Arten durch andere Spezies. Auch gibt es Fälle, in denen das Aufkommen einer unintelligente Spezies zum Untergang kognitiv leistungsfähigeren Arten führte, etwa durch fortschreitende Evolution der Flora, die zum Aussterben von Arten in der Fauna führten. Daneben ist der evolutionäre Modus Operandi der Koexistenz der allermeisten Spezies kein Verhältnis von Dominanz und Unterwerfung, sondern Interdependenz, also einer gegenseitigen Abhängigkeit.
Eine vollständige Auslöschung der Menschheit würde eine vollständige Automatisierung Hunderter Prozesse im Wirtschaftskreislauf voraussetzen, vom Abbau von Metallen in Minen, deren Handel, deren Aufbereitung und Verarbeitung, den Bau von Reaktoren, Chip-Fabriken und Data-Centers bis hin zur Verlegung von Unterseekabeln für die digitale Kommunikation. Es ist äußerst unwahrscheinlich, dass wir diese Prozesse vollständig automatisieren, ohne menschliche Entscheidungsschaltstellen einzubauen. Selbst die heute bereits existierenden Twin-Factories, also Fabriken, die in digitalen Simulationen gespiegelt und gesteuert werden, erlauben den Einbau menschlicher Entscheidungsstellen. Eine Rogue AI könnte also schlichtweg an Hunderten Stellen gestoppt werden. Jede AI-Regulation der Zukunft wird solche Sicherheitsmaßnahmen vorschreiben, genau wie es heute Brandschutzbestimmungen gibt.
Der Artikel ist eine schöne kalte Dusche für die heißgelaufenen AI-Doomer, allen voran Eliezer Yudkowski, die meines Erachtens bislang kein einziges wirklich überzeugendes Argument für ihre Haltung vorgebracht haben, laut der eine angebliche Superintelligenz die Menschheit "in an instant" auslöschen würde.
KI-Schauspieler aus dem Jenseits
Vor rund einem Jahr stellte ich im Piq "Gespräche mit mimetischen AI-Modellen von Verstorbenen" eine Reihe von Technologien und erste Services von Startups vor, die im Zusammenspiel heute bereits Gespräche mit mimetischen KI-Modellen von Verstorbenen ermöglichen.
Doch die Auferstehung der Toten dank KI-Technologien macht nicht halt bei Chatbots: S.J. Velasquez schreibt auf BBC Future in einem langen Artikel über die genauso faszinierende wie irritierende Aussicht auf die Zombifizierung längst verstorbener Filmstars und interessante Details wie die Verwertungsrechte von verstorbenen Schauspielern an ihrem eigenen Bild in zukünftigen Filmproduktionen. Die AI-Revolution ist auch einer der Gründe für den anhaltenden Streik von Schauspielern und Drehbuchautoren in Hollywood.
Der Artikel beleuchtet die rechtliche Seite des Dilemmas recht ausführlich: So haben auch Verstorbene auch in den USA gewisse Rechte an ihrem Abbild, verwaltet durch die Nachkommen, aber auch wenn dort lokale rechtliche Beschränkungen, etwa in New York, für die Nutzung des Aussehens Verstorbener existieren, so ist deren Durchsetzung nicht gewährleistet. Für den privaten Gebrauch kann zum Beispiel jeder ein paar Bilder von Marylin Monroe in eine KI-Software seiner Wahl hochladen und damit alle nur erdenklichen Videos und Bilder erstellen, schon bald in professioneller Qualität, und solange man sie nicht veröffentlicht, ist eine Strafverfolgung selbst bei einem Verbot eher aussichtslos.
Mich überrascht, dass der Artikel das meines Erachtens drängendste Problem völlig unerwähnt lässt und nur am Rande im Kontext des Arbeitsmarkts anschneidet:
[Travis] Cloyd [, CEO von WXR, einer Agentur, die die Rechte für digitale Klone etwa von James Dean, Malcolm X, Betty Page oder Rosa Parks verwaltet,] erkennt das Potenzial für sinkenden Bedarf an Schauspielern an, bietet jedoch eine "Glas halbvoll" Perspektive in Bezug auf den Einsatz verstorbener Schauspieler. "Letztendlich entstehen dadurch viele Arbeitsplätze", sagt er mit Blick auf die anderen technischen und filmindustriellen Jobs, die diese Technologie generieren könnte.
Der "sinkende Bedarf an Schauspielern" ist Neusprech für eine schrumpfende Kultur im Regress, es geht hier um nicht weniger als sinkenden Bedarf an Kunst, und wir müssen uns als Gesellschaft die Frage stellen, ob wir in einer Welt leben wollen, in der die immer selben hundert Schauspieler in alle Ewigkeit die immer gleichen Filme drehen. Dasselbe gilt natürlich gleichermaßen für Literatur und Musik und alle kulturellen Ausdrücke, mit Ausnahme vielleicht von Ausdruckstanz -- sofern man etwa diese Compilation lustiger Robot-Fails nicht dazuzählen möchte.
Einen oberflächlich betrachtet funktionierenden Ausweg könnte freilich die sich bereits abzeichnenden Gegenbewegungen darstellen: Eine digital-synthetische Kultur im Stillstand erzeugt eine Gegenbewegung in Form limitierter, unkopierbarer, einzigartiger und handgemachter Kunst und Kultur. Der Film Memoria mit Tilda Swinton zeigt hier in eine mögliche Zukunft: Der experimentelle Arthouse-Film sollte eigentlich nie auf Streaming-Diensten gezeigt oder als Home-Release veröffentlicht werden, was offensichtlich nur so mittel geklappt hat.
Nichts gegen Tilda Swinton, aber auch wenn solche elitären Kulturprodukte ein Weg sind, sich von der digital-synthetischen AI-Zukunft abzusetzen, so zeigen sie doch auch in eine Zukunft, in der herausfordernde Kunst einem elitären Zirkel vorbehalten bleibt und in der die Massen mit billigen, synthetisch erzeugten AI-Marvel-Filmen zugeschüttet werden: "Avengers v6.22beta streaming on your Apple Vision now, customized to your identitarian liking by reading your brainwaves in realtime. Enjoy."
Währenddessen gönnen sich reiche Eliten handgemachtes newschool Theater von echten und handverlesenen Schauspielern, die selbstverständlich genau diese gesellschaftliche Situation harsch kritisieren, damit man nachts mit ruhigem Gewissen einschlafen kann.
Gute Nacht, Kino.