Wishful Mnemonics
Large Language Models sind bibliotheksartige Wissens-Synthesizer - Ein neues Framework für die kommende AI-Revolution
Alberto Romero fragt in seinem Newsletter The Algorithmic Bridge nach neuen Begriffen und Kategorien, um über Werkzeuge wie Dall-E oder den Open Source-Bildgenerator Stable Diffusion nachdenken zu können. Dies benötigt ein neues Framework, das in der grade neu entstehenden Wirklichkeit von AI-Modellen funktioniert.
Die Menschen, die mit dieser Technologie direkt arbeiten, spüren instinktiv, dass sich diese Maschinen von dem, was wir unter "Intelligenz" verstehen, grundlegend unterscheidet und wir sehen derzeit viele unterschiedliche Begriffe für die Werkzeuge, die schon bald die Arbeitswelt nicht nur von Illustratoren grundlegend verändern wird.
Die algorithmischen Maschinen, die hier grade entstehen, sind nicht intelligent, aber sie machen synthetisierte Kombinationen von menschlichem Wissen verfügbar, was an neuartige Form von Bibliotheken erinnert, deren kombinierter Inhalt per Text-Eingabe navigiert wird und die nicht einzelne Werke zugänglich macht, sondern Fortsetzungen, Amalgame, Remixe, Modulationen und Interpolationen zwischen Nodes in einem Netzwerk existierenden Wissens, "in the style of Banksy, trending on artstation".
Einer der schönsten Begriffe für diese neue Technologie ist meines Erachtens "wishful mnemonics", in den Raum geworfen von Beth Carey: ein AI-System eben nicht als intelligenter und damit handlungsfähiger Agent, sondern als eine "wunscherfüllende Gedächtnisstütze", was auf eine poetische Weise genau das beschreibt, was diese Maschinen tun.
Ein weiterer Begriff, den ich in der AI-Bubble auf Twitter sehr oft gelesen habe, beschreibt diese Technologie als "Synthesis Engine", was den technologischen Evolutionssprung von Search Engines wie Google hin zu einer Maschine verdeutlicht, die in der Lage ist, vorhandenes Wissen in neuen, algorithmisch erzeugten Variationen zu präsentieren, etwa in dem sie unser Wissen über Protein-Folding analysieren und praktisch alle 200 Millionen Möglichkeiten errechnen, in denen sich Proteine falten können -- oder indem sie unser Wissen über Chemiewaffen in 40.000 neue Variationen derselben extrapolieren.
Die Psychologin Alison Gropnik hat nun im von mir gepiqten Text im Wall Street Journal ein Framework für diese Technologien vorgestellt, das AI-Systeme als Fortführung von Werkzeugen innerhalb der kulturellen Evolution der Zugänglichmachung von Wissen beschreibt. Moderne Large Language Models wurden auf gigantischen Sammlungen existierenden menschlichen Wissens trainiert und sie speichern in ihren Datenbanken Millarden von unterschiedlichsten Assoziationen. Das rückt diese AI-Modelle viel eher in die Nähe von kulturellen Technologien wie Bibliotheken, der Schrift, oder Sprache selbst - all diese Technologien dienen der Bereitstellung, Vermittlung und Neukombination vorhandenen Wissens.
Dieses Framing erlaubt es, neu über anstehende Regulationen der Technologie nachzudenken, etwa im Kontext von urheberrechtlich geschützten Werken in den Datensätzen von Bildgeneratoren. So besteht etwa die international angewandte Pflicht eines Legal Deposit für National- und Landesbibliotheken, laut der Rechteinhaber Ausgaben ihrer Veröffentlichungen staatlichen Bibliotheken zuführen müssen, was die Frage aufwirft, ob und in welcher Form K.I.-Systeme, die gesammeltes Wissen der Menschheit zugänglich machen, in Form einer Staatsbibliothek geführt werden sollten und wie deren Aktualität gewährleistet wird.
Meines Erachtens sollten wir zumindest für die großen, allumfassenden "statistisch-stochastischen Wissens-Synthesizer-Bibliotheken", also die wirklich großen "Large Language Modells", von der öffentlichen Hand betrieben werden, um ihre Aktualität zu gewährleisten und um Missbrauch zu verhindern. Dies bedeutet nicht, dass private Knowledge-Synthesizer nicht möglich sind, hier sind alle Varianten denkbar, bis hin zu hochkommerziell erschlossenen und sehr teuren Nischen-Modellen für die synthetische Bilderzeugung für detailierte Comic-Produktionen in allen möglichen Pinselstrich-Variationen in speziell trainierten Illustrations-Stilen für ein modulares AI-Photoshop der nächsten Generationen.
Die Einordnung von Large Language Models als kulturelles Werkzeug analog zu Internet, Druck und Schrift eliminiert esoterische Assoziationen von anthropomorphen Eigenschaften wie "Intelligenz" oder "Bewusstsein" aus diesen neuartigen Datenbank-Technologien und macht eine Sprache möglich, die eine Regulierung erlaubt, ohne in die Falle der Vermenschlichung zu tappen und die die technologischen Möglichkeiten dieser Wissens-Synthesizer erst wirklich verdeutlicht.
Was AI-Systeme wie Dall-E bereits heute in rudimentärer Form für den Wissenskomplex "Illustration" andeuten, wird morgen sämtliche Bereiche des menschlichen Wissens verändern. Und wie auch immer die Regulation und die Modalitäten der kommenden AI-Ökonomien aussehen wird: Es hilft dabei, über diese Modelle nicht als Intelligenzen nachzudenken, sondern als kulturelle Werkzeuge der Wissensvermittlung.
Den Text von Alison Gropnik gibt es auch in Form eines fünfzehnminütigen Vortrags auf Youtube: Large Language Models as a Cultural Technology.
(Zuerst veröffentlicht auf der Experten-Plattform Piqd.)