My latest piece for german expert platform Piqd, a piece that summarizes latest developments in BCI-technology and extrapolates some possible future scenarios in context of Neuro-Ethics. I translated the thing with ChatGPT and edited for kicks, below the piece in its original german language.
GOOD INTERNET is a reader supported online mag. If you like what i do here, you can support this thing by upgrading your subscription to a paid plan or use one of the other support options you can find at the bottom of this issue.
english
A brief History of Neurotech
Musk recently claimed on his X-formerly-known-as-Twitter that his BCI company, Neuralink has implanted the "first" "chip" in a test subject, who reportedly is doing well post-surgery. In another tweet, Musk claimed the patient successfully "moved a mouse" — referring to maneuvering a cursor on a screen. Musk and Neuralink's stated goal: "Imagine if Stephen Hawking could communicate faster than a speed typist or auctioneer." However, there's no evidence supporting Musk's claims, and the newsworthiness of his announcements is close to zilch because:
Putting aside the fact that Musk himself is the sole source of these assertions, these supposed advancements in brain-computer interface (BCI) technology are old news. As noted by renowned neuroscientist Anil Seth in his Guardian article questioning whether we should all be getting chips in our heads, Neuralink is a newcomer to the field, and thought-controlled cursors on screens have been around since the 90s. The actual innovation from Musk's company, an operation robot deploying brain implants, remains shrouded in mystery amid these recent announcements, prompting concerns from neuroscientists.
The reason Elon Musk is working on BCI tech with Neuralink is a nobrainer: the technology, with or without Musk, is advancing rapidly, and an automated implantation machine with BCI and OP robot spells massive profit. In just the past 12 months, neuroscientists, aided by artificial intelligence, have achieved remarkable feats: enabling a paralyzed man to walk again; allowing another paralyzed patient to use their arms and feel with their hands, restoring speech to a woman paralyzed after a stroke at a “brain-to-text rate of 78 words per minute”; reconstructing music from brain activity; and reconstructing images from visual cortex activity. And in previous years, digital "telepathy" has been made possible, aswell as linking the brains of three patients into a network.
Psychologist Gary Lupyan and philosopher Andy Clark have expressed skepticism in an essay on Aeon about direct digital "telepathy," essentially because neural activity is too idiosyncratic and individual to reliably transfer from one person to another. However, they overlook the potential for AI technology to serve as an interpreter between the different neuropatterns of participants. But this (hopefully) is still ways off because, beyond the superficial sci-fi “coolness” of digital "telepathy," there's the question of whether anyone really wants a direct line to other people's thoughts, with all their invasive thoughts and all the neuro-chaos that comes with the package, or how one could technically prevent access to supposedly "Private Thoughts." Maybe I'd rather not know what my neighbor really thinks about me — and vice versa.
Anil Seth also raises the important question in the aforementioned text of whether people will really want to open their skulls to such neuro-antics just to read the chaotic thoughts of their similarly brain-implanted neighbors or to get a few cognitive prostheses. His answer: No. However, an invasive operation might not even be necessary in the future.
In December of last year, researchers at the University of Sydney unveiled a non-invasive brain scanner worn by patients as a simple EEG "cap." While its signal is noisier, the experiment achieved state-of-the-art performance for brain-to-text outputs, albeit with a relatively high error rate. Nonetheless, it's expected that these non-invasive technologies will also make rapid progress, and there are already early hints of their application in future mass markets: last summer, Apple filed a patent for EEG AirPods, in-ear headphones capable of reading electrical signals from the brain. You don't have to be a sci-fi nerd anymore to envision the next generations of Apple's VR/AR glasses with brain interfaces.
All these massive advancements in BCI technology underscore the need for a broad public debate on the ethics of brain interfaces. Already, there are thousands of cases of patients with brain implants left unsupported after a startup's demise, with outdated code and dead batteries in their heads, and Technology Review reports the case of Rita Leggett, a patient with severe epilepsy who was able to lead a nearly normal life thanks to a novel implant that had to be removed after the company went bust — potentially violating her human rights.
In July 2023, UNESCO organized the first conference on neuroethics, calling for a framework for human rights in the context of neurotechnologies and discussing the concept of neuro-rights. Chile became the first country in the world in 2021 to amend its constitution to include explicit rights for neuro-privacy.
Before, the scientific discourse on neuroethics has been ongoing for decades, with the International Neuroethics Society being founded in 2006. The papers "On Neurorights" from 2021 and the paper "Ethical Aspects of BCI Technology: What is the state of the art?" from 2020 provide a good overview of the current state of affairs.
For me as a non-neuroscientist but decades-long-observer of tech, I find these ethical considerations insufficient: AI researchers recently unveiled a computer vision algorithm capable of lip reading, decoding speech from a video signal. What happens in a society where I (not only with a brain implant but also right now with smartphones and their high-resolution super cameras) can eavesdrop on every conversation just by looking at or filming the speakers? Thanks to the rapid progress in BCI technology, it's entirely conceivable that signals from the visual cortex can be translated directly into an AI-enhanced lip-reading superhearing.
For years now, we've been discussing phenomena like peer surveillance, where people use novel technologies to monitor, stalk, and dox others, or where TikTokers broadcast seemingly private gossip-talk from strangers to the outragely and sadomasochistic delight of their audience. Neurotechnology combined with artificial intelligence has the potential to turn entire societies into literal super-recognizers in the coming decades, making such stories seem like harmless preludes. Orwell's "Big Brother" from 1984 may very well morph into "Big Family" where every individual is subjected to surveillance by everyone.
The debates over the security of neurodata from today's BCI pioneers can only mark the beginning of a broad societal discussion about where we draw the lines for the new brain-enhanced AI/BCI cyborgs — prompting Nicholas J. Kelley, Stephanie Sheir, and Timo Istace to write a brief history of neurotechnology on The Conversation and highlight the immense ethical implications.
There’s an old german folk song dating back to the 18th century and the early romantic era, and the age old wisdom contained in it’s lyrics o: "Our thoughts are free, no one can guess them". This might not hold true anymore, very soon.
german
Eine kurze Geschichte der Neurotechnologie
Elon Musk verkündete jüngst auf X-formerly-known-as-Twitter, seine Firma für Hirn-Computer-Schnittstellen Neuralink habe den "ersten" "Chip" in einem Probanden implantiert und dieser sei nach der Operation wohlauf. In einem weiteren Tweet erklärte Musk, der Patient hätte erfolgreich "eine Maus" bewegt -- damit meinte er einen Cursor auf einem Bildschirm. Musks und Neuralinks erklärtes Ziel: "Imagine if Stephen Hawking could communicate faster than a speed typist or auctioneer". Belege für Musks Behauptungen gibt es keine und der Nachrichtenwert dieser muskschen Mitteilungen geht gegen Null, denn:
Völlig davon abgesehen, dass die einzige Quelle für die Behauptungen Musk selbst ist, sind diese angeblichen Fortschritte in Hirn-Computer-Schnittstellen-Technologie (kurz: BCI) ein alter Hut. Wie der bekannte Hirnforscher Anil Seth in seinem Artikel im Guardian über die Frage, ob wir uns wirklich alle Chips in die Köpfe setzen lassen sollten, anmerkt: Neuralink ist ein Newcomer auf dem Gebiet und die ersten Cursors auf Screens wurden bereits in den 90er Jahren gedankengesteuert. Die tatsächliche Innovation von Musks Firma, ein Operations-Roboter, der die Gehirn-Implantate einsetzt, bleibt bei den jüngsten Meldungen völlig im Dunkeln und Neurowissenschaftler äußern sich besorgt.
Warum Elon Musk mit Neuralink an BCI-Tech arbeitet, liegt auf der Hand: Die Technologie macht (auch ohne Musk) rasante Fortschritte und eine automatisierte Implantierungs-Maschine mit BCI und OP-Robot verspricht gigantischen Profit. Alleine in den letzten 12 Monaten konnten Neurowissenschaftler im Zusammenspiel mit Künstlicher Intelligenz: Einen querschnittsgelähmten Mann wieder laufen lassen, während ein anderer, ebenfalls querschnittsgelähmte Patient seine Arme wieder benutzen und mit seinen Händen fühlen konnte; eine nach einem Schlaganfall paralysierte Frau wieder sprechen lassen mit einer "brain-to-text (...) rate of 78 words a minute"; Musik aus Gehirnaktivität rekonstruieren oder Bilder aus der Aktivität des visuellen Kortex rekonstruieren. In den Jahren zuvor konnte man bereits digitale "Telepathie" ermöglichen und die Gehirne von drei Patienten zu einem Neuro-Netzwerk zusammenschließen.
Der Psychologe Gary Lupyan und der Philosoph Andy Clark haben bei Aeon in einem Aufsatz darüber geschrieben, warum sie nicht an direkte digitale "Telepathie" glauben möchten, kurz zusammengefasst: weil neuronale Aktivität zu idiosynkratisch und individuell ist, um zuverlässig von einer auf eine andere Person übertragen werden zu können. Sie übersehen allerdings dabei, dass AI-Technologie hier als Interpreter zwischen den unterschiedlichen, nun: Wellenlängen der Teilnehmer funktionieren kann. Das allerdings ist tatsächlich Zukunftsmusik und (hoffentlich) noch in weiter Ferne, denn abgesehen von der oberflächlichen SciFi-Coolness digitaler "Telepathie" stellt sich natürlich die Frage, ob ich nun wirklich einen direkten Draht zu den Gedanken anderer Menschen haben möchte, mit all ihren invasiven Gedanken und dem ganzen Neuro-Chaos, den die innere Welt eines Menschen eben ausmacht, oder wie man Zugriff auf "Private Gedanken" denn technisch verhindern könnte. Vielleicht möchte ich eher nicht wissen, was mein Nachbar wirklich über mich denkt -- und andersrum genauso.
Auch stellt Anil Seth im oben bereits erwähnten Text die wichtige Frage, ob sich Menschen für solche Neuro-Spielereien wirklich den Kopf öffnen lassen werden, nur um die chaotischen Gedanken ihrer ebenfalls gehirnimplantierten Nachbarn lesen zu können oder ein paar kognitive Prothesen zu erhalten. Seine Antwort: Nein. Allerdings ist eine invasive Operation in Zukunft anscheinend gar nicht nötig.
Im Dezember vergangenen Jahres stellten Forscher der Universität Sydney einen nicht-invasiven Brainscanner vor, der von Patienten als einfache EEG-"Kappe" getragen wird. Dessen Signal ist zwar verrauschter, dennoch erreichte man in dem Experiment eine "state-of the art performance" für Brain-2-Text-Outputs, dafür allerdings mit einer relativ hohen Fehlerrate. Es ist dennoch zu erwarten, dass diese non-invasiven Technologien ebenso rasante Fortschritte erzielen, und einen ersten Hinweis auf eine Anwendung in kommenden Massenmärkten gibt es auch bereits: Apple hat im Sommer 2023 ein Patent für EEG-Airpods angemeldet, also In-Ear-Kopfhörer die elektrische Signale des Gehirns lesen können. Man muss tatsächlich kein SciFi-Nerd mehr sein um sich die nächsten Generationen von Apples VR/AR-Brille mit Gehirnschnittstelle vorzustellen.
All diese massiven Fortschritte der BCI-Technologie machen deutlich, dass wir eine breite Debatte in der Öffentlichkeit über die Ethik der Gehirnschnittstellen brauchen. Bereits heute gibt es tausende Fälle von Patienten mit Gehirn-Implantaten, die nach der Pleite eines Startups ohne technischen Support, veraltetem Code und leeren Batterien im Kopf dastehen, und Technology Review schreibt über den Fall von Rita Leggett, eine Patientin mit exzessiven Epilepsie-Anfällen, die ein nahezu normales Leben führen konnte dank des Einsatzes eines neuartigen Implantats, das nach der Pleite des Unternehmens entfernt werden musste -- was einen möglichen Verstoß gegen ihre Menschenrechte darstellt.
Im Juli 2023 organisierte die UNESCO die erste Konferenz für Neuro-Ethik, wo ein Framework für Menschenrechte im Kontext von Neurotechnologien gefordert und das Konzept von Neurorechten erörtert wurde. Chile hatte als erstes Land der Welt bereits im Jahr 2021 seine Verfassung geändert und um explizite Rechte für Neuro-Privacy erweitert.
Der wissenschaftliche Diskurs zur Neuro-Ethik läuft dagegen bereits seit einigen Jahrzehnten und im Jahr 2006 gründete sich bereits die International Neuroethics Society. Die Papers "on Neurorights" aus dem Jahr 2021 und das Paper "Ethical Aspects of BCI Technology: What is the state of the art?" von 2020 bieten einen guten Überblick über den Stand der Dinge.
Mir persönlich gehen diese ethischen Überlegungen nicht weit genug: KI-Forscher haben vor wenigen Tagen einen Computer Vision-Algorithmus vorgestellt, der Lippen lesen kann, also Sprache aus einem Videosignal decodiert. Was geschieht in einer Gesellschaft, in der ich (nicht nur mit Hirnimplantat, sondern auch bereits mit Smartphones und ihren hochauflösenden Super-Kameras) jedes Gespräch durch einen Blick auf die Sprechenden abhören kann?
Es ist dank der rasanten Fortschritte in BCI-Technologie absolut denkbar, dass die Signale des visuellen Kortex direkt in ein lippenlesendes AI-Supergehör übersetzt werden. Seit einigen Jahren schon diskutieren wir Phänomene wie Peer Surveillance, in der Menschen neuartige Technologien dazu benutzen, um andere zu überwachen, zu stalken und zu "doxxen" oder in der TikTokker scheinprivaten Gossip-Talk von Fremden veröffentlichen. Neurotechnologie im Zusammenspiel mit Künstlicher Intelligenz hat das Potezial, in den kommenden Jahrzehnten ganze Gesellschaften in wortwörtlich übersinnliche Super-Recognizers zu verwandeln und solche Stories wie ein harmloses Vorgeplänkel aussehen zu lassen. Der "Big Brother" aus Orwells 1984 wird zur "Big Family" in der jeder Mensch zur Überwachung durch andere User freigegeben ist.
Die Debatten über die Sicherheit von Neurodaten der heutigen BCI-Pioniere kann daher nur einen Anfang bilden einer breiten gesellschaftlichen Diskussion darum, wo wir die Grenzen setzen für die neuen brain-enhanced AI/BCI-Cyborgs -- und Nicholas J. Kelley, Stephanie Sheir und Timo Istace nehmen nun all dies zum Anlass, um auf The Conversation eine kurze Geschichte der Neurotechnologie zu erzählen und auf die immensen ethischen Implikationen hinzuweisen.
Denn: "Die Gedanken sind frei, keiner kann sie erraten" gilt möglicherweise in wenigen Jahren nicht mehr.