Gedanken kann keiner erraten? Tech Firmen arbeiten daran.

Versuche, die Gedanken anderer Menschen lesen zu können, sind so alt wie die Menschheit selbst. Denn wie vorteilhaft wäre es, wenn wir wüssten, was ein potenzieller Partner oder Gegner über uns denkt, was seine Vorlieben, Stärken und Schwächen sind. Bislang sind alle Experimente gescheitert. Geräte wie der Lügendetektor waren weit davon entfernt, Gedanken eines Menschen außerhalb von ihm selbst zu rekonstruieren. Das Internet bietet jetzt aber ganz neue Möglichkeiten und wir fragen uns, wie lange Gedanken – der Kern unserer Privatsphäre – in Zukunft noch vor dem Zugriff von außen geschützt sind.

Ich habe mit Prof. Dr. Lutz Hachmeister gesprochen, Autor, preisgekrönter Filmemacher und intellektueller Taktgeber der deutschen Medienpolitik. In Köln hat Hachmeister kürzlich zu einem Colloquium mit dem Thema „Brain reading und soziale Kontrolle” eingeladen und ich wollte wissen, ob die Technik des Gedankenlesens etwas ist, was eine neue Perspektive auf die Algorithmen des Internets erlaubt.

Die Gedanken sind frei, heißt ein altes Volkslied. Gilt das noch?

Sehr eingeschränkt. Ganz abgesehen davon, dass die individuelle Gedankenproduktion schon immer sehr stark durch genetische Vorgaben und auch durch gesellschaftliche Erfahrungen geprägt ist. Aber wenn wir vom “Gedankenlesen” sprechen, gibt es, abgesehen von Spiritismus und Parapsychologie, ja wesentlich zwei Aspekte:  zum einen nichtinvasive Messungen am Gehirn oder auch direkte medizinische Eingriffe ins Gehirn, um Bewußtsein zu decodieren oder die Strukturen der Gedankenproduktion zu erforschen. Das ist bislang, zum Glück, nur eingeschränkt möglich und mit großen methodischen und experimentellen Schwierigkeiten behaftet.

Ein anderer Weg ist erfolgreicher beschritten worden, vor allem seit dem Aufkommen des Internets. Ich nenne das den Externalisierungsmodus, also der Versuch, Gedanken, die wir in Form von Sprache, Bildern oder auch Musik in das Netz eingeben, algorithmisch zu untersuchen und zu kategorisieren. Dazu kommt das ganz individuelle Tracking, weil alle, die in Netzwerke oder Plattformen eingebunden sind, Gedanken in sehr hoher Taktung äußern, sei es durch Kaufverhalten oder politische Stellungnahmen. Eine tendenziell totalitäre Digitalisierung fördert diese konstanten Messungen.

Das sind die zwei Seiten der Medaille. Daten- und Wissenskonzerne haben bei der externalisierten Methode des Gedankenlesens enorme Fortschritte gemacht. Die Ergebnisse dienen einem beschleunigten Datenkapitalismus, werden in jeder Form ausgewertet, zur Währung gemacht – und ein Teil der gigantischen Erlöse fließt wiederum in die Erforschung und Kategorisierung der Gedankenströme zurück.


Was soll das überhaupt sein – ein Gedanke?

Damit sind wir mitten in einem jahrhundertealten philosophischen Getümmel. Frege und Husserl haben im 20. Jahrhundert vor allem intentionale Akte vom ständigen Bewusstseinsstrom unterschieden, Frege spricht explizit vom “Gedanken fassen”. Damit wird das Gedankenproblem sehr nah an sprachlogische Analysen gerückt. Wir verbalisieren ja auch ständig Gedanken, selbst dann, wenn wir nicht sprechen. Aber wenn wir es nur von der materialistischen Seite angehen: so lange man nicht an so etwas wie den heiligen Geist oder spirituelle Entitäten glaubt, können wir davon ausgehen, dass Gedanken Energie sind – also auch hypothetisch und faktisch zu messen sind. Der Begriff “Gedankenstrom” hat ja einen schönen Doppelsinn.

Es gibt dabei aber mehrere Kategorienprobleme. Zum Beispiel: Wann fängt ein Gedanke an, wann hört ein Gedanke auf? Wir sprechen ja zu Recht von Assoziationen und Gedankenketten. Einen einzelnen Gedanken zu isolieren und im Gehirn zu lokalisieren, scheint aufgrund der ungeheuer komplexen neuronalen Operationen kaum möglich. Hinzu kommt, dass die elektrische Energie, den ein Gedanke erzeugt, oder aus dem er besteht, so schwach ist, dass er bislang kaum zu messen ist.

Es ist bislang auch nicht gelungen, Gedankenströme außerhalb des Kopfes zu messen, obwohl man theoretisch annehmen kann, dass Gedanken außerhalb des Kopfes als Energie vorhanden sein müssten. Dass die Forscher heute noch daran scheitern, die Komplexität der Gedankenströme zu messen, heißt aber nicht, dass es nicht möglich ist.


Das Gedankenlesen war ja notwendigerweise immer eine Interpretationstechnik, denn es war, wie Du sagst, bislang unmöglich, medizinisch eine neurologische Einheit zu definieren, die einen Gedanken beschreibt. Glaubst Du, dass man den Gedanken eines Tages neurologisch entschlüsseln kann?

Ich glaube, dass man alles messen wird, was messbar ist. Die Schwierigkeiten, die es im Moment gibt, könnten ja in den Messgeräten begründet sein, nicht in der grundsätzlichen Messbarkeit. Es gab auch eine Welt vor dem Mikroskop oder dem Teleskop, und mit beiden Instrumenten sind Welten entdeckt worden, von denen vorher niemand wusste, dass es sie gab: Mikroben zum einen und ferne Galaxien zum anderen.

Durch neue Messinstrumente sind Welten entdeckt, neue Weltbilder konstituiert und alte umgestürzt worden. So ähnlich kann man sich das in der Hirnforschung auch vorstellen. Man muss aber auch bedenken, dass Gedanken eben nicht “Geist” sind, sondern dass Gedanken immer immanent mit chemischen Körperreaktionen verbunden sind – wenn wir nicht komplett transhumanistisch denken. Deshalb ist Norbert Wieners These, das Gehirn sei ein Computer, auch sehr unterkomplex, und deshalb träumten ja auch Internet-Euphoriker von einer Welt jenseits der “Wasserstoffmenschen”.

Mit dem Instrument des Lügendetektors hat man sich den Zusammenhang von Gedankenproduktion und Körperreaktionen zu Nutze gemacht, indem vor allem Hautreaktionen gemessen werden. Das ist zwar nicht besonders zuverlässig, und als Methodik etwa in kriminologischen Verfahren sehr umstritten, aber es funktioniert im Großen und Ganzen doch erstaunlich gut.

Auf der Konferenz, zu der wir kürzlich eingeladen haben, ist lange über den Lügendetektor gesprochen worden. Der Lügendetektor ist ja ein früher Versuch, der Wahrheit von Aussagen näher zu kommen. Dabei ist nicht unerheblich, dass viele Probanden aus Angst vor dem Lügendetektor die Wahrheit sagen, also die Messinstrumente die Aussagenproduktion durch ihre bloße Existenz beeinflussen.


Ein uralter Menscheitstraum, nicht wahr?

Im 19. Jahrhundert grassierte das Phänomen der “Medien”, nicht im Sinne des heutigen Massenmedien-Verständnisses, sondern im Sinne von Einzelpersonen, die besondere gedankenenergetische oder telepathische Fähigkeiten für sich beanspruchten.

Vor allem in Großbritannien, im viktorianischen Zeitalter, gab es viele berühmte Medien,  teilweise hochbezahlte personale Medien, und es hat dann auch die Wissenschaftler sehr beschäftigt, ob man mit Gedankenkraft zum Beispiel Gegenstände verrücken kann. In Deutschland ist das später noch einmal populär geworden durch Uri Geller, den Löffelbieger im Fernsehen.

In den meisten Fällen hat sich herausgestellt, dass es Scharlatanerie war. In Freiburg hat der Psychologe und Arzt Hans Bender “Grenzgebiete der Psychologie” gelehrt und 1950 auch ein entsprechendes Institut gegründet. Es ist ganz interessant, dass vor allem die nationalsozialistischen Sicherheitsdienste SS und der SD ein starkes Interesse hatten, ihn schon 1940 für die neu gegründete “Reichsuniversität Straßburg” zu verpflichten. Auch wenn das ziemlich obskur war, ist es doch ein Moment der Verwissenschaftlichung von Gedankenlesen und Telepathie. Neben dem Lügendetektor war die Erfindung des Elektroenzephalographie in den 1920er Jahren durch den Neurologen Hans Berger (nicht zu verwechseln mit Bender) ein entscheidender Sprung in der Analyse von Gehirnströmen. Heute lesen wir ständig von Experimenten, in denen versucht wird, eine einfache gedankliche Operation – zum Beispiel das Denken an eine Farbe – zu lokalisieren, als digitales Datenpaket zu übertragen und dann einem Probanden an einem anderen Ort mit Elektroden wieder zu implementieren- mit bislang eher mäßigem Erfolg. Am MIT wurden gerade mit einem “AlterEgo” genannten Neuro-Wearable “neuromuskuläre Impulse” am Gesicht gemessen, man geht dabei davon aus, dass auch “innere Monologe” elektrische Impulse ans Gesicht aussenden.

Das sind natürlich erst die Anfänge des Anfänge. Es ist sehr unwahrscheinlich, dass wir bald einen komplizierten Gedanken wie “Morgen kaufe ich mir vielleicht  ein süßes Munchkin-Kätzchen” von Köln nach Australien übertragen können. Aber wer weiß.


Wir waren beide zusammen vor längerer Zeit auf einer Veranstaltung, auf der einer der Herausgeber der FAZ sagte, das Wesen des Internets sei die Geschwindigkeit. Das Netz habe nichts Neues erschaffen, sondern verbinde Dinge nur schneller. Das war aber noch vor Big Data. Ist das Gedankenlesen mittlerweile der Wesenskern des Internets geworden?

Bislang funktioniert das noch durch einen Übersetzungsmodus. Wir messen im Prinzip den Zusammenhang von Gedanken und Sprache, man kann auch Mimik dazu nehmen. Es ist aber immer eine Art von Ableitung, von Übersetzung.

Es ist nicht das unmittelbare Messen eines Gehirnstroms, sondern wir selber nehmen eine Handlung vor, indem wir einen Willens- oder Sprechakt oder potenziellen Kaufakt durch ein weiteres Gerät, etwa das Smartphone, in ein Netz eingeben, das Millionen und Milliarden anderer Willensakte und Sprachakte bereits gesammelt hat und uns aufgrund der gespeicherten Daten Antworten oder zumindest Optionen gibt.

Ein gewichtiger Teil der KI-Forschung – und man kann lange darüber streiten, ob KI wirklich künstlich ist, oder nicht eine logische Folge der soziotechnischen Evolution – hat ja mit der Computerlinguistik begonnen, also mit Forschern wie Joseph Weizenbaum am MIT und seinem Projekt “Eliza” – der später einer der härtesten Coputerkritiker wurde.  Das zeigt ja schon, dass die Transformation von Bewusstsein in Sprache einer der zentralen Zugänge zu unseren Gedanken ist. Es gibt natürlich immer noch große Ungenauigkeiten – als Folge von komplexen Grammatiken, Logiken, Konventionalitäten. Vor allem aber auch, weil wir zwischen Gefühlen und rationalen Aussagen unterscheiden müssen. Man kann zwar sagen, man hat Bauchweh, aber die rationale Aussage ist doch etwas anderes als das Fühlen des Bauchwehs selber.


Wie immer in der Geschichte, spielt das Militärische und das Polizeiliche eine große Rolle als Treiber neuer Techniken. Aus welchem Kontext kommt das Gedankenlesen historisch und spielt diese Herkunft eine Rolle für den Stand der heutigen Technik?

Ja, ein Film wie “Männer, die auf Ziegen starren”, erscheint zunächst skurril, aber diese Experimente hat es ja gegeben. Geheimdienste sind von Anfang an mit Wahrheitsdrogen, Messungen von Gehirnströmungen, Erkennung von Sprachsystemen befasst gewesen und das wird natürlich immer weiter, in einer perversen Logik, perfektioniert. Jeder weiß ja, wie eng der Zusammenhang von Geheimdiensten, militärisch-industriellen Komplexen und den Medien- und Wissenskonzernen ist. Die Sprachanalyse ist und bleibt eine kardinale Aufgabe jeder Geheimdienstarbeit, ob in Rußland, China oder in den USA- allerdings nicht so sehr in Deutschland, nehme ich mal an.

Der US-Forscher Michael Kosinski ist ja mit einer Studie bekannt geworden. In der anhand der Analyse von Facebook-Likes mit hoher Wahrscheinlichkeit herausgefunden wurde, wer schwul ist oder Raucher oder konservativ.  Das ist vielleicht weniger verblüffend, als es scheint, aber Kosinski ist auch starker Protagonist von “no privacy”, der also sagt, das freiwillige Preisgeben von Daten (und damit von Äußerungen und Gedanken) ist letztlich vollkommen richtig und gut für die Menschen, weil wir durch die Datenakkumulation Krankheiten, Seuchen, assoziales Verhalten (vorausgesetzt, wir können uns darauf einigen, was das ist), Kriminalität früher erkennen, Das wird dann dafür sorgen, dass wir sicherer leben, älter, glücklicher und gesünder leben. Das blendet natürlich die Dialektik zwischen Digialisierung und psychphysischen Reaktionen weitgehend aus, und man muss sich immer fragen, wer solche Forschungen und Thesen finanziert.


Traditionell spielt die Gesichtserkennung eine große Rolle beim Gedankenlesen. Augenbewegungen, Gestiken, Mimiken. Große Tech-Unternehmen verfügen heute über unendlich viele Muster und Smartphones erkennen ja auch schon die Laune der Nutzer. Wie weit lässt sich das treiben?

Das lässt sich unendlich weit treiben. Mimik ist ja eine sehr direkte Form der Bewusstseinsäußerung. Es ist eben nicht nur Sprache – auch wenn Sprache ein besonders interessantes Feld ist, weil sie strukturiert so codiert ist, dass ihr Bezug zu Gedanken klarer erscheint. Aber natürlich sind auch Laute und Gesichtsausdrücke in demselben Komplex evolutionär miteinander verwoben.


Kann man nur das Individuum erforschen oder gibt es auch Ansätze für eine Form von Massensuggestion?

Ich bin sehr skeptisch, was den Begriff “Massensuggestion” betrifft. Auch die frühere “Massenpsychologie” hat sich ja eher als Sackgasse in der Propaganda- und Persuasionsforschung erweisen. Sicherlich läßt sich jeder Externalisierungsmodus auch auf Gruppen, Parteien, Unternehmen, Nationalstereotype anwenden, sonst gäbe es Soziologie und Sozialpsychologie als akademische Disziplinen ja gar nicht.


Du hast schon darauf hingewiesen, dass der Einstieg in die Welt der Gedanken über die Sprache am weitesten ist. Hier kommt die Forschung vor allem aus dem politischen Bereich, denken wir an Chomsky oder Lakoff. Viele dieser Ansätze arbeiten mit zwei politischen Lagern – links und rechts – also 0 und 1, wie in der digitalen Welt. Sind die USA oder Großbritannien mit ihren zwei politischen Lagern besonders anfällig für propagandistischen Missbrauch durch Algorithmen, weil man die Wähler nur in zwei Richtungen treiben kann?

Abgesehen davon, dass das Mehrheits-Wahlsystem in den USA und Großbritannien natürlich generell reformbedürftig ist, muss man doch zwei Dinge unterscheiden. Zum einen gibt es das Wahlsystem selbst. Ein zementiertes Zwei-Parteiensystem macht es für andere Parteien in der Tat immer schwieriger, eine Rolle im Politikmarkt zu spielen und fördert dadurch die Bipolarität einer Gesellschaft, wie wir gerade in den USA unter Trump sehen. Das hat allerdings eine lange Geschichte.

Eine andere Frage ist, ob ein simples Messinstrument, mit dem eine politische Gefolgschaft gemessen wird, begünstigt, dass es zu schlichteren Systemen kommt. Wenn man die Leute in nur zwei Kategorien einteilt, in eher konservativ oder eher progressiv, kann das durchaus normierend wirken, weil sich alles auf Fragen und Kriterien konzentriert, die diese Einteilung ermöglichen, wie beispielsweise: Ist man für für die Gleichberechtigung aller sexuellen Orientierungen oder kann man noch etwas mit dem Begriff der Nation oder mit Religion anfangen. Eine gröbere Messung führt dann möglicherweise auch zu einer Vergröberung des politisch-propagandistischen Spektrums. Ich bin allerdings bislang nicht davon überzeugt, dass russische oder iranische Trollfabirken oder Firmen wie Cambridge Analytica einen entscheidenden Einfluss auf die Wahl von Trump oder auf den Brexit hatten. Es gibt natürlich sehr knappe Wahlentscheidungen, die gleichsam mikro-propagandistisch beeinflußt werden können, mithilfe von digitalen Plattformen und Netzwerken. Aber ein analoges “rational choice” der Wähler scheint mir immer noch ein entscheidendes Gegengewicht zu sein.


Lutz Hachmeister. Wir danken für das Gespräch.

diesen Blog-Beitrag gibt es auch auf: English (Englisch)