Kategorien: Unkategorisiert

Teil 3 »Regierungen werden das verlangen«.

Als der US-General George Marshall um 1940 zum ersten Mal NS-Propagandafilme gesehen hatte, nahm er den dreifachen Oscar-Preisträger Frank Russell Capra zur Seite und bestellte seinerseits eine Serie, mit deren Hilfe er die öffentliche Meinung in den USA zugunsten einer Kriegsbeteiligung verändert wollte. Die außerordentlich erfolgreiche Serie, die Capra produzierte, hieß “Why We Fight” und popularisierte einen Propagandaausdruck, der für den Blick auf die Welt bis 1990 wesentlich blieb – den Begriff der “Freien Welt”.

1990 schien es kurzzeitig so, als hätte die “Freie Welt” gewonnen. Im wiedervereinigten Deutschland verblasste die Erinnerung an die großen Demonstrationen der frühen achtziger Jahre gegen Volkszählung, staatliche Überwachung und den Eingriff in die Privatsphäre. Besonders die heranwachsende Generation entdeckte den Computer als großartige Möglichkeit, sich der elterlichen Aufsicht zu entziehen, während diese nebenan fernsahen.

Im August 1981 hatte IBM seinen ersten PC präsentiert und zusammen mit Emporkömmlingen wie Apple, Commodore oder Atari einen vollkommen neuen Markt erschlossen. Der etwa gleichzeitig einsetzende Boom der Video-Spiele (Pac Man erschien 1980) führte allmählich auch in Deutschland dazu, dass die Bevölkerung den Computer als gesellschaftliche Möglichkeit entdeckte. Der Computer war jetzt nicht mehr staatlich, sondern “personal”. Er erschien nicht mehr als Bedrohung, sondern als Verheißung.

Auch in Ostdeutschland gab es Ende der achtziger Jahre trotz Wirtschaftsembargo schätzungsweise 200.000 Commodore 64 oder Atari ST, die für den Preis eines Neuwagens zwischen 12.000 und 40.000 Mark gehandelt wurden. Der „Volkseigene Betrieb“ Robotron hatte mit dem Z1013 einen osteuropäischen PC entwickelt, doch er kam, wie alles, was man in Ostdeutschland gerne haben wollte, mit einem Jahr Wartezeit und als Bausatz.

Die Frage nach dem Computer in der Gesellschaft löste sich in der Folge von der Bürgerrechtsbewegung. Sie erschien jetzt im Kontext von Innovation und Wirtschaftspolitik und die Privatsphäre war nur noch das Recht, keine Werbung sehen zu müssen. Facebook und Google schalten im Herbst 2018 große Kampagnen, die das Problem genau in diesem Rahmen halten wollen, obwohl es längst um ganz andere Szenarien geht als um das Klicken eines Werbebanners.

Facebook und Google werben im Herbst 2018 um Vertrauen. Foto: privat.

Wer beherrscht die deutschen Daten?

Im gleichen Jahr wie die Wiedervereinigung wurde das Internet für die kommerzielle Nutzung freigegeben. Die erste Suchmaschine (Archie) erschien noch 1990 und drei Jahre später folgten die ersten Werbeanzeigen auf Webseiten.

Die Deutschen durchsuchten das Internet damals vor allem mit den Maschinen von Altavista und Lycos Europe, das seit 1997 zum damals größten Medienkonzern der Welt, dem deutschen Bertelsmann-Konzern, gehörte. Vier Jahre später hatte Google alle Mitbewerber aus dem Markt gedrängt. Lycos war pleite und der Marktanteil von Google in Deutschland bei der Internetsuche beträgt seither über 90 Prozent. Wer über deutsche Daten reden will, muss über Google sprechen.

Die große Leistung von Google bestand darin, den wissenschaftlich-staatlichen Teil des Internets mit dem kommerziellen zu verbinden. Larry Page und Sergey Brin, die zu Beginn noch ganz den universitären Prinzipien verpflichtet waren, erkannten, dass eine Suchmaschine dynamisch und intelligent sein musste, um relevante Ergebnisse zu liefern. Eric Schmidt, der 2001 zu Google kam, kommerzialisierte die Suchmaschine.

Beides funktionierte nur mit einer ungeheuren Menge von Daten. Einen Algorithmus zu programmieren, der die Suchanfrage eines Nutzers mit anderen Daten kombiniert, um zu erahnen, wonach der Nutzer wirklich sucht, hat an sich nichts Rätselhaftes. Wenn der Algorithmus aber der beste der Welt sein soll, muss die Maschine immer feinere Typen und Kategorien finden und dafür muss sie so häufig wie möglich genutzt werden.

Hinzu kam aber noch etwas anderes: Als Werbung im Internet neu war, wollte die Werbeindustrie begreiflicherweise wissen, wie viele Nutzer auf ihre Werbe-Banner klicken und mindestens genauso interessant fanden sie es, was Nutzer tun, wenn sie nicht auf die Banner klicken. Google hatte für beide Fragen eine brilliante Lösung.

Die Tracking-Software der Firma Urchin konnte Ende der 1990er Jahre das Nutzerverhalten auf einer Webseite innerhalb von 15 Minuten auswerten. Vor Urchin hatte dieser Prozess 24 Stunden gedauert und so war es nicht verwunderlich, dass Urchin innerhalb weniger Monate zum Standard-Analyse-Tool aufstieg.

2005 kaufte Google das Unternehmen, gab dem Dienst den Namen Google Analytics und stellte die Software, wie alle seine Dienste, unentgeltlich (nicht zu verwechseln mit kostenlos) zur Verfügung. Google konnte nun mit seinen Kunden Wetten darauf abschließen, auf welchen Pixel ein User mit welcher Wahrscheinlichkeit klickt und über GoogleAdsense den Preis dafür verhandeln.

Investoren wählten Eric Schmidt als Aufpasser für Sergey Brin and Larry Page. Foto: creative commons.

Es liegt auf der Hand, dass die Daten, die Google sammelte, um die Wirksamkeit der Werbung nachzuweisen, auch als Metadaten funktionieren. Für die Geschichte der Metadaten ist es entscheidend, dass die Kette der Informationen immer bei einer einzelnen Person endet, denn das Endziel besteht ja darin, Nutzern maßgeschneiderte Werbung anzubieten.

Das berüchtigte Zitat von Eric Schmidt „Wir wissen, wo du bist. Wir wissen, wo du warst. Wir wissen mehr oder weniger, worüber du nachdenkst.“  es ist das Ergebnis einer geisteswissenschaftlichen Interpretation ökonomischer Daten. Es ist aber auch die Grundlage eines der erfolgreichsten Geschäftsmodelle in der Geschichte der Menschheit.

Google hat als erstes Unternehmen erkannt, dass die Interpretation von Daten die zeitgenössische Version des Gedankenlesens ist und aus der Menschenkenntnis, die daraus resultiert, hat Google Produkte entwickelt, die die Menschen wirklich haben wollten.

Die Zahl der Daten, die man heute benötigt, um mit einer Maschine wie Google zu konkurrieren, kann nur in den Sprachen Englisch und Chinesisch erzeugt werden. Möglicherweise ist es möglich, in Nischen und auf lokaler Ebene besser zu sein als Google (in Deutschland sind die Suchergebnisse auf lokaler Ebene oft schwach), doch bei allgemeineren Fragen wird der Markt von alleine keine Alternative mehr hervorbringen können.

Anders verhält es sich bei Sozialen Netzwerken. Sie können im Grunde relativ leicht durch andere ersetzt werden, wie das Beispiel Myspace und auch StudiVZ eindrucksvoll belegen. Dabei sagt es viel über die deutschen Nutzer zu Beginn der Jahre 2005 bis 2007 aus, dass sie sich auch hier gegen eine deutsche und für eine amerikanische Variante entschieden haben.

Warum hatten deutsche soziale Netzwerke keinen Erfolg?

Ende 2006 rief Marc Zuckerberg die beiden deutschen Gründer Ehssan Dariani und Dennis Bemmann an und bot ihnen sechs Prozent der Facebook Aktien an. Dariani und Bemmann hatten nämlich etwas, was Zuckerberg nicht hatte: ein soziales Netzwerk in Deutschland.

StudiVZ, so hieß das Netzwerk, hatte fast 20 Millionen Nutzer und obwohl das Netzwerk eine ziemlich dreiste Kopie von Facebook war, schien es damals unmöglich, als US-amerikanisches Netzwerk StudiVZ vom deutschen Markt zu verdrängen. Das Netzwerk hatte allerdings einen Haken: Wenn man eine flüchtige Uni-Bekanntschaft ein wenig ausspionieren wollte, bekam diese den Besucher in einem Nachrichtenfensters angezeigt.

„Niemand war bereit, sich diese Blöße zu geben“, schrieb ein Nutzer zum Abschied von StudiVZ. Bei Facebook konnte man 2006 anonym noch durch die Profile von Freunde der Freunde der Freunde scrollen, ohne dass diese etwas von dem Besuch merkten.

Obwohl Facebook 2007, ein Jahr vor seiner deutschsprachigen Version, mit einem Web Beacon bereits seinen zweiten die Privatsphäre betreffenden Skandal auslöste, überholte die Nutzerzahl das Netzwerk seine deutschen Konkurrenten bereits 2009.

Das Museum eines Sozialen Netzwerkes: Die Zahl der Nutzer von StudiVZ fiel von fast 20 Million auf vierzig tausend. Foto: screenshot

StudiVZ war in der Zwischenzeit an das Verlagshaus Holtzbrinck verkauft worden und die Strategie der Verleger lautete: Wir werden nichts unternehmen, was dem deutschen Datenschutz widerspricht. Holtzbrinck-Manager behaupteten später, der zweite Versuch von Facebook, das Netzwerk zu kaufen, sei an den strengen deutschen Datenschutz-Richtlinien gescheitert.

Die Facebook-Unterhändler erkannten sofort, dass der strenge deutsche Datenschutz nicht zu ihrem Geschäftsmodell passte und es sehr viel besser war, die Regulierungslücken des Internets zu nutzen, um deutsche Kunden unter den Bedingungen der lockeren US-Datenschutzbedingungen zu registrieren.

In der Rückschau erscheinen die Jahre 2006/2007 deshalb als entscheidende Zäsur, weil im gleichen Jahr Google den in Deutschland ebenfalls schon sehr populären Video-Dienst YouTube übernahm und den Kartenservice Google Maps startete. Deutschland verlor endgültig die Kontrolle über das Internet und musste darauf vertrauen, dass private Unternehmen in den USA verantwortungsvoll mit der Privatsphäre der deutschen Bevölkerung umgehen würden.

Der immer stärkere Datenstrom aus Deutschland in die USA interessierte aber nicht nur private Werbeunternehmen, sondern auch die Geheimdienste und die Überwachungs-Industrie. Dabei spielte es eine große Rolle, dass Deutschland  seit 1945 eines der umkämpftesten Spionage-Gebiete der Welt  nach dem 11. September 2001 unter Generalverdacht stand.

Hat Facebook seinen Erfolg dem Terrorismus zu verdanken?

Wenige Tage nach dem Anschlag auf das World Trade Center am 11. September 2001 war klar, dass das Attentat in Hamburg geplant worden war. “Wir sind eine kleine Gruppe junger Männer aus verschiedenen arabischen Ländern”, schrieb Mohammed Atta per E-Mail einige Monate vor den Anschlägen, und “möchten gern mit der Ausbildung für Flugzeug-Berufspiloten beginnen.“

Den US-Sicherheitsdiensten war bekannt, dass die Männer einreisen wollten und es gab auch zahlreiche verdächtige Momente, die in den Computern der CIA nur darauf warteten, miteinander kombiniert zu werden. Doch genauso wie der Mord am deutschen Arbeitgeber-Präsidenten Hans-Martin Schleyer 1977 scheiterte eine mögliche Prävention daran, dass durch menschliches Versagen nicht die richtigen Metadaten erzeugt wurden.

John O’Neill, Chef der Spionageabwehr des FBI und eine Art Kapitän Ahab der Terrorismusbekämpfung, hatte lange vor dem 11. September vor einem Anschlag von Al Qaida in den USA gewarnt. Er verfolgte Osama Bin Laden seit Jahren und war einer der profiliertesten Experten des Terrornetzwerkes.

Hätte die CIA O’Neill darüber informiert, dass zwei von Bin Ladens engsten Mitarbeitern gerade dabei waren, mit Visa in die USA einzureisen, hätte dieser vermutlich sofort geschaltet. Stattdessen quittierte er frustriert den Dienst und starb unter den Trümmern des World Trade Centers, wo er wenige Tage vor dem Anschlag vom 11. September seinen Dienst als Sicherheitschef begonnen hatte.

Die USA reagierten auf diesen Fehler mit dem Regierungsprogramm “Total Information Awareness”. Der offizielle Name wurde später zwar aus guten Gründen in “Terrorism Information Awareness” umbenannt, doch wenn man bedenkt, was in der Folge im Internet geschah, war der erste Name die sehr viel treffendere Bezeichnung.

Den Initiatoren des Programms ging es darum, den Menschen als schwächstes Glied der Kette aus dem Prozess möglichst herauszuhalten und die Ermittlungsarbeit an vermeintlich unbestechliche Algorithmen zu überweisen.

Die Methode, die dem TIA zugrunde lag, war deshalb nichts anderes als eine globalisierte negative Rasterfahndung, die in Deutschland in den 1970er Jahren vom BKA Chef Horst Herold (siehe Teil 1) erfunden worden war.

Die Sicherheitsarchitektur erhielt vollkommen neue Grundlagen und massenhafte Datenerhebungen waren die Folge. Sicherheitsbehörden erhielten weitreichende Rechte gegenüber “verdächtigen Personen” und konnten im Zweifel selbst bestimmen, wer oder was mit dem Terminus “verdächtige Person” gemeint war.

Doch Anfang des Jahrtausends war es noch nicht so leicht, die richtigen Metadaten zu erheben und miteinander zu kombinieren. Deutsche Fahnder werteten nach den Anschlägen zwar 8,3 Millionen Datensätzen aus, konnten aber nur ein einziges Ermittlungsverfahren einleiten. Kein Wunder also, dass die Sicherheitsdienste einen neidischen Blick auf die kommerziellen Daten der aufstrebenden Internetunternehmen warfen.

Gegen die krassen Eingriffe in die Privatsphäre war unmittelbar nach dem 11. September nur schwerlich zu argumentieren. Selbst Bürgerrechtler und Aktivisten standen unter Schock und akzeptierten die Lage als Ausnahmefall. Der deutsche Bundestag verlängerte das eigentlich auf fünf Jahre befristete Gesetzt deshalb um weitere fünf Jahre und gab dem Gesetz den klangvollen Namen „Terrorismusbekämpfungs-Ergänzungsgesetz“.

Das Netz hatte seine Unschuld endgültig verloren. Die Abfrage von Bank-, Flug-, Post- und Telekommunikationsdaten war nun leichter und die Online-Durchsuchung privater Computer gehörte bald zum Standard-Programm der Polizei. Die Sicherheitsbehörden speicherten Daten auf Vorrat und schlossen ihre Datenbanken zu einem Internet im Internet zusammen.

All dies hätte gleichwohl wenig Erfolg gehabt, wenn nicht gleichzeitig eine riesige Datenindustrie entstanden wäre, die den Menschen beim Shoppen beobachtete, private Gespräche, Bewegungsprofile und selbst die Laune nach dem Aufstehen mitschnitt und auswertete.

Regierungen hätten gegen die eigenen Interessen gehandelt, wenn sie einen Konzern wie Facebook strenger reguliert oder am Erheben von Daten gehindert hätten, denn niemals wäre der Staat in der Lage gewesen, diese immense Anzahl von persönlichen Informationen auf andere Weise zu beschaffen.

Wenn wir den Tod überlisten können, müssen wir dann Kriminalität hinnehmen?
Das Internet ist ein Kabelmedium, was sofort fühlbar wird, wenn man einen Computer über ein LAN-Anschluss direkt mit dem Kabelnetz verbindet (der Anteil an Datentransfer über Satellit liegt immer noch im kleinen einstelligen Prozentbereich) und diese Kabel gehören jemanden.

Knapp vier Milliarden Menschen nutzen das Internet. Es gibt aber nur etwas mehr als 400 Tiefseekabel, die das Internet zusammenhalten. Abgesehen vom modernsten und schnellsten Kabel, das Facebook und Microsoft von Virginia Beach nach Bilbao gelegt haben haben, gehören die Tiefseekabel großen Konsortien, die untereinander nicht konkurrieren, sondern jeweils eine Weltregion organisieren. Amerika wird von TE Subcom, Asien von NEC versorgt. Das Europäische Netz gehört seit 2016 der finnischen Nokia.

Für Geheimdienste sind das paradiesische Zustände. Nach Deutschland kommen die Daten überwiegend über das Transatlantisches Telefonkabel Nr. 14 und es ist wohl ausgeschlossen, dass der britische Geheimdienst GCHQ und die NSA fast alle Telefongespräche aus Deutschland aufzeichnen, ohne sich in irgendeiner Form mit den Netzbetreibern dazu abgestimmt zu haben.

Das Kabel T 14 verbindet das Internet Deutschlands mit den USA. Foto Creative Commons.

Die Möglichkeit, immer mehr Metadaten zu erzeugen, hat die Polizeiarbeit grundlegend verändert. Die „Kriminalgeologie“, die Horst Herold in den 1970er Jahren erfunden hatte, wollte errechnen, wann und wo mit welcher Wahrscheinlichkeit ein Verbrechen begangen würde. Mit den Metadaten von heute geht man einen entscheidenden (und höchst diskutablen) Schritt weiter. Man möchte wissen, wer das Verbrechen begehen wird.

Noch im August des Jahres 2018 sagte Joachim Eschemann, Leiter des Referats für Kriminalitätsangelegenheiten im Düsseldorfer Innenministerium, man benötige eigentlich keine personenbezogene Daten, wenn man in einer bestimmten Region Kriminalität verhüten möchte. Die Identität des Täters spiele erst nach der Tat bei Ermittlungen eine Rolle.

Die Polizei in Hessen ist dennoch der Ansicht, dass getan werden musss, was getan werden kann. Sie setzt zum Entsetzen von Bürgerrechtlern eine Software des Unternehmens Palentir ein, die von der deutschen Investorenlegende Peter Thiel mitbegründet wurde und die vielsagend den Namen einer Stadt aus der Batman-Saga trägt: Gotham.

Gotham ist dazu da, Verbrechen vorauszusagen, weshalb die Software bereits vorhandene Informationen aus polizeilichen Datenbanken mit offen einsehbare Informationen etwa aus sozialen Netzwerken kombiniert. Peter Thiel, der als Anhänger des Transhumanismus nicht einmal den Tod als unveränderbare Tatsache akzeptiert, kann natürlich vor so etwas Irdischem wie Kriminalität nicht die Waffen strecken.

Doch Thiel ist nicht der Einzige, der für eine merkwürdige Hinwendung des Silicon Valley zum Staat steht. Eric Schmidt, der 2009 Obama und später Hillary Clinton beriet, wechselte nach seinem Ausscheiden bei Google 2016 ausgerechnet ins Pentagon.

Der einzige Weg, so Schmidt 2010, Gefahren im Netz zu begegnen, sei echte Transparenz und keine Anonymität. “In einer Welt asynchroner Bedrohungen ist es zu gefährlich, auf eine Möglichkeit zu verzichten, Menschen zu identifizieren. Wir brauchen einen Namensdienst für Menschen. Regierungen werden das verlangen.“

Wie konnte es soweit kommen?

Mit dem Internet kam nicht nur ein technischer Apparat in die Welt, sondern eine neue Dimension, die juristisch weder zum Land, noch zum Meer und auch nicht zur Luft gehört und deshalb mit den herkömmlichen Begriffen kaum justiziabel war.

Es entstand der Eindruck, das Internet sei ein rechtsfreier Raum. Die Begrifflichkeit der “alten Welt”, mit der die klassischen Medien Radio, Zeitung und Fernsehen beschrieben wurden, passte nicht auf das Internet.

Im 16. Jahrhundert, nach der Entdeckung der neuen Welt, hatte das britische Empire auf eine ganz ähnliche Lage mit einem atemberaubenden Trick reagiert. Weil man wusste, dass britische Gerichte nicht auf der ganzen Welt Recht sprechen konnten, führte das Empire die sogenannten “amity lines” ein  ein pragmatischer Strich auf der Weltkarte, der die Welt in zwei Sphären unterteilte: In einer waren europäische Verträge gültig, in dem anderen galt das Recht von Abenteurern und Eroberern. Das zwanzigsten Jahrhundert machte das Gleiche. Es teilte die Welt in online und offline.

Die Engländer hatten im sechzehnten Jahrhundert noch eine weitere “amity line” gezogen, die eher ein Narrativ war als eine echte Trennung; die aber für das Internet und für die Privatsphäre in Deutschland von mindestens so großer Bedeutung ist wie die Unterscheidung in online und offline. Sie lautet: Was zum Bereich der Wirtschaft gehört, ist privat und gehört nicht zur Sphäre des Staates.

Die politische Trennung der Welt in online und offline und die gleichzeitige liberal-neutrale Haltung gegenüber Unternehmen, die das Internet unter sich aufteilten, führte zu der Lebenssituation, in der der Einzelne vom Staat nicht mehr viel zu erwarten hat. Mit bitterer Ironie könnte man sagen: Im Internet ist der Schutz der Privatsphäre Privatsache.

Eine nicht unbedeutende Rolle spielte dabei eine kurze, aber heftige politische Bewegung, die stets das Gute will und stets das Böse schafft, weil sie in der Existenz des Internets einen Wert an sich sah und allen Ernstes forderte, die Gesellschaft müsse sich nun an das Internet anpassen, obwohl man ja zumindest in Deutschland denken könnte, anders herum wäre es sinnvoller.

Die Welt an das Internet anpassen. Bundesparteitag der Piratenpartei  2012. Foto: Frank Coburger. Creative Commons.

Unter den Geeks dieser Bewegung, die so taten als sei das Internet erst um das Jahr 2000 erfunden worden und als hätte es mit dem Staat gar nichts zu tun, gab es eine Gruppe von Aktivisten, die unter Politikern schnell als sogenannte “Netzgemeinde” gefürchtet war.

Der Begriff “Shitstorm” fand dabei nicht zufällig um das Jahr 2006 seinen Weg in die deutsche Sprache, die den Terminus – anders als das Englische – nur für eine hasserfüllte, undifferenzierte Diskussion im Internet benutzt. 2011 wählte eine Jury den Begriff in Deutschland zum Anglizismus des Jahres.

Mit einem Shitstorm wurden vor allem solche Politiker überzogen, die es wagten, “das Internet” regulieren zu wollen und weil die etablierten Parteien fürchteten, die Piratenpartei würde die Parteienlandschaft ähnlich durcheinanderbringen wie die Grünen Anfang der 1980er Jahre, ließ man die Finger vom Internet. Die Freien Demokraten warben noch im Bundestagswahlkampf 2018 mit dem Slogan “Digital first. Bedenken second.”

So kam es, dass in den entscheidenden Jahren zwischen 2005 und 2010 niemand ernsthaftes Interesse entwickelte, Internetunternehmen daran zu hindern, persönliche Informationen zu sammeln und zu speichern. Im Gegenteil: Gerade staatliche Stellen haben durch eine Kombination aus Ignoranz, Unkenntnis und geheimdienstlichen Interessen die heutige Situation erst möglich gemacht.

Was nun?

Die Möglichkeit, einzelne Personen zu verfolgen, führt zwangsläufig zu einem Gefühl, überwacht zu werden, und selbst diejenigen, die meinen, sie hätten nichts zu verbergen, werden sich anders verhalten, wenn sie annehmen, dass alles was sie sagen mitgehört und ausgewertet wird.

Die IT-Industrie braucht Daten, um neue Produkte zu entwickeln. Aber sie ist sowohl ökonomisch als auch gesellschaftlich auf eine funktionierende Privatsphäre angewiesen. Eine Demokratie ohne Daten ist vorstellbar, Innovation ohne Privatsphäre auf Dauer nicht.

Wir alle wollen vermutlich Dienste wie Google Maps nutzen und diese Produkte funktionieren nun mal nicht ohne Daten wie Bewegungsprofile, Start und Endpunkt einer Reise. Die Programmierer dieser Dienste müssen wissen, dass eine Person von Punkt A nach Punkt B fährt und wie schnell er dabei vorankommt. Die Frage ist freilich, ob der Dienst auch wissen muss, wer diese Person ist.

Selbstverständlich gibt es auch ein berechtigtes Interesse an Unversehrtheit und Sicherheit. In London gibt es deshalb heute mehr als 200.000 öffentliche Überwachungskameras, die mit dem neuen G5-Standard gestochen scharfe Bilder liefern werden. Die Frage ist, ob der Preis einer Totalüberwachung einer unter Generalverdacht stehenden Bevölkerung ein angemessener Preis für den Zugewinn an Sicherheit ist.

Eine deutsche Erfindung der 1970er: Geokriminalogie. Foto: screenshot.

Was halten wir in diesem Kontext davon, dass an der Stanford University Menschen mit öffentlichen Mitteln an einer Software arbeiten, die erkennen kann, ob ein Mensch homosexuell ist? Kümmert es uns, dass in China einer der einflussreichsten Influencer ein Chatbot für Kinder von Microsoft ist (Xiaoice), das mit ihren minderjährigen Gesprächspartnern Träume und Ängste bespricht und diese speichert und weiterverarbeitet?

Ist es richtig, dass die Schweiz ihre Sozialhilfeempfänger systematisch mit GPS-Sendern und Drohnen observieren möchte, damit der Rest der Schweizer Gesellschaft, von deren Steuern die Sozialhilfe bezahlt wird, sicher sein kann, dass kein Geld veruntreut wird?

Es sind die Bürger, die zumindest in der westlichen Welt darüber bestimmen können, dass Regierungen offenlegen, welche Daten unsere Geheimdienste sammeln und was damit geschieht.

Schon übermorgen wird es Autos geben, die acht Terabyte Daten am Tag generieren. Müssen wir zurück auf die Straße, um das Internet für die nächste Generation zu retten als eine globale und öffentliche Ressource, die offen und frei zugänglich für alle ist und niemanden zurücklässt, nur weil er seine Privatsphäre schützen möchte? Wenn das in Deutschland nicht geht, geht es nirgendwo. Aber wenn es geht, geht es vielleicht auch überall.

Ende

Eine Serie in drei Folgen:

Teil 1: “Man muss sie zwingen, Spuren zu hinterlassen” >> ||

Teil 2: »Wenn wir das wüßten, Genossen, wären wir über alles hinaus« >>

diesen Blog-Beitrag gibt es auch auf: English (Englisch)

Noch keine Kommentare

Einen Kommentar schreiben

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *