Soziale Medien und Information (Teil 4)

Deus Ex Algorithmo: Gläserne Konsument:innen

Gläserner Bürger_Überwachung.jpg

Wer im Online-Marketing arbeitet, der hat in den letzten Jahren die Geburt eines Konzepts miterlebt, dessen Implikationen gleichermaßen begeistern wie erschrecken: Die Rede ist von der Hyper-Personalisierung. Mithilfe von Unmengen in Echtzeit gesammelter Daten wollen Akteure fast jeder Branche, von der Bank über die Kfz-Versicherung bis hin zu den Herstellern von Kühlschränken, ihre Angebote und Werbestrategien personalisieren. Der Preis dafür: unsere privatesten Daten.

"Hyper-Personalisierung fördert Customer Engagement, indem sie dem Nutzer das Gefühl gibt, eine spezielle Behandlung der Marke zu bekommen. (...) Wir reagieren positiver in Umgebungen, in denen unsere Besonderheiten berücksichtigt werden. Im Falle des Digital Marketings bedeutet dies, Werbung, Produkte oder Inhalte anzubieten, die an die Bedürfnisse jedes Einzelnen angepasst sind."

Mit diesen Worten preist die Marketingagentur "Labelium" die scheinbar immensen Chancen der Hyper-Personalisierung an. Und auf den ersten Blick scheint der Ansatz sinnig: Wenn mir Unternehmen direkt die Produkte und Leistungen anbieten können, die ich haben will, dann sparen sich alle Beteiligten Zeit und Nerven bei der Suche nach der passenden Offerte.

Einem Bericht des auf Multiplattformpersonalisierung spezialisierten US-amerikanischen Unternehmens "SmarterHQ" zufolge sind 90 Prozent der Verbraucher:innen bereit, persönliche Informationen wie Verhaltensdaten an Unternehmen weiterzugeben, wenn sie im Gegenzug Rabatte, Angebote oder ein besseres Kauferlebnis, Customer Experience genannt, erhalten. 72 Prozent der befragten Personen geben überdies an, nicht mehr auf generische, sondern nur noch auf personalisierte Werbebotschaften zu reagieren.

Andererseits jedoch geben etwa acht von zehn Befragten an, dass Unternehmen ihrer Meinung nach bereits zu viel über sie wissen. Die Demografie gibt Aufschluss über diese Diskrepanz: Unter 30-Jährige trauen Unternehmen deutlich mehr im Hinblick auf einen verantwortungsbewussten Umgang mit ihren Daten.

Das Lagebild zeigt also einen sich rapide verändernden Markt. Werbestrategien, die sich nicht den Kund:innen anpassen, treten zunehmend in den Hintergrund. Selbst Preise sind keine aus Stein gemeißelten Monolithen mehr, sondern werden mithilfe algorithmischer Datenanalyse individualisiert.

"Jeder Ausrutscher wird aktenkundig"

Als erstes Beispiel für die Auswüchse des Personalisierungswahns sei die Versicherungsbranche genannt. Seit einigen Jahren ist es möglich, eine Kfz-Versicherung abzuschließen, deren Prämie sich dem eigenen Fahrstil anpasst. Dies ermöglicht eine Technik namens "Telematik", die in Echtzeit das Fahrverhalten aufzeichnet, analysiert und dann in einem Persönlichkeitsprofil zusammenführt. Dafür wird eine kleine Box im Auto verbaut, die diese Daten erhebt, mittlerweile gibt es aber auch App-basierte Lösungen zur Analyse des Fahrverhaltens.

Sie fahren gerne 25 km/h in der 30er-Zone? Das gibt Bonuspunkte! Sie müssen dringend ins Krankenhaus und beschleunigen und bremsen daher rabiater als sonst? Dann wird Ihnen Ihr Versicherer demnächst mitteilen, dass Ihre Prämie erhöht wurde, weil Sie ein rücksichtsloser Verkehrsrowdy sind.

Sascha Straub von der Verbraucherzentrale Bayern sagt dazu: "Wenn sich das durchsetzt, wird es Nachteile haben für diejenigen, die sich verweigern. (...) Wir raten von solchen Tarifen ab. Jeder Ausrutscher wird sofort aktenkundig." Ob es in einem derart umkämpften Markt wie dem für Kfz-Versicherungen überhaupt ein genügend hohes Einsparpotential gibt, das die Herausgabe persönlichster Verhaltensdaten rechtfertigen würde, müsse laut Straub ernstlich angezweifelt werden. Eher sei mit einer spürbaren Erhöhung der Preise für nicht-datensupplementierte Tarife zu rechnen, orakelt seinerseits das Manager Magazin.

Auch im Bereich der Krankenversicherungen sind personalisierte Tarife mittlerweile keine Seltenheit mehr. Wer permanent ein Fitness-Armband trägt und den Inhalt des eigenen Einkaufskorbs mit dem Versicherer teilt, erhält eine vergünstigte Prämie. Wie auch bei Kfz-Versicherungen erhalten die Versicherten Punkte für löbliches Verhalten, die die Höhe des Beitrags bestimmen und bei Partnerunternehmen – Fitnessstudios, Sportgeschäfte, aber auch bei Amazon – eingelöst werden können. Ein riesiges, gesundheitsökonomisches Payback-System, sozusagen.

Es liegt auf der Hand, welche Probleme personalisierte Versicherungen mit sich bringen. Einerseits sind die dafür erhobenen Daten – Gesundheitsdaten, Bewegungsdaten, Daten über den eigenen Lebensstil – intimster Natur, andererseits unterminieren sie das Konzept von Versicherungen, speziell der Krankenversicherung, als Solidargemeinschaft. Es ist höchst fraglich, ob ein promiskuitiver Lebenswandel, regelmäßiger Alkoholkonsum am Wochenende oder ein potentiell gefährliches Hobby wie beispielsweise Mountainbiken einen teureren Versicherungstarif rechtfertigt. Einer Umfrage von Bitkom zufolge fürchtet fast jede:r zweite Befragte, dass die eigene Prämie durch personalisierte Policen ansteigen wird.

Spione in jeder Ecke

Während der Datenschutz im Diskurs über Personalisierung bei Versicherungen und Banken eine große Rolle spielt, geht er im Bereich der alltäglichen Unterhaltungselektronik beinahe vollständig unter. Zwar ist den meisten Menschen klar, dass Sprachassistenten wie Alexa oder Siri in permanentem Kontakt mit Unternehmen stehen, insgesamt machen wir uns allerdings keinerlei Vorstellung davon, wie gut vernetzt unsere Alltagselektronik mittlerweile ist.

Besitzen Sie einen Smart-TV? Dann besteht die reelle Chance, dass nicht nur der Hersteller, sondern auch sämtliche Geheimdienste der Welt Ihre Gespräche mithören können. Im November 2019 warnte sogar das FBI davor, wie leicht internetfähige Fernseher zu hacken sind. Eine Studie der Princeton-Universität kommt zu dem Ergebnis, dass meistens selbst dann immense Datenmengen erhoben und übermittelt werden, wenn man der Übertragung widerspricht.

Was ins Internet geht, kann gehackt werden.

Oder sind Sie eine derjenigen Personen, die sich für einen "smarten" Kühlschrank haben begeistern lassen? Solche Geräte sind in der Lage, das Konsumverhalten ihrer Besitzer:innen zu analysieren und zu verstehen, eigenständig die Vorräte zu überprüfen und per Internet Nachschub zu bestellen. Im Austausch für diesen vermeintlichen Komfort leitet Ihr Kühlschrank Ihre Konsumgewohnheiten an den Hersteller weiter. Und wenn Sie Ihren ach so smarten Kühlschrank an einem Freitag dann mit drei Kästen Bier befüllen, weil Sie sich auf ein gemütliches Wochenende vorbereiten, erhalten Sie am Montag eine Mail von der Krankenkasse: Beitragserhöhung aufgrund von Alkoholismus!

Das gleiche Protokoll läuft bei der Nutzung von Suchmaschinen ab. Aus den Anfragen der Nutzer:innen generiert der Algorithmus ein Persönlichkeitsprofil. Auf Basis dieses Profils werden die Ergebnisse einer Suchanfrage dann gewichtet. Bedeutet, wenn der Algorithmus weiß, dass Sie einen Mercedes fahren und sich Fahrzeugneuheiten ansehen wollen, dann schlägt er Ihnen zuerst die von – Überraschung! – Mercedes vor.

Ungeklärt ist zudem, wie lange smarte Haushaltsgeräte oder Smart Homes Softwareupdates erhalten. Während ein veraltetes Betriebssystem auf dem Smartphone dazu führt, dass einige Apps nicht mehr funktionieren und das Gerät angreifbarer wird, können vernetzte Haushaltsgeräte mit angestaubter Software eine potentiell katastrophale, weil das gesamte System "Haus" umfassende, Sicherheitslücke darstellen. Was ins Internet geht, kann gehackt werden.

Auch Algorithmen diskriminieren

Das Konzept der Hyper-Personalisierung, das auf ungehemmter Datenverarbeitung fußt, widerspricht dem Grundprinzip aufgeklärter und mündiger Konsument:innen, ohne die eine Marktwirtschaft notwendigerweise zum Bolzplatz der Oligopolisten mit den umfassendsten Datenbanken mutiert. Die Autonomie über die Kaufentscheidung mäandert im Moment irgendwo im leeren Raum zwischen Konsument:in und Hersteller hin und her, verschiebt sich aber ob der Allmacht der Persönlichkeitsprofile, auf Basis derer Algorithmen schon 2015 akkuratere Aussagen über uns treffen konnten als unsere Familie und sogar wir selbst.

Katalysiert wird dieser Prozess durch sogenanntes Cross-Channel Profiling, also die Zusammenführung von Datensätzen aus verschiedenen Quellen. Google beispielsweise weiß genau, wonach Sie suchen und wohin Sie mit dem Auto fahren. Die Deutsche Bahn weiß ganz genau, wohin Sie den Zug nehmen. Facebook kennt Ihre privaten und politischen Vorlieben, Tinder Ihre zwischenmenschlichen und Apple weiß dank Ihres Fitness-Armbands ganz genau, wie es um Ihr körperliches Wohlbefinden bestellt ist. Solange jedes Unternehmen nur Bruchstücke persönlicher Daten hat, ist das daraus resultierende Profil mangelhaft und fehleranfällig. Werden diese Fragmente jedoch zusammengeführt, ergeben sie einen Datensatz, der erschreckend akkurate Aussagen über die politische Einstellung, den Lebensstil und die ethischen oder religiösen Überzeugungen eines Menschen ermöglicht.

Das größte Risiko, das diesen Praktiken inneliegt, ist die unbemerkte Entstehung einer algorithmischen Pseudo-Diktatur, die Menschen vollautomatisch diskriminiert. Das eindrücklichste Beispiel für diesen Prozess ist die berüchtigte Schufa. Einer Untersuchung der GP-Forschungsgruppe zufolge ist jeder vierte Schufa-Eintrag fehlerhaft oder unvollständig, meistens zu Ungunsten der Verbraucher:innen. Eine Änderung oder Löschung ist mit immensem Aufwand für betroffene Privatpersonen verbunden, ein negatives Schufa-Scoring allerdings kommt dem privatrechtlichen Super-GAU gleich. Wie die Schufa einen Score ermittelt, gilt allerdings als Betriebsgeheimnis – warum der Wohnort oder die Herkunft eine Rolle beim Scoring spielen, will die Schufa nicht verraten.

Vor kurzem kündigte das Unternehmen an, künftig unter bestimmten Umständen auch Kontoauszüge ins Scoring einfließen lassen zu wollen. Unter anderem sollen Personen so die Möglichkeit erhalten, einen ruinierten Schufa-Score zu restaurieren. Datenschützer:innen in ganz Deutschland waren tagelang in heller Aufregung, dabei ist der Blick aufs Konto in der Finanzbranche längst etabliert.

Es ist bedenklich, wenn Menschen auf Basis eines algorithmisch errechneten Punktewerts der Zugang zu Mietwohnungen, Telekommunikationsverträgen oder Krediten erschwert wird. Es ist noch viel bedenklicher, wenn jede Kleinstinformation, jede kurze Reise, jeder Kauf, selbst das Verhalten der eigenen Familie, in dieses Scoring einfließt. Persönliche Daten sind eine viel zu intime Angelegenheit, als dass wir ihrer Verarbeitung einen derart großen Raum für Kollateralschäden einräumen könnten.

In Teil 1 der Serie "Deus Ex Algorithmo" ging es um die Grundfunktionsweisen sozialer Medien und ihrer Algorithmen, Teil 2 behandelte, wie und warum in den sozialen Netzwerken Radikalisierung und Desinformation stattfinden; Teil 3 widmete sich möglichen Auswegen aus dem Dilemma. Im nächsten Teil der Reihe werden wir genauer darauf eingehen, wie Algorithmen diskriminieren und warum sie bestehende Ungleichheit oftmals nicht nur konstituieren, sondern den sprichwörtlichen Graben sogar noch verbreitern.

Unterstützen Sie uns bei Steady!