Die deutsche Datenpolitik der CDU/CSU Teil 2: »Jeder ist auf sich gestellt«

1. EinleitungDatenpolitik CDU/CSU

Teil 1 über die deutsche Datenpolitik der CDU/CSU konzentrierte sich auf den wirtschaftlichen Kontext und die Frage, warum eine selbstregulierende, unsichtbare Hand (sofern es sie je gegeben hat) des Marktes, angesichts digitaler Informationsmonopole, eine Nicht-Lösung darstellt.

In diesem Beitrag werfen wir einen weiteren Blick auf den CDU/CSU-Anteil der Digital-Strategie in der Regierungskoalition. Es sei darauf hingewiesen, dass der Beitrag nicht frei von der Meinung des Autors ist.

Die CDU/CSU-Fraktion hat ihre Datenpolitik in einem Positionspapier mit dem Titel »Datenstrategie der Bundesregierung« 2020 veröffentlicht. Trotz des etwas irreführenden Titels handelt es sich um ein Papier der CDU/CSU-Fraktion des Bundestages. Weitere Standpunkte der CDU finden sich in der Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019).

Die deutsche Bundesregierung bzw. die Regierungskoalition hat ihre Datenstrategie am 27.01.2021 in der Kabinettsfassung veröffentlicht.

Die nächste Bundestagswahl steht im September 2021 an, es ist daher fraglich, wieviel der Datenstrategie der Regierungskoalition in dieser Legislaturperiode noch umgesetzt wird. Daher soll primär die Haltung der CDU/CSU betrachtet werden.

In Teil 2 gehen wir auf den aktuellen Stand der deutschen Wissensgesellschaft ein sowie den Auswirkungen, die die Position der CDU/CSU auf Bürger*innen hätte. Ein besonderes Augenmerk liegt zunächst auf der Rhetorik. Dieser Teil ist (aus gegebenem Anlass) nun ausführlicher. Daher wird der Part, der sich auf nicht-personenbezogene Daten bezieht, nicht wie angekündigt in Teil 2 behandelt.

Gastbeitrag von lacrosse

Lacrosse ist betrieblicher Datenschutzbeauftragter in der Konzerndatenschutzorganisation einer deutschen Unternehmensgruppe. In seiner Freizeit engagiert er sich ehrenamtlich, um gemeinnützigen Vereinen bei der Umsetzung der DSGVO zu helfen.

Feedback und Fragen können direkt an ihn gerichtet werden. Spenden für seine Arbeit möchte er direkt dem Kuketz-Blog zukommen lassen. Ihr könnt also direkt an den Kuketz-Blog spenden.


Dieser Beitrag ist Teil einer Artikelserie:

2. Ein Exkurs in die Rhetorik im Dunstkreis des Digitalen

Zum Kontext des Digitalen gehört auch, mit welchen Mitteln darüber diskutiert wird. Dazu muss man sich vor Augen führen, dass die Basiseinheit des Digitalen Daten sind. Diese Daten sind – ob personenbezogen oder nicht – Information und Wissen. Und damit Bestandteil auch einer machtpolitischen Debatte. Kurzum, um eine in diesem Zusammenhang oft verwendete Redewendung noch etwas mehr zu strapazieren: »Denn Wissen selbst ist Macht«. D.h. in der Debatte um das Digitale, vor allem wenn es um Datenschutz und Datensammelei geht, diskutieren wir immer auch über Herrschaftswissen. Diese Erkenntnis wiederum führt zu den rhetorischen Mitteln, mit denen über die Verfügungsgewalt zu diesem Herrschaftswissen in unserer Demokratie gerungen wird. Vertreter von CDU/CSU fallen hier immer wieder mit reflexhaftem Framing auf, das komplexe Sachverhalte fahrlässig vereinfacht oder überzogene Erwartungen weckt. Natürlich, und auch das sei gesagt, ist dies nicht allein auf die Vertreter von CDU/CSU beschränkt. Und freilich ist es legitim, kurze und prägnante politische Botschaften unter das Wahlvolk zu bringen. Im Umkehrschluss ist es angemessen, diese Botschaften kritisch zu hinterfragen und einer unangemessenen (teilweise hasardeurhaften) sowie einseitigen Deutungshoheit entgegenzutreten.

2.1 Das Framing »Datenschutz darf kein Täterschutz sein«

Machen Sie sich nichts vor! Obige Phrase wirkt auch bei Ihnen, denn sie arbeitet auf einer emotionalen, moralischen Ebene und entfaltet spontane Zustimmung – wer möchte denn schon einen Täter schützen?

Der zweifelsohne wichtige Datenschutz darf niemals Täterschutz sein, sondern muss in allererster Linie mögliche Opfer vor Straftaten schützen.

Quelle: Marc Henrichmann MdB für CDU / CSU-Franktion / Herr Henrichmann ist Rechtsanwalt

Wer nun den Datenschutz verteidigt gerät unversehens in Rechtfertigungsnot, denn die Verknüpfung von Datenschutz und Täterschutz sorgt für eine absolute Argumentationskette – ein geistiges »So ist es und nicht anders« entsteht. Man trifft auf die Phrase meist im Zusammenhang mit staatlichen Überwachungsmaßnahmen, deren Grundrechtseingriffe per se von den meisten Menschen mit Argwohn begegnet werden. Die perfide Argumentationskette sorgt nun dafür, dass sich die eigentliche Rechtfertigungslogik umdreht – nun muss nicht mehr der Grundrechtseingriff gerechtfertigt werden, sondern der Datenschutz erscheint als Hindernis, der einer gerechten Bestrafung eines Täters im Weg stünde.

Nur indem man einen Schritt zurückgeht und die Bestandteile der These selbst hinterfragt, kann man sich aus diesem moralischen Fallstrick befreien. Zunächst muss man feststellen, dass eine Strafverfolgung möglich ist bzw. ausreichend Ermittlungsbefugnisse der Strafverfolger in Bezug auf Verdächtige vorhanden sind – dass es an Überwachungsmöglichkeiten keinesfalls mangelt, zeigt das Projekt »Überwachungsbarometer« des Max-Planck-Instituts.

Die rationale Entlarvung der These beginnt mit der Feststellung, dass die Phrase das Ergebnis (Täter*in=Schuld festgestellt / vom Gericht verurteilt) bereits vorwegnimmt und damit einen engen Deutungshorizont vorgibt – der Begriff Täter*in impliziert Gewissheit in Form von erwiesener Schuld. Zudem verengt sie die Betroffenheit auf eine kleine Gruppe von Menschen (Täter*in) und suggeriert hierbei eine zielgerichtete Bestimmtheit. Mit anderen Worten: Ist man nicht Täter*in, ist man nicht betroffen. Diese Annahmen führen in die Irre. Denn die angestrebte Überwachungsmaßnahme – um die es in Wahrheit geht – findet weit im Vorfeld eines Schuldspruches statt. Meist ist noch nicht einmal klar, wer wessen verdächtigt wird – man stellt somit die gesamte Bevölkerung unter Generalverdacht. Endgültig aufgedeckt wird die Rhetorik mit den Begriffen Verdächtige(r) / Angeklagte(r), weil beide emotional anders besetzt sind. Ersetzt man den Begriff Täterschutz durch Verdächtigenschutz (oder Angeklagtenschutz), gerät die absolute Wahrheit der Phrase ins Wanken – plötzlich erscheint der Ausgang ungewiss. Denn in einem Rechtsstaat gilt die Unschuldsvermutung. Erst wenn es der Staatsanwaltschaft gelungen ist, jeglichen Zweifel an der Unschuld zu beseitigen, wird ein(e) Angeklagte(r) zum Täter. Oder anders ausgedrückt, in einem Rechtsstaat ist ein / eine Verdächtige(r) durch die Unschuldsvermutung geschützt und der Staat muss Beweise auf der Hand haben, diese vermutete Unschuld zu widerlegen. Daher stellt die Phrase ein implizites und dennoch fahrlässiges Infragestellen rechtsstaatlicher Prinzipien dar. Sie ist somit abzulehnen. Umso mehr, da sie auch von Jurist*innen in politischen Ämtern verwendet wird, die vorsätzlich eine angemessene Begriffsdifferenzierung unterlassen.

Hass und Hetze im Internet treten wir mit aller Entschlossenheit entgegen. Datenschutz darf dabei keinen Vorrang haben vor Opferschutz – weder im Internet noch im analogen Leben.

Quelle: Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) / Zeile 113-114 / Seite 4 in der beschlossenen Fassung Beschluss des 32. Parteitags der CDU Deutschlands

An dieser Stelle sei dieser erhellende Artikel in Telepolis empfohlen. Unangemessenerweise verwendet die CDU in ihrer Digitalcharta eine Variante jener Phrase, indem der Begriff »Täter« durch »Opfer« ersetzt wird. Man mag nun naiv fragen, warum der Datenschutz gerade Opfer nicht schützen sollte?

Auch hier sollte man sich nicht täuschen lassen. Es handelt sich um die oben beschriebene Methodik. Wieder wird das Ergebnis vorweg genommen und mit dem emotional aufgeladenen Begriff »Opfer« gearbeitet, der fraglose moralische Solidarität einfordert. Erneut dreht sich die Rechtfertigungslogik um.

„Menschenschutz muss vor Datenschutz stehen“, sagte Steiger. „Nur sechs von zehn Nutzern geben ihr positives Testergebnis in die Corona-Warn-App ein, warnen also ihre Kontakte“, kommentierte Steiger die Faktenlage und ergänzte: „Das erschwert die Verfolgung von Infektionsketten massiv.“

Quelle: Generalsekretär des Wirtschaftsrates der CDU e.V., Wolfgang Steiger / 03. Februar 2021 / Wiederbelebung der Corona Warn-App

Meist wird das Framing bewusst in einen Kontext gesetzt, bei dem ein Zusammenhang zunächst oberflächlich plausibel erscheint und der Datenschutz als vermeintlicher Hemmschuh präsentiert wird. In Wirklichkeit, besteht nicht unbedingt ein bewiesener Zusammenhang – was Herr Steiger hier eigentlich kritisiert, ist schlicht des Konzept der Freiwilligkeit und Mitwirkung. Seine absolute Deutung der Ursache – in diesem Fall das Menschen aus Datenschutzgründen positive Testergebnisse nicht teilen würden – ist allenfalls eine ungewisse Interpretation. In diesem Zusammenhang sei ein Interview mit dem BfDI Ulrich Kelber im ZDF Morgenmagazin empfohlen oder die Studie des OFFIS (Institut für Informatik in Oldenburg) zur Nutzung der Corona-Warn-App (insbesondere Seiten 17–18 CWA-Nutzer*innen sind technikaffin und haben ein hohes Datenschutzverständnis). Das perfide an dieser rhetorischen Technik ist, dass sie Sinnzweifel sät (siehe der dahinterstehende Kontext: Die CWA ist angeblich funktionsuntüchtig, deswegen muss sie »wiederbelebt« werden). Das ständige Wiederholen der Phrase lässt Zweifel an der Sinnhaftigkeit entstehen. Diese (Zweifel) wiederum führen dazu, dass weniger Menschen die CWA nutzen (siehe OFFIS-Studie) und damit als Endresultat eine selbsterfüllende Prophezeiung entsteht.

2.2 Der Appell, der überzogene Erwartung schürt

Eine weitere rhetorische Methode ist ein rationaler Appell, der positiv assoziierte Schlüsselwörter enthält, die mit Digitalisierung oder Daten zusammenhängen und singulär deren Nutzen in den Vordergrund stellen – im Übrigen ist dies auch eine beliebte Methode der großen Digitalkonzerne.

Daten können Leben retten.

Quelle: Donnerstag, 11. Februar 2021, Deutscher Bundestag, Dorothee Bär; sowie auf Seite 6 der  »Datenstrategie der Bundesregierung«

Nun dürfte jedem klar sein, dass Daten keine Leben retten – Informationen sind unbelebt und nicht stofflich. Diese Informationen befähigen Menschen schnellere oder bessere Entscheidungen zu treffen. Als Ergebnis dieser Handlung oder Entscheidung eines Menschen, können Leben gerettet werden. Wohlgemerkt: Menschen retten Leben. Inzwischen sollte man erwarten, dass seit den überzogenen Erwartungen an die Corona-Warn-App mehr Mäßigung bei technischen Heilsversprechen eingekehrt wäre.

2.3 Der falsche Whataboutism oder »Barking up the wrong tree«

Die Diskussion über Datensammeleien werden oft von solchen oder ähnlichen Sätzen begleitet: »Was ist mit Google? Das nutzen Sie doch auch!«. Dieses rhetorische Mittel kann man auch im Alltag recht häufig vernehmen. Es hat meist eine anklagende oder relativierende Wirkung. Einerseits, so die These, »vertrauen« Verbraucher*innen den großen Digitalkonzernen »bereitwillig« ihre Daten an, um deren Dienste zu nutzen. Anderseits werden dem Staat diese Daten, der sie für das Allgemeinwohl einsetzen will, von »misstrauischen« Bürger*innen vorenthalten.

[…] also, Google weiß mehr über die meisten Patienten in Deutschland als die eigene Krankenkasse wissen darf […]

Quelle: Mehr Tempo für die Digitalisierung: Jens Spahn auf der DMEA 2019 (Video) / abzurufen unter www.youtube.com/watch?v=p3zwGRQ4ilQ

Mit diesem Mittel wird vom eigentlichen Sachverhalt zwar abgelenkt und unterstellt, dass mit zweierlei Maß gemessen wird. Dennoch vermag die Aussage zunächst einzuleuchten, denn die Grundthese mag teilweise zutreffen. Google könnte mehr Daten über bestimmte deutsche Bürger*innen haben als der Staat – wobei es vermutlich zutreffender ist, dass Google Datenbestände einfacher zusammenführen kann. Wie dem auch immer sei, in der Rhetorik werden die Umstände fahrlässig vereinfacht.

[…] das Verhältnis Bürger zu Staat durchaus kritisch betrachtet. […], dass man […] den US-amerikanischen Herstellern der Betriebssysteme mehr vertraut scheinbar, als dem eigenen Staat […]

Quelle: Thomas Schauf / Bestätigendes Nicken von Friedrich Merz / CTALK mit Friedrich Merz (Video) / abzurufen unter https://www.youtube.com/watch?v=mxQYimGPnA8

Denn hier wird eine komplexe Situation geflissentlich unterschlagen und Abhängigkeiten völlig ausblendet. Dahinter steht zunächst die irrige Annahme, dass die Nutzung eines Dienstes von Google & Co. an sich schon eine bestätigende Verbraucher-Entscheidung darstellt und die Daten bewusst bereitgestellt werden. Dies trifft aus mehreren Gründen nur teilweise zu. Zunächst sind die Datenmonopole zu nennen, denen sich kaum jemand entziehen kann – dies haben wir in Teil 1 dargestellt. Des Weiteren werden i) die meisten Datensätze unbemerkt aus dem Nutzungsverhalten abgeleitet (inferred data) oder ii) stammen auch von anderen Nutzer*innen (z. B. Hochladen von Adressbüchern). Noch gravierender ist, dass der Adressat des Whataboutism – die Bürger*innen – nur grob zutreffend gewählt ist. Denn es sind vor allem (auch deutsche) Unternehmen, die die Big-Data-Sensoren der Digitalriesen beispielsweise auf ihren Webseiten einbinden (Facebook-Pixel, Facebook-Like-Button, Google Single Sign On, Google Analytics usw.).

Eine Studie der Vanderbilt University vom August 2018 (siehe dort Seite 3 lit. e) kommt bei Android-Geräten zu dem Schluss, dass 46% der Anfragen an Google-Server durch Google-Werbeprodukte für Publisher wie z. B. Google Analytics, AdWords (Google Ads) oder Double Click (Google Ad Manager) ausgelöst werden – ohne das bekannte Google Applikationen wie z. B. die Google-Suche, Maps, Gmail oder Youtube bewusst verwendet werden.

Damit mehren sie nicht nur den Datenbestand der Konzerne, sondern geben viel über die eigene Kunden- und Produktstruktur preis. Unternehmen liefern Facebook komplette Kundenstamm-Listen frei Haus (Custom Audience), damit Kunden dort werblich angesprochen werden können.

Sind Unternehmen auf dem Amazon-»Marktplatz« präsent, offenbaren sie einem marktbeherrschenden Konkurrenten Warenportfolios und Preisstrukturen. Jeff Bezos‘ Konzern kann daher Markttrends viel früher erkennen und die Informationen zum eigenen Vorteil ausnutzen.

Schlussendlich reichern oder reicherten Big-Data-Konzerne wie Facebook (zumindest bis 2018) ihre Datensätze mit Hilfe von Datenhändlern an. Gerade Datenhändler fallen immer wieder durch illegale Geschäftspraktiken auf – vergleiche hierzu die 150-Mio.-US-$-Strafe gegen Epsilon Data Management LLC des US Department of Justice.

Als Fazit lässt sich sagen: Selbst wenn man zugesteht, dass der Whataboutism teilweise zutrifft, ist er dennoch abzulehnen. Der Sachverhalt wird eindimensional dargestellt und zielt lediglich darauf ab, eigene Interessen indirekt durchzusetzen.

Gleichzeitig lässt sich beobachten, dass vor allem gegenüber großen (amerikanischen) Plattformen, die nichts anderes als „Datenunternehmen“ sind, eine große Bereitschaft zur Weitergabe persönlicher Informationen besteht, […]

Quelle: »Datenstrategie der Bundesregierung« Positionspapier der CDU/CSU-Fraktion im Deutschen Bundestag. Beschluss vom 26.Mai 2020 / Seite 9

Die CDU/CSU erkennt zwar den Umstand an, dass ein sog. Privacy Paradox vorhanden ist (Nutzung der Dienste der Digitalriesen versus Sorge um die Privatsphäre), die Maßnahmen in ihrem Positionspapier fußen aber auf ebenjenem unvollständigen Whataboutism, nämlich das Bürger*innen ihre Daten »bereitwillig« teilen würden. Daher fokussieren sich die Lösungsansätze einseitig auf Bürger*innen und setzen auf digitale Bildung (was zu begrüßen ist) oder kosmetische Werkzeuge zur »Datensouveränität«, die eher die Illusion von Kontrolle vermitteln.

2.4 Entgegen aller Rhetorik

Um es vorneweg zu sagen: Der Datenschutz ist ein Ermöglicher. Die DSGVO ermöglicht (nach Art. 1 Absatz 1 DSGVO) den freien Datenverkehr innerhalb der EU und garantiert ein einheitlich hohes Datenschutzniveau. Dies funktioniert aber nur, wenn die Umstände einer Datenverarbeitung transparent, konkret und eindeutig erforderlich sind. Im Umkehrschluss muss das Ungefähre, Exzessive und die Nicht-Verantwortung abgelehnt werden. Im Kern zwingt das Datenschutzrecht ressourcenmächtige Organisationen dazu, die Interessen derjenigen zu berücksichtigen, die einer Datenverarbeitung durch ebenjene Organisation unterliegen. Daher ist der Begriff Datenschutz – also das Schützen von Informationen – irreführend. Schutzmaßnahmen sind lediglich Mittel zum Zweck und niemals Selbstzweck – Informationen werden keineswegs kategorisch weggeschlossen.

Angesichts der verwendeten Rhetorik, kann man sich des Eindrucks nicht erwehren, dass die Übernahme von Verantwortung oft das eigentliche Kernproblem von Datenschutz-Kritikern ist.

Der Mensch ist moralisch verantwortlich für sein Handeln – er kann der moralischen Dimension nicht entkommen. Welche Ziele er verfolgt, welche Gründe er dafür hat und welche Mittel er einsetzt, liegt in seiner Verantwortung. […]

Quelle: Gutachten der Datenethikkommission / Allgemeine ethische und rechtliche Grundsätze und Prinzipien

Ein hilfreicher Beitrag von Rainer Rehak zum Thema »Was schützt eigentlich der Datenschutz« findet sich hier. Auch auf den Gastbeitrag des LfDI Rheinland-Pfalz »Schluss mit den Attacken auf den Datenschutz!« sei verwiesen.

3. Digitale Unmündigkeit

Der Modebegriff Digitale Kompetenz (oft auch in diesen oder artverwandten Kontexten verwendet: Datenkompetenz oder Data Literacy) ist untrennbar mit der Digitalisierung verbunden. Emotional aufgeladen wird der Begriff schlicht mit einer hoffnungsfrohen Erwartungshaltung. Inhaltlich auf den Punkt gebracht, ist es die Eignung, mit Informationstechnologien eigenverantwortlich (technisch, rechtlich und auch ethisch) umgehen zu können.

Digitale Kompetenz heißt, die Chancen von Digitalisierung zu nutzen, den digitalen Wandel selbstbestimmt mitgestalten und verantwortungsvoll mit den Risiken umgehen können. Dafür soll das Bildungssystem noch stärker auf das digital geprägte Leben, die digitale Arbeits- und Wirtschaftswelt und die digitale Wissensgesellschaft ausgerichtet werden.

Quelle: In der Digitalstrategie steckt Zukunft / Webseite der CDU aufgerufen am 13.03.2021

Aber was ist bei der Digitalen Kompetenz entscheidend? Das Schlüsselwort heißt Kontextwissen, man muss Zusammenhänge verstehen können. Ob aus diesem Wissen auch selbstbestimmte Handlungsmöglichkeiten erwachsen, ist wiederum die Aufgabe einer nachhaltigen Digitalpolitik.

3.1 »Bottom-Up«

Nun, wie steht es mit der Digitalen Kompetenz? Diese Frage ist meist von einer hierarchischen Betrachtungsweise geprägt. Soll heißen: Unternehmenslenker*innen und Regierung fragen sich, wieviel digitale Kompetenz in der Mitarbeiterschaft und Bevölkerung vorhanden ist (in diesem Fall »Top-Down«).

[…] benötigen wir ein umfassendes langfristiges Monitoring über den Grad der Datenkompetenz in unserer Bevölkerung.

Quelle: Datenstrategie der Bundesregierung / Regierungskoalition »Eine Innovationsstrategie für gesellschaftlichen Fortschritt und nachhaltiges Wachstum«

Es ist aber auch von entscheidender Bedeutung, wie viel digitale Kompetenz die Menschen besitzen, die dieses Land und seine Wirtschaft führen – daher soll dies etwas ausführlicher betrachtet werden.

Digitalisierung ist Chefsache.

Quelle: Bitkom-Präsident Achim Berg in einer PM: »Manager sprechen sich selbst hohe Digitalkompetenz zu« / April 2020

Obwohl, nach einer Bitkom-Studie von 2020, sich die meisten Unternehmenslenker selbst eine gute digitale Kompetenz zusprechen, irritieren doch die mahnenden Worte des Bitkom-Präsidenten. Die Crux an dieser Selbsteinschätzung ist, dass drei von vier Managern angeben, ihnen fehle die Zeit sich mit neuen digitalen Technologien zu befassen. Und damit stellt sich die Frage, ob der Erwerb digitalen Kontextwissens die allerhöchste Priorität in den Führungsetagen hat. Es besteht somit die Gefahr, dass das Thema nach unten wegdelegiert wird oder das es an einen Digitalisierungsbeauftragten übertragen wird, der sich oft als Einzelkämpfer*in an einer Organisation abarbeitet.

Das Modewort Digitalisierung subsumiert viele Themengebiete, die an sich kaum neu sind. Informationssicherheit, Datensicherheit und auch Datenschutz gelten beispielsweise als Voraussetzungen für eine erfolgreiche Digitalisierung. Seit Jahren lesen wir aber mit wiederkehrender Regelmäßigkeit Aufforderungen, z. B. Cyber-Sicherheit endlich zur Chefsache zu machen.

Es reicht nicht mehr aus, dass sich allein IT-Fachabteilungen um Cybersicherheit kümmern […]  Die Cyberabwehr muss zur Chefsache werden. Nur die obere Führungsebene kann die Priorität der IT-Sicherheit festschreiben, entsprechende Strukturen schaffen und notwendige Budgets freigeben.

Quelle: Bitkom PM »Markt für IT-Sicherheit auf Allzeithoch« vom Oktober 2020

Wechseln wir die Perspektive und schauen uns beispielsweise das Kontextwissen an, dass in einem Vorschlag des Präsidenten des Bayerischen Gemeindetages Uwe Brandl (CSU) zur Überwachung der 15km-Regeln (Corona-Pandemie) steckt.

Wir könnten heute Bewegungsprofile aus den Handys auslesen und auf diese Weise sehr treffsicher feststellen, wo sich die Menschen aufhalten. Wir müssen uns halt jetzt entscheiden, was wichtiger ist, der Gesundheitsschutz oder der Datenschutz.

Quelle: Uwe Brandl zitiert nach einem Beitrag von Heise.de / »Vorschlag zur Überwachung der 15-km-Regel per Handy stößt auf Widerstand« vom 11.01.2021

Leider verrät uns Herr Brandl nicht, welche technische Lösung er nun tatsächlich präferiert. Nehmen wir ihm beim Wort – er möchte Daten »aus dem Handy auslesen«. Inwieweit Bürger*innen überhaupt jederzeit ihr Mobilfunkgerät (insbesondere unter diesen Voraussetzungen) bei sich haben, sei dahingestellt. Zunächst muss man technisch zwei Dinge unterscheiden: i) die Ortung und ii) die Positionsbestimmung von Mobilfunkgeräten. GPS ist ein ii) Positionsbestimmungssystem, mit dem ein Mobilfunkgerät seine eigene Position feststellt – die Standortbestimmung per GPS kann z. B. bei Android mittels der Einstellungen auf dem Handy aktiviert und deaktiviert werden. Im Standby-Modus belastet die GPS-Funktion zwar kaum den Geräte-Akku, allerdings kann dies bei Standort-Abfragen in kurzen Abständen schon anders aussehen. Anders ausgedrückt, je exakter die Standort-Bestimmung, desto höher kann der Akkuverbrauch sein – ein gewisses Manko also.

Für die i) Ortung benötigt man nun einen Rückkanal, der die Position des Gerätes meldet. Dies könnte z. B. eine App (Stichwort: Auslesen von Handydaten) sein, die auf dem Handy installiert werden müsste – zusätzlich müsste die Berechtigung für den Zugriff auf die GPS-Funktion und deren Daten durch Nutzer*innen freigegeben werden. Kurzum ohne Akzeptanz (und diese ist kaum zu erwarten) keine aktive Mitwirkung und damit keine Möglichkeit, Ordnungswidrigkeiten in der intendierten Art zu verfolgen. Der Vorschlag scheint daher, gerade aus der Kombination von technischer Ungeeignetheit (auch im Sinne technischer Zugriffsberechtigungen) und Fragwürdigkeit in rechtlicher Hinsicht (ohne Akzeptanz bleibt nur eine Verpflichtung), nicht auf digitalem Kontextwissen zu beruhen.

Das Erlernen von Kompetenzen bei Generierung, Umgang und rechtlich konformer Weitergabe von Daten muss bereits im Schulalter erfolgen und in jeder Lebensphase weitergeführt werden.

Quelle: »Datenstrategie der Bundesregierung« Positionspapier der CDU/CSU-Fraktion im Deutschen Bundestag. Beschluss vom 26.Mai 2020 / Seite 9

Die CDU/CSU unterliegt derselben hierarchisch geprägten Perspektive, wenn es um die Beurteilung von Digitaler Kompetenz und entsprechenden Maßnahmen geht. Aber warum ist es unumgänglich, dass Entscheider*innen über dieses Kontextwissen verfügen? Die Antwort liegt schon in der Frage selbst – sie entscheiden. Daher müssen sie die relevanten Informationen (als Entscheidungsgrundlagen), die in hierarchisch geprägten Organisationsformen nun einmal von unten nach oben weitergegeben werden, verstehen können. Der verstärkte Einsatz digitaler Technologien (z. B. von Algorithmen) kann nicht dazu führen, dass Entscheidungsträger Verantwortlichkeit auf ebenjene Technik gleichsam »outsourcen«.

Describing a decision-making system as an »algorithm« is often a way to deflect accountability for human decisions.

Quelle: technologyreview.com / What is an “algorithm”? It depends whom you ask / By Kristian Lum & Rumman Chowdhury / Ungerechte Priorisierung bei einer Corona-Impfung am Standford Medical Center

Die Erscheinungsformen von Algorithmen sind vielfältig, sie sind aber keinesfalls arkane Maschinenmagie. In der Definition nach dem Computerwissenschaftler Harold Stone (1971): »An algorithm is a set of rules that precisely define a sequence of operations.« Dennoch bestimmen Menschen den Zweck, für den ein Algorithmus eingesetzt wird.

One of the core attractions of algorithms is that they allow the powerful to blame a black box for politically unattractive outcomes for which they would otherwise be responsible […].

Quelle: Roger McNamee / Twitter / 19. Dezember 2020 / https://twitter.com/moonalice/status/1340133707831627776

Am Beispiel des Stanford Medical Centers ging zwar die Wirkung einer ungerechten Priorisierungsreihenfolge für eine Corona-Impfung von einem regelbasierten »Algorithmus« aus, ursächlich aber waren fehlerhafte Entscheidungen bezüglich systemischer Verfahrensschritte durch Menschen, deren Fokus nur auf den verfügbaren Eingabedaten lag.

What matters is the potential for harm, regardless of whether we’re discussing an algebraic formula or a deep neural network.

Quelle: technologyreview.com / What is an “algorithm”? It depends whom you ask / By Kristian Lum & Rumman Chowdhury

Das bedeutet, und hier liegt auch ein Kernproblem der Positionspapiere der CDU/CSU, dass der Beurteilungsvektor sich zu sehr auf Daten (Daten-Perspektive) fixiert. Im Kontext müsste aber zunächst das Schädigungspotential z. B. eines Algorithmus (Algorithmen-Perspektive) betrachtet werden – aller Unkenrufe zum Trotz ist eine Risikobetrachtung nicht zu verwechseln mit einer Suche nach Gründen, etwas nicht zu tun. Pflichtschuldige Hinweise der CDU/CSU, dass der Staat Datenmissbrauch verhindert (z. B. Seite 5), sind im Vergleich nur unkonkrete Absichtserklärungen.

Es sei hier auf den risikobasierten Ansatz in Bezug auf Algorithmen der Gutachten der Datenethikkommission ab Seite 173 verwiesen.

Um den Einsatz eines algorithmischen Systems zu bewerten, reicht es folglich nicht, die Berechnungsvorschriften und verwendeten Daten zu kennen, sondern auch die Rahmenbedingungen und Verwendungszusammenhang des Einsatzes.

Quelle: Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen –ein Überblick / Büro für Technikfolgenabschätzung beim Deutschen Bundestag / Oktober 2020

Es bleibt eine abschließende Tatsache, dass Rahmenbedingungen von politischen oder wirtschaftlichen Entscheider*innen bestimmt werden. Auf die eingesetzten Mittel kommt es dabei nicht an, allerdings sehr wohl auf das Wissen von Entscheider*innen über den Einsatz dieser Mittel.

Das selbst der ehemalige Google-CEO Eric Schmidt im Jahr 2014, bezogen auf die Inkognito-Funktion des eigenen Kernproduktes Chrome, eine falsche Empfehlung gab, unterstreicht die Wichtigkeit von Wissen auf dieser Ebene.

»If you’re concerned, for whatever reason, you do not wish to be tracked by federal and state authorities, my strong recommendation is to use incognito mode, […]«

Quelle: Ehemalige CEO von Google Eric Schmidt 2014 / Interview (Videoauschnitt) Cato Institute / Eric Schmidt on Surveillance and National Security

I. d. R. bieten alle Browser einen Inkognito- oder privaten Modus (Firefox) an. Die Funktion arbeitet allerdings lokal und unterbindet z. B. bei Firefox, dass besuchte Seiten in der Browser-Chronik eingetragen werden. Das Tracking innerhalb eines Netzwerkes, z. B. durch den Arbeitgeber oder Behörden, verhindert die Funktion aber nicht. So hat z. B. ein Internet Service Provider, während der Kommunikation zwischen Client und Server, natürlich Kenntnis über die jeweiligen IP-Adressen.

Der Kuketz-Blog ist spendenfinanziert!

Unabhängig. Kritisch. Informativ. Praxisnah. Verständlich.

Die Arbeit von kuketz-blog.de wird vollständig durch Spenden unserer Leserschaft finanziert. Sei Teil unserer Community und unterstütze unsere Arbeit mit einer Spende.

Mitmachen ➡

3.2 »Top-Down«

Bezeichnenderweise ist die Betrachtungsperspektive »Top-Down« vorherrschend und dementsprechend gut belegt, wie beispielsweise im jährlichen D21-Digital-Index der Initiative D21 e.V.

[…] Lagebild zum aktuellen Stand der Digitalen Gesellschaft immer auch eine richtungsweisende Grundlage für EntscheiderInnen in Politik, Wirtschaft, Zivilgesellschaft und Wissenschaft. Sie müssen nun die Erkenntnisse dieser Studie in die richtigen Weichenstellungen für die Zukunft übersetzen.

Quelle: D21-Digital-Index 2019/2020 / Vorwort

Daher konzentriert sich Folgendes beispielhaft auf den wichtigen Kernpunkt Verständnis. In der Studie wird dies treffend so formuliert: »Das Wissen um Fachbegriffe ist Voraussetzung für eine fundierte, konstruktive und demokratische Debatte […]«. Allerdings konnten eine Mehrzahl der Personen Fachbegriffe wie Cloud oder Algorithmus in der D21-Studie 2019/2020 auf Seite 30ff, obwohl gestützt, nicht richtig erklären – obschon die Menschen angaben die Begriffe zu kennen. Die Tatsache, dass Menschen nicht definieren können, was (inoffiziell. Bezeichnung des Algorithmus: EdgeRank) letztlich z. B. die Inhalte für ihren individualisierten Facebook-Newsfeed für sie vorauswählt, spricht schon eine eigene Sprache.

Daher ist die Erkenntnis der CDU/CSU folgerichtig, wenn auch wie oben dargestellt eindimensional, dass es geeigneter Bildungsinitiativen bedarf.

Die institutionelle Vermittlung digitaler Kernkompetenzen entlang der gesamten Bildungskette spielt eine wichtige Rolle.

Quelle: D21-Digital-Index 2019/2020 / Vorwort

Gleichwohl veweist die CDU/CSU auf die digitale Vorreiterrolle der USA. Dort ist man in Bezug auf digitale Kompetenz allerdings kaum weiter. Eine gemeinsame Untersuchung der University of Chicago und der Leibniz University Hannover kam bei US-Amerikanern zu dem Schluss, dass sie die Wirkung der Inkognito- oder Privater-Modus-Funktion überschätzen. Beispielsweise waren 56,3 % der Beteiligten der Meinung, dass im Privaten Modus Suchanfragen durch Google nicht mehr ihrem Profil zugeordnet werden könne – obwohl sie mit ihrem Google-Konto eingeloggt waren (siehe Punkt 4.5.1 im Dokument). Hier wurde offenbar – ähnlich wie durch Eric Schmidt – die lokale Wirkung der Funktion auf die Browser-Chronik überschätzt.

Interessanterweise machen sich viele Bürger*innen wenige Illusionen, wieviel Kontrolle sie über die eigenen Daten haben.

Die Mehrheit der Bevölkerung empfindet eine gewisse Ohnmacht, was die Hoheit über ihre Daten im Netz anbelangt. Fast zwei Drittel sind der Meinung, die Kontrolle über ihre Daten zu verlieren, sobald sie sie an Online-AnbieterInnen übertragen.

Quelle: D21-Digital-Index 2019/2020 / Seite 43

Daher wird hier ein Schlaglicht auf eine weitere Schwäche der CDU/CSU geworfen. Digitale Bildung ist immens wichtig, aber sie muss mit selbstbestimmten Handlungsoptionen einhergehen, die digitale Partizipation garantieren.

Dies sei an einem kurzen Beispiel geschildert. Ein Arbeitgeber mag Bewerber*innen mittels eines Algorithmus in Ranking-Listen einteilen (algorithmengetriebene Entscheidungsfindung). Nun mögen grundlegende Kenntnisse über Algorithmen und das Allgemeine Gleichbehandlungsgesetz (AGG) für Bewerber*innen nützlich sein, um die Situation und ihre Rechte besser zu verstehen. Allein hilft dies kaum bei einem mittelbar (es wird ein Merkmal verwendet wird, dass z. B. einer sog. gesellschaftlichen Norm entspricht) »diskriminierenden Algorithmus«. Denn dazu müsste die Bewerber*in »Hinweise« erbringen, die eine Beweislasterleichterung (das Unternehmen muss nun nachweisen, dass es nicht diskriminiert) ermöglichen. Es mangelt aber schlicht an der Nachvollziehbarkeit.

»Aus Mangel an Transparenz, Zeit oder Fachkenntnis ist es für die Nutzerinnen algorithmischer Entscheidungssysteme oft gar nicht möglich, Einzelfälle zu überprüfen. […] Wenn ein Mensch die Entscheidung nicht mehr selbst mit Argumenten begründen kann, sondern sich auf den Output eines Computers verlässt, verschwimmt die Grenze zwischen menschlicher und algorithmischer Entscheidungsfindung.« (Vieth et al. 2017, S.12).

Quelle: Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen – ein Überblick / Büro für Technikfolgenabschätzung beim Deutschen Bundestag / Oktober 2020 / Seite 26

Auch der vermutliche erste Impuls eines wohlmeinenden Arbeitgebers, dass ein Mensch letztlich die Entscheidung über Bewerber*innen treffe – die Diskriminierung also auf dem Faktor Mensch beruhe – wäre kaum hilfreich, um das systemische Problem zu erkennen. Dies kann zu beiderseitigem Nachteil nicht funktionieren, solange eine Organisation die ausschließliche Verfügungsgewalt über die Informationen sowie die gewonnenen Erkenntnisse hat.

Daher kann digitale Teilhabe nur funktionieren, wenn eine Organisation die Erkenntnisse (über den Menschen) mit einem Individuum teilen muss. Und dies beinhaltet auch, welche Informationen zu diesem Ergebnis geführt haben und ist nicht zuletzt mit der Möglichkeit, wirksam zu intervenieren, verbunden.

4. Zurückgelassen …

In Positionspapieren »Datenstrategie der Bundesregierung« 2020 der CDU/CSU-Fraktion des Bundestages und der Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) erfasst die CDU/CSU die Umstände des Digitalen nur partiell. Wir erinnern uns, einerseits »geben Nutzer*innen den US-amerikanischen Digitalkonzernen bereitwillig ihre Daten«. Allerdings lesen wir überraschenderweise in der Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) auf Seite 21, dass diese zuvor unterstellte Bereitwilligkeit nun doch keine Wahl darstellt.

Die Regulierung des Datenschutzes basiert zentral darauf, dass Nutzer der Verarbeitung ihrer Daten zustimmen. Was früher ein plausibles Konzept war, funktioniert heute nicht mehr. So haben Nutzer häufig de facto gar keine Wahl mehr, wenn es um Anwendungen geht, die für ihre gesellschaftliche Teilhabe unerlässlich sind. Hinzu kommt, dass etwa das unentwegte Einblenden von sogenannten Cookie-Fenstern auf jeder Website die Nutzer nicht nur nervt; es ist zudem keine Hilfe und demonstriert eher die Hilflosigkeit aktueller Regulierung.

Quelle: Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) / Seite 21 / Hervorhebung durch den Autor

Es ließe sich zwar viel dazu schreiben, dass sich neben einer Einwilligung in Artikel 6 DSGVO noch fünf weitere Rechtsgrundlagen für eine Datenverarbeitung finden. Oder dass der Do-not-Track-Standard Consent-Banner vermutlich überflüssig gemacht hätte – beides ersparen wir uns hier. Ironischerweise wohnt dieser Feststellung eine Schlüsselerkenntnis inne. Sofern nun die digitale gesellschaftliche Teilhabe, gemäß der Nutzungsbedingungen und Geschäftsmodelle von Unternehmen, gewährt oder verweigert wird, wäre es nicht geboten diese Machtasymmetrie mittels der Durchsetzung bestehender Gesetze (Datenschutzrecht, Kartellrecht) auszugleichen? Offenbar nicht. Nach der Vorstellung der CDU/CSU sollen es Bürger*innen selber in Eigenregie richten. Oder besser gesagt in der Antragsfassung der Digitalcharta war dies so klar formuliert.

[…] Aber auch, indem jeder Einzelne dazu befähigt wird, sich sicher und eigenverantwortlich in der digitalen Welt bewegen zu können. Dies umfasst Eigenverantwortung bei der IT-Sicherheit und beim Umgang mit Daten und die Ermöglichung von Datensouveränität. Eine Datenschutzpolitik, die wie bei der DSGVO übertrieben in die Lebenswirklichkeit und den Alltag der Bürgerinnen und Bürger eingreift, entspricht nicht diesem Anspruch. […]

Quelle: Digitalcharta Innovationsplattform: D (Antrag des Bundesvorstandes der CDU Deutschlands an den 32. Parteitag am 22./23. November 2019 in Leipzig) / Zeile 134 bis 142

In der Beschlussfassung hat man dies, mittels allerlei Absichtserklärungen und einem aussagefreien Schlussschatz, abgeschwächt, dennoch ist die Intention dahinter nach wie vor dieselbe.

[…] Aber auch, indem jeder Einzelne dazu befähigt wird, sich sicher und eigenverantwortlich in der digitalen Welt bewegen zu können. Dies umfasst eine Verantwortung des Einzelnen bei der IT-Sicherheit und beim Umgang mit Daten und die Ermöglichung von Datensouveränität. Daher muss der Staat die Rahmenbedingungen setzen, in denen durch die Verhinderung von Datenmissbrauch und die Gewährleistung von Transparenz der Datenverarbeitung die Nutzer ertüchtigt werden, eigenverantwortlich in einem sicheren Rechtsrahmen zu agieren. Eine Datenschutzpolitik, wie sie bei der DSGVO, der aktuell diskutierten ePrivacyVO, deren nationalen Umsetzungen und teilweise übertriebenen und uneinheitlichen Auslegungen durch die Datenschutzbeauftragten erfolgt, entspricht nicht diesem Anspruch. […]

Quelle: Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) / Seite 5

Dies stellt letztlich eine Kapitulation vor dem vermeintlich Unausweichlichen dar, mit der Nicht-Lösung der gesellschaftlichen Anpassung. Denn Teile der deutschen Gesellschaft, insbesondere aber die CDU/CSU, sind – und diese Feststellung ist keinesfalls als Häme misszuverstehen – nur bedingt digital souverän.

5. … einer unerbittlichen, binären Logik unterworfen

Derzeit muss man ohne viel Pathos folgendes feststellen: Die absolute digitale Freiheit von Unternehmen führt zunehmend zu Willkür im »digitalen Raum«. Weit hergeholt? Mitnichten. Wir akzeptierten diese Willkür jeden Tag, indem jede Information im Internet zum Freiwild desjenigen wird, der über die Mittel verfügt, sich ihrer zu bemächtigen. Als Beispiel jener unerbittlichen, binären Logik, ohne jegliche Differenzierung, soll ein Wortwechsel vor dem District Court Northern District of California dienen.

MR. SNYDER [Anm. des Autors: Facebook-Anwalt]: There is no expectation of privacy when you go on a social media platform, the purpose of which, when you are set to friends, is to share and communicate things with a large group of people, a hundred people.

THE COURT: But there are different levels of risk […] I mean, you may — when you disseminate information to your 20 friends or your 50 friends or your hundred friends, you’re certainly taking a risk that other people will learn about that information. […]

But what you’re not risking, a risk that you’re not necessarily taking on is that the entity that’s helping you disseminate that information to your friends will then turn around and disseminate it to a thousand different corporations.

Quelle: UNITED STATES DISTRICT COURT NORTHERN DISTRICT OF CALIFORNIA / FACEBOOK, INC. NO. 18-MD-02843 VC CONSUMER PRIVACY USER PROFILE LITIGATION / TRANSCRIPT OF PROCEEDINGS / May 29, 2019 / Before The Honorable Vince Chhabria, Judge

Die subjektive Konsequenz dieser Logik: Ihr Foto ist im Internet abrufbar? Umstände und Gründe zählen nicht, es kann eigenmächtig (»scraping data«) weiterverarbeitet werden. Das Unternehmen Clearview AI kann beispielsweise dieses Foto in ein Überwachungsprodukt umwandeln, indem aus Ihren Gesichtsmerkmalen ein biometrisches Template errechnet wird. Wohlgemerkt haben Sie das Template kaum bereitwillig, noch bewusst, selbst bereitgestellt. Auf Ihre Zustimmung kommt es ebenfalls nicht an..

Inwieweit man sich nun eigenverantwortlich in einem Digitalen Raum bewegen soll, in dem die Willkür regiert, beantwortet die CDU/CSU nicht. Dabei käme es als Voraussetzung für Eigenverantwortung eben auf einen »geebneten« digitalen Raum an – mittels Rechtsdurchsetzung, um eine Möglichkeit zu nennen. Warum die CDU/CSU dies versäumt und darüber hinaus mit dem Datenschutzrecht hadert? Wir haben vier Aspekte herausgearbeitet: i) die Zustimmung und Einbindung von Bürger*innen ist nicht Bestandteil ihrer Digitalpolitik. Ein Hang zu einer hierarchisch geprägten Vorgehensweise wird deutlich.

[…] an Daten dort hineinbringen. So verpflichtend wie möglich. Mit so wenig Ausweichmöglichkeiten wie möglich […]

Quelle: Mehr Tempo für die Digitalisierung: Jens Spahn auf der DMEA 2019 (Video) / abzurufen unter www.youtube.com/watch?v=p3zwGRQ4ilQ

Sowie ii) das digitale Verhalten von Menschen wird primär als Wirtschaftsgut gesehen (siehe auch Teil 1) und die Risiken floskelreich vernachlässigt oder als Bedenkenträgertum diffamiert. Die CDU/CSU macht sich dabei die fatale Big-Data-Logik zu eigen, dass mehr Daten immer besser sind. Diese Haltung muss mit der DSGVO kollidieren, da dieses Regelwerk Bestimmtheit (Erforderlichkeit der Daten für einen konkreten Zweck) fordert.

Datensparsamkeit war gestern

Quelle: Pressemitteilung vom 27.05.2020 der CDU / CSU-Fraktion

Wer das Internet als Innovationsmotor und Daten (Seite 9 Digitalcharta) als dessen Treibstoff klassifiziert, muss allerdings klar benennen, welche Ausprägung dieses Ökosystems er für ein Zukunftsmodell hält. Das ist eine entscheidende Frage. Soll das Internet der Demokratisierung von Wissen und Informationen dienen oder als Rohstofflieferant für Werbe- und Überwachungsprodukte?

Schließlich iii) verzerrt die Blendgranaten-Rhetorik (Datenschutz=Täterschutz) der CDU/CSU den Blick der Partei auf das Gesamtgeschehen. Insbesondere unterschätzt die Partei die Rolle, die deutsche Unternehmen bei der Datensammelei von Facebook, Google & Co. spielen.

Anderseits mag auch eine gewisse Distanzlosigkeit mancher Mitarbeiter*innen von CDU / CSU-Ressorts zur Wirtschaft eine Rolle spielen. Ein Beispiel: Die Büroleiterin der Staatsministerin und Beauftragten für Digitalisierung, letztere ist Dorothee Bär, wechselte jüngst zu Facebook.

Darüber hinaus iv) fixiert sich die Partei zu sehr auf die Datenebene (und das Datenteilen), zeigt dabei aber allenfalls ein oberflächliches Verständnis für Datenverarbeitungen und deren Zusammenhänge (z. B. dahinterliegende Verarbeitung mittels abgeleiteter Daten). Da sie die Zweckverwendung (z. B. für Algorithmen) nur mit allgemeinen Plattitüden (»Digitalisierung ist nie Selbstzweck, sondern muss dem Menschen dienen« / Seite 2 Digitalcharta) behandelt, versäumt sie es, die dahinterstehenden Geschäftsmodelle zu erfassen und sich klar zu positionieren.

In der Quintessenz muss es der Partei daher schwerfallen, »rote Linien« zu definieren (siehe dazu Seite 3 in der Digitalcharta, in der die CDU/CSU Verbote als nachrangiges Mittel sieht). Man kommt nicht umhin sich zu fragen, ob das Unbehagen der CDU/CSU mit dem Datenschutzrecht nicht aus dem Verbot mit Erlaubnisvorbehalt herrührt?

6. Konsequenz

Die Konsequenz dieser Defizite möchten wir am Beispiel des Überwachungsproduktes von Clearview AI darstellen. Den technischen Aspekt hatten wir oben bereits zusammengefasst. Vergleichen wir die  Argumentation von Clearview mit den Positionspapieren der CDU/CSU. Was folgt, sind Schlussfolgerungen.

Clearview verwendet, nach eigenem Bekunden, Fotos aus dem offenen Internet – also »öffentlich verfügbare Informationen«. Dies inkludiert offene Informationsquellen wie Twitter, Facebook, Instagram, Youtube und sonstige Webseiten. In der Deutung der CDU/CSU also jenes offene System, dessen Treibstoff Daten sind (Seite 9 Digitalcharta).

Das US-Unternehmen überwacht Menschen auch nicht unmittelbar – sondern leitet aus den Gesichtsmerkmalen Templates ab und hält diese in einer Datenbank vor. Ein Algorithmus vergleicht nun die Templates mit denen aus einer Zieldatenbank (z. B. Fahndungsbilder). Bei einem/einer Täter*in meldet das System einen Treffer. In der Formulierung von Clearview ist es kein Überwachungs-, sondern ein Ermittlungswerkzeug.

Der Überwachung des einzelnen Menschen durch den Staat (Beispiel China: „social scoring“), durch Institutionen oder Unternehmen treten wir entschieden entgegen.

Quelle: Digitalcharta Innovationsplattform: D (Parteitag 22./23. November 2019) / Seite 3 / Hervorhebung durch den Autor

Nun muss man sehr genau lesen. Die CDU/CSU tritt lediglich der Überwachung einzelner Menschen entgegen. Bei Clearviews Überwachungsprodukt werden aber zunächst anlasslos und unter Generalverdacht (unabhängig davon, ob unschuldig, schuldig, verdächtig usw. oder ob es sich um Erwachsene oder Kinder handelt) massenweise biometrische Templates erstellt. Es zielt also zunächst nicht auf die Überwachung einzelner Menschen ab, es ist aber zweifellos mittelbar dazu geeignet – siehe hierzu diesen Artikel. Nach Clearviews Aussagen werden, durch das Überwachungsprodukt, Täter*innen identifiziert und die Allgemeinheit (potentielle Opfer) geschützt. Wenn Ihnen die Argumentation unheimlich bekannt vorkommt, dann lesen sie Punkt 2.1 noch einmal.

Gehen wir nun noch kurz auf die Deutung der Eigenverantwortung ein. Übrigens ist dies heute schon Realität. Sollte bei Ihnen der Verdacht aufkeimen, dass ein Unternehmen, das Sie nicht kennen und mit dem Sie auch keine Berührungspunkte haben, ein biometrisches Template ihres Gesichtes erzeugt hat, liegt es nun in ihrer eigenen Verantwortung. Hier geht es zum Opt-Out [nicht mehr verfügbar] von Clearview AI (Sie müssen Kontaktdaten und ein Foto hinterlegen).

Geht es dabei mit rechten Dingen zu? Nun, die kanadische Datenschutzaufsicht schätzt Clearviews Vorgehen als rechtswidrig ein. Das US-Unternehmen scheint hingegen der Ansicht zu sein, dass hier mehr »Beratung« der Datenschutzaufsicht angemessen wäre.

[…], Clearview stated that it was “prepared to consider” remaining outside of the Canadian market for a further two years, while our Offices developed relevant guidance. Clearview suggested that it would be appropriate for our Offices to suspend our investigation and not issue this final report, and that during such a suspension, it “would be willing to take steps, on a best efforts and without prejudice basis, to try to limit the collection and distribution of the images that it is able to identify as Canadian” [emphasis added].  […]

Quelle: Joint investigation of Clearview AI, Inc. by the Office of the Privacy Commissioner of Canada, the Commission d’accès à l’information du Québec, the Information and Privacy Commissioner for British Columbia, and the Information Privacy Commissioner of Alberta

Eine wohl eher zufällige Parallele zur Haltung der CDU/CSU beim Thema Aufsicht und Sanktionen.

Angesichts der hochkomplexen Materie „Datenschutz und Umsetzung der DSGVO“ sind Aufsichtsbehörden angehalten, stärker zu beraten, statt lediglich zu sanktionieren.

Quelle: »Datenstrategie der Bundesregierung« Positionspapier der CDU/CSU-Fraktion im Deutschen Bundestag. Beschluss vom 26.Mai 2020 / Seite 8

In der Gesamtschau ist das beste Fazit folgende Aufforderung an die CDU/CSU: »Denken first, Digitalisieren second!«. Denn wer mit dem Mittel der regulierten Selbstregulierung (Seite 3 Digitalcharta) arbeitet, muss auch dafür Sorge tragen, dass derjenige, der sich nicht selbst reguliert, von außen reguliert wird.

P.S. An dieser Stelle eine Danksagung an Tschaeggaer für das unermüdliche Korrekturlesen.

Bildquellen:

Afraid Boy: Freepik from www.flaticon.com is licensed by CC 3.0 BY

Über den Autor | Gastbeitrag

Gastbeiträge werden von Autoren verfasst, die nicht zum festen Redaktionsteam des Kuketz-Blogs gehören. Bevor ein Gastbeitrag veröffentlicht wird, findet eine inhaltliche Abstimmung mit mir statt. Dabei übernehme ich die redaktionelle Bearbeitung des Textes, prüfe den Inhalt und bereite den Beitrag sorgfältig für die Veröffentlichung im Blog vor.

Gastbeitrag ➡

SpendeUnterstützen

Die Arbeit von kuketz-blog.de wird zu 100% durch Spenden unserer Leserinnen und Leser finanziert. Werde Teil dieser Community und unterstütze auch du unsere Arbeit mit deiner Spende.

Folge dem Blog

Wenn du über aktuelle Beiträge informiert werden möchtest, hast du verschiedene Möglichkeiten, dem Blog zu folgen:

Bleib aktuell ➡


Diskussion
HilfeWenn du konkrete Fragen hast oder Hilfe benötigst, sind das offizielle Forum oder der Chat geeignete Anlaufstellen, um dein Anliegen zu diskutieren. Per E-Mail beantworte ich grundsätzlich keine (Support-)Anfragen – dazu fehlt mir einfach die Zeit. Kuketz-Forum

Abschließender Hinweis

Blog-Beiträge erheben nicht den Anspruch auf ständige Aktualität und Richtigkeit wie Lexikoneinträge (z.B. Wikipedia), sondern beziehen sich wie Zeitungsartikel auf den Informationsstand zum Zeitpunkt des Redaktionsschlusses.

Kritik, Anregungen oder Korrekturvorschläge zu den Beiträgen nehme ich gerne per E-Mail entgegen.