Antwort der ING-DiBa bezüglich App-Tracking beim Online-Banking

In einigen Beiträgen hatte ich schon darauf hingewiesen, dass ich es für äußerst bedenklich empfinde, wenn User-Tracking innerhalb Banking-Apps integriert wird, die sensible Bezahlvorgänge ausführen. Das ist einer der Gründe, weshalb Banken das Online-Banking ohne Not unsicher machen.

Ein Leser hat mal bei der ING-DiBa bezüglich der drei integrierten Tracker nachgefragt. Die Antwort der ING-DiBa:

Guten Tag XY,

wie versprochen, kommen wir auf Ihre Nachricht vom 04.02.2021 zurück.

Die 3 genannten Tools haben unterschiedliche Funktionen:

Google Firebase besteht aus mehreren Komponenten. Wir nutzen aktuell lediglich eine in Verbindung mit Push-Benachrichtigungen, alle anderen Komponenten inkl. Analytics sind deaktiviert.

Webtrekk wird in Verbindung mit der App Analyse (z. B. zur Fehlerbehebung) genutzt und kann im Menü deaktiviert werden.

Microsoft App Center ist ebenfalls eine aus mehreren Komponenten bestehende Toolsammlung. Davon nutzen wir nur den Teil, der für den Versand der Crash-Berichte notwendig ist. Durch die übermittelten Daten kann keine Verbindung zum einzelnen Kunden hergestellt werden. Auch diese Funktion lässt sich App-Menü unter „Berichte senden“ deaktivieren.

Wir freuen uns, wenn wir Ihnen damit weiterhelfen konnten und wünschen Ihnen einen schönen Tag. Kennen Sie schon unseren virtuellen Assistenten? Unter www.ing.de/hilfe/ bekommen Sie schnell und direkt Antworten auf Ihre Fragen.

Viele Grüße

Ihr Team Anfragen und Beschwerden

Ich habe das geprüft. Und es ist korrekt: Nach der Deaktivierung der Tracker übersendet die App keine Daten mehr an die Drittanbieter. Was allerdings problematisch bleibt: Das Tracking sollte Opt-In sein und nicht Opt-Out. So viel Anstand und Respekt gegenüber dem Nutzer sucht man allerdings oftmals vergebens.

Dennoch bleibt die grundsätzliche Kritik davon unberührt. Weshalb das so ist möchte ich kurz erläutern: Wir vertrauen darauf, dass Werbe- und Analytik-Module von Drittanbietern in Apps integriert werden und anschließend im Hintergrund ihre Arbeit verrichten. Welche Daten diese Module allerdings sammeln und an die Drittanbieter übermitteln, das wissen teilweise nicht einmal die App-Entwickler selbst, die diese Module in ihre Apps integrieren. In diesem Zusammenhang wird dann gerne erwähnt, dass die (Meta-)Daten doch »pseudonymisiert« bzw. »anonymisiert« seien – beides halte ich für eine Augenwischerei. Denn durch die Korrelation mit anderen Datenbeständen, lässt sich häufig ein Personenbezug herstellen, wie etliche Beispiele belegen:

  • 2012Big Brother Award (2012) für IMS Health für »Die vollständige Analyse und Vermarktung des gläsernen Patienten«. Begründung der Jury:

    Da es sich um Daten wie Geschlecht, Geburtsjahr, Krankenscheinart, Diagnose, Medikamente, Dosierung, Therapie oder Laborwerte handelt, die »anonymisiert« an IMS Health geliefert werden, lassen sich allein damit Rückschlüsse auf einzelne Personen ziehen.

  • 2013: Die Studie »Re-Identifies Anonymous Volunteers In DNA Study« zeigt, dass sich allein aus der Kombination aus Geschlecht, Geburtsdatum und der Postleitzahl zwischen 84 und 97% der Teilnehmer eines DNA-Projekts identifizieren lassen.
  • 2013: In der Studie »Riding with the Stars: Passenger Privacy in the NYC Taxicab Dataset« zeigt ein Master Student, wie Personen anhand von der Taxinummer, Koordinaten von Anfangs- und Endpunkt, Datum, Uhrzeit und Preis der Fahrt, unter Verwendung von Zusatzinformationen aus Presse oder Facebook, deanonymisiert werden können.
  • 2016: Der vom NDR aufgedeckte Datenskandal »Nackt im Netz« demonstriert, wie Millionen von Internet-Nutzern, darunter Manager, Richter und Journalisten, im Netz ausgespäht wurden. Das Browser-Addon WOT (Web of Trust) hat die gesammelten Surf-Daten nicht ausreichend anonymisiert und dennoch weiterverkauft.

Wie schwierig es ist Daten korrekt zu anonymisieren, zeigt unter anderem der EU-Bericht »Opinion 05/2014 on Anonymisation Techniques«. Darin wird auch deutlich herausgestellt, dass Pseudonymisierung ungleich Anonymisierung ist. Das bedeutet: Selbst wenn jemand beteuert, er würde personenbeziehbare Daten vor der Speicherung bzw. Weitergabe ausreichend »anonymisieren«, so sieht die Realität oftmals wohl ganz anders aus.

In Bezug auf Banking-Apps, die höchst sensible Daten verarbeiteten, bedeutet das letztendlich: Werbe- und Analytik-Module haben darin schlichtweg nichts verloren – es ist vollkommen indiskutabel, diese in Banking-Apps zu integrieren. Oder allgemein formuliert: In Apps, in denen sensible Daten verarbeitet werden, darf kein proprietärer und intransparenter Fremdcode integriert werden.

Die Banken sehen das vielfach natürlich anders. User-Tracking bzw. die grafische Aufbereitung der erhobenen Daten in Form von Kuchendiagrammen für interne Auswertungszwecke scheint ihnen wichtiger, als Datenschutz und Sicherheit zu sein. Gerade in einem so sensiblen Umfeld ein No-Go und vollkommen unverständlich.

Du kannst den Blog aktiv unterstützen! Mitmachen ➡