
AK warnt: Fingerprint & Co geklaut? Nebenwirkungen sind lebenslang!
Augenscan und die Tür zum Labor geht auf – in Science-Fiction-Filmen ist die biometrische Erfassung, also Vermessung und Auswertung körperlicher Merkmale, schon lange nichts Neues mehr. Für KonsumentInnen schleicht sie sich immer mehr in den Alltag ein. Finger aufs Display und flugs das Handy ist entsperrt. Passwörter oder Schlüssel kann man vergessen – Finger, Auge & Co sind immer mit dabei. Biometrische Merkmale mögen auf den ersten Blick eine einfache Lösung sein, aber sicher sind sie nicht.
Missbrauch wird Tür und Tor geöffnet
Biometrische Sicherheitsversprechen sind nicht nur oft übertrieben, es wird auch Missbrauch Tür und Tor geöffnet, warnen AK und Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften. Körpereigenschaften werden zu einer Art Code, Verhaltensmuster analysiert. Biometrische Daten könnten zu Universal-Passwörtern werden und dadurch auch für Kriminelle sehr wertvoll. Gefahren zeigt eine Studie auf, die die AK beim Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften in Auftrag gegeben hat: „Der Körper als Schlüssel? – Biometrische Methoden für KonsumentInnen“.
„Sollten Fingerabdruck oder Gesichtsscan in falsche Hände kommen, hat der durch Datenklau verursachte Schaden dauerhafte Folgen. Wie weist man seine Identität nach? Ist der Schlüssel weg, kann man ihn nachmachen lassen, Körpermerkmale nicht“, warnt Daniela Zimmer, AK KonsumentInnenschützerin. „Denn Fingerlinien lassen sich nun einmal nicht wie ein Schlüssel wechseln. Selbst Online-Fotos sind heikel, wie die Skandalfälle Clearview oder PimEyes zeigen: Millionen Profilbilder wurden nach biometrischen Merkmalen abgegriffen. Die EU-Kommission setzt leider gerade andere Signale: Einem geleakten Papier zur EU-Verordnung über Künstliche Intelligenz zufolge soll die biometrische Fernidentifkation von Personen auf öffentlichen Plätzen unter bestimmten Voraussetzungen erlaubt sein.
Studienautor Walter Peissl: „Insbesondere die schleichende Gewöhnung an die biometrische Vermessung durch die bequeme, tägliche Nutzung an Smartphone, Tablet und Smart Speaker stellt ein Gefahrenpotenzial dar.“
Die Erfassung, Vermessung und Überwachung körperlicher Merkmale ist ein gefährlicher Schritt in Richtung Massenüberwachung mit enormen Gefahren für Freiheit und Menschenrechte. AK und Institut für Technikfolgen-Abschätzung (ITA) der Österreichischen Akademie der Wissenschaften verlangen klare Gebote und Verbote für den Einsatz von Biometrie bei KonsumentInnengeschäften – es gibt rechtliche Lücken und Graubereiche.
Zur Studie „Der Körper als Schlüssel?“
Die Frage der Gesichtserkennung im öffentlichen Raum ist ein Thema. Wenig beleuchtet ist, dass KonsumentInnen auch in vielen anderen Bereichen mit der Vermessung und Überwachung körperlicher Merkmale konfrontiert sind. Der Fingerabdruck zum Entsperren des Laptops, die Sprachanalyse bei Smarten Lautsprechern, die Gesichtserkennung beim Grenzübertritt im Urlaub, der Iris-Scan bei modernen Türschlössern - sie alle verarbeiten biometrische Merkmale.
Die Studie „Der Körper als Schlüssel? – Biometrische Methoden für KonsumentInnen“ des Instituts für Technikfolgen-Abschätzung (ITA) der Akademie der Wissenschaften im Auftrag der AK stellt gängige Methoden und Anwendungsbereiche vor, zeigt aber vor allem ihre Risiken und Gefahren für KonsumentInnen auf.
Eindeutig identifiziert - Finger & Co als Code
Biometrische Verfahren identifizieren Personen durch Erfassung und Analyse bestimmter, für die Person charakteristischer Eigenschaften – also biometrische Merkmale. Dazu gehören biologische Merkmale von Gesicht oder Fingerabdruck ebenso wie verhaltenstypische Merkmale wie Unterschrift oder Gangart. Der Körper als Schlüssel: Sie basieren nicht auf Wissen (etwa ein Passwort) oder Besitz (etwa ein physischer Schlüssel), sondern Eigenschaften und sind direkter Ausdruck der Identität einer Person. Ein Ändern oder Verbergen dieser Merkmale ist nicht möglich. Sie sind daher in besonderem Maße missbrauchsgefährdet.
Den biometrischen Fingerprint als Zugangscode gab's schon bei James Bond in den 1970er-Jahren. Was damals futuristisch war, schleicht sich heute in den Alltag ein. Passwort weg, kein Ausweis oder Schlüssel dabei? Macht nichts: Biometrie hilft, Geschäfte abzuwickeln. Finger aufs Display legen, schwupps man ist angemeldet. Um die Identität von KonsumentInnen zu überprüfen, werden immer öfter körperliche Merkmale herangezogen, die einen Menschen eindeutig charakterisieren. Das Smartphone wird mit dem Fingerabdruck entsperrt. Der Zugang zum Online-Banking wird via Gesichtsscan eröffnet. Ein biometrischer Scanner liest die biologischen Merkmale eines Benutzers – etwa sein Irismuster oder seinen Fingerabdruck – und wandelt das Ergebnis in digitale Informationen um, so dass ein Computer diese interpretieren und verifizieren kann.
Was bequem klingt, ist vielfach gefährlich. „Handys sind gerade Wegbereiter zur Biometrie – das schleicht sich in den Alltag ein. NutzerInnen empfinden es zunehmend als völlig normal, harmlos und sicher, sich mit Fingerabdruck zu identifizieren oder damit zu bezahlen“, so Zimmer.
Erst der gruselige Anfang
Peissl: „Biometrie ist längst nicht mehr auf Fingerprints oder Gesichtsbilder beschränkt. Körpereigenschaften werden zu einer Art Code. Verhaltensmuster werden analysiert wie die individuelle Art eines Menschen zu gehen oder Emotionen in Gesichtern.“ Emotionserkennung wird in der Werbebranche eingesetzt und ist besonders bedenklich, wenn sie bei Bewerbungsgesprächen oder in Callcentern angewandt wird oder in Personenprofile einfließt. Auch die Robotik/KI-Entwicklung erforscht die Erfassung menschlicher Mimik (etwa wach oder schlafend in autonomen Fahrzeugen). Am eifrigsten wird geforscht, wie Biometrie Sicherheits- und Überwachungstechnologien noch tiefgreifender machen kann: rein äußerliche Körpermerkmale? – waren gestern, Verhaltensmuster heute. Morgen werden, so die Prognosen, innerkörperliche Aktivitäten, etwa Herzschlagmuster aus Distanz mittels Laser oder Biomen (mikrobiologischen Zellen) analysiert, um das Verhalten einer Person abzubilden.
Was große Sorgen macht
- Biometrie berührt rasch die Menschenwürde: Technologien, die körperliche Eigenschaften nutzen, greifen nicht nur immer mehr in unsere Privatsphäre ein, sondern berühren auch die Menschenwürde.
- Datenweitergabe entzieht sich jeder Kontrolle: Bei von Sensoren erfassten biometrischen Merkmalen, wie Bild oder Tondaten, lässt sich eine Weitergabe der Daten von betroffenen Personen kaum kontrollieren. Vor allem Systeme im Bereitschaftsmodus, etwa digitale Sprachassistenten oder bei Bewegung aktivierte Kameras sind diesbezüglich schon in Misskredit gekommen. Fingerabdrücke oder DNA-Spuren werden ständig unbeabsichtigt hinterlassen, aber auch unbedachte Veröffentlichung von Bild- oder Tonaufnahmen.
- Verborgene oder nachträgliche Datenanalyse: Was KonsumentInnen nicht bewusst ist: Iris-Kameras, Stimmaufnahmen eines Mikrophons oder die Analyse von Internetprofilbildern erfolgen für KonsumentInnen verdeckt oder dienen zunächst ganz anderen Zwecken – Daten können ganz leicht unbewusst erfasst werden und noch leichter später biometrisch ausgewertet werden. ExpertInnen bezweifeln, ob biometrische Daten (wie etwa Gesichtsbilder) auf Smartphones hinreichend vor Weiternutzung durch Dritte geschützt sind. Stimmaufnahmen oder Gesichtsbildern können auch lange Zeit nach der eigentlichen Datenerfassung ausgewertet werden.
- Riesige rechtliche Lücke, was zu biometrischen Daten zählt: Biometrische Daten sind zweifellos sensible Daten und damit besonders schützenswert. Die Datenschutzgrund-Verordnung enthält zwar eine Legaldefinition des Begriffs der biometrischen Daten. Diese „biometrische Daten im engeren Sinne“ allein besonders zu schützen, reicht nicht. Es gibt unendlich viele Daten, die von dieser Definition nicht erfasst werden (zum Beispiel Gesichtsbilder im Internet), aber ebenso auswertbar sind.
- Trend zu bloßer „Convenience“: Die Verbreitung von Biometrie in Alltagstechnologien und kommerziellen Anwendungen (Finanz- und Bankensektor) ist mit Vorsicht zu genießen. Sie wird nach der EU-Zahlungsdienste-Richtlinie oft als zusätzlicher Faktor bei Banken-Apps und im Online-Handel eingesetzt. Insgesamt ist mehr Sicherheit nur marginal erkennbar. Es gibt eigentlich gegenteilige Effekte: Gewöhnungseffekte senken die Hemmschwelle bei den NutzerInnen und damit oft auch Sicherheitsbedenken und das Bewusstsein über mögliche Gefahren.
- Gesichtserkennung als besonders bedenkliche Anwendung: Obwohl die Systeme immer noch sehr hohe Fehlerraten aufweisen und immer wieder Personen falsch als Verdächtige einstufen, werden sie von Sicherheitsbehörden eingesetzt. Zudem sind die verwendeten Algorithmen mit Bias (Verzerrungen, Fehlern) behaftet, die Rassismus und Diskriminierung erzeugen können. Insgesamt dient die Gesichtserkennung zur Massenüberwachung, was in den USA wesentlich deutlicher sichtbar ist, aber auch in Europa immer mehr an Bedeutung gewinnt. Die wachsende Verbreitung macht diese Technologie zu einer großen Gefahr für die Demokratie.
- Pandemie als zusätzlicher Treiber biometrischer Datenerfassung: Die Covid19-Pandemie zeigt, wie rasch es zu einer Ausweitung biometrischer Datenerfassung kommen kann. Einige Länder nutzen verstärkt biometrische Systeme, um den Gesundheitszustand von Personen zu messen. Mit der Dauer der Pandemie ist das Risiko noch tieferer Eingriffe in die Privatsphäre verbunden. Insbesondere dann, wenn sensible Daten über den Gesundheitszustand von Personen erfasst und gesammelt werden.
- Datenschutz schwer aufrecht zu erhalten. Es wird noch schwieriger, Datenschutz irgendwie aufrechtzuerhalten. Biometrie bindet Technik und die dabei generierten Daten noch stärker an die Identität. Anonyme oder pseudonyme Nutzung und Trennung verschiedener Anwendungen, so dass nicht ohne weiteres Daten verkettet werden können, wird damit extrem erschwert.
EU Kommission ermöglicht Biometrie-Einsatz
„Es ist also hoch an der Zeit, KonsumentInnen vor unbedachten Folgen zu schützen“, verlangt Zimmer. Die EU-Kommission räumt in ihrem Weißbuch zu Künstlicher Intelligenz (KI) ein, dass Missbrauchsszenarien beim Einsatz von KI für die biometrische Fernidentifikation (etwa Auswertung von Videokamerabildern) realistisch sind und erwog zunächst sogar ein vorübergehendes Verbot für den Einsatz von Gesichtserkennung zumindest im öffentlichen Raum. Man brauche Zeit für eine gründliche Risikoabschätzung, um EU-BürgerInnen vor dem Missbrauch der Technik zu schützen.
Ein brandaktueller, geleakter Entwurf zur Verordnung über Künstliche Intelligenz ebnet nun aber den Weg für die Fernidentifikation von Personen auf öffentlichen Plätzen auf Basis ihres Aussehens, Gangs etc. Biometrische, öffentliche Überwachung wird möglich, wenn es nationales oder EU-Recht vorsehen, schwere Verbrechen damit verhindert oder aufgeklärt werden sollen und nationale Aufsichtsbehörden das Vorhaben genehmigen.
Biometrie-Einsatz - Regeln nötig!
Fingerabdrücke sollte man nicht für triviale, alltägliche Authentifizierungen nutzen, vor allem, wenn sie in der Cloud gespeichert werden. Aber selbst eine lokale Speicherung am Endgerät ist keineswegs vor Dieben sicher. „Aus unserer Sicht ist im KonsumentInnengeschäft angesichts massiver Risiken wenig Potenzial für gefahrlose Anwendungen. Im Gegenteil: Bei jeder Biometrie-Anwendung ist vor deren Einsatz genau zu prüfen, ob die Verarbeitung biometrischer Daten notwendig, sinnvoll und verhältnismäßig ist, weshalb ihr Einsatz eingeschränkt werden sollte,“ so Peissl.
„Biometrische Merkmale kann man nicht löschen. Sie begleiten uns unser Leben lang“, so Zimmer. „Verlorene Schlüssel und vergessene Passwörter lassen sich ersetzen, Körpermerkmale nicht. Werden Abdrücke, etc. gestohlen, um sie missbräuchlich zu nutzen, hätte das dauerhafte Folgen. Fingerlinien lassen sich nicht wie Passwörter wechseln. KonsumentInnen brauchen Schutz.“
Biometrie bei KonsumentInnengeschäften - was es braucht
Bessere Regeln in Datenschutzgrund-Verordnung:
Gerade im KonsumentInnenbereich nehmen Biometrie-Anwendungen zu und damit – aufgrund des hohen Verkaufswerts der Daten – das Risiko der Zweckentfremdung, Identitätsdiebstahl und Datenmissbrauch. Die Datenschutz-Grundverordnung verbietet grundsätzlich, biometrische Daten zu verarbeiten und erlaubt sie nur unter strengen Voraussetzungen. Datenschutzfolgenabschätzung und technisch-organisatorische Datenschutz- und Sicherheitsmaßnahmen sind verpflichtend vorgesehen, reichen aber bei weitem nicht aus, um Risiken und Missbrauchsmöglichkeiten Herr zu werden. Hier sind strengere Regeln nötig.
Biometrie darf kein Geschäft werden:
Die Kommerzialisierung von und der Handel mit biometrischen Daten und die Weitergabe an externe Dritte sollte grundsätzlich verboten und mit hohen Strafen sanktioniert sein.
Wahlfreiheit ist oberstes Gebot:
Jede/r Konsument/in sollte selbst entscheiden können, ob seine/ihre biometrischen Daten verarbeitet werden dürfen oder nicht. Gerade der Staat hat hier Vorbildfunktion. So forderte der Datenschutzrat 2020, dass es neben dem geplanten Einsatz biometrischer Daten bei der Handysignatur (E-ID) immer auch Alternativen geben muss und äußerte Sicherheitsbedenken, die Bürgerkarte einfach auf die Face- bzw. Fingerprint-ID von Apple, Google & Co zu stützen.
Pflichtcheck vor dem Griff nach biometrischen Daten:
Vor jedem Einsatz biometrischer Daten sollten Datenschutzbehörden angesichts des hohen Risiko- und Schadenspotenzials prüfen, ob die Verarbeitung biometrischer Daten notwendig und sinnvoll ist.
Onlinebanking ohne bleibende biometrische Daten:
Es darf zu keiner dauerhaften Speicherung von biometrischen Daten oder deren digitaler Komponenten (Hashwerte, etc.) kommen, um das Risiko von Identitätsdiebstahl zu minimieren. Darüber hinaus muss es auch weiterhin Wahlfreiheit bei den Authentifizierungsverfahren geben.
Vorgabe verpflichtender Sicherheitsstandards:
Wo Biometrie als ergänzender Authentifikationsfaktor genutzt wird, etwa beim E-Banking, ist sicherzustellen, dass die Daten vor externen Zugriffen geschützt sind und es zu keinerlei dauerhafter Speicherung von biometrischen Daten oder deren digitaler Komponenten (wie Hashwerte und dergleichen) kommt. So können Missbrauchsrisiken, etwa Identitätsdiebstahl verringert werden.
Gesichtsfotos als sensible Daten:
Fotos mit Gesichtern werden bereits in unzähligen Fällen für die Identifikation von Personen durch Gesichtserkennung genutzt. Rechtlich ist offen, inwieweit diese Daten als biometrisch gelten. Hier besteht dringendster Bedarf, Porträtbilder als sensibel einzustufen, um sie besser vor versteckter biometrischer Auswertung zu schützen.
Gebote und Verbote für Gesichtserkennung:
Gesichtserkennung ist jene Technologie, die aus heutiger Sicht die größte Bedrohung für Grundrechte und Demokratie darstellt. Technische Unzulänglichkeiten, etwa enorm hohen Fehlerraten, technologisch verschärfte Diskriminierung, Rassismus, Unterdrückung, Massenüberwachung und Verlust von Privatsphäre, Anonymität und persönlicher Freiheit sind Grund genug, enge rechtliche Grenzen zu setzen.