Was möglich ist, muss nicht zwangsläufig sinnvoll sein

Ist Deutschland auf dem Weg in den Überwachungsstaat? Am Berliner S-Bahnhof Südkreuz werden gleich drei Systeme zur Gesichtserkennung quasi im Freilandversuch getestet. Die Nutzer des Bahnhofs haben die Wahl. Je nachdem, durch welche Tür sie den Bahnhof betreten, nehmen sie an diesem Versuch teil oder nicht. Bundesinnenminister Thomas de Maizière (CDU) scheint davon überzeugt zu sein, dass diese Technologie das Land sicherer machen kann. Videoüberwachung schrecke ab und helfe bei der Aufklärung von Straftaten. Mag ja sein. Aber Videoüberwachung und Gesichtserkennung, das sind unterschiedliche Kaliber der Bildanalyse. Terroristen auf dem Weg zu einem Anschlag verfügen über ein einfaches, weit verbreitetes Mittel, die Gesichtserkennung zu unterlaufen. Gegen „Bio Surveillance Next“ von Herta Security, „EXAV-FRS 2.0“ von AnyVision und „Morpho Video Investigator“ von L-1 Identity Solutions hilft vermutlich: eine Basecap. Auf deutsch: Schirmmütze. Machen sich also künftig alle Träger solcher Mützen verdächtig, wenn sie im Überwachungsbereich nicht ihr Gesicht zeigen wollen?

„Wenn massenhaft Gesichter von unbescholtenen Bürgerinnen und Bürgern an Bahnhöfen gescannt werden, dann greift der Staat schwerwiegend in Grundrechte ein“, sagt Ulrich Schellenberg, der Präsident des Deutschen Anwaltsvereins. Das Scannen führe zu einem „nicht hinnehmbaren Gefühl des Überwachtwerdens und der Einschüchterung“. Ich denke, er hat recht. Die Gesichtserkennung ist ein Schritt übers Ziel hinaus. Wir tun den islamistischen Idioten damit genau den Gefallen, den sie sich erhoffen. Sie versuchen, uns in die Paranoia zu treiben, um es verkürzt auszudrücken.

fr-balkenLeserbriefe

Dagmar Schön aus München meint:

„Bald kann man nur noch mit Maske auf die Straße gehen, wenn man auf geschützte Privatsphäre Wert legt. Da Vermummung verboten ist, muss man sich mit einer Feinstaubmasken gegen den Diesel-Dreck schützen. Damit ist die Gesichtserkennung auch ausgehebelt. Das kann wohl nicht verboten werden.
Schlimmer als die Rechtsverletzung von oben durch Gesichtserkennung ist die Tatsache, dass viele Bürger*innen das gar nicht schlimm, sondern sogar gut finden. Diese Leute sind alle noch nicht im Grundgesetz-Staat angekommen. Sie sind noch im Metternich’schen Feudalstaat geistig zu Hause. Das ist die Wahrheit und das wirkliche Problem. Die Mehrheit der im zwanzigsten  Jahrhundert geborenen Deutschen hat Angst vor der Freiheit. Freiheit ist ohne Risiko nicht möglich. Sie sind lieber grundversorgte bzw. ausgebeutete Sklaven, solange sie, je nach ihrer Schichtenzugehörigkeit, jede Woche Fußball im Fernsehen anschauen oder Golf spielen dürfen.
Armes Deutschland, das immer noch die Namen seiner feudalen Ausbeuter von früher kennt und die wenigen Robert Blums alle vergessen hat.
Irgendwann bekommen wir dann alle Chips implantiert oder Fußfesseln verpasst, aus Sicherheitsgründen. Dann leben wir, bzw. unsere Nachkommen, endgültig in der Matrix.“

Manfred Kirsch aus Neuwied:

„In der Tat sind nicht nur Zweifel über den Nutzen der Gesichtserkennung angebracht. Nein, es ist eindeutig so, dass die liberale Demokratie durch das Pilotprojekt zur Erprobung einer neuen Überwachungstechnik am Berliner Bahnhof Südkreuz erneut Schaden nimmt und, wie der Anwaltsverein richtig feststellt, einen weiteren Schritt zum Überwachungsstaat hinter sich bringt.
Innenminister Thomas de Maizière von der CDU will natürlich das verständliche Sicherheitsbedürfnis der Menschen mit immer neuen Überwachungstechniken für sich und die Union ausnutzen.  Hierbei ist es ihm wohl egal, dass damit der Rechtsstaat immer mehr verstümmelt wird.
Es ist vor allem das Stammtischargument „Wer nichts zu verbergen hat, der kann auch die neue Gesichtserkennung über sich ergehen lassen und hat nichts zu befürchten“, das schon in der Debatte über die Vorratsdatenspeicherung immer wieder zu hören war. Wenn die Verantwortlichen für die Sicherheitspolitik nicht bald wach werden, dann ist die Erinnerung an George Orwells „1984“ heute bittere Realität.
Es handelt sich bei der Gesichtserkennung um einen schwerwiegenden Eingriff in die Privatsphäre, dessen Abwendung sich gerade auch die Sozialdemokraten auf die Fahnen schreiben sollten. Doch das Thema taugt für Populisten und macht es daher für die Demokratie so gefährlich.
Man kann und muss immer wieder darauf hinweisen, dass es einen hundertprozentigen Schutz vor Kriminalität und Terrorismus nicht gibt.
Wir alle können uns aber gegen die Aushöhlung von Grundrechten zur Wehr setzen. Das erfordert natürlich demokratisches politisches Engagement, welches in diesen Zeiten notwendiger denn je ist.“

Dennis Riehle aus Konstanz:

„Die Gesichtserkennung wird vor allem Opfer hervorbringen. Menschen, die zu Unrecht beschuldigt werden, weil die Technik zwar genau ist, aber nicht haargenau.
Wir verlassen uns zu sehr auf den Fortschritt, billigen ihm unverblümt und offenherzig zu, den Nachweis einer unverrückbaren Täterschaft zu erbringen, obwohl wir genau wissen, dass ein einziger Fehler für einen Menschen einen riesigen Einschnitt in sein Leben, in seine Reputation, in Karriere und Freiheit bringen kann.
Wollen wir solch eine Unsicherheit zulassen, wenn es darum geht, über die Schuld zu entscheiden, die zwar auch bislang unter Vorbehalt zugesprochen wurde? Denn die Anfälligkeit für Ungenaues ist bei menschlichen Aussagen, bei Spurensicherung und -auswertung noch größer als bei der Gesichtserkennung.
Der Unterschied ist aber: Wir haben diesen Hilfsmitteln eine entsprechende Skepsis entgegengebracht. Damit war es nötig, die Verantwortung für ein Verbrechen anhand vieler anderer Beweise bestätigen zu müssen.
Wenn wir dieser Tage nahezu blind in das vertrauen, was uns Unternehmen, Wissenschaftler und Forscher durch die Gesichtserkennung versprechen, verlieren wir unsere notwendigen Zweifel an Ergebnissen und Erkenntnissen. Und jeder Fall von Ungenauigkeit ist fatal.
So werden auch wir schuldig, wenn wir uns unkritisch auf alles einlassen, was möglich ist, ohne zu hinterfragen, ob es sinnvoll sein kann.“

5 Kommentare

  1. Frank Wohlgemuth sagt:

    Diese Aufregung kommt etwas spät: Gleichzeitig zur Diskussion um biometrische Erkennungszeichen im Ausweis wurde auch die Passfotografie derartig normiert und ein Senden des Passbildes an eine zentrale Behörde, nämlich die für den Druck des Ausweises, Standard, so dass eigentlich seit dem davon ausgegangen werden kann, dass diese Bilder auch zentral zur Verfügung stehen und genau in diesem Sinn benutzt werden. Wir leben in einem Zeitalter, in dem wir erwarten, dass ein Rechner im Auto ein zweidimensionales Bild in Echtzeit mit hoher Sicherheit als Verkehrssituation interpretiert und wundern uns über eine automatische Gesichtskontrolle?

    Ich geben zu, dass ich bei meinem ersten maschinenlesbaren Ausweis den Barcode verfälscht hatte, weil mir die Idee nicht gefiel. Aber bereits kurze Zeit später war mir klar, dass das nutzlos war, weil bereits mit den damaligen Möglichkeiten ein derart normiertes Schriftstück wie ein Personalausweis mit sehr einfacher Technik komplett gescannt und ausgewertet werden konnte – man bedurfte des Barcodes gar nicht, der war nur ein Stück Redundanz.

    Seit wir unser Maut-System installiert haben, haben wir auch die Möglichkeit, jede Autonummer auf der Straße zu identifizieren und leben damit. Und das können wir, solange wir die Datenströme überwachen, die durch diese Maschinen erzeugt werden und aufpassen, wo diese Daten wie lange bleiben. Die neueren Systeme sind nicht mehr so leicht zu überlisten und dass ausgerechnet ein Fachmann von der Überlistung der Technik durch eine Schirmmütze schwadronniert, lässt mich an seiner Expertise zweifeln. Das mag für die Berliner Installation gelten, aber wer sagt, dass die Kameras soweit oben und nur eine sein müssen?

    Um es auf den Punkt zu bringen: Die neue Technik ist da, und ich bin dafür, sie auch offiziell zu nutzen und damit nicht nur den Schlapphüten zu überlassen, die sie heimlich nutzen. Allerdings bin ich gleichzeitig dafür, aus dem Daten- und Informationsschutz Behörden unter demokratischer Aufsicht zu machen, die diese Aufgabe sowohl auf Datenbank- als auch auf Programmebene wirklich leisten können und damit mehr sind als die zu klein geratenen Feigenblätter, die wir uns im Moment leisten – dass soll keine Kritik an denen sein, die das im Moment machen, diese Positionen sind einfach viel zu mickrig ausgestattet.

    Um die Worthülse, die ich gerade produziert habe, mit konkretem Inhalt zu füllen: Es wird hier so getan, als müssten die Überwachungskameras am Bahnhof auf eine totale Überwachung auch für Lieschen Müller hinauslaufen. Dem ist aber nicht so. An diesem Beispiel: Wenn ich eine Kamera mit einer Gesichtserkennung kombiniere, heißt das nicht automatisch, dass eine Zentrale immer gleichzeitig wissen muss, wer da alles vorbeigelaufen ist, es heißt nicht einmal, dass da überhaupt jeder identifiziert wird. Das heißt es nur, wenn die Organsation so läuft, dass die Gesichtserkennung das gerade als Gesicht erkannte Muster an eine Zentrale weitergibt, in der die Person zu diesem Muster gesucht wird. Das Ganze lässt sich aber auch so organisieren, dass die Gesichtserkennung vor Ort keine Muster weitergibt, sondern selbst die Muster, nach denen speziell gesucht wird, lokal zur Verfügung hat. Und die Verteilung dieser Muster muss dann anderen, aber strukturell ähnlichen Regeln unterliegen wie etwa die Genehmigung zur Überwachung eines Telefons. Eine derartige Organisation würde also dazu führen, dass Lieschen Müller völlig unerkannt durch die Überwachung geht wie bisher auch, aber die Passage des Staatsfeindes Fantomas mit relativer Sicherheit, zumindest einer höhere als im Moment, erkannt würde.

    Was ich da beschrieben habe, ist die organisatorische Sicherstellung, dass die Automatik nur das macht, was der Beamte früher auch gemacht hat: Es werden die Personen, die vorbeilaufen, anhand einer aktuellen Fahndungsliste überprüft. Weitere Daten fallen nicht an und müssen auch nicht vernichtet werden. Allerdings brauchen wir mehr als unsere momentane Alibiveranstaltung im Datenschutz – diese Behörde muss viel stärker als bisher nicht nur in die Überprüfung der vorhandenen Datenflüsse, sonder in deren Planung mit einbezogen werden. Und wir brauchen Straftatbestände für die Umgehung der Regeln, die wir uns für unseren Umgang mit Daten geben, die zeigen, dass wir diese Regeln ernst meinen.

  2. Brigitte Ernst sagt:

    Das Problem ist doch, dass wir bereits gläsern werden, sobald wir das Internet nutzen, E-Mails schreiben oder mit einem eingeschalteten Smartphone oder Handy herumlaufen. Von der Nutzung von Facebook, Twitter etc. ganz zu schweigen. Und das tun wir (oder zumindest eine riesige Anzahl von Nutzern weltweit) freiwillig.

  3. I. Werner sagt:

    Irgendwo klingelt da im Hinterkopf bei mir der Film „Brazil“ aus den 80er Jahren, wo durch einen kleinen Druckfehler der falsche Mann als Terrorist verfolgt wird. Wie genau kann so ein Scanner sein? Und wie wiederholen sich „Gesichtsmuster“ für einen Computer? Auf einer meiner Reisen wurde ich von dem Rezeptionisten freundlich begrüßt mit den Worten: „Sie sind schon wieder zurück?“ Ich war irritiert, denn ich war noch nie zuvor in diesem Hotel. Offenbar war am Tag zuvor eine Frau abgereist, die mir ähnlich sah, bzw. ein ähnliches „Gesichtsmuster“ hatte wie ich. Mein Mann verwechselt immer Frauen im TV, die ähnlich geschminkt sind und die gleichen Frisuren tragen. Eben, nur Muster. Wie schnell kann man da ins Visier geraten? Noch sind wir eine sehr freie Gesellschaft, lange erkämpft und vor allem nicht mit einer aus historisch betrachteten langen Tradition. Aber mit Hilfe der neuen technischen digitalen Möglichkeiten könnten wir perfekter agieren als die Stasi und die Nazis das jemals konnten. Dann können, im schlimmsten Fall, z.B. bei einem Putsch des Militärs, all diese Instrumente zur Menschenjagd genutzt werden. Das sind meine Ängste, mein Geschichtsbewusstsein sagt mir, dass das möglich ist, auch wenn es augenblicklich in Deutschland nicht so scheint.

  4. Brigitte Ernst sagt:

    @ I.Werner

    In einer Diktatur braucht man solche Mittel gar nicht. Erdogan macht uns das doch gerade vor. Da wird jeder, der dem Pascha im Weg ist, einfach mit irgendeiner an den Haaren herbeigezogenen Begründung ins Gefängnis gesteckt. Sollte es in unserem Land wieder so weit kommen, wird ohnehin die nackte Willkür herrschen und wir brauchen uns vor Gesichtserkennung nicht mehr zu füchten.
    Für Ängstliche empfehle ich, Burka oder Niqab zu tragen. Da bekommt dieses Kleidungsstück doch eine ganz neue Bedeutung!

  5. Frank Wohlgemuth sagt:

    @ I.Werner
    Tragische Verwechslungen sind nun wirklich kein Vorrecht von Rechnern, Zeugenaussagen vor Gericht sind voll davon. Aber die Erkennungssoftware dürfte heute vom Ergebnis besser sein, als die durchschnittliche natürliche, die wir eingebaut haben, und damit auch besser als der durchschnittliche Blick eines Grenzbeamten. Unter anderem, weil sich diese Software nicht von auffälligen Details, die unseren Blick ablenken, ablenken lässt. Ich kenne diese spezielle Software nicht, aber Sie sollten sich da nicht einfach ein Programm vorstellen, das versucht, ein Bild über ein anderes zu legen und „hurra“ schreit, wenn die Abweichungen x% nicht überschreiten. Wenn ich das Wort Muster benutzt habe, dann meinte ich damit Muster in Form mathematischer Beschreibungen. D.h. ich gehe nicht davon aus, dass der Rechner versucht, ein einzelnes Bild auszuwerten, sondern davon, dass er mehrere Bilder aus vielleicht nur geringfügig veränderter Perspektive benutzt, wie sie sich schon aus unwillkürlichen Bewegungen des Kopfes ergeben, oder durch eine Bewegung des gehenden Objektes relativ zum Kamerastandort, und daraus ein dreidimensionales Modell des Kopfes erstellt, um dieses Modell in einer optimale Frontstellung zu berechnen, die dann für den Vergleich benutzt wird, wenn auch als Fahndungsmuster nur ein Frontalbild zur Verfügung steht. Idealerweise existiert aber auch da ein dreidimensionales Modell.

    Aber viel wesentlicher als ein Vertrauen auf den technischen Standard ist auch hier, dass diese Software niemanden verurteilen darf. Sie liefert die Information, dass nach ihrem Informationsstand eine bestimmte Person vor der Kamera gewesen ist, mehr nicht – was mit dieser Information passiert, u.a. auch an welcher Stelle und auf welche Weise sie von Menschen zu überprüfen ist, ist Sache einer festzulegenden Verfahrensweise: Wir können zwar unsere Dummheit mit Rechnerkraft vervielfältigen, aber für unsere Dummheit verantwortlich sind immer noch wir selbst. Das ist auch der Hintergrund für meine Forderung nach einer erheblich genaueren Planung und Überprüfung des Informationsflusses im Staat, das gilt nicht nur für unseren Umgang mit dem Ergebnis einer automatischen Gesichtserkennung am Standort X. Beim Unbehagen gegenüber dem allwissenden Staat bin ich nämlich ganz auf Ihrer Seite, auch aus der historischen Erfahrung, was der Staat mit diesem Wissen gemacht hat. Aber diese Dinge entscheiden wir nicht damit, ob der Staat seine Information auf technischem oder anderem Weg erlangt, sondern damit, welche Information er haben und was er damit machen darf.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Um Spam zu vermeiden, füllen Sie bitte das Captchafeld aus. * Time limit is exhausted. Please reload CAPTCHA.