Siehst du was, was ich nicht seh? – Wie Kameras mit künstlicher Intelligenz uns heimlich beobachten

In Hamburg passiert gerade etwas, das viele Menschen gar nicht mitbekommen. Es geht um Kameras in U-Bahn-Stationen, in Bussen und an Bahnhöfen. Diese Kameras filmen nicht nur, wie früher. Sie denken jetzt mit. Oder genauer gesagt: Eine Maschine, ein sogenanntes Computerprogramm mit künstlicher Intelligenz, versucht zu verstehen, was auf den Bildern passiert. Dieses Programm soll erkennen, ob jemand stürzt, sich prügelt oder irgendetwas macht, das als gefährlich gelten könnte. Das klingt im ersten Moment wie eine gute Idee. Aber wenn man genauer hinschaut, sieht man, dass diese neue Technik große Gefahren mit sich bringt.

Künstliche Intelligenz heißt: Eine Maschine bekommt viele Daten, also zum Beispiel ganz viele Videos von Menschen, die sich auf Bahnsteigen bewegen. Dann lernt die Maschine, Muster zu erkennen. Ein Muster ist etwas, das sich wiederholt. Wenn jemand zum Beispiel umfällt, sieht das oft ähnlich aus. Die Maschine erkennt dieses Muster und schlägt Alarm. So soll die Polizei oder das Sicherheitspersonal schneller eingreifen können, wenn etwas passiert. So weit die Idee. Aber genau hier fangen die Probleme an.

Die Maschine erkennt nur, was sie gelernt hat. Sie weiß nicht, ob sich zwei Freunde streiten oder nur laut miteinander reden. Sie weiß nicht, ob ein Mensch verwirrt ist oder einfach nur müde. Sie erkennt Bewegungen. Aber sie versteht keine Gefühle. Und sie kennt keine Lebensgeschichten. Wenn zum Beispiel ein Obdachloser länger auf einer Bank sitzt oder jemand aus dem Rollstuhl aufsteht, um sich umzusetzen, dann kann das System das als verdächtig einstufen. Die Folge: Der Mensch wird beobachtet. Vielleicht wird er sogar angesprochen oder kontrolliert, obwohl er gar nichts getan hat. Es reicht dann schon, dass sich jemand anders bewegt als die meisten. So beginnt die Maschine, Menschen zu sortieren. In „normal“ und „auffällig“. Das ist eine sehr gefährliche Entwicklung.

Die Hochbahn in Hamburg will genau so eine Technik jetzt testen. In allen U-Bahn-Stationen gibt es schon über tausend Kameras. Viele davon sind alt und konnten bisher nur aufzeichnen. Jetzt soll geprüft werden, ob man diese Kameras mit der neuen Technik verbinden kann. Zusätzlich will man moderne Kameras einsetzen, die direkt erkennen, wenn etwas passiert, das die Maschine für gefährlich hält. Ein paar dieser Kameras sind schon im Testbetrieb. Das heißt, sie beobachten gerade in Echtzeit, was Menschen tun. Und sie bewerten es.

Die Leute, die das entscheiden, sagen: Das ist nur zu unserem Schutz. Aber sie sagen auch: Die Polizei bekommt die Bilder nicht sofort. Erst mal schauen sich Mitarbeitende der Hochbahn die Bilder an. Aber was heißt das in Wirklichkeit? Das bedeutet, dass Maschinen ständig überwachen, was Menschen tun. Und dass jemand entscheidet, was auffällig ist – ohne, dass du davon weißt. Du wirst nicht gefragt. Und du kannst dich auch nicht dagegen wehren. Und wenn du nicht in das Muster der Maschine passt, dann bekommst du Ärger.

Das ist ein Problem für alle, die anders sind. Menschen mit Behinderungen zum Beispiel. Oder Menschen mit psychischen Erkrankungen, die sich manchmal ungewöhnlich verhalten. Oder Kinder, die rennen und toben. Oder jemand, der einfach still in der Ecke steht, weil er traurig ist. Alles das kann von der Maschine falsch verstanden werden. Das nennt man Fehlalarm. Und diese Fehlalarme können Folgen haben. Vielleicht wird jemand angesprochen, obwohl er nichts gemacht hat. Vielleicht bekommt jemand Angst. Vielleicht traut sich jemand gar nicht mehr, überhaupt mit der Bahn zu fahren.

Die Hochbahn sagt, das sei alles datenschutzkonform. Das bedeutet, dass keine persönlichen Daten gespeichert werden. Zum Beispiel soll niemand erkannt werden können. Keine Gesichter, keine Namen. Nur Bewegungen. Aber das stimmt so nicht ganz. Denn die Technik kann sehr wohl erkennen, wie jemand sich bewegt. Und oft reicht das, um jemanden wiederzuerkennen. Wenn du zum Beispiel einen besonderen Gang hast oder immer den gleichen Rucksack trägst, bist du schnell wiedererkannt – auch ohne Namen oder Gesicht. Man nennt das Verhaltensprofil. Und solche Profile lassen sich speichern und vergleichen. Ohne dass du davon erfährst.

Was viele auch nicht wissen: Diese Art von Technik kann sehr schnell ausgeweitet werden. Heute nur am Bahnsteig, morgen im Zug, übermorgen in jedem Bus. Und irgendwann auf der Straße. Wenn das System einmal da ist, dann kostet es fast nichts mehr, es an anderen Orten zu benutzen. Man muss dann nur noch die Kameras anschließen. Das nennt man Skalierung. Und genau das macht diese Entwicklung so gefährlich. Die Grenze zwischen Sicherheit und Überwachung wird immer unschärfer. Am Ende wissen wir nicht mehr, wann wir beobachtet werden – und warum.

Die Hochbahn sagt: Das Ganze ist ein Pilotprojekt. Das heißt, es ist ein Versuch. Aber wie viele solcher Versuche werden später einfach übernommen? Am Hansaplatz in Hamburg wurde schon vor zwei Jahren mit genau solcher Technik getestet. Auch da sagte man: Nur ein Test. Aber inzwischen gibt es die ersten Pläne, diese Technik auf den ganzen Hauptbahnhof auszudehnen. Und man will die Technik mit anderen Behörden teilen. Die Polizei, das Ordnungsamt, der Sicherheitsdienst – alle könnten auf die Daten zugreifen. Das wurde zwar noch nicht offiziell beschlossen. Aber es ist der nächste logische Schritt.

Ein ganz wichtiger Punkt ist: Diese Technik bewertet nicht alle Menschen gleich. Wer arm ist, wer unsicher wirkt, wer krank aussieht, wird schneller als „auffällig“ eingestuft. Das nennt man diskriminierend. Eine Maschine kennt keine Gerechtigkeit. Sie sieht nur Bewegungen. Und sie sortiert nach dem, was sie vorher gelernt hat. Wenn sie mit Bildern von Gewalt gefüttert wurde, dann erkennt sie irgendwann Gewalt auch dort, wo keine ist. Sie kann Umarmungen mit einer Schlägerei verwechseln. Oder ein Spiel mit einem Angriff. Und je mehr sie lernt, desto mehr glaubt sie zu wissen. Aber sie versteht nichts. Sie hat kein Gefühl. Sie hat kein Herz.

Das große Problem ist: Wir gewöhnen uns daran. Wenn wir jeden Tag von Maschinen beobachtet werden, dann finden wir das irgendwann normal. Wir passen unser Verhalten an. Wir lachen weniger. Wir rennen nicht mehr zum Zug, weil es auffällig sein könnte. Wir setzen uns nicht mehr einfach auf den Boden, wenn wir müde sind. Und irgendwann haben wir vergessen, wie es war, unbeobachtet zu sein. Das ist der Anfang vom Ende der Freiheit. Denn Freiheit heißt auch: Du kannst Dinge tun, die andere komisch finden, solange du niemandem schadest. Wenn aber eine Maschine entscheidet, was komisch ist, dann ist niemand mehr sicher.

Die Menschen, die diese Technik entwickeln, reden von Innovation. Innovation heißt: Etwas Neues erfinden. Aber nicht alles Neue ist gut. Es gibt auch schlechte Erfindungen. Und manche können gefährlich werden. Eine Maschine, die über Menschen urteilt, ist immer gefährlich. Weil sie nicht verstehen kann, was ein Mensch wirklich braucht. Sicherheit ist wichtig. Aber nicht, wenn sie unsere Freiheit zerstört.

Was wir brauchen, ist eine ehrliche Diskussion. Nicht nur Pressemitteilungen, in denen Politiker sich selbst loben. Wir brauchen echte Fragen. Was passiert mit den Daten? Wer entscheidet, wann ein Verhalten gefährlich ist? Wer kontrolliert die Maschinen? Wer schützt die, die nicht in das Raster passen? Und vor allem: Was passiert, wenn diese Technik in falsche Hände gerät? Wenn eine Regierung an die Macht kommt, die anders denkt als heute? Die Menschen nicht beschützen will, sondern kontrollieren? Dann ist alles, was wir heute bauen, ein Werkzeug für Unterdrückung. Und das darf nie wieder passieren.

Deshalb sage ich ganz klar: Ich will keine Kameras, die mich bewerten. Ich will keine Maschinen, die entscheiden, ob ich richtig bin oder falsch. Ich will einen öffentlichen Raum, in dem ich sein kann, wie ich bin. Ohne Angst, ohne Kontrolle, ohne Technik, die mich heimlich beobachtet. Ich will keine Bahn fahren müssen, in der ich mich wie ein Verdächtiger fühle. Und ich will nicht, dass Kinder lernen, dass Maschinen über sie wachen. Wir müssen jetzt laut sein. Denn später ist es vielleicht zu spät.

Wenn du diesen Text liest und denkst: So schlimm wird es schon nicht kommen – dann erinnere dich an all die Male, wo genau das gesagt wurde. Und dann kam es doch. Nicht alles, was technisch möglich ist, ist auch richtig. Manchmal ist Widerstand die einzige richtige Antwort.

Quellen:
Alle Aussagen und Daten stammen aus öffentlichen Berichten und Artikeln aus den Jahren 2023 bis 2025, unter anderem vom Hamburger Abendblatt, der MOPO, Netzpolitik.org, Digitalcourage, offiziellen Mitteilungen der Hochbahn, der S-Bahn Hamburg und des Senats. Die Aussagen wurden sorgfältig geprüft und in einfache Sprache übertragen.