Wie die EU mit Künstlicher Intelligenz ihre Grenzen schützen will

Die EU-Kommission hat in den letzten zehn Jahren massiv in die Forschung zu Künstlicher Intelligenz investiert – insgesamt über 3 Milliarden Euro. Smarte Grenzen sollen unter anderem das Sterben im Mittelmeer verringern und die Kontrollen an den EU-Außengrenzen automatisieren. AlgorithmWatch und das ZDF Magazin Royale haben recherchiert, was es mit einigen dieser von der EU geförderten Projekte auf sich hat.

Das Mittelmeer gilt als die tödlichste Grenzregion der Welt. Rund 29.000 Menschen sind in den vergangenen zehn Jahren beim Versuch, Europa zu erreichen, im Mittelmeer verschwunden oder ums Leben gekommen.

Gleichzeitig werden seit 2015 die Rufe nach einem stärkeren EU-Außengrenzschutz lauter. In der Beschreibung eines EU-Forschungsprojektes heißt es etwa: „In den letzten Jahren hat die irreguläre Migration dramatisch zugenommen und ist mit bestehenden Systemen nicht mehr beherrschbar.“

Eine Antwort der EU-Kommission auf diese Herausforderungen ist: Künstliche Intelligenz. Die EU-Kommission lässt seit Jahren daran forschen, wie Grenzüberwachung mithilfe von Drohnen, Satelliten und anderen digitalen Systemen zunehmend automatisiert werden kann.

EU investiert Milliarden in KI-Forschung

Die Forschungsprojekte werden durch EU-Programme wie Horizon 2020 und Horizon Europe mit Millionenbeträgen gefördert. Die EU-Kommission veröffentlicht zu geförderten Forschungsprojekten einige allgemeine Informationen. So erfährt man auf einer Website der EU-Kommission beispielsweise, dass das Forschungsprojekt ODYSSEUS herausfinden soll, wie Grenzbeamt*innen mittels KI „entlastet” und ihre „Produktivität verbessert“ werden kann.

Das EU-Projekt METICOS sollte „gesellschaftliche Akzeptanz” von Technologien fördern, die „abnormale Verhaltensweisen“ bei Menschen erkennen sollen.

Forscher*innen beobachten seit Jahren eine „Securitization” der Migrationsdebatte. Diese „Versicherheitlichung” bedeutet, dass gesellschaftliche Themen – wie zum Beispiel Flucht und Asyl – zu einem Sicherheitsproblem für uns alle erklärt werden. Die Idee dahinter: Wenn Geflüchtete nicht mehr als Schutzsuchende, sondern als Sicherheitsrisiko dargestellt werden, nehmen Bürger*innen harte Überwachungsmaßnahmen gegen sie wohl eher in Kauf.

Auch in EU-Projekten wird Migration als Sicherheitsthema verhandelt. Viele EU-Forschungen zum Thema Migration sind etwa in der Forschungskategorie „Secure Societies“ – „sichere Gesellschaften” – gelistet.

Grenzschutz vor der Grenze

Die EU setzt nicht nur auf den Schutz der Außengrenzen im Mittelmeerraum, sondern weitet seit einigen Jahren Grenzschutzaktivitäten auf einen sogenannten „Grenzvorbereich“ aus. Laut EU-Verordnung ist damit „das geografische Gebiet jenseits der Außengrenzen” gemeint, „das für die Verwaltung der Außengrenzen mithilfe von Risikoanalyse und Lagebewusstsein von Bedeutung ist”. Projekte wie NESTOR konzentrieren sich explizit darauf, Überwachung mithilfe von KI-gestützten Anwendungen an diesem „Grenzvorbereich” auszubauen.

Mit Blick darauf, in welchen Gebieten die Grenzschutzagentur Frontex mittlerweile operiert, scheint der EU-„Grenzvorbereich” in der Praxis weit ausgelegt zu werden: Er erstreckt sich über den Westbalkan, den südlichen Kaukasus bis nach Nordafrika und in die Sahelzone hinein.

EU-Staaten wie Deutschland versuchen, die Anzahl von Abschiebungen zu erhöhen, indem sie Migrationsabkommen mit Ländern aus diesen Regionen abschließen, auch gegen die Interessen der dortigen Bevölkerung. Am Beispiel Tunesien zeigt sich etwa, wie Technik – auch aus Beständen der Bundespolizei – über schwer zu kontrollierende, internationale Organisationen an lokale Grenzschutzbehörden gelangt, die Menschenrechte missachten.

Migration vorhersagen, um sie zu verhindern?

Einige EU-finanzierte Projekte beschäftigen sich mit der Vorhersage von Migrationsbewegungen. So auch das System EuMigratTool. Es enthält „monatliche Vorhersagen zu Asylanträgen in der EU“; seine Entwickler*innen behaupten, dass es in der Lage sei, die potenziellen Risiken von Spannungen zwischen Migrant*innen und EU-Bürger*innen zu identifizieren.

Der eigene Nutzer*innen-Beirat des Forschungsprojekts warnte in einer Stellungnahme vor Missbrauch: Das System könne dazu führen, dass „Grenzen geschlossen und zu Gewalt angestiftet” würde. Die Daten zu Asylanträgen könnten außerdem dafür verwendet werden, „Unterstützung für eine Anti-Migrationspolitik zu bekommen“. Entwickelt wurde es dennoch.

Ein anderes Projekt zog die Trends der Google-Suche heran, um vorherzusagen, wann es wie zu Migrationsbewegungen von Rumänien ins Vereinigte Königreich kommen könnte.

Das EU-finanzierte HumMingBird wertet sogar die Metadaten von Telefongesprächen aus, um herauszufinden, wo telefoniert wird und wo es womöglich zu Migrationsbewegungen kommen könnte.

Vieles bleibt geheim

Die allgemeinen Projektbeschreibungen werden auf der Webseite der EU-Kommission veröffentlicht.

Viele Dokumente – wie zum Beispiel die Ethikberichte der Projekte – bleiben aber oft unveröffentlicht. Damit fällt es schwer, einzuschätzen, welche Gefahr für Grundrechte von einem Projekt ausgehen kann oder was die Forscher*innen konkret vorhaben. Eine demokratische Debatte über den Einsatz von Künstlicher Intelligenz an den EU-Außengrenzen ist damit nicht möglich.

Deshalb haben Rechercheur*innen von AlgorithmWatch und ZDF Magazin Royale bei der zuständigen European Research Executive Agency (REA) die bislang unveröffentlichten Dokumente zu KI-Forschungsprojekten der EU angefragt.

Die REA gehört zur EU-Kommission und soll in ihrem Auftrag „wegweisende Projekte in praktisch allen Bereichen von Forschung und Innovation finanzieren und verwalten“.

Als EU-Behörde ist die REA gesetzlich dazu verpflichtet, der Öffentlichkeit den Zugang zu Dokumenten von EU-Institutionen zu ermöglichen. Deshalb haben AlgorithmWatch und das ZDF Magazin Royale bei der REA auf Grundlage der europäischen Informationsfreiheitsgesetze (EU-Verordnung 1049/2001 und 1367/2006) Zugang zu den Dokumenten gefordert.

Diese EU-Verordnungen ermöglichen allen EU-Bürger*innen den Zugang zu Dokumenten des Europäischen Parlaments, des Rates und der Kommission. In Artikel 4 der Verordnung 1049/2001 sind Ausnahmen genannt, in denen die EU-Institutionen die Herausgabe der Dokumente verweigern können. Darunter: Schutz der öffentlichen Sicherheit, Datenschutz oder kommerzielle Interessen.

Transparenz der EU-Kommission: 169 von 177 Seiten geschwärzt

Die REA hat den Zugang zu den Dokumenten allerdings stark limitiert. Beim Forschungsprojekt NESTOR wurden die Rechercheur*innen etwa angehalten, aufgrund des hohen Aufwands maximal zehn von insgesamt 88 Dokumenten auszuwählen. Diese Dokumente wurden von der REA wiederum teilweise stark geschwärzt. Ein Anhang der Förderbewilligung von NESTOR enthielt etwa 169 geschwärzte Seiten.

Auf Anfrage rechtfertigt die EU-Kommission die großflächigen Schwärzungen unter anderem folgendermaßen: „Während das öffentliche Interesse durch die bestehenden Ethikverfahren geschützt ist, würde die Veröffentlichung nicht-öffentlicher Dokumente diese für Wettbewerber innerhalb und außerhalb der EU zugänglich machen.”

Die Öffentlichkeit wird also rausgehalten, weil es interne Ethikverfahren gibt, die die Projekte ohnehin kontrollieren.

Auch die ethische Kontrolle ist mangelhaft

Die EU-Kommission kann etwa bei Forschungsprojekten, die komplexe und bedeutende ethische Fragen aufwerfen, die Kontrolle durch Ethikberater*innen vorschreiben.

Diese Ethikberater*innen haben unabhängig zu sein. So hält die EU-Kommission in einer Dos and Don’ts-Liste fest: „[Don’t] Ask your best friend for a favor or recruit your EAB [Ethics Advisory Board] from the project partners or their home institutions.“ Ethikberater*innen sollten also weder für Projektpartner*innen arbeiten, noch mit der Projektleitung befreundet sein.

Der unabhängige Ethikberater von iBorderCtrl war nicht unabhängig

In einem Fall hat die REA bei den herausgegebenen Dokumenten offenbar vergessen, den Namen des Ethikberaters von iBorderCtrl unkenntlich zu machen. Nur deshalb konnten die Rechercheur*innen nachvollziehen, dass der unabhängige Ethikberater von iBorderCtrl nicht unabhängig war.

Dem ZDF Magazin Royale und AlgorithmWatch ist der Name des Ethikberaters bekannt. Die Redaktion hat sich entschlossen, den Namen des Ethikberaters nicht zu veröffentlichen, weil es sich um keine Person des öffentlichen Interesses handelt. Die Frage, wie EU-finanzierte Projekte ethisch kontrolliert werden, ist jedoch sehr wohl von öffentlichem Interesse.

iBorderCtrl wurde unter anderem von der Leibniz Universität Hannover entwickelt.

Deren Institut für Rechtsinformatik hat sich den rechtlichen und ethischen Fragen des Projekts gewidmet. Dabei sollte ein unabhängiger Ethikberater den Forschungsbeitrag der Leibniz Universität Hannover kontrollieren.

Nach Recherchen von ZDF Magazin Royale und AlgorithmWatch war der unabhängige Ethikberater von iBorderCtrl im gleichen Zeitraum auch Lehrbeauftragter der Leibniz Universität Hannover – und das sogar am Institut für Rechtsinformatik.

Dort hielt er im Wintersemester 2015/2016 sowie in den Wintersemestern 2016/2017, 2017/2018 und 2018/2019 jeweils eine Lehrveranstaltung. Dem ZDF Magazin Royale und AlgorithmWatch liegt zudem ein Dokument, datiert vom 30. November 2016, vor, in dem der Dozent der Leibniz Universität Hannover seine Zusage als „unabhängiger externer Ethikberater” des Forschungsprojekts bekannt gab.

Dass der unabhängige Ethikberater gleichzeitig für eine*n der Projektpartner*innen arbeitete, dürfte den Vorgaben der EU-Kommission widersprechen, in denen es heißt: „Unabhängigkeit und die Freiheit von jeglichen Interessenskonflikten sind Voraussetzungen für die Teilnahme an diesen Ethikbeiräten.“

Der unabhängige Ethikberater erklärte auf Anfrage des ZDF Magazin Royale, dass er diese Vorgabe kannte: „Ja, diese Vorgabe war und ist mir bekannt, und sie war zu jedem Zeitpunkt im Hinblick auf meine Tätigkeit als 'Ethical Advisor' auch erfüllt.“

Auch die Leibniz Universität Hannover sieht kein Problem darin, dass ihr Dozent auch als Ethikberater für iBorderCtrl tätig war: „Nein, ein wirtschaftliches Abhängigkeitsverhältnis ist in Hinblick auf die Stundenanzahl und Vergütung der Lehraufträge LUH-seitig entschieden zurückzuweisen.”

Die Leibniz Universität Hannover war zwar in die Auswahl des unabhängigen Ethikberaters involviert, aber betont gegenüber dem ZDF Magazin Royale, „nicht Projektleader” gewesen zu sein. Die Verantwortung liege beim Softwareunternehmen European Dynamics Luxembourg SA.

Die Rechercheur*innen haben European Dynamics um eine Stellungnahme gebeten, wer den unabhängigen Ethikberater von iBorderCtrl ernannt hat. European Dynamics hat die Presseanfrage des ZDF Magazin Royale bis Redaktionsschluss nicht beantwortet.

Die EU-Kommission, die 100 Prozent der Projektkosten von iBorderCtrl übernommen hat, lässt auf Anfrage des ZDF Magazin Royale wissen, dass sie sich aus Datenschutzgründen nicht zum unabhängigen Ethikberater von iBorderCtrl äußert.

tl;dr: iBorderCtrl wirft schwierige ethische Fragen auf. Die Vorgaben für die Ernennung des unabhängigen Ethikberaters wurden offenbar nicht eingehalten. Die für ethische Fragen zuständige Leibniz Universität Hannover sagt, sie seien für die Ernennung des Ethikberaters nicht zuständig gewesen. Der angeblich zuständige Projektkoordinator „European Dynamics” hat auf die Fragen des ZDF Magazin Royale nicht geantwortet. Und die EU-Kommission äußert sich aus Datenschutzgründen nicht zum Sachverhalt.

Das sind die untersuchten KI-Projekte

  • Vollständiger Titel: aN Enhanced pre-frontier intelligence picture to Safeguard The EurOpean boRders
  • Projektzeitraum: 01.11.2021 bis 30.04.2023
  • EU-Fördersumme: 4.999.578,13 €
  • Förderprogramm: EU Horizon 2020: Secure societies - Protecting freedom and security of Europe and its citizens
  • Ziele des Projekts: Ein umfassendes Grenzüberwachungssystem, das über See- und Landesgrenzen hinaus ein Lagebild im sogenannten „Grenzvorbereich” ermöglichen soll. Beamt*innen sollen über smarte Brillen einen Überblick auf das überwachte Gebiet bekommen.
  • Kritik am Projekt: Die EU-Kommission schweigt sich über konkreten Risiken dieses Projektes aus und hat Unterlagen weitreichend geschwärzt. Es ist noch zu lesen, dass die Forschung von NESTOR genutzt werden könnte, um sie „für Kriminalität oder Terrorismus” zu nutzen, um „Menschenrechte und bürgerliche Freiheiten zu beschneiden” oder sie „missbraucht werden könnten, um Menschen zu stigmatisieren, zu diskriminieren, zu belästigen oder einzuschüchtern.“ Doch die Ausführungen über diese Risiken wurden umfassend geschwärzt. Die EU-Kommission begründete auf Anfrage die Schwärzungen vor allem mit „kommerziellen Interessen” des Forschungsteams. Die angefragten Dokumente könnten Wettbewerber*innen die Gelegenheit geben, „die Strategien und Schwächen der Partner des Konsortiums” zu antizipieren oder deren intellektuelles Eigentum „zu kopieren oder zu nutzen”.

  • Vollständiger Titel: autonomous swarm of heterogeneous RObots for BORDER surveillance
  • Projektzeitraum: 01.05.2017 bis 31.08.2021
  • EU-Fördersumme: 7.999.315,82 €
  • Förderprogramm: EU Horizon 2020: Secure societies - Protecting freedom and security of Europe and its citizens
  • Ziele des Projekts: ROBORDER sollte als ein System zur Grenzüberwachung durch unbemannte Roboter entwickelt werden – Roboter „für die Luft, die Wasseroberfläche, für Unterwasserzwecke und den Boden”. Die Roboter sollten „sowohl unabhängig als auch in Schwärmen operieren”, automatisiert „verdächtige Personen” erkennen und so unter anderem illegale Aktivitäten verhindern.
  • Kritik am Projekt: „The Intercept” zitierte den Robotikprofessor Noel Sharkey mit der Sorge, dass es bei Systemen wie ROBORDER einfach sei, sie zu bewaffnen und warnte davor, sie in politisch aufgeladenen Grenzregionen einzusetzen.
  • Recherchen von AlgorithmWatch und ZDF Magazin Royale stellen außerdem den ausschließlich zivilen Fokus des Forschungsprojekts in Frage – eine Voraussetzung für eine Förderung durch die EU unter Horizon 2020. Eine Marktanalyse von ROBORDER gab unter anderem „Militäreinheiten” als Organisationen an, „die das ROBORDER-System letztlich nutzen werden oder für die es letztlich vorgesehen ist”. Auf Anfrage des ZDF Magazin Royale sah die EU-Kommission keinen Verstoß gegen Förderrichtlinien. Sie schreibt: „Die Projektaktivitäten hatten eine ausschließlich zivile Anwendung im Zusammenhang mit der Überwachung von Land- und Seegrenzen. Militärische Organisationen sind in diesem Zusammenhang auch an zivilen Anwendungen beteiligt (z. B. Search and Rescue). Die Tatsache, dass Militäreinheiten in einer Marktanalyse als mögliche Endnutzer identifiziert wurden, bedeutet daher nicht, dass die Projektaktivitäten keinen exklusiven Fokus auf zivile Anwendungen hatten.”
  • Projektunterlagen, die AlgorithmWatch und ZDF Magazin Royale einsehen konnten, belegen außerdem, dass das Projekt ROBORDER im Juni 2018 angehenden Offizieren der griechischen Marine vorgestellt wurde. Auch darin sieht die EU-Kommission keinen Widerspruch zum ausschließlichen zivilen Fokus des Projekts.
  • Das EU-finanzierte Forschungsprojekt ROBORDER wurde 2021 abgeschlossen. Doch das aktuell laufende Forschungsprojekt REACTION baut laut dem Griechischen Migrationsministerium auf ROBORDER auf. An REACTION arbeitet das griechische Forschungszentrum CERTH, das auch schon ROBORDER koordinierte. Welche konkreten Ergebnisse oder Bestandteile von ROBORDER in REACTION verwendet werden, beantwortete CERTH dem ZDF Magazin Royale auf Anfrage nicht. Auch REACTION erhält Mittel der EU aus dem Integrated Border Management Fund.

  • Vollständiger Titel: Intelligent Portable Border Control System
  • Projektzeitraum: 01.09.2016 bis 31.08.2019
  • EU-Fördersumme: : 4.501.877,50 €
  • Förderprogramm: EU Horizon 2020: Secure societies - Protecting freedom and security of Europe and its citizens
  • Ziel des Projekts: iBorderCtrl verfolgte die Vision automatisierter Grenzkontrollen. Das Projekt sah ein zweistufiges Grenzverfahren vor. Zuerst war vor Beginn der Reise eine Registrierung vorgesehen. Am Grenzübergang selbst sollte dann im zweiten Schritt die eigentliche Kontrolle stattfinden.
  • Eines der Projektmodule stellte einen Lügendetektor mit dem Namen „Silent Talker” dar. „Silent Talker” sollte „Mikroexpressionen”, also kleine und unbewusste Gesichtsregungen, festhalten, analysieren und daraus den Wahrheitsgehalt von Aussagen ableiten. Ein animierter Avatar eines Grenzbeamten, so der Plan, interviewt in der Registrierungsphase Reisende und analysiert Gesichtsregungen. Der „Silent Talker” sollte dieses Material auswerten, eine Risikobewertung mit Blick auf den Wahrheitsgehalt der Antworten vornehmen und über einen QR-Code auf dem Handy der Reisenden abrufbar machen. Für Phase zwei am Grenzübertritt war ein menschlicher Grenzbeamter vorgesehen, der die Bewertung abrufen und auf Basis der vorliegenden Daten selbst eine Risikoeinschätzung vornehmen könne.
  • Kritik am Projekt: Lügen am Gesicht erkennen? Vor dieser Theorie warnt ein im April 2024 publiziertes Paper der Psycholog*innen Kristina Suchotzki und Matthias Gamer. „Außerhalb von Büchern und Filmen existiert Pinocchios Nase nicht”, machen die Forscher*innen deutlich: „Es gibt keine gültigen Verhaltenshinweise, die zwischen Lüge und Wahrheit unterscheiden, und es wurde keine physiologische oder nervliche Signatur identifiziert, die eindeutig der Täuschung zugeordnet werden kann.” Mit anderen Worten: Dass körperliche Reaktionen einen Aufschluss darüber geben, ob Menschen lügen, ist nicht belegt. „[...] es wurde deutlich, dass eine erhöhte emotionale Erregung weder notwendig noch spezifisch für eine Täuschung ist, da sie ähnlich bei wahren Aussagen beobachtet werden kann”, erklären Suchotzki und Gamer. Auch zu iBorderCtrl äußern sich die Psycholog*innen konkret und kritisieren das Fehlen ausreichender Testung des „Silent Talkers” vor der Finanzierung des Forschungsprojekts: „Dies spiegelt die großen Hoffnungen wider, die in KI-basierte Sicherheitsanwendungen gesetzt werden, zeigt aber unglücklicherweise auch, dass dies oft auf Kosten grundlegender wissenschaftlicher Standards geschieht.“ Die Forschungsunterlagen zeigen: Für das Forschungskonsortium scheint der Mangel wissenschaftlicher Grundlagen zweitrangig, die KI löse das Problem einfach selbst: „Das Hauptmerkmal von ST (Silent Talker, Anm. d. Red.) als Maschinelles Lernsystem ist, dass es keine Rolle spielt, ob bestimmte Psycholog*innen in Bezug auf bestimmte Gesten richtig liegen, ST erhielt eine Reihe von Kandidatenmerkmalen und ermittelte selbst, welche Interaktionen im Laufe der Zeit auf Lügen hindeuteten.”

Der nächste Lügendetektor – TRESSPASS

iBorderCtrl ist nicht das einzige EU-Forschungsprojekt, das Lügendetektoren beinhaltet. TRESSPASS untersuchte bis November 2021 Kontrollmaßnahmen an Grenzübergängen für „Bedrohungen” wie etwa „irreguläre Migration”. Eine dieser Kontrollmaßnahmen ist laut öffentlich einsehbarer Forschungsunterlagen auch die Verwendung eines Systems namens „MMCAT” (Multi Modal Communication Analysis Tool).

MMCAT soll durch Videoaufnahmen „Mikrobewegungen in Bezug auf Mimik, Gestik und Körperhaltung (Lächeln, Blinzeln, Handbewegungen, Neigen usw.)” analysieren. Grenzbeamte sollen MMCAT bei Befragungen nutzen können, um zu beurteilen, „ob ein Reisender die Wahrheit sagt”. Ähnlich wie bei iBorderCtrl ging das Forschungsteam von TRESSPASS vom umstrittenen Schluss aus, dass körperliche Reaktionen ein Indikator seien, um Lügen zu erkennen. „So wie es für Mikroexpressionen keine überzeugenden empirischen Befunde gibt, die darauf hinweisen, dass diese helfen könnten, zwischen Lügen und Wahrheit zu unterschieden, gibt es diese auch für die Körperhaltung nicht. Insofern würde ich dadurch keine Steigerung der Zuverlässigkeit erwarten“, erklärt die Rechtspsychologin Kristina Suchotzki.

Im Februar 2019 wurde in Amsterdam MMCAT an Menschen getestet. Ein weiterer Test war laut Unterlagen für Anfang 2021 geplant. Öffentliche Projektunterlagen beschreiben die Tests wie folgt: „Ein paar Teilnehmer*innen wurden gebeten, an einem Kartenspiel teilzunehmen und einige Fragen zu den Karten zu beantworten, dabei sagten sie manchmal die Wahrheit, manchmal logen sie. Diese Szenen wurden gefilmt und das Material analysiert, um zu prüfen, ob das MMCAT-System nützliche Hinweise zur Ehrlichkeit der Spielteilnehmer*innen liefern könnte.“

„Es ist nicht ungewöhnlich, in ersten Schritten mit Szenarien zu beginnen, die im Labor einfach umsetzbar sind, um zu überprüfen, wie die Ergebnisse in einem solchen Kontext ausfallen“, sagt Psychologin Suchotzki, macht aber gleichzeitig deutlich: „Damit darf man sich aber auf keinen Fall zufrieden stellen und muss dann – zunächst im Labor, denn nur da hat man eine Kontrolle und realistische Rückmeldung darüber, wer die Wahrheit sagt und wer lügt – Schritt für Schritt versuchen, sich an Szenarien aus der Praxis anzunähern. Ohne solche Zwischenschritte Ergebnisse eines solchen künstlichen, sehr praxisfernen Szenarios auf die Praxis zu übertragen, halte ich für verfrüht.“

Für einen weiteren Testlauf setzten polnische Grenzbeamte MMCAT bei verdächtigten Reisenden ein. Das Forschungsteam von TRESSPASS zog „Lehren” aus diesen Testläufen. „Es besteht das Risiko, dass die Technologie ungenau ist (z. B. voreingenommen), dass sie missbraucht wird oder dass sensible Daten erstellt werden, die geleakt oder für illegale Zwecke wiederverwendet werden können“, heißt es in einem Fazit, ohne jedoch die grundsätzliche Ausrichtung der Forschung zu hinterfragen. MMCAT rege vielmehr die „(öffentliche) Debatte über das Warum, Wie und Was der Verbesserung von Befragungen bei Grenzkontrollen” an.

Mehr Transparenz mit dem neuen AI-Act?

Die gerade verabschiedete KI-Verordnung der EU (auch AI Act genannt) hätte den Einsatz von KI-basierten Systemen zur Überwachung und Kontrolle an unseren Grenzen beschränken können.

Das EU-Parlament hat sich lange dafür eingesetzt, mehr Transparenz in der KI-Verordnung zu verankern und den Einsatz von KI-basierten Systemen in der Migration teilweise zu verbieten. Die meisten dieser Schutzmaßnahmen wurden jedoch von den EU-Mitgliedstaaten abgelehnt und sind in der endgültigen Fassung nicht mehr enthalten.

Dokumente

Große Teile der uns vorliegenden Dokumente wurden durch die zuständige Agentur der EU-Kommission geschwärzt. Namen und personenbezogene Daten auf den folgenden Seiten wurden von AlgorithmWatch und ZDF Magazin Royale unkenntlich gemacht, um die Privatsphäre einzelner Personen zu schützen:

  • d4-1firstversionoftheiborderctrlsoftwareplatform-redacted-compressed.pdf (S. 103, 152)
  • d4-2secondversionoftheiborderctrlsoftwareplatform-redacted.pdf (S. 36, 44, 46, 47)
  • d8-5periodicprogressreport2-redacted (S. 2)
  • d8-7annualreport2-redacted.pdf (S.22)
  • d7-6standardizationandcollaborationwithotherprojects-redacted (S. 72)

ROBORDER

NESTOR

iBorderCtrl