Palantir – das Betriebssystem des Überwachungsstaats

Datenschutzrheinmain/ Januar 17, 2026/ alle Beiträge, Hessische Landespolitik, Polizei und Geheimdienste (BRD), staatliche Überwachung/ 0Kommentare

Palantir, das Unternehmen und die Software gleichen Namens, wurde erstmalsin Deutschland in Hessen in der Vergangenheit von der Polizei rechtswidrig eingekauft und unter der Bezeichnung HessenDATA  eingesetzt. Trotz Entscheidung des Bundesverfassungsgerichts wurde die Software danach auch in anderen Bundesländern, z. B. in Bayern, zwischenzeitlich ebenfalls angekauft und eingesetzt.

Auf der Homepage des behördlichen Datenschutzbeauftragten der Technischen Universität (TU) Berlin wird in einem aktuellen Beitrag unter dem Titel Palantir – das Betriebssystem des Überwachungsstaats umfassend informiert. Nachstehend veröffentlichen wir diesen Beitrag im Wortlaut unter Beachtung der Lizenz Creative Commons Namensnennung 4.0 International.


Werkzeuge wie Palantir ermöglichen eine bislang beispiellose Integration und Auswertung riesiger, heterogener Datenmengen in Echtzeit.

Spätestens seit den Enthüllungen von Edward Snowden im Jahr 2013 ist bekannt, welches Ausmaß staatliche Datensammlungen annehmen können. Damals sprach man vom „permanent record“ – einer dauerhaften Speicherung von Informationen über Menschen.

Was damals noch wie eine dystopische Vision wirkte, ist heute technische Realität: Dank flächendeckender Vernetzung, enormer Speicher- und Rechenleistung ist aus dem permanenten Datensatz ein permanenter Datenstrom geworden.

Massenüberwachung findet nicht mehr nachträglich statt, sondern automatisiert und in Echtzeit.

Dieser Beitrag beleuchtet zunächst die technische Logik moderner Datenintegration und Echtzeitverarbeitung und zeigt, wie solche Systeme zur Entscheidungsunterstützung eingesetzt werden. Anschließend werden die rechtlichen, ethischen und demokratietheoretischen Folgen diskutiert. Diskutiert werden grundlegende Probleme automatisierter Entscheidungssysteme wie Automation Bias, algorithmische Diskriminierung und Chilling Effects.

Wissen über Menschen wird dabei zur Ressource staatlicher Macht – mit tiefgreifenden Folgen für Transparenz, Verantwortlichkeit und individuelle Selbstbestimmung.

Zwar kann anlasslose Massenüberwachung punktuell zur Erhöhung der Sicherheit beitragen, indem sie das staatliche Gewaltmonopol stärkt. Die damit verbundene gesellschaftliche Transformation ist jedoch mit Menschenrechten und demokratischen Grundprinzipien unvereinbar. In einem Überwachungsstaat sind Meinungsfreiheit, Pressefreiheit und demokratische Teilhabe nicht möglich.

Einsatz von Palantir

Noch ist Deutschland kein Überwachungsstaat – aber der Anfang ist getan.

Die US-amerikanische Software Palantir Gotham wird bereits von Polizeibehörden in Hessen, Bayern und Nordrhein-Westfalen zur Entscheidungsunterstützung eingesetzt. Aktuell geschieht dies mit eingeschränkter Funktionalität, ohne Cloud- oder umfassende KI-Komponenten. So werden etwa Social-Media-Profile bislang nur verlinkt und nicht automatisch ausgewertet.

In Baden-Württemberg und Sachsen-Anhalt steht die Einführung von Palantir an. Der Bundesinnenminister plant sie für die Bundespolizei und das BKA. Einige Bundesländer haben sich zwar klar gegen Palantir positioniert, z.B. Schleswig-Holstein und Sachsen. Aber das ist gegen den Trend, auch in Berlin lässt sich aus dem neuen Polizeigesetz herauslesen, dass an Palantir gedacht wird.

In den USA hingegen kommt Palantir seit Jahren bei Geheimdiensten, Militär und Polizei zum Einsatz. Die Software wird dort auch zur Überwachung von Migrant*innen genutzt und dient als „Betriebssystem für Abschiebungen“.

Im Folgenden wird die zugrunde liegende Systemlogik erläutert.

Der Name Palantir wird nur dort verwendet, wo es um produktspezifische Eigenschaften geht. Grundsätzlich lässt sich die beschriebene Logik auch auf andere staatliche Datenintegrationsprojekte übertragen, etwa auf das Projekt Program P20, das auf die Harmonisierung der polizeilichen IT-Architektur abzielt.

Datenintegration in Echtzeit

Die Software führt behördliche Datenbanken, Akten und Dokumente auf Personenebene zusammen und verknüpft sie mit weiteren Datenquellen, etwa aus sozialen Netzwerken.

Polizeilich oder geheimdienstlich erhobene Telekommunikationsdaten –SMS, E-Mails, Zahlungsdaten oder abgehörte und transkribierte Gespräche– lassen sich weitgehend automatisiert integrieren.

Ausgelesene Endgeräte, Server und Cloud-Speicher liefern private Kontaktnetzwerke, Fotos, Dokumente, Browserverläufe und Chatprotokolle. Hinzu kommen in Echtzeit erfasste Sensor- und Standortdaten aus Mobilgeräten sowie Bilder aus Überwachungskameras, aus denen biometrische Merkmale gewonnen werden können.

Vom Datensatz zum digitalen Abbild

Durch die umfassende Zusammenführung entstehen hochauflösende, dynamische Abbilder von Menschen. Es handelt sich nicht nur um Profile, sondern um ständig aktualisierte digitale Repräsentationen.

Grundsätzlich gilt:

  • Jedes Datum kann integriert werden.
  • Jedes Datum kann Personen oder Objekten zugeordnet werden.

Die Software verarbeitet kontinuierlich neue Datenströme, ordnet sie bestehenden Datensätzen zu und erweitert diese automatisch. Bei Palantir wird dieser Prozess über sogenannte Datenpipelines realisiert.

Identifizierung und Verknüpfung

Die Zuordnung erfolgt über eine Vielzahl von Identifikatoren.

Für Personen sind dies unter anderem E-Mail-Adressen, Telefonnummern, Namen, Geburtsdaten, Bankverbindungen, behördliche Kennziffern sowie biometrische Merkmale wie Gesicht, Stimme oder Gang.

Für Objekte kommen technische Kennungen wie IP-Adressen, Geräte-IDs, SIM-Karten, Kennzeichen oder Standortdaten hinzu.

Beziehungsnetzwerke werden offengelegt, z.B.:

  • wer kommuniziert mit wem,
  • wer hält sich wann wo auf,
  • welche Geräte oder Fahrzeuge werden genutzt.

Diese Verknüpfungen sind jedoch keineswegs fehlerfrei. Datenbanken enthalten falsche, veraltete oder unvollständige Informationen. Namen werden verwechselt, Bilder falsch zugeordnet, Wahrscheinlichkeiten als Gewissheiten behandelt.

Die Verknüpfungen von einzelnen Datensätzen basieren auf solchen identifizierenden Merkmalen, z.B.

  • Daten über Personen aus verschiedenen Quellen werden den jeweiligen Personen-Datensätzen im Data Warehouse hinzugefügt bzw. referenziert
  • Daten über Objekte und Personen können in Zusammenhang gebracht werden, beispielsweise ist eine SIM-Karte einem Mobiltelefon und dieses in der Regel einer Person zugeordnet.
  • Personen die miteinander per E-Mail oder Messenger kommuniziert haben können verknüpft werden.
  • Objekte können in Zusammenhang gebracht werden, z.B. ein Fahrzeug, dass nachts immer in der Nähe einer Wohnadresse parkt.

Sofern Zuordnungen nur für gewisse Zeiträume gelten, z.B. bei der Anmietung eines Mietwagens , wird der Gültigkeitszeitraum erfasst.

Wie zuverlässig sind diese Verknüpfungen?

In manchen Fällen ist nicht sicher belegbar, dass ermitteltete identifizierende Merkmale sich wirklich auf dieselbe Person beziehen, beispielsweise bei Namen und Adressen.

Daten sind fehlerbehaftet:

  • Datensätze können unvollständig oder fehlerhaft erfasst sein (z.B. variierende Namensschreibweisen, Nummerndreher bei Ausweisnummern und Geburtsdaten sowie Tippfehler),
  • Inhalte können veraltet oder ungültig sein und
  • Verknüpfungen können vertauscht sein (z.B. Zeugenaussagen falsch zugeordnet, Bilder falsch verlinkt).

In anderen Fällen fehlen identifizierende Merkmale in den Daten oder sie können nicht sicher abgeleitet werden, z.B. bei unscharfen Kameraaufnahmen.

Wenn eindeutige Identifikatoren fehlen, greifen statistische Verfahren oder maschinelles Lernen oder manuell: Datensätze werden „gematcht“.

Diese Verfahren können nie zuverlässig „identifizieren“, so dass in Einzelfällen Datensätze die zusammengehören, nicht gematcht werden und andere dafür fälschlicherweise zugeordnet werden.

Matchings können falsch sein – mit fatalen Konsequenzen für Betroffene. Entscheidungen auf Basis fehlerhafter Daten sind nicht neutral, sondern häufig diskriminierend (bspw. gab es Einreiseverbote bei Namensdopplung oder ähnlichem Äußeren von Personen).

Bedeutung, Kontext und Entscheidungsvorschläge

Aber es geht nicht nur um Personen, sondern um die vollständige Auswertung der verfügbaren Daten. Die inhaltliche Erschließung ist fundamental, um Kontextbezüge herstellen zu können: in Bildern abgebildete Dinge, in Gesprächen und Texten Beschriebenes, Geräte, technische Daten, etc.

Zur semantischen Annotation der Daten werden Ontologien bzw. Taxonomien genutzt. Je Datenquelle wird mit Filterregeln konkret spezifiziert, welche Bedeutung die jeweiligen Daten besitzen, bspw.

  • Strukturierte Daten werden auf Schemaebene beschrieben: Bspw. bei einer Datenbank mit Zeugenaussagen: Die Aussage selbst, wer Zeuge und wer beteiligte Person war und für welchen Vorgang / Fall sie wann und von wem erfasst wurde.
  • Bei Kameraaufnahmen werden Personen markiert und biometrische Merkmale extrahiert und ergänzt.
  • Bei Kommunikationsdaten: Beteiligte Personen (z.B. identifiziert über die Telefonnummern oder E-Mail-Adressen), Zeitpunkt, Standorte, weitere Metadaten, Medium, transskribierter Inhalt

Die Software speichert alle Informationen strukturiert. Für eine effiziente Suche und LookUps werden Indexstrukturen genutzt, beispielsweise um in Sekundenbruchteilen zu einer Telefonnummer alle Gespräche und Bewegungsmuster zu erhalten.

Wofür früher tagelange Recherche nötig war, werden die Daten nun in kurzer Zeit als übersichtlicher zusammengefasster Bericht aufbereitetet und  in interaktiven Karten als Lagebild visualisiert. Ermittler*innen nutzen das System als Entscheidungsgrundlage und erhalten zusätzlich konkrete Handlungsvorschläge. Im Rahmen von „predictive policing“ soll Palantir mit Vorhersagen die Kriminalitätsbekämpfung revolutionieren.

Datenschutz, Recht und Macht

Die massenhafte Datenintegration untergräbt zentrale Datenschutzprinzipien wie Zweckbindung und Datensparsamkeit. Daten, die für einen bestimmten Zweck erhoben wurden, lassen sich mühelos für andere Zwecke nutzen. Zeug*innen oder Opfer geraten so in neue Verdachtszusammenhänge.

Hinzu kommen geopolitische Risiken: US-amerikanische Anbieter unterliegen Gesetzen wie dem Cloud Act, der Zugriffe durch US-Behörden ermöglicht.

Für Strafverfolgung und öffentliche Sicherheit gelten in Europa abgeschwächte Datenschutzstandards, etwa durch die EU-Richtlinie 2016/680. Bspw. kann nas nach Art. 22 DSGVO grundsätzlich verbotene Profiling zulässig sein. Die Rechtsgrundlagen können auf Landesebene mit den Polizeigesetzen geschaffen werden.Die Eingriffstiefe in die Grundrechte ist enorm.

Ethische Risiken

Automatisierte Entscheidungs- und Analysesysteme verstärken bestehende gesellschaftliche Probleme, anstatt sie zu lösen.

Ein zentrales Risiko ist der sogenannte Automation Bias: Menschen neigen dazu, den Empfehlungen von Software und Algorithmen mehr zu vertrauen als dem eigenen Urteil. Maschinell erzeugte Einschätzungen werden oft nicht mehr kritisch hinterfragt, selbst wenn sie auf fehlerhaften oder unvollständigen Daten beruhen. Verantwortung verschiebt sich so schleichend von Menschen zu technischen Systemen.

Hinzu kommt die Gefahr algorithmischer Diskriminierung. Da solche Systeme mit historischen Daten arbeiten, reproduzieren sie bestehende Vorurteile und Ungleichheiten – etwa gegenüber bestimmten Bevölkerungsgruppen, Stadtteilen oder sozialen Milieus. Diese Verzerrungen erscheinen objektiv, sind aber Ergebnis politischer, sozialer und technischer Entscheidungen.

Die allgegenwärtige Datenerfassung führt zudem zu sogenannten Chilling Effects: Menschen ziehen sich aus öffentlichem Raum, politischem Engagement oder vertraulicher Kommunikation zurück, weil sie sich beobachtet fühlen.

Fehlerbehafte Software – Falsche Zuordnungen oder Verdachtsmomente lassen sich kaum korrigieren, da die Systeme intransparent bleiben und proprietäre Software sich zudem einer unabhängigen Kontrolle entzieht.

Intransparenz – Für Betroffene ist es praktisch unmöglich nachzuvollziehen, welche Daten über sie verarbeitet werden, wie Entscheidungen zustande kommen oder wie sie sich dagegen wehren können.

Automatisierte Entscheidungssysteme sind damit nicht nur technische Werkzeuge, sondern tiefgreifende Eingriffe in Freiheit, Gleichheit und demokratische Teilhabe.

Fazit

Eine Gesellschaft, die auf permanente Überwachung setzt, verliert Freiheit, Vertrauen und demokratische Werte. Sicherheit ist ein legitimes Ziel – aber sie darf nicht durch Systeme erkauft werden, die grundlegende Rechte aushöhlen. Gerade in Deutschland mahnt die Geschichte zur Vorsicht. Digitale Werkzeuge müssen den Menschen dienen – nicht umgekehrt.

Weitere Informationen

Hinterlasse einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*