Setz dich, nimm dir ’n Kaffee. Oder was Stärkeres. Könnten wir brauchen, denn heute reden wir über ein Thema, das sich anfühlt wie eine dieser kalten, klaren Nächte an der Küste: unendlich faszinierend und ein bisschen unheimlich. Es geht um Palantir Technologies, eine Firma, so geheimnisumwittert wie ein versunkenes U-Boot und so profitabel wie eine Goldmine im Rausch. Ihre KI-Plattform soll Kriege entscheiden, Verbrechen vorhersagen und Konzerne auf Kurs halten. Klingt nach Zukunftsmusik? Oder eher nach dem Intro von Cyberpunk 2077, nur dass die Konzerne hier nicht Arasaka heißen, sondern an der Börse notiert sind?
Die Frage, die im Raum steht und nach teurem Serverraum riecht, ist drängend: Bauen die da in Palo Alto gerade eine bessere, sicherere Welt – oder das Betriebssystem für unsere lückenlose Überwachung? Schnall dich an, wir tauchen ab.
Das digitale Skalpell: Was Palantir wirklich verkauft
Vergiss für einen Moment das ganze KI-Konfetti, das dir Marketing-Abteilungen ins Gesicht werfen. Palantir verkauft keine Chatbots, die dir Gedichte schreiben, oder Bildgeneratoren für possierliche Tierchen. Die Firma liefert das, was man in dunklen Anzugkreisen ein „Betriebssystem für Entscheidungen“ nennt. Ihre Flaggschiffe heißen Gotham und Foundry. Stell sie dir nicht als simple Software vor, sondern als gewaltige Datenkraken.
Ihr Trick, und das ist der Kern ihrer Macht, ist die Fähigkeit, völlig unzusammenhängende Datenquellen zu einem einzigen, durchsuchbaren Universum zu verschmelzen. Eine Excel-Tabelle aus dem Controlling, Satellitenbilder des Militärs, Polizeiberichte, Banktransaktionen, Social-Media-Profile – für Palantirs Algorithmen sind das nur Puzzleteile. Gotham, das Werkzeug für Regierungen, Militärs und Geheimdienste, ist darauf spezialisiert, in diesem Datenchaos Muster zu finden, die auf Bedrohungen hindeuten. Es visualisiert Netzwerke zwischen Personen, Orten und Ereignissen und soll so helfen, Terroristen aufzuspüren oder feindliche Truppenbewegungen zu analysieren.
Foundry macht im Grunde dasselbe, aber für die zivile Welt.
Großkonzerne wie Airbus oder Merck nutzen es, um ihre Lieferketten zu optimieren, Produktionsfehler zu finden oder klinische Studien zu beschleunigen. Der Unterschied zur Konkurrenz? Palantir liefert kein fertiges Produkt von der Stange, sondern eine Plattform, die sich tief in die Infrastruktur des Kunden eingräbt und dort ein zentrales Nervensystem aus Daten errichtet. Mächtig, verdammt mächtig. Und genau deshalb so begehrt.
Die Klientel: Wer mit dem Feuer spielt
Wer kauft so etwas? Nun, im Grunde jeder, der riesige Datenberge besitzt und darin nach der Nadel im Heuhaufen sucht. Die Kundenliste liest sich wie das Who’s who der globalen Machtstrukturen. An vorderster Front steht das US-Militär, das gerade erst wieder einen Vertrag über Hunderte Millionen Dollar für KI-gestützte Zielerfassungssysteme unterschrieben hat. In den Gängen des Pentagons gilt Palantir als digitale Wunderwaffe, geschmiedet in den Feuern der Kriege in Afghanistan und im Irak.
Aber der Appetit auf allwissende Algorithmen ist ansteckend. Er hat den Atlantik überquert und ist auch in Europa gelandet. Während der britische Gesundheitsdienst NHS Palantir für über 300 Millionen Pfund seine Patientendaten anvertraut, um das System effizienter zu machen, sieht die Sache bei uns im Land der Dichter, Denker und Datenschutzbeauftragten erwartungsgemäß komplizierter aus.
Hier sind es vor allem die Polizeibehörden, die mit der Macht von Palantir liebäugeln. In Hessen und Nordrhein-Westfalen wurde die Software – unter dem charmant-bürokratischen Namen „HessenData“ – bereits vor Jahren eingeführt, um scheinbar unzusammenhängende Informationen zu verknüpfen und so Querverbindungen zwischen Verdächtigen in der organisierten Kriminalität und im Terrorismus aufzudecken. Das Ziel: die berühmte „vorausschauende Polizeiarbeit“, im Englischen griffiger „Predictive Policing“ genannt. Ein Ansatz, der Kritiker sofort an dystopische „Pre-Crime“-Szenarien aus Filmen wie Minority Report denken lässt.
Doch Deutschland wäre nicht Deutschland, wenn nicht irgendwann Karlsruhe anrufen würde.
Und genau das ist passiert. Das Bundesverfassungsgericht hat den Landesregierungen 2023 einen gehörigen Dämpfer verpasst. Die Richter erklärten nicht die Software selbst für illegal, aber die Gesetze in Hessen und NRW, die ihren Einsatz erlaubten, für verfassungswidrig.
Der Grundtenor des Urteils:
Eine derart weitreichende, anlasslose Analyse von Daten unbescholtener Bürger kratzt empfindlich am Recht auf informationelle Selbstbestimmung. Der Staat darf nicht einfach das digitale Heu aller Bürger durchwühlen, um seine Nadeln zu finden.
Seitdem wird in den Ministerien fieberhaft an neuen Gesetzen gebastelt, die den strengen Vorgaben der Verfassungsrichter genügen sollen. Der Einsatz der Software ist damit nicht vom Tisch, aber er wurde in die Leitplanken des Rechtsstaats zurückgezwungen.
Und während der Staat noch mit sich und seinen Gesetzen ringt, hat die deutsche Wirtschaft längst Fakten geschaffen. Dax-Konzerne wie der Pharmariese Merck oder der Luftfahrtgigant Airbus nutzen die Foundry-Plattform von Palantir seit Jahren, um ihre Forschung, Produktion und komplexen Lieferketten zu optimieren. Das Ziel ist hier wie dort dasselbe: Effizienz steigern, Muster erkennen, Kontrolle gewinnen. Und Palantir liefert.
Die Kasse klingelt, der Aktienkurs steigt – und mit ihm das Unbehagen.
Moralische Minenfelder und die wachsende Unruhe
Hier wird es schmutzig. Denn wo so viel Macht konzentriert wird, entstehen zwangsläufig moralische Abgründe. Die Kritik an Palantir ist so alt wie die Firma selbst und kommt von Bürgerrechtlern, Datenschützern und zunehmend auch aus der Mitte der Gesellschaft. Ein Hauptvorwurf: mangelnde Transparenz. Was genau die Algorithmen tun, welche Daten sie wie verknüpfen und zu welchen Schlüssen sie kommen, bleibt oft eine Blackbox. Für den Angeklagten, den Verdächtigen oder den einfachen Bürger ist es nahezu unmöglich nachzuvollziehen, warum ein System ihn als Risiko einstuft.
Amnesty International warnt eindringlich vor der Rolle von Palantir bei Abschiebungen von Migranten in den USA und kritisiert die Firma als Motor für Menschenrechtsverletzungen. Die Vorstellung, dass eine Software über das Schicksal von Menschen entscheidet, ohne dass es eine transparente, menschliche Kontrollinstanz gibt, ist der Stoff, aus dem Albträume sind. In Deutschland führten Pläne, die Software bei der Polizei einzusetzen, zu heftigen politischen und rechtlichen Debatten über die Grenzen staatlicher Überwachung. Ist es noch rechtsstaatlich, wenn eine Maschine den Verdacht schürt?
Déjà-vu in Night City: Wie real ist die Dystopie?
Und damit landen wir unweigerlich bei der Frage nach Cyberpunk 2077. Ist der Vergleich nur eine griffige Metapher von uns Nerds, um komplexe Sachverhalte zu illustrieren? Oder sehen wir hier die Grundsteine einer Zukunft, vor der uns die Science-Fiction seit Jahrzehnten warnt? Die Antwort ist, wie so oft, ein klares „Jein“.
Nein, wir leben (noch) nicht in einer Welt, in der Konzerne ganze Stadtviertel kontrollieren und private Söldnerarmeen unterhalten. Aber die Kernmechanik von Cyberpunk – die Verschmelzung von Staats- und Konzernmacht durch Technologie, die totale Datenerfassung als Grundlage von Kontrolle – wird durch Firmen wie Palantir erschreckend real. In den Tech-Foren auf Reddit oder in Diskussionen auf X (ehemals Twitter) ist der Ton gemischt. Die einen feiern die technologische Brillanz und die Fähigkeit, komplexe Probleme zu lösen. Die anderen warnen vor einem „Überwachungsstaat als Dienstleistung“ und ziehen Parallelen zu Chinas Sozialkreditsystem. Die Sorge ist greifbar: Wir erschaffen Werkzeuge, deren gesellschaftliche Konsequenzen wir nicht ansatzweise überblicken.
Ein Fazit: Kurs auf den Eisberg?
Was wird hier also gerade gebaut? Palantir und seine Jünger würden sagen: eine sicherere, effizientere Welt. Eine Welt, in der Krankheiten schneller geheilt, Verbrechen verhindert und Ressourcen besser genutzt werden. Und ja, die Technologie hat dieses Potenzial. Man kann die Augen nicht davor verschließen.
Doch als alter, salzverkrusteter Nerd, der schon zu viele Tech-Heilsversprechen hat kommen und gehen sehen, muss ich die Flagge hissen. Und zwar die rote. Die Versprechen von Sicherheit und Effizienz sind die verführerischen Lockrufe der Sirenen, die uns auf die Felsen einer Zukunft locken, in der Privatsphäre kein Recht mehr ist, sondern ein Luxusgut für diejenigen, die es sich leisten können, offline zu sein.
Die wahre Gefahr ist dabei nicht die böse KI, die mit metallischem Lachen die Weltherrschaft an sich reißt. Es ist die schleichende Flut. Die kaum merkliche Gewöhnung an eine Welt, in der unsere Freiheiten im Namen der Optimierung langsam erodieren. Jede Datenanalyse, die einen Verdächtigen identifiziert, durchleuchtet Tausende Unschuldige. Jede Effizienzsteigerung ist auch ein Schritt zur totalen Vermessung des Menschen. Und mit jedem Mal zucken wir ein bisschen weniger mit den Schultern. Das ist die eigentliche Bedrohung: nicht der laute Knall, sondern das leise Rauschen der Normalisierung.
Palantir baut diese Dystopie nicht.
Es liefert nur die Ziegelsteine und den Bauplan. Errichten müssen wir sie schon selbst – durch Gleichgültigkeit. Genau deshalb soll dieser Text hier kein Abgesang sein, keine Kapitulation vor der Technik. Sieh ihn als das, was er ist: ein Leuchtfeuer. Ein Störsignal. Denn Leuchtfeuer sind nicht dazu da, um schaudernd auf die Felsen zu starren, auf die man zutreibt. Sie sind dazu da, den Kurs zu halten und verdammt noch mal wachsam zu bleiben.