Nick Srnicek ist Dozent am Kings College London und forscht zu den Themen digitale Ökonomie, künstliche Intelligenz, Arbeitskritik und postkapitalistische Zukunftsvisionen. Mit der diskus sprach er über die geopolitischen Interessen und politischen Widersprüche innerhalb der KI-Branche, Krisentendenzen des Kapitals und mögliche Strategien der Linken, mit diesen umzugehen.

 

diskus: Sie haben kürzlich Ihr Buch Silicon Empires: The Fight for the Future of AI  (2025) veröffentlicht, welches die globale KI-Branche untersucht. Angesichts der Fülle an Publikationen, die sich derzeit mit diesem Thema befassen, stellt sich die Frage: Was zeichnet Ihren Ansatz aus?

Nick Srnicek: Als Marxist befasse ich mich mit der Frage, was diese großen KI-Unternehmen antreibt. Auf dieser Grundlage habe ich die speziellen Herausforderungen der Technologie betrachtet: Was sind die Herausforderungen von sogenannten Allzwecktechnologien im Allgemeinen? Auf der anderen Seite habe ich versucht, die verschiedenen Strategien zur Gewinnerzielung und die unterschiedlichen Herausforderungen, denen diese Firmen dabei gegenüberstehen, herauszuarbeiten. Hinzu kam noch der geopolitische Aspekt. Einer meiner Ansätze dafür war die Hegemonietheorie, mit der ich die verschiedenen Fraktionen des Kapitals betrachtet habe, sowie die verschiedenen Wege, auf denen sie sich zu einer Art kollektiver Einheit, einer Art hegemonialem historischen Block, zusammenschließen können oder auch nicht. Aber ich habe auch danach geschaut, wie es zwischen ihnen zu Spannungen kommen kann. Mit einem solchen Hegemonie-Modell kann man über Galionsfiguren wie Elon Musk, Donald Trump oder Peter Thiel hinausblicken. Man kann die Interessen analysieren, die ihnen zugrunde liegen, und die Art und Weise, wie diese Interessen miteinander und mit bestimmten geopolitischen Projekten in Einklang stehen. Dieser Ansatz ermöglichte mir eine längerfristige Perspektive auf eine Branche, die sich täglich verändert.

D: Während Sie in Ihrem vorherigen Buch1, in dem Sie ebenfalls über Tech-Unternehmen schrieben, noch von »Plattformen« sprachen, verwenden Sie nun den Begriff »Empire«. Deutet die Begriffsveränderung auf einen Strukturwandel dieser Unternehmen hin?

S: Ich habe zu dieser Frage schon mal etwas scherzhaft gesagt, dass »Silicon Empire« so etwas wie ein Plattformkapitalismus 2.0 ist, nur ohne die Plattformen und mit viel weniger Kapitalismus. Die dominierenden großen Tech-Unternehmen der 2010er Jahre waren Social-Media-Unternehmen und Unternehmen aus der Gig-Economy. Sie fungierten als Vermittler zwischen verschiedenen Einheiten und nahmen traditionelle Plattformfunktionen ein. Bei den KI-Unternehmen ist man noch nicht so weit. Sie könnten zu Plattformen werden, aber sie haben beispielsweise noch keine Netzwerkeffekte. Wenn ein Unternehmen ein neues KI-Modell herausbringt und es besser ist als das letzte, wechselt jeder zu diesem Modell. Die Leute können von OpenAI zu Anthropic zu Google wechseln und alle durchlaufen. Bei einer Plattform wäre das sehr schwierig, da sich dort Netzwerkeffekte, Pfadabhängigkeiten und Lock-ins aufgebaut hätten. In der KI-Branche gibt es also noch keine Plattformeffekte in der Form – vielleicht wird es sie auch nie geben. Ich denke, die KI-Unternehmen versuchen, Plattformen aufzubauen, aber im Moment sind sie noch nicht so weit.

Als ich Platform Capitalism schrieb, hatte die Obama-Ära mit ihrem neoliberalen Konsens zwischen der Tech-Elite im Silicon Valley und der politischen Elite in Washington ihren Höhepunkt erreicht. Zu jenem Zeitpunkt tat die amerikanische Regierung im Grunde genommen alles, was das Silicon Valley sagte. Zu dieser Zeit machte sich die Tech-Elite noch keine wirklichen Gedanken über Geopolitik. Das hat sich heute offensichtlich geändert. Wenn ein Unternehmen heute darüber nachdenkt, was es aufbauen oder wo es investieren soll, muss es geopolitische Fragen berücksichtigen. Früher hätte es zum Beispiel einfach eine Fabrik in China gebaut. Heutzutage muss es viel mehr Parameter berücksichtigen und sorgfältig abwägen: Soll die Fabrik in China, Indien, Vietnam oder Mexiko gebaut werden? Es sind nicht mehr nur rein kapitalistische Anreize, welche die Entwicklung der Technologie vorantreiben. Auch geopolitische Aspekte spielen nun eine Rolle. Das wollte ich mit dem Begriff »Empire« einfangen. Die aktuellen Entwicklungen haben einen viel offeneren imperialistischen Aspekt, was deutlich wird, wenn man sich die Rhetorik amerikanischer Politiker anhört. Trump ist nur der krasseste Ausdruck davon, aber man konnte es bereits unter Biden beobachten. Biden hatte einen KI-Plan, der weit über das hinausging, was Trump jemals auf den Weg gebracht hat. Man wollte diktieren können, auf welche Rechenleistung die Welt zugreifen kann. Beispielsweise hätten in diesem Plan nur eine Handvoll verbündeter Länder unbegrenzten Zugang zu den notwendigen Chips gehabt. Das war eine unverhüllte imperialistische Kontrolle über globale Rechenressourcen.

D: In Ihrem aktuellen Buch haben Sie die Tech-Branche im Silicon Valley nicht als einheitlichen Block beschrieben, sondern als eine Branche mit divergierenden geopolitischen Interessen. Was ist an diesen Widersprüchen so interessant? 

Viele Menschen in der Linken betrachten das Silicon Valley als einen homogenen Block von Tech-Eliten. Innerhalb dieser Tech-Elite gäbe es zwar unterschiedliche Gruppen, aber keine grundlegenden Unterschiede zwischen ihnen. Einer der deutlichsten Ausdrücke für eine solche Vorstellung ist der Begriff »TESCREAL«2 von Timnit Gebru und Émile P. Torres, der die unterschiedlichen Ideologien der Tech-Branche zu einem einzigen Feindbild zusammenschmilzt. Ich halte es im Gegensatz dazu für produktiver, die Spaltungen und Widersprüche zwischen den verschiedenen Tech-Unternehmen in den Blick zu nehmen. Insbesondere im Bereich der Geopolitik gibt es viel mehr offene Kritik an Regierungsmaßnahmen durch die großen Konzerne als jemals zuvor in der neoliberalen Ära. Ein einfaches Beispiel: Als Biden seinen Plan zur Festlegung weltweiter Rechenleistungsstandards vorstellte, kritisierte das Unternehmen Nvidia diesen Plan öffentlich, das Unternehmen Oracle bezeichnete ihn sogar als schlechteste Idee der Regierung in der Geschichte der Technologiepolitik. Die Unternehmen hatten so klare Forderungen, weil sie die amerikanische Rechenleistung an so viele Länder wie möglich verkaufen wollten. Sie waren gegen solche politischen Barrieren und Hürden. Ähnliches geschah mit den großen Tech-Unternehmen der 2010er Jahre. Amazon, Microsoft und Google waren Unternehmen, die innerhalb einer globalen, digitalen, neoliberalen Welt aufblühen konnten. Eine Welt, die auf geopolitischen Spannungen, Exportkontrollen oder Handelsbeschränkungen basiert, passt ihnen nicht besonders gut. Wie man sieht, gibt es deutliche Unterschiede zwischen diesen exportorientierten Halbleiterunternehmen und neueren aufstrebenden Unternehmen, insbesondere den für Verteidigungstechnologien wie Anduril, Palantir oder Shield AI, sowie dem dahinterstehenden Risikokapital. Für die Risikokapitalgeber ist der Social-Media-Markt gesättigt, und die KI-Branche ist zu teuer, als dass sie sich dort wirklich einkaufen könnten. Die Verteidigungstechnologie bietet ihnen einen wachsenden Markt, in den sie Geld investieren, erheblichen Einfluss auf die Unternehmen ausüben und dadurch letztendlich massive Gewinne erzielen können. Deshalb gibt es eine Koalition aus Verteidigungstechnologie und Risikokapitalgebern. Anstelle eines homogenen Tech-Blocks gibt es heute also mindestens zwei recht unterschiedliche Gruppierungen, die oft im Widerspruch zueinanderstehen. Sie teilen viele Interessen, aber bei zentralen politischen Fragen gehen sie in unterschiedliche Richtungen. Daher ist eines der Kernargumente meines Buches, dass wir im Falle der USA – und in geringerem Maße auch bei China – über diese verschiedenen Fraktionen nachdenken müssen. Es gibt keinen klaren Konsens mehr zwischen der US-amerikanischen Staatsmacht und den Technologieunternehmen. Für die Linke eröffnet dies eine strategische Chance: Wir müssen darüber nachdenken, wie wir das nutzen können, um die aktuellen Entwicklungen in eine andere Richtung zu lenken.

D: Wie äußert sich diese »strategische Öffnung« konkret? Stellt sie uns nicht letztlich vor die schlechte Alternative zwischen einerseits klassisch-neoliberalen Positionen, die auf Freihandel und geopolitische Stabilität setzen, und andererseits zunehmend radikalisierten Fraktionen des Kapitals, die aktiv von geopolitischen Konflikten profitieren?

S: Ich kann versuchen, das anhand eines aktuellen Beispiels zu beantworten. Man kann sehr unterschiedliche Reaktionen von den Tech-Unternehmen auf die aktuelle Migrationspolitik in den USA beobachten, insbesondere auf das Vorgehen der Immigrationsbehörde ICE. Microsoft beispielsweise hat sich von den aktuellen Maßnahmen von ICE distanziert, unter anderem aufgrund des Widerstands der Belegschaft. Bei Palantir hingegen ist es genau umgekehrt. Sie unterstützen dies voll und ganz auf ideologischer Ebene, nicht nur auf ökonomischer. Durch diese Unterschiede ergeben sich verschiedene Hebelpunkte. Ein weiterer Aspekt ist der wirtschaftliche Einfluss. Die großen Tech-Unternehmen generieren durch Werbung, Cloud-Computing oder E-Commerce enorme Profite. Unternehmen wie Palantir, Shield-AI, Anduril oder SpaceX verfügen nicht über derart sichere Gewinnquellen. Sie sind in erster Linie auf Verträge mit der US-Regierung angewiesen. Linke Strategien gegen Google müssten daher anders aussehen als beispielsweise Strategien, die sich auf Palantir konzentrieren.

D: Spielen nicht auch die absehbaren Krisentendenzen der KI-Branche eine entscheidende Rolle, wenn es um die Frage nach strategischen Angriffspunkten für die Linke geht? Es ist ja offensichtlich, dass viele KI-Unternehmen nach wie vor unrentabel sind und nur durch die Erwartungshaltungen an einen großen Technologiesprung am Leben gehalten werden, wobei nach wie vor unklar ist, ob diese Erwartungen überhaupt erfüllt werden können. Aus marxscher Perspektive könnte man aber auch auf einer viel grundlegenderen Ebene von einer inhärenten Krisentendenz sprechen: Insofern KI-Technologien zunehmend menschliche Arbeitskraft ersetzen, wird die auf menschlicher Arbeitszeit beruhende Wertproduktion selbst untergraben. Wie beurteilen Sie diese Dynamik?

S: Ich versuche eigentlich die Diskussion über das Marxsche Gesetz des tendenziellen Falls der Profitrate zu vermeiden, da sie dazu tendiert, sehr akademisch zu werden. Zumindest wird sie schnell repetitiv, weil das Ergebnis meistens dasselbe ist: ›Der Profit wird sinken, egal was passiert‹. Aber ich kann ein paar Dinge dazu sagen: Zum Beispiel zu der Unterscheidung zwischen Wertabschöpfung und Wertproduktion. Eine der Entwicklungen, die meiner Meinung nach im Plattformkapitalismus stattgefunden hat und sich in der KI-Welt fortsetzt, ist eine Verlagerung von der Erzeugung von Profit und Mehrwert hin zur Kontrolle über wichtige Infrastrukturen, um den dort von Anderen produzierten Wert abzuschöpfen. Plattformen tun dies, indem sie als Vermittler auftreten: Sie nehmen an allem einen Anteil. KI beschleunigt dies in vielerlei Hinsicht. KI wird zunehmend zur Infrastruktur für den Unternehmensalltag. Und jedes Mal, wenn ein Unternehmen Finanzen, Buchhaltung, Personalwesen, Kundenmanagement oder was auch immer betreiben will, muss es einen Anteil an ein KI-Unternehmen zahlen. Durch den Betrieb und den Besitz der Infrastruktur entstehen für diese Unternehmen regelmäßige Renditen. Man kann über die Entwicklungsdynamik von KI aber auch im Sinne von ökonomischen »Blasen« denken. OpenAI rechnet für 2028 mit einem Verlust von siebenundvierzig Milliarden Dollar, was eine wahnsinnige Summe ist. Mit ziemlicher Sicherheit handelt es sich hier um eine Blase – irgendwann wird sie platzen. Eine Reihe von Unternehmen wird infolgedessen untergehen. Und ich denke, für viele Menschen in der Linken wäre das schon das Ende der Erzählung. Die Blase wird platzen, und das wars. Wenn man über Blasen spricht, tendiert man dazu, die konkreten Entwicklungen nach dem Crash zu vernachlässigen. Aber auch nach der Blase verschwindet die KI nicht einfach. Nach der Blase werden große Tech-Unternehmen wie Amazon, Microsoft und Google die Überreste dieser KI-Labore aufkaufen, die durch das Platzen der Blase dezimiert wurden. Und sie werden das Projekt der KI-Entwicklung einfach fortsetzen und es in ihre Geschäfte integrieren. Es mag zu einer Verlangsamung der Entwicklung kommen, aber KI wird weiterbestehen. Die Linke muss das berücksichtigen und darf nicht einfach sagen: ›Es ist eine Blase, sie wird platzen – Ende der Geschichte‹.

D: Zurück zur Politik der Linken: In Ihrem Buch Inventing the Future (2015), das Sie gemeinsam mit Alex Williams geschrieben haben, kritisierten Sie die »folk politics« der Linken. Damit bezeichneten Sie deren Ideale von Lokalismus und Unmittelbarkeit. Ich finde, dass man damit auch die allgemeine Skepsis der Linken gegenüber abstrakten oder breiten Technologien wie KI erklären könnte. Aber glauben Sie überhaupt, dass den »folk politics« in der heutigen Linken noch eine bedeutende Rolle zukommt?

S: Unsere Kritik an »folk politics« war eine Reaktion auf Bewegungen wie Occupy Wall Street nach der Finanzkrise von 2008. Sie war aber auch eine Reaktion auf unsere Erfahrungen mit der Linken in den 2000er Jahren, der Antiglobalisierungsbewegung und dem Aufkommen des »Horizontalismus«. Wir wollten zeigen, dass diese Formen an sich nicht falsch, aber unzureichend waren. Ich denke, in den Jahren seitdem hat sich ein Großteil der Linken weiterentwickelt. Ich glaube nicht, dass die Kritik an »folk politics« heute noch unbedingt zutrifft; die Situation ist eine ganz andere. Heute gibt es viel mehr Akzeptanz für verschiedene Formen von Hierarchie, festen Strukturen, oder Organisationsformen, die es in den 2000er Jahren noch nicht gab. Nichtsdestotrotz bin ich mit der gängigen Haltung der Linken gegenüber KI nicht besonders zufrieden. Die Linke neigt dazu, sie zu überzeichnen oder als Bullshit-Maschine abzutun. KI als Technologie hat viele Grenzen, aber diese Grenzen verschieben sich ständig. Sie einfach abzutun, überzeugt die Menschen nicht, die sie heute tatsächlich nutzen. Und es lässt auch die Frage offen, wie man mit dieser Technologie konkret umgehen soll. Es überlässt die Antwort auf diese Frage der Tech-Elite. Es gibt viele politisch engagierte Menschen in der KI-Welt, die selbst sehr besorgt sind, insbesondere über die Zentralisierung aller KI-Ressourcen. Selbst unter den größten Befürwortern von KI findet man aufrichtige Bedenken hinsichtlich der Zentralisierung von Macht und Profit in diesem Bereich. Wenn die Linke dieses Terrain unbeachtet lässt, verpasst sie die Möglichkeit, die zukünftige Entwicklung dieser Technologie beeinflusst werden könnte.

D: Ich habe den Eindruck, dass die Tendenz der Linken, solche Technologien – und insbesondere KI – zu vernachlässigen, auf der Annahme fußt, dass ihre Kritik von einem Standpunkt außerhalb der Logik des Kapitals kommen muss. Wie Sie in Inventing the Future (2015) dargelegt haben, kann es aber weitaus produktiver sein, sich mit dem Kapitalismus von innen heraus auseinanderzusetzen und seine immanenten Möglichkeiten zu erkennen. In diesem Sinne: Welche Möglichkeiten bringt uns die gegenwärtige KI-Welt?

S: Ich habe dazu noch keine klare Vorstellung. Aber ich möchte einen Vorschlag machen, was man schon jetzt tun könnte, und dabei denke ich insbesondere an eine staatliche Perspektive und an eine eher technische Perspektive. Eine Sache, die mir im Moment wirklich Sorgen bereitet, ist die Entwicklung von KI-Agenten wie Claude Code oder OpenClaw. Zentral für ihren Wert und ihren Nutzen ist der Zugriff auf all unsere persönlichen Daten, unsere Computer und dergleichen. Und wenn sich das in Richtung einer zentralisierten Plattform entwickelt, wird die KI-Technologie viel gefährlicher sein als beispielsweise der Zugriff auf unsere Daten durch Social Media. Der Nutzen von Social Media war in der Regel relativ unabhängig von unserem restlichen Leben. Der Nutzen, den man jedoch aus den neuen KI-Agenten ziehen kann, besteht darin, dass sie Zugriff auf mehr Aspekte unseres Lebens erhalten, als soziale Medien es je konnten. Wenn eine zentralisierte Plattform diese Daten kontrolliert und uns effektiv an ihre KI-Agenten bindet, ist es wirklich vorbei. Es wird unglaublich schwierig sein, sich davon zu lösen. Mir ist es also wichtig, darüber nachzudenken, wie das verhindert werden kann. Können wir ein System um diese Modelle herum aufbauen, dass die Konzentration personenbezogener Daten innerhalb dieser Plattformen verhindert? Solche technischen Hürden zu errichten und sie jetzt einzuführen, wäre ein äußerst wichtiger Schritt. Das würde die Kommerzialisierung von KI nicht grundsätzlich aufheben, aber es würde die umfassende Kontrolle über unsere Daten verhindern.

 

*.notes

  • 1

    Srnicek, Nick (2016): Platform Capitalism. Polity, Cambridge.

  • 2

    »TESCREAL« steht für Transhumanism, Extropianism, Singularitarianism, Cosmism, Rationalists, Effective Altruism, und Longtermism.