#QuitGPT: Wenn im Silicon Valley die Masken fallen!
- Stephan Waltl

- vor 7 Tagen
- 4 Min. Lesezeit
Die Welt brennt – buchstäblich und im übertragenen Sinne. Im Nahen Osten eskaliert der Konflikt mit dem Iran weiter, Drohnen überfliegen Grenzen, Raketen treffen Städte, und irgendwo in Teheran und Washington sitzen Menschen, die über Krieg und Frieden entscheiden. Eine dieser Entscheidungen hat nichts mit Raketen zu tun – sie betrifft Algorithmen. Und sie könnte genauso verheerend sein.
Sam Altman, CEO von OpenAI, hat vergangene Woche einen Deal mit dem US-Verteidigungsministerium abgeschlossen. ChatGPT-Modelle sollen künftig in geheimen Militärnetzwerken eingesetzt werden. Für "jeden rechtmäßigen Zweck." Inklusive – und das steht wirklich so drin – Killerrobotern und Massenüberwachung.
Herzlichen Glückwunsch. Der freundliche Chatbot, mit dem du gestern noch eine E-Mail formuliert hast, ist jetzt offiziell Teil des militärisch-industriellen Komplexes.
Zwei Einbrüche. Beide hausgemacht.
OpenAI hat ein Problem – und das ist nicht erst seit gestern so. Schauen wir uns kurz an, wie das Ganze eskaliert ist.
Einbruch Nummer eins: Nano Banana.
Google hat mit Gemini Nano Banana einen wirklich starken Treffer gelandet. Ein beeindruckendes Bildgenerierungsmodell, das Nutzer weltweit neugierig gemacht hat – und viele davon haben es einfach ausprobiert. Natürlich. So funktioniert das. Wenn Google etwas Neues rausbringt, strömen die Massen auf die Plattform. ChatGPT hat in diesem Moment Nutzer verloren – nicht weil es schlechter geworden wäre, sondern weil die Konkurrenz sichtbar besser geworden ist. Das war ein Produktproblem. Lösbar, im Prinzip.
Einbruch Nummer zwei: #QuitGPT.
Dieser hier ist schlimmer. Denn dieser Einbruch hat nichts mit einem besseren Konkurrenzprodukt zu tun. Er ist selbstverschuldet. Durch eine Entscheidung, die Sam Altman in wenigen Stunden getroffen hat – und die die Frage aufwirft, ob bei OpenAI überhaupt noch jemand an ethischen Leitplanken interessiert ist.
Die Geschichte dahinter – und sie ist nicht schön
Kurz zum Hintergrund: Das US-Verteidigungsministerium hatte Anthropic – dem Hersteller von Claude – ein Ultimatum gestellt. Entweder ihr lockert eure ethischen Restriktionen, oder ihr verliert einen Vertrag im Wert von 200 Millionen Dollar.
Dario Amodei, CEO von Anthropic, hat Nein gesagt. Öffentlich, klar und mit Begründung: "Wir glauben, dass KI in einigen Fällen die demokratischen Werte eher untergraben als verteidigen kann." Das ist bemerkenswert – und leider eine Ausnahme in dieser Branche.
Weil kurz darauf schon meldete sich Sam Altman zu Wort. Auf X. Sinngemäß: Hey, wir haben den Deal gemacht. Das Pentagon zeigt tollen Respekt für Safety.
Toller Respekt für Safety - das Pentagon. Man weiß nicht, ob man lachen oder weinen soll.
US-Präsident Trump legte dann noch nach und kündigte an, Bundesbehörden anzuweisen, Anthropic-Technologie "SOFORT" nicht mehr zu nutzen. Das ist ungefähr so, als würde der schulbekannte Kraftlaggl demjenigen, der nicht mitmacht, das Pausenbrot wegnehmen.
#QuitGPT – mehr als ein Twitter-Hashtag
Die Reaktion aus der Öffentlichkeit war nicht lange auf sich warten lassen. Unter dem Namen QuitGPT hat sich eine Protestbewegung formiert, die nach eigenen Angaben bereits über 1,5 Millionen Menschen mobilisiert hat. Die Plattform quitgpt.org listet Alternativen auf, erklärt wie man sein ChatGPT-Abo kündigt, und hat für heute einen physischen Protest vor der OpenAI-Zentrale in San Francisco angekündigt.
Die Kernbotschaft: OpenAI stellt Profit über Sicherheit!
Was mich dabei wirklich beunruhigt, ist nicht mal der Deal an sich. Es ist das Tempo. Stunden nachdem die Verhandlungen mit Anthropic gescheitert waren, hatte Altman bereits unterschrieben. Als hätte er nur darauf gewartet. Als wäre der einzige Faktor, der OpenAI noch zurückgehalten hatte, die Konkurrenz – und die hat jetzt kapituliert. Nein, Entschuldigung – Anthropic hat gerade nicht kapituliert. Aber die Lücke war da, und sie wurde sofort gefüllt.
Und in diesem Kontext – während im Nahen Osten KI-gestützte Drohnen über Konfliktgebieten kreisen und autonome Waffensysteme längst keine Science-Fiction mehr sind – sollte man sich schon fragen: Wollen wir wirklich, dass der mächtigste KI-Konzern der Welt sich zum Zulieferer des Kriegsapparats macht?

Wer profitiert, wer verliert?
OpenAI bekommt Regierungsverträge, Prestige und frisches Kapital. Sam Altman stärkt seine Position als Liebling der US-Administration.
Das Pentagon bekommt KI-Zugang ohne lästige ethische Schranken. Für "jeden rechtmäßigen Zweck."
Die Nutzer von ChatGPT zahlen monatlich für ein Produkt, dessen Technologie jetzt Teil militärischer Operationen sein kann – ohne ihr Wissen, ohne ihre Zustimmung.
Die Demokratie verliert einen kleinen, aber wichtigen Baustein: das Prinzip, dass Technologieunternehmen nicht einfach zum verlängerten Arm des Militärapparats werden sollten.
Was QuitGPT empfiehlt – und was ich dazu sage
Die Kampagne empfiehlt Alternativen: Claude von Anthropic, Gemini von Google, sowie Open-Source-Lösungen wie Confer, Alpine und Lumo. Von Grok wird ausdrücklich abgeraten – wegen Elon Musk und der Plattform X, was ich vollständig nachvollziehen kann.
Meine persönliche Einschätzung: Google hat in Sachen Datenschutz keine weiße Weste. Wer glaubt, mit Gemini in einer ethisch sauberen Zone zu sein, sollte sich das Geschäftsmodell von Alphabet nochmal zu Gemüte führen. Open-Source-Lösungen, lokal betrieben, sind für technisch versierte Nutzer tatsächlich die sauberste Option - aber die Installation von OLAMA ist nicht für jederman/frau geeignet.
Und Claude von Anthropic? Ich bin seit Monaten großer Fan von diesem System und arbeite täglich damit. Chatbot, Skills, Artefakte, CoWork und Code sind ausgezeichnete Systeme und Anwendungen. Es ist ein innovatives, genaues und sehr sauberes System - dazu die Haltung von Dario Amodei und wie er in dieser Situation Substanz gezeigt hat. Ein Nein gegenüber dem Pentagon, verbunden mit dem Risiko, 200 Millionen Dollar zu verlieren, ist kein Marketing-Gimmick.
Ein Boykott ist ein Signal. Gut. Aber was wir als Gesellschaft im Umgang mit KI tatsächlich brauchen, geht weiter:
Klare gesetzliche Regelungen, welche KI-Modelle für welche militärischen Zwecke eingesetzt werden dürfen
Transparenzpflicht für KI-Unternehmen bei staatlichen und militärischen Verträgen
Europäische Souveränität in der KI-Entwicklung – wir können uns nicht dauerhaft auf US-Anbieter verlassen, die morgen wieder einen Deal unterschreiben. Mistral ist eine Alternative aber ausserhalb der medialen Wahrnehmung!
Nutzer-Empowerment: Wer zahlt, soll wissen, wofür seine Daten und sein Geld verwendet werden
Die Ironie dabei: OpenAI übersteht den ersten Einbruch durch ein besseres Google-Produkt noch halbwegs unbeschadet. Den zweiten Einbruch hat sich das Unternehmen selbst beigebracht – durch eine Entscheidung, die in wenigen Stunden gefallen ist und die Millionen Nutzer verprellt. Nano Banana war ein Weckruf für die Produktentwicklung. #QuitGPT ist ein Weckruf für die Gesellschaft.
KI ist kein neutrales Werkzeug. Sie hat Besitzer. Und die haben Interessen.
Vielleicht ist es Zeit, sich zu fragen, wessen Interessen wir da eigentlich finanzieren.



Kommentare