Tether: 68 Millionen US-Dollar pro Mitarbeiter — und jetzt greift der USDT-Riese die KI-Infrastruktur an

Raphael Lulay

17.03.2026, 21:58 Uhr

,

Der Herausgeber des weltgrößten Stablecoins USDT macht Ernst mit dem Einstieg in künstliche Intelligenz. Am heutigen Dienstag hat Tethers KI-Plattform QVAC ein Framework veröffentlicht, das das Training von Milliarden-Parameter-Modellen auf Smartphones ermöglicht. Der Zeitpunkt ist kein Zufall: Tether sitzt auf einem der profitabelsten Geschäftsmodelle der Unternehmensgeschichte — und hat das Kapital, um es zu reinvestieren.

Das profitabelste Unternehmen der Welt

Eine Analyse von Syncracy Capital zeigt: Tether erwirtschaftet rund 68,9 Millionen US-Dollar Umsatz pro Mitarbeiter — mehr als jedes andere Unternehmen der Welt. Hyperliquid folgt mit 67,2 Millionen auf Platz zwei, Pump.fun mit 42,7 Millionen auf Platz drei. Zum Vergleich: Nvidia, dessen KI-Chips gerade als unverzichtbar gelten, kommt auf 3,6 Millionen US-Dollar pro Mitarbeiter. Apple liegt bei 2,4 Millionen, OpenAI bei 1,1 Millionen.

Daten von 6/8/2025. Darstellung von boersen-parkett.de. Quelle: Sincracy Capital

Der Grund: Tether betreibt mit USDT die mit Abstand meistgenutzte Stablecoin-Infrastruktur weltweit — ein Geschäft, das kaum Personalaufwand erfordert, aber enormen Zinsertrag auf die hinterlegten US-Staatsanleihen abwirft. Mit weniger als 200 Mitarbeitern verwaltet das Unternehmen ein Vermögen im dreistelligen Milliardenbereich. Diesen strukturellen Überschuss investiert Tether jetzt gezielt in KI.

Was QVAC heute veröffentlicht hat

Das neue Framework heißt QVAC Fabric und ist das weltweit erste plattformübergreifende LoRA-Fine-Tuning-System für Microsofts BitNet-Modelle — sogenannte 1-Bit-Sprachmodelle. Was das bedeutet: Nutzer können vortrainierte KI-Modelle mit Milliarden Parametern auf eigene Datensätze anpassen, ohne Cloud-Infrastruktur, ohne NVIDIA-Hardware, ohne Enterprise-Budget.

Bislang war KI-Fine-Tuning praktisch ausschließlich auf teuren NVIDIA-Systemen möglich. Das neue Framework läuft erstmals auch auf AMD- und Intel-Grafikkarten, Apple Silicon sowie auf den mobilen GPUs moderner Smartphones — Qualcomm Adreno, ARM Mali und Apple Bionic.

Konkrete Zahlen vom Smartphone

Tether hat die Leistung auf aktuellen Geräten gemessen. Ein Sprachmodell mit 125 Millionen Parametern lässt sich auf einem Samsung Galaxy S25 in rund zehn Minuten auf einem biomedizinischen Datensatz trainieren. Das deutlich größere 1-Milliarden-Parameter-Modell benötigt auf demselben Gerät 1 Stunde 18 Minuten — auf dem iPhone 16 sind es 1 Stunde 45 Minuten. Modelle mit bis zu 13 Milliarden Parametern sollen auf dem iPhone 16 ebenfalls lauffähig sein.

Der Speichervorteil der BitNet-Architektur ist dabei entscheidend. BitNet-1B belegt bis zu 77,8 Prozent weniger Arbeitsspeicher als Googles Gemma-3-1B im herkömmlichen 16-Bit-Format. Die mobile GPU arbeitet dabei zwei- bis elfmal schneller als die CPU desselben Geräts.

Die strategische Logik dahinter

CEO Paolo Ardoino benennt das Ziel offen: Solange KI-Training von Amazon-, Google- oder Microsoft-Rechenzentren abhängt, bleibe Innovation zentralisiert — und damit kontrollierbar von wenigen. Tether will KI dezentralisieren: lokal auf dem Gerät, ohne Abhängigkeit von Hyperscalern, mit vollem Datenschutz für den Nutzer.

Das ist mehr als Technik-Idealismus. Tether positioniert sich damit als Gegenmodell zu den großen Cloud-Anbietern — und nutzt seine außergewöhnliche Kapitaleffizienz, um Bereiche anzugreifen, in denen OpenAI, Google und Microsoft strukturell teuer und träge sind.

Das Framework inklusive technischem Paper, Benchmarks und plattformspezifischen Binaries ist über Hugging Face öffentlich zugänglich.

Abonniere boersen-parkett.de auf Google News für tägliche Krypto-Analysen