Theta Labs startet hybrides Edge-Cloud-Architektur mit dynamischem Angebot-Nachfrage-GPU-Marktplatz zur Demokratisierung des Zugangs zu Rechenleistung
[PRESS RELEASE]
Neues dezentrales System liefert Enterprise-Grade AI Computing mit bis zu 70 % geringeren Kosten durch intelligente Kombination von Cloud- und verteilten Ressourcen.
Theta Labs gab heute die Beta-Veröffentlichung seiner hybriden Edge-Cloud-Architektur für das Theta EdgeCloud-Netzwerk bekannt, einer Computing-Plattform, die traditionelle cloudbasierte GPUs mit einem verteilten Netzwerk von über 30.000 von der Community betriebenen Edge-Knoten kombiniert. Die Plattform ist darauf ausgelegt, kostengünstigen Zugang zu Hochleistungs-Rechenressourcen für AI Modelltraining und Inferenz, Videobearbeitung, Finanzmodellierung und andere GPU-intensive Aufgaben zu bieten. In dieser neuen Version wird ein neuer dezentraler GPU-Marktplatz eingeführt, der die Berechnungspreise wettbewerbsfähig und transparent über die Plattform hinweg hält.
Die hybride Architektur adressiert eine grundlegende Herausforderung der modernen Datenverarbeitung: die steigenden Kosten und die begrenzte Verfügbarkeit spezialisierter Hardware, die für AI- und Machine-Learning-Aufgaben benötigt wird. Traditionelle Cloud-Anbieter berechnen Premiumpreise für den Zugriff auf GPUs, was kleinere Forschungsteams, Startups und akademische Institutionen oft ausschließt. Durch die Integration von verteilten Rechenressourcen von Community-Mitgliedern neben konventioneller Cloud-Infrastruktur wird die Plattform ähnliche Fähigkeiten zu signifikant reduzierten Kosten bieten.
Ein dynamischer GPU-Marktplatz für effiziente Rechenverteilung
Theta EdgeCloud ist ein dezentraler Marktplatz, der das Angebot und die Nachfrage nach GPU-Rechenleistung verbindet. Er ermöglicht jedem mit ungenutzten GPUs, seine Ressourcen zu teilen und Belohnungen zu verdienen, während Entwicklern und AI-Teams eine skalierbare, kostengünstige Plattform für das Ausführen containerisierter Arbeitslasten geboten wird.
Die Plattform erlaubt es Kunden nun, die geeignetste Infrastruktur für verschiedene Arten von Rechenaufgaben auszuwählen. Beispielsweise kann das Training eines großen AI-Modells, das erhebliche GPU vRAM benötigt, an leistungsstarke Cloud- oder Rechenzentrumsbasierte GPUs geleitet werden. Im Gegensatz dazu können Aufgaben wie schnell ablaufende Modell-Inferenz-Arbeitslasten, die inhärent parallelisierbar sind, über viele von der Community betriebene Gaming-Maschinen verteilt werden, was eine flexible und kostengünstige Alternative bietet.
Um ein gerechtes und dynamisches Preismodell zu gewährleisten, erlaubt Theta EdgeCloud den Knotenbetreibern (der Angebotsseite), ihre eigenen stündlichen Mietpreise festzulegen. Gleichzeitig können die Nutzer (die Nachfrageseite) Knoten auswählen, die ihren Leistungsanforderungen und Budgetvorgaben entsprechen, wenn sie Arbeitslasten starten. Dieser marktgetriebene Ansatz hilft, die GPU-Kosten über die Plattform hinweg wettbewerbsfähig und transparent zu halten.
Das System beinhaltet Backup-Mechanismen mit automatischer Umschaltlogik, um Arbeiten neu zuzuweisen, falls ein Community-Gerät offline geht, um die zuverlässige Fertigstellung von Rechenaufgaben über das heterogene Netzwerk von GPU-Typen hinweg sicherzustellen.
Angetrieben von führenden akademischen und Firmenkunden
Die Plattform bedient derzeit Kunden wie die Stanford University, Seoul National University, KAIST, Yonsei University, die University of Oregon, Michigan State University, und NTU Singapur für die akademische AI-Forschung. Unternehmenskunden umfassen große Sportteams wie die Las Vegas Knights der NHL, Houston Rockets der NBA, und globale eSports-Teams FlyQuest und Evil Geniuses.
Die Beta-Veröffentlichung umfasst Funktionen, die von bestehenden Kunden angefordert wurden, darunter persistenter Speicher für das AI-Modelltraining, verbesserte Jobpriorisierung und eine Entwickler-API-Schnittstelle für die Übergabe von Jobs und Analysen.
“The reality is that GPU costs have become prohibitive for many organizations doing important AI research,” said Jieyi Long, CTO of Theta Labs. “Universities are telling us they’re having to scale back projects or wait months for access to affordable computing resources. By tapping into the unused GPU power sitting in gaming computers and workstations around the world, we can deliver the same computational capabilities at a fraction of the cost. This means our partners at Stanford, KAIST, and other institutions can run more experiments, iterate faster, and push the boundaries of what's possible in AI research without budget constraints limiting their ambitions.”
Technische Fähigkeiten
Die hybride Architektur unterstützt containerisierte Rechenaufgaben inklusive AI Modeltraining und Inferenz, Video-Encoding und -Transkodierung, 3D-Rendering, finanzielle Simulationen und wissenschaftliche Rechenanwendungen. Die Plattform bietet über 80 PetaFLOPS verteilte GPU-Rechenleistung durch ihre Kombination von Cloud-Partnerschaften mit Google Cloud und Amazon Web Services und ihrem verteilten Edge-Netzwerk.
Der EdgeCloud Client-Knoten ist ein leichtes Softwarepaket, das es Community-Mitgliedern ermöglicht, ihre ungenutzte GPU-Kapazität beizutragen. Fortgeschrittene Job-Containerisierung sorgt für hoch-effizientes Rechnen über verschiedene GPU-Typen und Spezifikationen. Um mehr über die EdgeCloud Client Software zu erfahren, besuchen Sie bitte diesen Link.
Über Theta Labs
Theta Labs ist der führende Anbieter dezentraler Cloud-Infrastruktur für AI, Medien und Unterhaltung, angetrieben durch ein globales Netzwerk von 30.000 verteilten Edge-Knoten und einer nativen Blockchain. Unterstützt von Samsung, Sony, Bertelsmann Digital Media Investments und Creative Artists Agency, zählt Theta zu den Top 10 DePIN Blockchains nach Marktkapitalisierung und Top AI Tokens. Theta's Enterprise-Validator und Verwaltungsgremium besteht aus globalen Marktführern wie Google, Samsung, CAA und Binance.
Der kürzlich gestartete Theta EdgeCloud ist die erste hybride Cloud-Edge-Computing-AI-Plattform mit über 80 PetaFLOPS bedarfsgerechter verteilter GPU-Rechenleistung. EdgeCloud hat nun 25 globale Kunden, darunter 4 der Top 5 Universitäten Südkoreas, erstklassige professionelle Sportteams wie die Las Vegas Knights der NHL, Houston Rockets der NBA, und globale eSports-Teams wie FlyQuest und Evil Geniuses.
Website | Twitter | Medium | Discord | Developer Portal | Github

