QNAP präsentiert das QAI-h1290FX

Da Datensouveränität und Rechenleistung zu strategischen Differenzierungsmerkmalen für Unternehmen werden, die KI einsetzen, steigt die Nachfrage nach privater, lokaler KI-Infrastruktur (On-Premises) kontinuierlich. Als Antwort auf diesen Wandel hat QNAP® Systems, Inc., ein führender Innovator für Computing-, Netzwerk- und Speicher-Lösungen, heute das QAI-h1290FX vorgestellt – ein Edge-KI-Speicherserver der nächsten Generation, der die private Bereitstellung von Large Language Models (LLMs), Retrieval-Augmented-
Ausgestattet mit Server-Grade AMD EPYC
Prozessoren, Unterstützung für NVIDIA® RTX
GPU-Beschleunigung und zwölf U.2 NVMe/SATA SSD-Steckplätzen bietet das QAI-h1290FX eine hochleistungsfähige On-Premises-KI-Infrastruktur für Unternehmen, die geringe Latenzzeiten bei der Inferenz, vollständige Datenhoheit und operative Kontrolle benötigen – ohne Abhängigkeit von der Cloud.
Angetrieben vom ZFS-basierten QuTS hero Betriebssystem von QNAP bietet das QAI-h1290FX Datenintegrität auf Enterprise-Niveau, nahezu unbegrenzte Snapshots und Inline-Deduplizierung. Er unterstützt nativen GPU-Zugriff in Containern über Container Station sowie GPU-Passthrough für virtuelle Maschinen via Virtualization Station. IT-Teams, Entwickler und Forschungsgruppen können Inferenzmodelle, generative KI-Anwendungen und RAG-Pipelines effizient ausführen – bei voller Kontrolle über Leistung und Ressourcenverteilung.
Der QAI-h1290FX enthält eine kuratierte Auswahl vorinstallierter KI-Tools wie AnythingLLM, OpenWebUI und Ollama, die eine schnelle Bereitstellung privater LLM-Workflows ermöglichen. Zusätzliche KI-Anwendungen wie Stable Diffusion, ComfyUI, n8n und vLLM werden ebenfalls integriert, um den Funktionsumfang zu erweitern. Dadurch können Anwender schnell On-Premises-KI-Plattformen aufbauen und Workflows in einer sicheren, skalierbaren und vollständig kontrollierten Umgebung automatisieren.
„Der QAI-h1290FX erfüllt die wachsende Nachfrage nach On-Premises KI-Infrastruktur“, sagte Oliver Lam, Produktmanager bei QNAP. „Wir wollten die Hürden beim Aufbau einer GPU-Workstation, der Installation von Tools und der Konfiguration komplexer Umgebungen beseitigen. Mit dem QAI-h1290FX können Anwender ihre KI-Modelle sofort einsetzen und ausführen – mit voller Kontrolle über ihre Daten und ganz ohne Abhängigkeit von der Cloud.“
Hauptmerkmale des QAI-h1290FX
- All-Flash-Speicher-
Architektur: Zwölf U.2 NVMe/SATA-SSD-Steckplätze ermöglichen extrem schnelle I/O für hochfrequente Ausführung von KI-Modellen und Daten-Streaming. - 16-Kern AMD EPYC
7302P Prozessor: Bietet 32 Threads Server-Computing-Leistung – ideal für KI-Inferenz, Virtualisierung und anspruchsvolle parallele Workloads. - GPU-Ready-Architektur:
Unterstützt optionale NVIDIA RTX PRO
6000 Blackwell Max-Q Workstation GPU mit bis zu 96 GB GPU-Speicher und Unterstützung für CUDA®, TensorRT
und Transformer Engine-Beschleunigung – steigert die Leistung bei On-Premises LLM-Inferenz, Bildgenerierung und Deep-Learning-Workloads erheblich. - Containerisierte KI-Umgebung & GPU-Ressourcenmanagement:
Unterstützt Docker und LXD mit intuitiver GPU-Zuweisung. Anwender können KI-Tools schnell über das integrierte AI App Center starten und GPU-Ressourcen ohne Konfiguration über die Befehlszeile zuweisen. - Vollständig lokale Bereitstellung ohne Cloud-Abhängigkeit: Führen Sie KI-gestützte Chat-Assistenten, Dokumentensuchmaschinen oder Wissensdatenbanken vollständig On-Premises aus. Behalten Sie sensible Daten im eigenem Unternehmen und beschleunigen Sie gleichzeitig KI-Workflows.
- Hochgeschwindigkeits-Netzwerk und skalierbare Architektur: Verfügt über zwei 25GbE- und zwei 2.5GbE-Ports. PCIe-Steckplätze unterstützen optionale 100GbE-Upgrades. Kompatibel mit QNAP JBOD-Erweiterungsgehäusen für großflächige KI-Daten-Speicher.
Anwendungs-Highlights
- Interne KI-Assistenten / On-Prem Chat-Oberflächen
Setzen Sie konversationelle KI-Oberflächen für Wissensabfragen, Mitarbeiterschulungen und Richtlinien-Q&A ein – vollständig unter Ihrer Kontrolle. - Enterprise RAG-Suche
Nutzen Sie private RAG-Pipelines, um schnelle, kontextbezogene Suchen in Verträgen, Berichten und internen Dokumenten durchzuführen. - Bildgenerierung für Kreativteams
Führen Sie Stable Diffusion oder ComfyUI für KI-gestützte Design-Workflows und visuelle Inhaltserstellung aus. - KI-gesteuerte IT-Automatisierung
Nutzen Sie n8n, um Inferenzaufgaben, Inhaltserstellung oder Benachrichtigungen zu automatisieren und KI nahtlos in Geschäftsprozesse zu integrieren.
Mit dem QAI-h1290FX bietet QNAP einen praxisorientierten, hochleistungsfähigen Ansatz zur Implementierung generativer KI innerhalb von Unternehmensgrenzen. Ob im Rechtswesen, im Personalwesen, in kreativen Bereichen ode rim IT-Betrieb eingesetzt – er unterstützt Teams dabei, schneller zu arbeiten, Compliance- Anforderungen einzuhalten und die vollständige Kontrolle über Ihre KI-Strategie zu behalten – direct am Edge.

