
QNAP QAI-h1290FX : LLM privés et RAG en local sans cloud
QNAP a sorti le QAI-h1290FX, un serveur pensé pour faire tourner des LLM privés et des recherches RAG sans envoyer une ligne de données à un fournisseur cloud externe. La machine combine 12 baies NVMe, un AMD EPYC 7302P et une option GPU NVIDIA RTX PRO 6000 Blackwell qui peut grimper jusqu’à 96 Go de VRAM. Le constructeur taïwanais la positionne comme une appliance edge AI prête à l’emploi, avec Ollama, AnythingLLM et OpenWebUI préinstallés. L’angle est clair : éviter aux DSI de monter un cluster GPU sur-mesure pour rester maîtres de leurs documents, contrats ou bases internes. Reste à voir si l’argument tient face à un poste de travail GPU bricolé en interne, qui coûte souvent moins cher pour




