På CES-mässan presenterade NVIDIA BlueField-4 en helt ny AI-native lagringsplattform. Satsningen ska accelerera agentisk AI, skala inferens i gigaskala och ge upp till fem gånger högre energieffektivitet. Tekniken riktar sig till framtidens datacenter och avancerade AI-system världen över.
NVIDIA lanserar ny lagringsplattform för agentisk AI
Under CES tillkännagav NVIDIA att deras nya Inference Context Memory Storage Platform drivs av BlueField-4 Data Processing Unit. Plattformen är utvecklad för lång kontextbearbetning och fleromgångs-AI, där minne och snabb åtkomst är avgörande.
Dessutom är lösningen anpassad för gigaskalig inferens, där tusentals AI-agenter arbetar parallellt. Som ett resultat kan system dela kontextdata i realtid mellan hela kluster av AI-servrar.
Därför räcker inte GPU-minne för framtidens AI
När AI-modeller växer till biljontals parametrar skapas enorma mängder kontextdata, så kallad KV-cache. Denna cache är avgörande för precision, kontinuitet och användarupplevelse. Däremot kan GPU-minne inte lagra denna data långsiktigt utan att skapa flaskhalsar.
Följaktligen krävs en ny typ av AI-native infrastruktur, där lagring och nätverk är tätt integrerade med beräkningsresurserna.
Upp till fem gånger högre prestanda och energieffektivitet
Enligt NVIDIA kan den nya plattformen leverera:
- Upp till 5x fler tokens per sekund
- Upp till 5x bättre energieffektivitet
- Snabbare tid till första token
- Förbättrad respons i fleromgångs-AI
Vidare möjliggör NVIDIA Spectrum-X Ethernet högbandbreddsdelning av kontextminne över rackskaliga AI-system. Detta förbättrar genomströmningen per GPU och förenklar skalning av komplex AI-inferens.
Jensen Huang om nästa steg för artificiell intelligens
NVIDIAs grundare och vd Jensen Huang beskriver lanseringen som ett skifte i hela teknikstacken.
“AI är inte längre enkla chattbotar, utan intelligenta samarbetspartners med minne, resonemang och verktyg,” säger han. Vidare betonar han att lagring nu blir lika central som beräkning i AI-utvecklingen.
Central teknik bakom BlueField-4-plattformen
Den nya lösningen kombinerar flera avancerade tekniker:
- Klusterbaserad KV-cache i Rubin-arkitektur
- Hårdvaruaccelererad placering av kontextdata
- DOCA-ramverk och NVIDIA NIXL för snabb delning
- Säker och isolerad åtkomst för GPU-noder
Dessutom minskar metadatahantering och datarörelser, vilket förbättrar både prestanda och driftsäkerhet.
Brett stöd från globala lagringsaktörer
Flera ledande aktörer utvecklar redan nästa generations AI-lagring baserat på BlueField-4. Bland dessa finns Dell Technologies, HPE, IBM, Pure Storage, Supermicro och Nutanix. Plattformen väntas bli tillgänglig under andra halvåret 2026.
Trots detta betonar NVIDIA att ekosystemet fortsatt är öppet, vilket påskyndar innovation inom AI-fabriker och datacenter.
