Uç birim çıkarımından NVIDIA STX'e kadar, ölçeklenebilir ve tutarlı performans için özel olarak tasarlanmış KV cache altyapısı.ACCESS Newswire / SUNNYVALE, KALİFORNİYA (İGFA) - GPU (Graphics Processing Unit) hızlandırmalı NVMe depolama...


Uç birim çıkarımından NVIDIA STX'e kadar, ölçeklenebilir ve tutarlı performans için özel olarak tasarlanmış KV cache altyapısı.
ACCESS Newswire / SUNNYVALE, KALİFORNİYA (İGFA) - GPU (Graphics Processing Unit) hızlandırmalı NVMe depolama alanının öncüsü Graid Technology, bugün Agentic AI (Aracı Yapay Zeka) Depolama Portföyünü duyurdu. Bu portföy, "her zaman açık"üretim yapay zekasını yavaşlatan depolama darboğazlarını ortadan kaldırmak için tasarlanmış özel bir KV (Key-Value) cache çözümleri ailesidir. Tamamı SupremeRAID™ teknolojisi üzerine inşa edilen portföy; KV Cache Sunucusu, KV Cache Rafı ve KV Cache Platformu olmak üzere üç dağıtım katmanını kapsamaktadır. Portföyün en üst katmanı olan KV Cache Platformu, NVIDIA'nın STX referans mimarisiyle özel olarak uyumlu hale getirilmiştir ve 2026'nın ikinci yarısı için yol haritasında yerel BlueField-4 DPU (Data Processing Unit) yürütmesi bulunmaktadır.
Agentic AI deney aşamasından üretim aşamasına geçtikçe, tek seferlik çıkarımı (single-shot inference) destekleyen altyapı varsayımları geçerliliğini yitirmiştir. Sürekli çok adımlı görevler yürüten ve saatlerce süren operasyon boyunca bağlamı koruyan modeller, GPU HBM'sini (High Bandwidth Memory) aşan KV cache talepleri oluşturmaktadır. Sonuç: 18 kata varan gecikme artışları, %50'ye kadar düşen GPU kullanımı ve tespit edilmesi zor, telafisi maliyetli olan halüsinasyonlar ve muhakeme kaybı gibi model düzeyinde hatalar.
SupremeRAID™ bu sorunu doğrudan ele alarak, 32 adede kadar NVMe sürücüsünü tek bir 280 GB/s sanal havuzda birleştirir; GPU Direct Storage aracılığıyla işlemciyi (CPU - Central Processing Unit) devre dışı bırakır ve standart NVMe'den 77 kat daha hızlı (1,3 ms) KV cache okuma performansı sunar. Üç portföy katmanı, bu yeteneği her dağıtım ölçeğine taşır:
KV Cache Sunucusu (KV Cache Server) – Bireysel çıkarım sunucuları ve uç yapay zeka (edge AI) dağıtımları için tek düğümlü NVMe hızlandırma. Şu an kullanımda
KV Cache Rafı (KV Cache Rack) – Kurumsal çoklu GPU kümeleri için önde gelen sunucu OEM (Original Equipment Manufacturer) ortaklarıyla ortaklaşa tasarlanmış, ortak onaylı raf ölçekli çözümler. Şu an kullanımda
KV Cache Platformu (KV Cache Platform) – Yerel BlueField-4 DPU yürütmesi ve raf ölçekli depolama genişletme yol haritasıyla NVIDIA'nın STX referans mimarisi için özel olarak üretilmiştir.
Graid Technology CEO'su Leander Yu, "Bir yıl önce GTC 2025'te Jensen Huang, depolamanın ilk kez GPU hızlandırmalı hale geleceğini tahmin etmişti. Bu yıl NVIDIA, STX ve CMX ile bu konsepti bir mimariye dönüştürdü," dedi. "KV Cache Portföyümüz, Agentic AI'nın talep ettiği depolama performansını, depolama katmanı maliyetleriyle sunarak tam da bu an için tasarlandı."
Agentic AI dağıtımlarını değerlendiren işletmeler ve altyapı ekipleri için tam dağıtım mimarisi, teknik özellikler ve NVIDIA STX uyumluluk detayları çözüm özetinde mevcuttur: Graid Technology Agentic AI Depolama Portföyü: Ölçeklenebilir Çıkarım İçin Özel Olarak Üretilmiş KV Cache Çözümleri.
Graid Technology'nin yapay zeka çözümleri hakkında daha fazla bilgi edinmek için graidtech.com/ai adresini ziyaret ediniz.
GRAİD TECHNOLOGY HAKKINDA
Graid Technology; yapay zeka, kurumsal ve yüksek performanslı hesaplamanın geleceği için depolama omurgasını inşa etmektedir. Dünyanın ilk ve tek GPU tabanlı RAID çözümü olan SupremeRAID™'in yaratıcısı ve Intel® Virtual RAID on CPU'nun (Intel® VROC) küresel yöneticisi olan Graid Technology, modern veri altyapısı için dayanıklı ve ölçeklenebilir veri koruması sağlarken NVMe performansını maksimize eden esnek RAID çözümleri sunar. Merkezi Silikon Vadisi'nde bulunan ve küresel operasyonları ile Tayvan'da Ar-Ge merkezi olan Graid Technology, yeni nesil veri yoğun iş yükleri için RAID inovasyonunu ilerletmektedir.
Daha fazla bilgi için graidtech.com/ai adresini ziyaret ediniz.
KAYNAK: Graid Technology Inc.