logo
منزل أخبار

أخبار الشركة عن MinIO adds petabyte-scale MemKV cache for Nvidia GPU inference

شهادة
الصين Beijing Qianxing Jietong Technology Co., Ltd. الشهادات
الصين Beijing Qianxing Jietong Technology Co., Ltd. الشهادات
زبون مراجعة
موظفو المبيعات في Beijing Qianxing Jietong Technology Co. ، Ltd محترفون وصبورون للغاية. يمكنهم تقديم الاقتباسات بسرعة. كما أن جودة المنتجات وتعبئتها جيدة جدًا. تعاوننا سلس للغاية.

—— 《Festfing DV LLC

عندما كنت أبحث عن وحدة المعالجة المركزية Intel CPU و Toshiba SSD بشكل عاجل ، أعطتني Sandy من Beijing Qianxing Jietong Technology Co.، Ltd الكثير من المساعدة وحصلت على المنتجات التي أحتاجها بسرعة. أنا حقا أقدرها.

—— كيتي ين

ساندي من بكين Qianxing Jietong Technology Co. ، Ltd هو بائع دقيق للغاية ، يمكنه تذكيرني بأخطاء التكوين في الوقت المناسب عندما أشتري خادمًا. المهندسون محترفون للغاية ويمكنهم إكمال عملية الاختبار بسرعة.

—— ستريلكين ميخائيل فلاديميروفيتش

نحن سعداء جدًا بتجربتنا في العمل مع شركة بكين تشيانشينغ جيتونغ. جودة المنتج ممتازة، والتسليم دائمًا في الموعد المحدد. فريق المبيعات لديهم محترف، صبور، ومفيد جدًا في الإجابة على جميع أسئلتنا. نحن نقدر حقًا دعمهم ونتطلع إلى شراكة طويلة الأمد. موصى به بشدة!

—— أحمد نافيد

الجودة: تجربة رائعة مع موردي. كانت ميكروتيك RB3011 مستخدمة بالفعل، لكنها كانت في حالة جيدة جدا وكل شيء يعمل بشكل مثالي. التواصل كان سريعا وسلاسة،وكل مخاوفي تمت معالجتها بسرعةمُزود موثوق به جداً

—— جيران كوليسيو

ابن دردش الآن
الشركة أخبار
MinIO adds petabyte-scale MemKV cache for Nvidia GPU inference

MinIO has developed a petabyte-scale MemKV caching system tailored for Nvidia GPUs, deployed on top of its AIStor object storage platform.

GPU clusters running inference require high-bandwidth memory (HBM) to store context, vectorized tokens and intermediate key-value (KV) pairs. Once GPU HBM is saturated, data cascades down to CPU DRAM and NVMe SSDs, managed by Nvidia BlueField-4 (BF4) DPUs. When these tiers reach capacity, MinIO AIStor acts as the final storage backup. Nvidia’s STX architecture governs this multi-layer cache hierarchy, and MemKV complies with the standard to deliver persistent, shared context across GPU clusters at superior scale.

آخر أخبار الشركة MinIO adds petabyte-scale MemKV cache for Nvidia GPU inference  0


AB Periasamy, MinIO co-founder and co-CEO, commented: “The industry has been papering over context loss for years because, at small scale, you may absorb the recompute tax. At today’s high GPU density for hyperscalers and neoclouds, this is no longer viable.

 Recomputing generated context wastes power; for clusters with thousands of GPUs, it creates fundamental structural inefficiency. Large-scale inference requires purpose-built infrastructure, and MemKV is designed specifically for this data path.”

For the first time, MinIO enables shared context pools for entire GPU clusters at microsecond-level latency matching inference workflows, avoiding millisecond delays from conventional external storage. Without sufficient cache tiers, GPUs waste resources on repeated context recalculation.

In a 128-GPU deployment with 128K-token context length, MemKV improved time-to-first-token under production loads and boosted GPU utilization from 50% to over 90%, generating an estimated $2 million annual compute cost saving.

Purpose-built for Nvidia STX architecture, MemKV supports Nvidia Dynamo and NIXL caching tools. It delivers petabytes of shared context memory at SSD-level costs, decoupling cache scaling from GPU compute resources. Its core features are listed below:
  • Native BF4 STX support: Runs as an ARM64 binary within STX infrastructure, embedded in storage rather than separate x86 storage servers.
  • End-to-end RDMA transport: Transfers KV cache between GPU memory and NVMe via RDMA, bypassing conventional file and object storage protocols.
  • GPU-optimized block size: Uses 2–16 MB blocks for GPU throughput demands, instead of legacy 4 KB storage blocks.
  • Wire-speed performance: Optimized for Nvidia Spectrum-X Ethernet and PCIe Gen6 to maximize physical fabric throughput.


MemKV directly transfers data from NVMe SSDs to AI pipelines over RDMA, eliminating HTTP overhead, file system translation and intermediate storage servers.


آخر أخبار الشركة MinIO adds petabyte-scale MemKV cache for Nvidia GPU inference  1

MinIO categorizes rival context memory solutions into two types: non-sharable local NVMe (G3) and general-purpose shared storage (G4). It positions MemKV as a purpose-built G3.5 tier, distinguishing itself from generic storage products.

The firm emphasizes that legacy vendors’ G3.5 offerings still retain redundant protocol nodes, metadata services and file translation layers. These layers ensure durability and consistency for training data and model weights, yet they are unnecessary for ephemeral, recomputable KV cache optimized for 2–16 MB data blocks.

Hardware RAID vendor GRAID and storage firm WEKA also provide STX-compatible KV cache solutions. A broad range of storage vendors support Nvidia STX, including Cloudian, Dell, DDN, Everpure, Hammerspace, Hitachi Vantara, HPE, Lightbits/ScaleFlux, NetApp, Nutanix, Peak:AIO, Pliops and VAST Data.

Beijing Qianxing Jietong Technology Co., Ltd.
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com
Business Focus:
ICT Product Distribution/System Integration & Services/Infrastructure Solutions
With 20+ years of IT distribution experience, we partner with leading global brands to deliver reliable products and professional services.
“Using Technology to Build an Intelligent World”Your Trusted ICT Product Service Provider!
حانة وقت : 2026-05-14 13:46:14 >> أخبار قائمة ميلان إلى جانب
تفاصيل الاتصال
Beijing Qianxing Jietong Technology Co., Ltd.

اتصل شخص: Ms. Sandy Yang

الهاتف :: 13426366826

إرسال استفسارك مباشرة لنا (0 / 3000)