Alle Kategorien

Wagen 0 Artikel

Einkaufswagen 0 Artikel

MFR -Teil # Anzahl
üBERGEBEN (0)

Sprache auswählen

Aktuelle Sprache

Deutsch

  • English
  • Deutsch
  • Italia
  • Français
  • 한국의
  • русский
  • Svenska
  • Nederland
  • español
  • Português
  • polski
  • Suomi
  • Gaeilge
  • Slovenská
  • Slovenija
  • Čeština
  • Melayu
  • Magyarország
  • Hrvatska
  • Dansk
  • românesc
  • Indonesia
  • Ελλάδα
  • Български език
  • Afrikaans
  • IsiXhosa
  • isiZulu
  • lietuvių
  • Maori
  • Kongeriket
  • Монголулс
  • O'zbek
  • Tiếng Việt
  • हिंदी
  • اردو
  • Kurdî
  • Català
  • Bosna
  • Euskera
  • العربية
  • فارسی
  • Corsa
  • Chicheŵa
  • עִבְרִית
  • Latviešu
  • Hausa
  • Беларусь
  • አማርኛ
  • Republika e Shqipërisë
  • Eesti Vabariik
  • íslenska
  • မြန်မာ
  • Македонски
  • Lëtzebuergesch
  • საქართველო
  • Cambodia
  • Pilipino
  • Azərbaycan
  • ພາສາລາວ
  • বাংলা ভাষার
  • پښتو
  • malaɡasʲ
  • Кыргыз тили
  • Ayiti
  • Қазақша
  • Samoa
  • සිංහල
  • ภาษาไทย
  • Україна
  • Kiswahili
  • Cрпски
  • Galego
  • नेपाली
  • Sesotho
  • Тоҷикӣ
  • Türk dili
  • ગુજરાતી
  • ಕನ್ನಡkannaḍa
  • मराठी
ZuhauseNachrichtenNvidia Dynamo Open-Source Library beschleunigt KI-Inferenzmodelle

Nvidia Dynamo Open-Source Library beschleunigt KI-Inferenzmodelle

Zeit: 2025/03/20

Durchsuchen: 23

NVIDIA hat NVIDIA Dynamo veröffentlicht, eine Open-Source-Inferenzsoftware zur Verbesserung der KI-Inferenzleistung und zur Verringerung der Kosten für die Skalierungstestzeitrechnung.Beim Ausführen von Deepseek-R1 auf Nvidia Blackwell steigert diese Optimierung den Durchsatz um 30x.

NVIDIA Dynamo verbessert die GPU -Ressourcenauslastung in AI -Fabriken durch intelligente Inferenzplanung, erhöht die Token -Output und senkt die Kosten.Es wird eine disaggregierte Servicearchitektur angewendet, in der die LLM -Verarbeitungs- und -generationsphasen über verschiedene GPUs hinweg für eine genauere Optimierung und einen höheren Durchsatz über eine genauere Optimierung und einen höheren Durchsatz verteilt werden.

Jensen Huang, CEO von NVIDIA, erklärte, dass Dynamo einen skalierbaren KI -Inferenzeinsatz ermöglicht und die Leistung und Effizienz von Llama gegenüber Nvidia Hopper mit denselben GPU -Ressourcen verdoppelt.In GB200 NVL72 -Clustern erhöht Dynamo die pro GPU erzeugten Token um 30x.

Darüber hinaus passt Dynamo die GPU -Ressourcen dynamisch an, optimiert Inferenzdatenspeicher und reduziert die Berechnungs- und Routingkosten.Es unterstützt Pytorch, Sglang, Tensorrt-LlM und VLLM und beschleunigt die Akzeptanz von KI-Inferenz in den wichtigsten Unternehmen, einschließlich AWS, Google Cloud, Meta und Microsoft Azure.

RFQ