Welcome,{$name}!

/ Ausloggen
Deutsch
EnglishDeutschItaliaFrançais한국의русскийSvenskaNederlandespañolPortuguêspolskiSuomiGaeilgeSlovenskáSlovenijaČeštinaMelayuMagyarországHrvatskaDanskromânescIndonesiaΕλλάδαБългарски езикAfrikaansIsiXhosaisiZululietuviųMaoriKongeriketМонголулсO'zbekTiếng ViệtहिंदीاردوKurdîCatalàBosnaEuskera‎العربيةفارسیCorsaChicheŵaעִבְרִיתLatviešuHausaБеларусьአማርኛRepublika e ShqipërisëEesti Vabariikíslenskaမြန်မာМакедонскиLëtzebuergeschსაქართველოCambodiaPilipinoAzərbaycanພາສາລາວবাংলা ভাষারپښتوmalaɡasʲКыргыз тилиAyitiҚазақшаSamoaසිංහලภาษาไทยУкраїнаKiswahiliCрпскиGalegoनेपालीSesothoТоҷикӣTürk diliગુજરાતીಕನ್ನಡkannaḍaमराठी
Zuhause > Nachrichten > Es wird berichtet, dass AMD im nächsten Jahr bis zu 400000 AI GPU MI300 versendet wird

Es wird berichtet, dass AMD im nächsten Jahr bis zu 400000 AI GPU MI300 versendet wird


Laut Branchen-Insidern wird der Instinkt MI300 von AMD (künstliche Intelligenz) der GPU-Serie (KIS) mit einem erwarteten Versandvolumen von 300000 bis 400000 Einheiten bis 2024 auf den Markt gebracht.

AMD plant, den Instact MI300 Data Center GPU Accelerator während einer Live -Sendungsveranstaltung am 6. Dezember 2023 zu veröffentlichen. Das Unternehmen gab an, dass dies seine Wachstumsdynamik mit KI -Hardware- und Software -Partnern hervorhebt.

Der Vorsitzende und CEO von AMD, Su Zifeng, wird mit Unternehmensleitern, AI-Ökosystempartnern und Kunden diskutieren, wie AMD-Produkte und -Software die Landschaft der KI-, Adaptiven und Hochleistungs-Computing (HPC) neu formen können.

Der Instinkt MI300 gilt als das einzige Produkt, das die dominierende Position von Nvidia im Bereich der AI -GPU in Frage stellen kann.Der größte Kunde von AMD, Microsoft, wird auch erwartet, dass er die Unterstützung für das neue Instact MI300 -Produkt auf der Veranstaltung präsentiert.

Trotz der Verschärfung des US -amerikanischen Verbots der chinesischen Halbleiterchips und der Ausrüstungsexporte weisen die Insider der Branche darauf hin, dass die Nachfrage nach AI -GPUs zugenommen hat.Quellen sagen, dass das Versandvolumen der AMD MI300 -Serie bis 2024 voraussichtlich 300000 bis 400000 Einheiten erreichen wird, und Microsoft und Google sind Hauptkunden der neuen AI GPU -Beschleuniger von AMD.

Quellen sagen, dass wenn es nicht nach TSMCs Cowos -Verpackungskapazitätskapazitätsmangel und der Reservierung von NVIDIA 40% der Cowos -Kapazität von TSMC zurückzuführen ist, hat AMD möglicherweise höhere Versandziele festgelegt.

Bei der Microsoft -Veranstaltung Mitte November haben AMD und Microsoft gezeigt, wie AMD -Produkte (einschließlich des bevorstehenden AMD -Instinkts MI300X Accelerator, AMD EPYC CPU und AMD Ryzen CPU mit AI Engine) neue Dienste und Berechnungsfunktionen in der Cloud- und Generativ -AI implementieren können, Confidential Computing, Cloud Computing und intelligentere PCs (PCs).

AMD ergab, dass der MI300X auf der AMD-cDNA 3-Beschleunigerarchitektur der nächsten Generation basiert und bis zu 192 GB HBM3-Speicher unterstützt.Das Unternehmen gab an, dass Kunden mit dem großen Speicher des AMD-Instinkts MI300X große Sprachmodelle wie Falcon-40 (ein 40-Milliarden-Parametermodell) auf einem einzigen MI300X-Beschleuniger installieren können.

AMD hat außerdem ein ROCM -Software -Ökosystem für Rechenzentrumsbeschleuniger entwickelt, und das Unternehmen ist bereit, mit Branchenführern zusammenzuarbeiten, um ein Open AI -Software -Ökosystem zu integrieren.

Microsoft hat bekannt gegeben, dass es eine virtuelle Maschine (VM) mit 1,5 TB Hochbandbreitenspeicher erstellt hat, die die leistungsstarken Funktionen des AMD -Flaggschiffs MI300X GPU nutzt.Microsoft gab an, dass Azure VM mit MI300X GPU ausgestattet ist, um Kunden mehr Optionen für KI -optimierte VMs zu bieten.

AMD erklärte, dass der EPYC-Prozessor der vierten Generation jetzt verwendet wird, um Microsofts Allzweck-, Speicherintensiv- und Berechnung optimierter virtueller Maschinen der nächsten Generation auszuführen.

TSMC Advanced Packaging Support

Branchenkenner weisen darauf hin, dass die AMD MI300 -Serie die fortschrittlichen Verpackungsdienste von TSMC annimmt und hauptsächlich die Soic -Stapel -Technologie von Cowos unterstützt, und AMD ist derzeit der größte Kunde von TSMC von proprietären SOIC -Diensten.Quellen fügten hinzu, dass Apple und Nvidia diese Technologie nach 2025 voraussichtlich einnehmen werden.

Quellen zufolge beschleunigt TSMC die Expansion der Cowos -Produktionskapazität in den Longtan- und Taichung -Fabriken, wobei die Zhunan AP6 -Fabrik Unterstützung für Cowos -Verpackungen bietet.Quellen sagen, dass TSMC für Cowos auch den Betriebssystemprozess an OSAT auslagern wird, aber die Gewinnspanne ist relativ niedrig.Mit der steigenden Nachfrage nach KI -Chips hat TSMC seine Cowos -Produktionskapazität erweitert und wird voraussichtlich bis Ende 2024 über 30000 Stück pro Monat erreichen.

Bei teuren SOIC -Prozessen beträgt die monatliche Produktionskapazität von TSMC weniger als 2000 Wafer.Der Start von AMDs neuen Chips wird voraussichtlich den Entwicklungsschimpf von SOICs vorantreiben.Die Produktionskapazität von TSMC wird voraussichtlich im Jahr 2024 2000 Wafern pro Monat überschreiten und im Jahr 2027 auf 7000 Wafer pro Monat steigen.

TSMC -Präsident Wei Zhejia wies darauf hin, dass seine fortschrittliche Verpackungskapazität im Jahr 2022 das Dreifache des Jahres 2018 betragen wird. Bis 2026 wird die SOIC -Produktionskapazität im Jahr 2022 auf das 20 -fache des Beginns der SOIC -Kommerzialisierung ausgeweitet.

AMD wies darauf hin, dass es von den Kunden viele Bestellungen für die MI300 -Serie erhalten und die AI -GPU -Umsatzprognose im vierten Quartal von den vorherigen 300 Millionen US -Dollar auf 400 Millionen US -Dollar erhöht hat.AMD geht davon aus, dass der KI -GPU -Umsatz 2024 2 Milliarden US -Dollar übersteigt.

Branchenkenner haben ergeben, dass sich die Verkäufe von AI Chip Supply Chain voraussichtlich ab dem ersten Quartal 2024 verbessern werden.