Welcome,{$name}!

/ Ausloggen
Deutsch
EnglishDeutschItaliaFrançais한국의русскийSvenskaNederlandespañolPortuguêspolskiSuomiGaeilgeSlovenskáSlovenijaČeštinaMelayuMagyarországHrvatskaDanskromânescIndonesiaΕλλάδαБългарски езикAfrikaansIsiXhosaisiZululietuviųMaoriKongeriketМонголулсO'zbekTiếng ViệtहिंदीاردوKurdîCatalàBosnaEuskera‎العربيةفارسیCorsaChicheŵaעִבְרִיתLatviešuHausaБеларусьአማርኛRepublika e ShqipërisëEesti Vabariikíslenskaမြန်မာМакедонскиLëtzebuergeschსაქართველოCambodiaPilipinoAzərbaycanພາສາລາວবাংলা ভাষারپښتوmalaɡasʲКыргыз тилиAyitiҚазақшаSamoaසිංහලภาษาไทยУкраїнаKiswahiliCрпскиGalegoनेपालीSesothoТоҷикӣTürk diliગુજરાતીಕನ್ನಡkannaḍaमराठी
Zuhause > Nachrichten > Tesla enthüllte, dass dojo-AI-bezogene Informationen selbst entwickelte D1-Chips verwendet haben

Tesla enthüllte, dass dojo-AI-bezogene Informationen selbst entwickelte D1-Chips verwendet haben



Kürzlich veröffentlichte Tesla laut Foreign Media Electrek zwei eingehende Demonstrationen des Dojo AI-Supercomputers, hauptsächlich über die Mikroarchitektur Tesla Dojo AI System und den Dojo-Supercomputer. Und dieser neueste DOJO-selbstentwickelte Computer verwendet Teslas selbst entwickelten D1-Chip.

Es wird davon ausgegangen, dass Dojo eine Supercomputer -Plattform ist, die von Tesla von Grund auf neu gebaut und entwickelt wurde. Es wird hauptsächlich für das maschinelle Lernen von AI verwendet und insbesondere mit Videodaten aus Teslas Flotte geschult. Der Entwicklungsprozess des Teslas DOJO-AI-Systems ähnelt dem von In-Vehicle-Systemen. Tesla selbst beschäftigt Forscher, um verwandte Chips und Systeme dafür zu entwickeln.

Nach den offiziellen öffentlichen Informationen nimmt das Tesla Dojo AI -System eine verteilte Architektur an, und jeder Dojo -Knoten verfügt über eine eigene CPU-, Speicher- und Kommunikationsschnittstelle. Während jeder Knoten 1,25 MB SRAM (statischer Zufallszugriffsspeicher) hat, wird jeder Knoten mit einem 2D -Gitter verbunden.

Der DOJO -Schnittstellenprozessor sitzt am Rand des 2D -Netzes und verfügt über 11 GB SRAM und 160 GB gemeinsamer DRAM (Dynamic Random Access Memory) pro Trainingsblock. Später wurden diese Komponenten in den Tesla D1 -Chip integriert.

Laut einem Tesla -Sprecher verwendet der Tesla D1 -Chip einen 7 -nm -Prozess und wird von TSMC hergestellt, und jeder Chip verfügt über 354 Dojo -Knoten und 440 MB SRAM.

Bereits im letztjährigen Tesla AI Day stellte der DOJO -Projektleiter Ganesh Venkataramanan den Tesla D1 -Chip vor. Zu diesem Zeitpunkt sagte er, dass der Tesla D1-Ein-Chip-Bereich 645 mm beträgt und 50 Milliarden Transistoren enthält, die maximale Rechenleistung von BF16/CFP8 362Tflops, die Peak-Rechenleistung von FP32 beträgt 22,6tflops und der thermische Konstruktionsstromverbrauch (Verbrauchsstromverbrauch (Verbrauch) (thermische Design) (Verbrauch (thermische Konstruktion) (Verbrauch (thermische Konstruktion "(Verbrauch (thermische Konstruktion) () beträgt die Spitzenrechnung von FP32 und der Verbrauch der thermischen Entwurfsstrom ((Stromverbrauch) (Verbrauch) (thermische Konstruktion) (Verbrauch (thermische Konstruktion" (() der Stromversorgungsleistung (Verbrauch) (thermisch) und beträgt die Leistungsleistung (thermisch) und beträgt die Leistungsleistung des thermischen Konsums ((). TDP) überschreitet 400 W nicht.

Es ist besonders erwähnenswert, dass Tesla auch einen dedizierten DOJO -Anweisungssatz für das DOJO -Supercomputing eingerichtet hat und den Anweisungssatz von Intel, Arm, NVIDIA oder AMD -CPU/GPU nicht direkt verwendet. Derzeit unterstützt DOJO die allgemeinen Datenformate der Branche wie FP32, FP16 und BFP16.

Da Tesla viel Computing benötigt, um seine selbstfahrenden Autos und Lastwagen ordnungsgemäß zu funktionieren, umfasst dies die Verarbeitung massiver Mengen an Videodaten. Für Tesla ist es also schwieriger, als nur Text oder statische Bilder zu betrachten. Darüber hinaus kann es mit Teslas Leistungen in der Chip- und Supercomputing -Entwicklung mehr Autounternehmen dazu inspirieren, sich an der Forschung und Entwicklung von Chips und Supercomputing anzuschließen.