KI-Beschleuniger: Nvidias neuer Jetson-Spross Xavier NX ist da

Nvidias neuer KI-Beschleuniger eignet sich für eingebettete IoT-Systeme wie Drohnen, kleine Roboter und Medizinger?te, Smart Cameras und hochaufl?sende Sensoren

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 3 Beitr?ge

(Bild: NVIDIA)

Von

Nvidia hat auf der hauseigenen GPU Technology Conference das Development Kit des neuen Jetson Xavier NX der Welt?ffentlichkeit vorgestellt. Bei gleichem Formfaktor (100 mm x 80 mm x 29 mm) wie das kleinste System-on-Module Jetson Nano beherbergt der neueste Spross in Nnvidias Familie von KI-Beschleunigern für Embedded-Ger?te einen Grafikprozessor der Volta-Baureihe mit 384 GPU- und 48 Tensor-Cores.

Bei einer im Vergleich zum Nano leicht erh?hten Leistungsaufnahme von bis zu 15W lassen sich an den Xavier NX sechs Kameras anschlie?en, die bis zu 60 Bilder pro Sekunde (HEVC) in Full HD gleichzeitig kodieren k?nnen. Um solche Datenstr?me speichern zu k?nnen hat der Xavier NX ebenso wie sein gr??erer und ?lterer Bruder, der Jetson AGX Xavier, einen NVM Express Bus (NVMe) an der Modulunterseite integriert, die SSD-Module nach M.2 Key M Standard aufnimmt.

An Arbeitsspeicher enth?lt das neue Entwicklungssystem mit 8 GByte doppelt so viel wie der Nano, aber nur ein Viertel des mit 32 Gbyte ausgestattenen AGX Xaviers. Damit schafft der Xavier NX rund 21 TOPS (Trillion INT8 Operations per Second) oder 6 TFLOPS mit FP16-Genauigkeit. Die 64-Bit ARM CPU wird durch 6 Kerne angetrieben und erm?glicht auf dem 128 Bit breiten Bus eine Transferrate von bis zu 51,2 GBit/s in den Hauptspeicher.

Geblieben sind die vom Jetson Nano bekannten vier USB 3.0 Ports, die HDMI- und DisplayPort sowie die General Purpose Input/Output Pins (GPIOs) zum Anschlie?en von Sensoren und Peripherieger?ten. Der MicroSD-Kartenslot dient zum Booten der hauseigenen Linux-Distribution L4T, die mit allen Treibern und dem JetPack SDK in der Version 4.4 auf NVIDIAs Webseite zum Download bereitsteht.

Der Jetson Xavier NX eignet sich für den Einsatz mit den g?ngigen KI-Frameworks. Da das JetPack-Release mit CUDA 10.2 und TensorRT 7.1 auch recurrent Layer unterstützt, l?sst sich der KI-Beschleuniger zum Beispiel auch nutzen für die Verarbeitung von Sprache mithilfe moderner Deep-Learning-Modelle wie Googles Bidirectional Encoder Representations from Transformers (BERT). (akl)

汤姆叔叔影院