Le SOM basate su Zynq UltraScale + MPSoC mettono la visione AI al limite

Aggiornamento: 21 aprile 2021
Le SOM basate su Zynq UltraScale + MPSoC mettono la visione AI al limite

Il primo prodotto rilasciato è il Kria K26 SOM, che è stato progettato specificamente per la visione AI nelle città intelligenti e nelle fabbriche intelligenti. L'azienda ha abbinato il proprio hardware e software ad applicazioni pronte per la produzione e con accelerazione della visione. La scheda embedded con fattore di forma ridotto si basa sull'architettura Zynq UltraScale + MPSoC, che ha un processore Arm Cortex A53 quad-core, oltre 250,000 celle logiche e un codec video H.264 / 265. Il SOM dispone anche di 4Gbyte di memoria DDR4 e 245 I / O, che gli consentono di adattarsi praticamente a qualsiasi sensore o interfaccia. Ha anche 1.4TOP di prestazioni di calcolo AI, sufficienti per creare applicazioni AI di visione con prestazioni tre volte superiori a una latenza e un budget energetico inferiori rispetto ai SOM basati su GPU, afferma Xilinx. I SOM sono destinati ad applicazioni di visione intelligente come telecamere di sicurezza, gestione del traffico e delle strade, analisi dei negozi, visione artificiale e robotica guidata dalla visione.

Le SOM sono progettate per una rapida implementazione con uno stack software predefinito e moduli adattivi. Secondo Xilinx, i SOM possono ridurre i tempi di implementazione fino a nove mesi.

I SOM rimuovono il design hardware FPGA, consentendo agli sviluppatori di integrare modelli AI personalizzati, codice dell'applicazione e modificare la pipeline di visione se l'applicazione lo richiede. I SOM possono essere utilizzati con i framework TensorFlow, Pytorch o Café, nonché con i linguaggi di programmazione C, C ++, OpenCL e Python abilitati dalla piattaforma e dalle librerie di sviluppo software unificato Vitis. Le SOM supportano anche PetaLinux standard basato su Yocto.

Sarà disponibile anche il supporto per Ubuntu Linux, a seguito di un accordo con Canonical. La distribuzione Linux è ampiamente utilizzata dagli sviluppatori AI ed è interoperabile con le applicazioni esistenti. Sia PetalLinux che Ubuntu Linux verranno pre-costruiti con un'infrastruttura software e utilità.

Xilinx ha anche annunciato app incorporate per i SOM e i suoi partner ecosistemici per le applicazioni edge, disponibili nel suo App Store. Le app sono applicazioni accelerate open source e fornite gratuitamente. Esempi sono il rilevamento della telecamera, il rilevamento dei volti e l'elaborazione del linguaggio naturale con la visione intelligente.

Allo stesso tempo è stato annunciato lo Starter Kit Kria KV260 Vision AI. È progettato per supportare le applicazioni di visione accelerata e, secondo Xilinx, può essere operativo entro un'ora anche da qualcuno che non conosce FPGA o strumenti FPGA.

Una serie di video tutorial online e corsi di formazione consente ad hobbisti, produttori e sviluppatori di sviluppare e distribuire un progetto per la produzione. Parte dell'esperienza di sviluppo di Kria è un percorso auto-abilitato per l'esplorazione, la progettazione e, infine, la distribuzione della produzione attraverso una vasta gamma di risorse online.

Gli sviluppatori fiduciosi possono utilizzare il prodotto Kria K26 su SOM, con versioni commerciali e industriali.

Il KV260 Vision Starter Kit è immediatamente disponibile. Il Kria K26 SOM di livello commerciale viene spedito nel maggio del 2021. Il K26 SOM di livello industriale viene spedito in estate. Ubuntu Linux su Kria K26 SOM dovrebbe essere disponibile a luglio 2021.