SOMs baseados em Zynq UltraScale + MPSoC colocam a visão de IA no limite

Atualização: 21 de abril de 2021
SOMs baseados em Zynq UltraScale + MPSoC colocam a visão de IA no limite

O primeiro produto lançado é o Kria K26 SOM, que foi projetado especificamente para IA de visão em cidades e fábricas inteligentes. A empresa combinou seu hardware e software com aplicativos acelerados de visão prontos para produção. A placa embarcada de fator de forma pequeno é baseada na arquitetura Zynq UltraScale + MPSoC, que possui um processador Arm Cortex A53 quad-core, mais de 250,000 células lógicas e um codec de vídeo H.264 / 265. O SOM também possui 4 Gbytes de memória DDR4 e 245 E / S, que permitem que ele se adapte a praticamente qualquer sensor ou interface. Ele também tem 1.4 TOPS de desempenho de computação de IA, o que é suficiente para criar aplicativos de visão AI com três vezes o desempenho em uma latência e orçamento de energia mais baixos em comparação com SOMs baseados em GPU, diz Xilinx. Os SOMs destinam-se a aplicativos de visão inteligente, como câmeras de segurança, tráfego e gerenciamento de estradas, análise de varejo, visão de máquina e robótica orientada por visão.

Os SOMs são projetados para implantação rápida com uma pilha de software pré-construída e módulos adaptáveis. De acordo com a Xilinx, os SOMs podem reduzir o tempo de implantação em até nove meses.

Os SOMs removem o design de hardware FPGA, permitindo que os desenvolvedores integrem modelos de IA personalizados, códigos de aplicativos e modifiquem o pipeline de visão se o aplicativo exigir. Os SOMs podem ser usados ​​com estruturas TensorFlow, Pytorch ou Café, bem como linguagens de programação C, C ++, OpenCL e Python habilitadas pela plataforma de desenvolvimento de software unificada Vitis e bibliotecas. Os SOMs também têm suporte para PetaLinux baseado em Yocto padrão.

O suporte ao Ubuntu Linux também estará disponível, após um acordo com a Canonical. A distribuição do Linux é amplamente usada por desenvolvedores de IA e é interoperável com os aplicativos existentes. Tanto o PetalLinux quanto o Ubuntu Linux virão pré-construídos com uma infraestrutura de software e utilitários.

A Xilinx também anunciou aplicativos integrados para os SOMs e seus parceiros de ecossistema para aplicativos de ponta, disponíveis em sua App Store. Os aplicativos são aplicativos acelerados de código aberto e fornecidos gratuitamente. Exemplos são rastreamento de câmera, detecção de rosto e processamento de linguagem natural com visão inteligente.

Ao mesmo tempo, é anunciado o kit inicial Kria KV260 Vision AI. Ele é projetado para suportar os aplicativos de visão acelerada e, de acordo com Xilinx, pode estar operacional em uma hora, mesmo por alguém sem conhecimento de FPGAs ou ferramentas de FPGA.

Um conjunto de vídeos tutoriais e cursos de treinamento online permite que amadores, criadores e desenvolvedores desenvolvam e implantem um design para produção. Parte da experiência de desenvolvimento da Kria é um caminho auto-habilitado para exploração, design e, por fim, implantação de produção por meio de um vasto conjunto de recursos online.

Desenvolvedores confiantes podem usar o Kria K26 producton SOM, com versões comerciais e industriais.

O KV260 Vision Starter Kit já está disponível. O Kria K26 SOM de nível comercial é enviado em maio de 2021. O SOM de nível industrial é enviado no verão. Espera-se que o Ubuntu Linux em Kria K26 SOMs esteja disponível em julho de 26.