Los SOM basados ​​en Zynq UltraScale + MPSoC ponen la visión de la IA al límite

Actualización: 21 de abril de 2021
Los SOM basados ​​en Zynq UltraScale + MPSoC ponen la visión de la IA al límite

El primer producto lanzado es el Kria K26 SOM, que ha sido diseñado específicamente para la IA de visión en ciudades y fábricas inteligentes. La compañía ha combinado su hardware y software con aplicaciones de visión acelerada listas para producción. La placa integrada de factor de forma pequeño se basa en la arquitectura Zynq UltraScale + MPSoC, que tiene un procesador Arm Cortex A53 de cuatro núcleos, más de 250,000 celdas lógicas y un códec de video H.264 / 265. El SOM también cuenta con 4Gbyte de memoria DDR4 y 245 E / S, que le permiten adaptarse a prácticamente cualquier sensor o interfaz. También tiene 1.4 TOPS de rendimiento de cómputo de IA, que es suficiente para crear aplicaciones de IA de visión con tres veces el rendimiento con una latencia y un presupuesto de energía más bajos en comparación con los SOM basados ​​en GPU, dice Xilinx. Los SOM están destinados a aplicaciones de visión inteligente como cámaras de seguridad, tráfico y gestión de carreteras, análisis minorista, visión artificial y robótica guiada por visión.

Los SOM están diseñados para una implementación rápida con una pila de software prediseñada y módulos adaptables. Según Xilinx, los SOM pueden reducir el tiempo de implementación hasta en nueve meses.

Los SOM eliminan el diseño de hardware FPGA, lo que permite a los desarrolladores integrar modelos de IA personalizados, código de aplicación y modificar la canalización de visión si la aplicación lo requiere. Los SOM se pueden usar con los marcos TensorFlow, Pytorch o Café, así como con los lenguajes de programación C, C ++, OpenCL y Python habilitados por la plataforma de desarrollo de software unificado y las bibliotecas de Vitis. Los SOM también tienen soporte para PetaLinux estándar basado en Yocto.

El soporte de Ubuntu Linux también estará disponible, luego de un acuerdo con Canonical. La distribución de Linux es ampliamente utilizada por los desarrolladores de IA y es interoperable con las aplicaciones existentes. Tanto PetalLinux como Ubuntu Linux vendrán preconstruidos con una infraestructura de software y utilidades.

Xilinx también ha anunciado aplicaciones integradas para los SOM y sus socios del ecosistema para aplicaciones de borde, disponibles en su App Store. Las aplicaciones son aplicaciones aceleradas de código abierto y se proporcionan de forma gratuita. Algunos ejemplos son el seguimiento de la cámara, la detección de rostros y el procesamiento del lenguaje natural con visión inteligente.

Al mismo tiempo, se anuncia el kit de inicio Kria KV260 Vision AI. Está diseñado para admitir las aplicaciones de visión acelerada y, según Xilinx, puede estar operativo en una hora incluso por alguien sin conocimiento de FPGA o herramientas FPGA.

Un conjunto de videos tutoriales en línea y cursos de capacitación permite a los aficionados, creadores y desarrolladores desarrollar e implementar un diseño para la producción. Parte de la experiencia de desarrollo de Kria es un camino auto habilitado para la exploración, el diseño y, en última instancia, la implementación de la producción a través de un amplio conjunto de recursos en línea.

Los desarrolladores confiados pueden utilizar el producto Kria K26 en SOM, con versiones comerciales e industriales.

El KV260 Vision Starter Kit está disponible de inmediato. El Kria K26 SOM de grado comercial se envía en mayo de 2021. El K26 SOM de grado industrial se envía en el verano. Se espera que Ubuntu Linux en Kria K26 SOM esté disponible en julio de 2021.