NeuroBlade lève 83 millions de dollars pour accélérer l'analyse des données

Mise à jour : 9 octobre 2021

NeuroBlade lève 83 millions de dollars pour accélérer l'analyse des données

NeuroBlade lève 83 millions de dollars pour accélérer l'analyse des données

NeuroBlade, spécialiste des solutions d'accélération de données, a annoncé avoir obtenu 83 millions de dollars de financement de série B, portant le capital total investi à 110 millions de dollars.

Aux côtés des investisseurs financiers, ce cycle de financement comprenait des investissements de sans souci des sociétés dont : MediaTek, Pegatron, PSMC, UMC et Marubeni. Le financement sera utilisé pour développer les équipes d'ingénierie de la société à Tel Aviv et pour développer ses équipes de vente et de marketing à l'échelle mondiale.

NeuroBlade a développé une nouvelle architecture d'analyse de données qui élimine les principaux goulots d'étranglement des mouvements de données en intégrant la fonction de traitement des données à l'intérieur de la mémoire, mieux connue sous le nom de traitement en mémoire (PIM). Le PIM est une chimère depuis des décennies, et NeuroBlade est la première entreprise à mettre cette innovation en production avec succès, en accélérant l'analyse des données en intégrant sa technologie dans une appliance complète et facile à déployer au niveau du système.

Commentant Elad Sity, PDG et co-fondateur de NeuroBlade, a déclaré : « Nous avons construit un accélérateur d'analyse de données qui accélère le traitement et l'analyse des données plus de 100 fois plus rapidement que les systèmes existants. Sur la base de notre technologie brevetée XRAM, nous proposons un système de bout en bout radicalement amélioré pour le centre de données. »

Les architectures système existantes montrent que le brassage constant des données entre le stockage, la mémoire et le traitement central est la principale cause des mauvaises performances des applications et des temps de réponse lents. NeuroBlade s'est rendu compte que les architectures actuelles n'étaient pas en mesure d'évoluer pour répondre aux futurs besoins d'analyse de données, ce qui les a amenés à créer une architecture de calcul qui élimine les exigences de déplacement des données et accélère considérablement les performances d'analyse des données.