NeuroBlade raccoglie 83 milioni di dollari per aiutare ad accelerare l'analisi dei dati

Aggiornato il 9 ottobre 2021

NeuroBlade raccoglie 83 milioni di dollari per aiutare ad accelerare l'analisi dei dati

NeuroBlade raccoglie 83 milioni di dollari per aiutare ad accelerare l'analisi dei dati

NeuroBlade, specialista in soluzioni di accelerazione dei dati, ha annunciato di aver ottenuto 83 milioni di dollari in finanziamenti di serie B, portando il capitale investito totale a 110 milioni di dollari.

Insieme agli investitori finanziari, questo round di finanziamento includeva investimenti da la tecnologia aziende tra cui: MediaTek, Pegatron, PSMC, UMC e Marubeni. Il finanziamento verrà utilizzato per espandere i team di ingegneria dell'azienda a Tel Aviv e per rafforzare i suoi team di vendita e marketing a livello globale.

NeuroBlade ha sviluppato una nuova architettura di analisi dei dati che elimina i principali colli di bottiglia nel movimento dei dati integrando la funzione di elaborazione dei dati all'interno della memoria, meglio nota come elaborazione in memoria (PIM). PIM è stato un sogno irrealizzabile per decenni e NeuroBlade è la prima azienda a portare con successo questa innovazione alla produzione, accelerando l'analisi dei dati integrando la sua tecnologia in un'appliance di facile implementazione a livello di sistema completo.

Commentando Elad Sity, CEO e co-fondatore di NeuroBlade, ha dichiarato: "Abbiamo creato un acceleratore di analisi dei dati che accelera l'elaborazione e l'analisi dei dati oltre 100 volte più velocemente rispetto ai sistemi esistenti. Sulla base della nostra tecnologia XRAM brevettata, forniamo un sistema end-to-end radicalmente migliorato per il data center".

Le architetture di sistema esistenti mostrano che il continuo rimescolamento dei dati tra storage, memoria ed elaborazione centrale è la causa principale delle scarse prestazioni delle applicazioni e dei tempi di risposta lenti. NeuroBlade si è resa conto che le architetture attuali non erano in grado di scalare per soddisfare le future esigenze di analisi dei dati, il che l'ha portata a creare un'architettura computazionale che elimina i requisiti di spostamento dei dati e accelera enormemente le prestazioni di analisi dei dati.