IBM presenta il processore AI accelerato su chip

Aggiornamento: 26 agosto 2021

IBM presenta il processore AI accelerato su chip

IBM presenta il processore AI accelerato su chip

IBM ha svelato i dettagli del nuovo IBM Telum Processor, progettato per portare l'inferenza di deep learning ai carichi di lavoro aziendali per aiutare a contrastare le frodi in tempo reale.

L'annuncio, fatto alla conferenza Hot Chips, descriveva il primo processore IBM a contenere l'accelerazione su chip per l'inferenza AI mentre è in corso una transazione.

Tre anni di sviluppo, questa nuova accelerazione hardware su chip è progettata per aiutare i clienti a ottenere informazioni aziendali su larga scala attraverso applicazioni bancarie, finanziarie, commerciali, assicurative e interazioni con i clienti. Un sistema basato su Telum è previsto per la prima metà del 2022.

Telum è stato progettato per consentire alle applicazioni di funzionare in modo efficiente dove risiedono i dati, aiutando a superare i tradizionali approcci di intelligenza artificiale aziendale che tendono a richiedere una memoria significativa e capacità di spostamento dei dati per gestire l'inferenza.

Con Telum, l'acceleratore in prossimità di dati e applicazioni mission-critical significa che le aziende possono condurre inferenze ad alto volume per transazioni sensibili in tempo reale senza ricorrere a soluzioni di intelligenza artificiale fuori dalla piattaforma, che potrebbero influire sulle prestazioni. I clienti possono anche costruire e addestrare modelli di intelligenza artificiale off- piattaforma, distribuire e dedurre su un sistema IBM abilitato per Telum per l'analisi.

Secondo una recente ricerca Morning Consult commissionata da IBM, il 90% degli intervistati ha affermato che essere in grado di creare ed eseguire progetti di intelligenza artificiale ovunque si trovino i propri dati è importante.

IBM ha affermato che Tecum aiuterà gli utenti a spostare il loro pensiero da a rilevazione di frodi postura per a prevenzione frodi postura, evolvendo dalla cattura di molti casi di frode oggi, a una potenzialmente nuova era di prevenzione delle frodi, senza incidere sugli accordi sul livello di servizio (SLA), prima che la transazione sia completata.

Il chip ha un design centralizzato, che consentirà agli utenti di sfruttare tutta la potenza del processore AI per carichi di lavoro specifici per AI, rendendolo adatto a carichi di lavoro di servizi finanziari come rilevamento di frodi, elaborazione di prestiti, compensazione e regolamento delle operazioni, antiriciclaggio e analisi dei rischi.

Il chip è stato realizzato con il processo a 7 nm di Samsung e contiene 8 core di processore con una pipeline di istruzioni fuori ordine super-scalare, in esecuzione con una frequenza di clock superiore a 5 GHz, ottimizzata per le esigenze di carichi di lavoro di classe enterprise eterogenei.

L'infrastruttura di interconnessione di chip e cache completamente riprogettata fornisce 32 MB di cache per core e può essere scalata fino a 32 chip Telum. Il doppio chip modulo il progetto contiene 22 miliardi di transistor e 19 miglia di cavi su 17 strati metallici.