Softbank spenderà 960 milioni di dollari in infrastrutture informatiche per sviluppare un'attività di servizi di intelligenza artificiale

Aggiornamento: 23 aprile 2024 Tag:27aecoeliclt

Softbank afferma che aumenterà la spesa per le infrastrutture informatiche dai 130 milioni di dollari dello scorso anno a  960 milioni di dollari nel periodo 2024-25, per conferire all’azienda una capacità leader nel campo dell’intelligenza artificiale, riferisce il Nikkei.

L'anno scorso SoftBank ha creato una nuova divisione, ora promossa come filiale, denominata SB Intuitions.

Si dice che SB Intuitions stia sviluppando un modello linguistico di grandi dimensioni (LLM) con 390 miliardi di parametri da consegnare nell'anno fiscale 2024. GPT-3 di Open-AI ha  175 miliardi di parametri.

Per parametri si intendono le variabili, ovvero i fattori che influenzano un'inferenza dal LLM. Più variabili vengono inserite nel mix, maggiore è l'accuratezza dell'inferenza – o questa è la teoria.

Si dice che l'anno prossimo SB Intuitions avvierà un LLM con 1 trilione di parametri  – Si dice che il GPT-4 di OpenAI abbia 100 trilioni di parametri.

Inoltre, SoftBank intende costruire data center in tutto il Giappone che verranno utilizzati per fornire ai clienti servizi basati su LLM sviluppati internamente.