Si chiama Samsung HBM-PIM, ed è la memoria neurale che si occuperà di diverse mansioni in futuro, tra cui IA e HPC in diversi ambiti
Vi abbiamo parlato diverso tempo della memoria Samsung HBM-PIM, un innovativo Chip prodotto dal colosso asiatico che si rivolge ad un pubblico ambizioso di utilizzare l’intelligenza artificiale come meccanismo cardine della crescita ed innovazione. Samsung in questo percorso non è stata sola, difatti un fedele compagno di viaggio è stato AMD, con il quale ha collaborato a stretto contatto per implementare acceleratori Instinct MI100 con la memoria di Samsung.
La memoria sarà utilizzata non solo per calcoli computazionali di alto profilo, ma anche per richiedere un minor livello di prestazioni all’intero resto del sistema, difatti il Chip in questione sarà in grado di garantire da solo, un grande livello di prestazioni e calcoli, grazie alla struttura Chiplet. Ad oggi, Samsung ha migliorato notevolmente la struttura del Chiplet, con l’aggiunta – invece della classica High Bandwidth Memory – una nuova soluzione pensata per integrare “on board” diversi strutture pensate per svolgere compiti di intelligenza artificiale avanzata. Dunque sempre meno una memoria, e sempre più un prodotto molto più avanzato.
Samsung HBM-PIM: la memoria “neurale” più avanzata di sempre?
Si chiama PIM questa ultima implementazione, ed è proprio il sistema responsabile dell’incremento prestazionale a livello di architettura, tale sistema sarà cruciale nel migliorare la comunicazione tra CPU e reparto memoria. In questa operazione AMD ha giocato un importante ruolo, difatti ha messo alla prova la memoria su di un acceleratore commerciale, ovvero un Instinct MI100, al quale inseriti in un cluster gli sono stati dati in parto diversi carichi di IA e HPC.
Le informazioni dunque non effettuano un passaggio tra CPU e Memoria, ma vengono direttamente Pre-elaborati dalla memoria e poi, mandati alla CPU che ne riprenderà le informazioni e ultimerà le elaborazioni.
Parlando invece di pure prestazioni, comparando questo sistema con i più tradizionali, al quale fanno affidamento solo a memorie HBM, parliamo di un 50% netto in termini di prestazioni, con, un incremento prestazionale di 2,5 volte a fronte di un consumo in calo di 2,67 volte rispetto agli acceleratori tradizionali, queste le specifiche che Choi Chang-kyu, stesso, capo dell’AI Research Center del Samsung Advanced Institute of Technology (SAIT) ha dichiarato durante un intervista.
Se volete continuare a conoscere le ultime novità dal mondo hardware continuate a seguirci. Un saluto da tuttoteK.
Lascia un commento