Si chiama HBM-PIM, e si tratta della primissima memoria di tipo HBM di casa Samsung per calcoli di intelligenza artificiale, scopriamola
Le parole di Kwangil Park, vicepresidente senior per la divisione Memory Product Planning di Samsung Electronics, sono chiare e dirette;
La nostra rivoluzionaria memoria HBM-PIM è la prima soluzione PIM programmabile per diversi carichi basati sull’intelligenza artificiale come HPC, inferenza e addestramento. Abbiamo intenzione di lavorare su questa innovazione collaborando ulteriormente con i provider di soluzioni IA per applicazioni basate su PIM sempre più avanzate
Obiettivo del colosso coreano è quello di raggiungere una posizione di mercato strategica, andando a consolidarsi nel settore inerente all’Intelligenza Artificiale, sempre più importante come settore d’interesse per le grandi multinazionali. È la prima volta che Samsung implementa in una memoria HBM tutte quelle peculiarità e caratteristiche per l’elaborazione di operazioni e calcoli di intelligenza artificiale. E lo fa con un Chip ad alte prestazioni, ma che guarda anche ai consumi. Scopriamola insieme.
Samsung: arriva la memoria HBM-PIM per l’intelligenza artificiale
La prima soluzione di Samsung High Bandwidth Memory (HBM) progettata per calcoli I.A. si chiama HBM-PIM, facile immaginarci quale sia il suo settore di implementazione: Datacenter, HPC, auto a guida autonoma, e server. Un’innovazione in questo settore è d’obbligo per colossi di questo genere, oggi più mai dove la direzione è sempre più quella dell’Intelligenza Artificiale. E la scelta di Samsung è strategica in quanto la nuova memoria non richiede riprogrammazioni Software o Hardware, in quanto è già pronta all’uso per essere implementata, garantendo ai partner un integrazione più rapida e veloce.
La memoria HBM-PIM farà breccia nei produttori grazie ad una struttura ottimizzata per calcoli ad alta efficienza. Ma com’è strutturata?
La nuova memoria, che come apprendiamo dal comunicato ufficiale presente sul sito del produttore è ora in fase di test all’interno dei sistemi integrati di intelligenza artificiale dai principali partner, verrà ultimata entro la prima metà dell’anno. Fino ad ora queste memorie portavano con sé un problema, la struttura delle unità di calcolo. Che venivano concepite come unità separate, questo però portava inevitabilmente a fenomeni di bottleneck durante le operazioni più complesse. La memoria HBM-PIM cerca di ovviare a questo problema con una nuova ottimizzazione della sezione DRAM.
Per riuscire in questo Samsung ha inserito più Core dedicati all’elaborazione I.A. all’interno delle sezioni DRAM per ogni singolo banco di memoria. Una struttura in grado di ottimizzare le richieste input output, veicolando la capacità di calcolo dove vi è maggiore richiesta da parte del sistema.
Con queste parole Rick Stevens, professore dell’Argonne National Laboratory negli Stati Uniti commenta il nuovo Chip di Samsung;
La memoria HBM-PIM ha dimostrato miglioramenti degni di nota delle prestazioni e consumi in importanti classi di applicazioni di IA, perciò lavoreremo insieme per valutare le sue prestazioni su ulteriori problemi che sono d’interesse per l’Argonne National Laboratory
Da diversi test effettuati nel corso delle sperimentazioni da parte di Samsung, si è da subito visto un aumento prestazionale quasi doppio rispetto alle precedenti soluzioni, il dato più interessante è da ravvisare però nei consumi, ridotti di oltre il 70%. Se volete continuare a conoscere le ultime novità dal mondo hardware continuate a seguirci. Un saluto da tuttoteK.
Lascia un commento