Questione di chip: processori vs schede di memoria

foto Altalex

A cura di Anjali Bastianpillai, Senior Product Specialist di Pictet Asset Management

“L’intelligenza Artificiale è una disciplina appartenente all’informatica, che studia i fondamenti teorici, le metodologie e le tecniche che consentono la progettazione di sistemi hardware e di sistemi di programmi software capaci di fornire all’elaboratore elettronico prestazioni che, a un osservatore comune, sembrerebbero essere di pertinenza esclusiva dell’intelligenza umana” – Marco Somalvico, 1941-2002, ingegnere italiano, specializzato nell’ambito dell’Intelligenza Artificiale

L’Intelligenza Artificiale è particolarmente esigente in termini di risorse e richiede grandi quantità di dati e potenza di elaborazione per creare nuovi contenuti. I processori sembrano ovviamente i principali beneficiari dell’IA, ma i modelli linguistici di grandi dimensioni (Large Language Models, o LLM) richiedono anche una capacità di memoria e una larghezza di banda adeguate. I chip presenti nelle schede di memoria e nei sistemi di calcolo e archiviazione, rappresentano la fetta maggiore delle vendite del comparto. I chip di memoria (“DRAM”) e di archiviazione (“NAND Flash”) sono infatti utilizzati per memorizzare dati e istruzioni, mentre i chip per processori (come il processore “CPU” di un computer o l’unità di elaborazione grafica “GPU”) sono utilizzati per eseguire calcoli ed elaborare dati in tempo reale.

Con un CAGR del 10% negli ultimi 10 anni, il mercato dei chip di memoria (26% del fatturato totale derivante della vendita di semiconduttori) si sta espandendo per via del crescente utilizzo dello smartphone, di una digitalizzazione sofisticata e dell’impiego dei semiconduttori in una gamma sempre più ampia di settori, inclusi quelli dell’automotive e della tecnologia informatica. Tuttavia, osserviamo che lo sviluppo dei LLMs ha spostato in alto l’asticella, richiedendo livelli sensibilmente superiori di memoria e archiviazione commisurati alla dimensione dei database.

La capacità di memoria e la sua velocità stanno quindi diventando il principale collo di bottiglia nello sviluppo e nell’addestramento di nuovi modelli di IA.

L’impiego di nuove tecnologie sta aiutando a ottimizzare questo processo, accelerando la fase di trasferimento dei dati, migliorando la performance e aumentando l’efficienza energetica. Micron Tecnhnology è tra le aziende più all’avanguardia. I suoi semiconduttori sono utilizzati praticamente in tutti i settori, dall’elettronica di consumo, ai server per l’archiviazione dati, ai sistemi di networking, all’elettronica per sistemi integrati, fino all’automotive.

In Pictet Asset Management ricerchiamo quelle aziende in grado di guidare il settore verso chip di memoria potenziati per dimensione e velocità, che potranno trarre vantaggio dall’aumento della domanda di memoria utilizzata nei server dovuta all’impiego dell’Intelligenza Artificiale.

Anche il mercato dei processori logici (42% del fatturato totale derivante della vendita di semiconduttori) è in continua crescita grazie ai progressi tecnologici che portano a una maggiore produttività, un minore consumo energetico e una qualità e affidabilità superiore. Questo, a sua volta, migliora l’andamento complessivo del rapporto prezzo/performance dei chip dei processori (trend noto come “Legge di Moore”), consentendo un maggiore impiego dei dispositivi elettronici.

L’IA è una nuova applicazione resa possibile dai miglioramenti dei processori logici, ma è anche un motore che alimenta la domanda sia dei server di elaborazione degli algoritmi di intelligenza artificiale, sia dei dispositivi finali in cui avviene l’interazione con i modelli elaborati. Tali dispositivi possono variare da un tradizionale desktop o uno smartphone a un dispositivo integrato come un braccio robotico o un’auto con l’opzione della guida autonoma.

Nvidia, leader statunitense nei semiconduttori. è stata una delle realtà che più ha beneficiato della richiesta di componenti elettronici con requisiti di calcolo superiori, necessari per alimentare gli algoritmi di IA. I suoi chip acceleratori per data center di alto livello, che oggi rappresentano oltre la metà del fatturato di Nvidia, sono ottimizzati per l’elaborazione parallela ad alta velocità necessaria per addestrare l’IA. Questi chip integrano i processori core CPU di AMD, che, orientando il proprio business in questa direzione, negli ultimi anni ha guadagnato una quota di mercato significativa rispetto allo storico rivale Intel.

Concludendo, i semiconduttori sono la spina dorsale dell’innovazione tecnologica. Essi permettono il funzionamento di praticamente tutto, da smartphone e laptop a server e supercomputer. Le aspettative per questo settore sono elevatissime, con una stima di crescita per l’industria da migliaia di miliardi di dollari. In particolare, si stima che il 70% della crescita[1] sarà legata al settore automotive (in particolare quello elettrico), allo stoccaggio di dati e all’industria del wireless.

[1] McKinsey https://www.mckinsey.com/featured-insights/sustainable-inclusive-growth/chart-of-the-day/whats-driving-the-semiconductor-market


Pubblicato

in

, ,

da

Pin It on Pinterest