Nvidia cherche à acheter des puces HBM à Samsung
Nvidia prévoit d'acheter des puces de stockage de bande passante (HBM) à Samsung, qui sont des composants clés des puces d'intelligence artificielle (IA).Samsung essaie de rattraper son homologue coréen SK Hynix, qui a commencé la production de masse des puces HBM3E de prochaine génération.
"Le stockage HBM est très complexe et a une valeur ajoutée très élevée. Nous avons investi beaucoup d'argent dans HBM", a déclaré Huang Renxun, co-fondateur et PDG de Nvidia, lors d'une conférence tenue à San Jose, en Californie.
Huang Renxun a déclaré que Nvidia subit une certification de qualification pour les puces HBM de Samsung et commencera à les utiliser à l'avenir.
HBM est devenu un élément important du boom de l'intelligence artificielle, car il fournit des vitesses de traitement plus rapides par rapport aux puces de stockage traditionnelles.
Huang Renxun a déclaré: "HBM est un miracle technologique."Il a ajouté que le HBM peut également améliorer l'efficacité énergétique et, à mesure que les puces d'intelligence artificielle consommatrices de puissance deviennent plus courantes, cela aidera le monde à maintenir un développement durable.
SK Hynix est en fait le seul fournisseur de la puce HBM3 de NVIDIA NVIDIA.Bien que la liste des clients du nouveau HBM3E n'ait pas été divulguée, les dirigeants de SK Hynix ont révélé que la nouvelle puce sera d'abord fournie à Nvidia et utilisée pour son dernier GPU Blackwell.
Samsung a investi massivement dans HBM pour rattraper ses concurrents.Samsung a annoncé en février le développement du HBM3E 12H, le premier DRAM HBM3E de pile de couches de l'industrie et le produit HBM la plus élevée à ce jour.Samsung a déclaré qu'il commencerait la production de masse de la puce au premier semestre de cette année.