Чипы памяти Samsung HBM3 и HBM3E, используемые в ИИ-ускорителях, ранее столкнулись с проблемами производительности. В прошлом году компании пришлось переработать HBM3E, чтобы получить одобрение Nvidia. Даже после этого такие чипы применялись лишь в отдельных ИИ-ускорителях Nvidia, поставлявшихся на китайский рынок. Сейчас положение Samsung выглядит более уверенным: по сообщениям источников, ее чипы HBM4 уже близки к получению одобрения Nvidia. Как сообщает Bloomberg, HBM4 от Samsung находятся на завершающем этапе сертификации у Nvidia. Массовое производство планируется начать в феврале 2026 года. Поставки образцов Nvidia стартовали еще в сентябре 2025 года, и с тех пор чипы, по имеющимся данным, прошли финальную стадию квалификации. После запуска серийного выпуска Samsung сможет поставлять HBM4 не только Nvidia, но и другим разработчикам ИИ-ускорителей, включая AMD и Google. HBM — это high-bandwidth memory, или память с высокой пропускной способностью. Эта высокопроизводительная технология основана на вертикальном стековании нескольких DRAM-чипов, что обеспечивает существенно более высокую пропускную способность и скорость по сравнению с традиционной памятью DDR или LPDDR, используемой в смартфонах, компьютерах и серверах. При этом HBM-чипы отличаются высокой сложностью и дороговизной производства. Несмотря на то что Samsung на протяжении десятилетий остается крупнейшим производителем памяти в мире, компания долгое время не уделяла HBM приоритетного внимания. Этим воспользовались конкуренты — SK Hynix и Micron, которые сумели вырваться вперед на рынке HBM. К моменту, когда Samsung активизировала усилия в эпоху HBM третьего и пятого поколений (HBM3 и HBM3E), отставание уже было заметным. Ситуация начала меняться с разработкой чипов шестого поколения HBM4. По некоторым данным, решения Samsung превосходят конкурирующие продукты SK Hynix и Micron. Ожидается, что именно HBM4 будут использоваться в следующем флагманском ИИ-процессоре Nvidia под кодовым названием Rubin, выход которого запланирован на этот год. Теги:


