チャットGPTを筆頭にした「生成AI(人工知能)」シンドロームが広がり、半導体業界も伸びを見せている。半導体産業は、AI産業の拡大によって恩恵を受ける代表産業群に挙げられる。人工知能高度化のためには高性能・高容量メモリー半導体が必須なためだ。
現在、グローバルなAI市場では、GP-GPU(General-Purpose computing on Graphics Processing Units)最も広く使われている。これはもともと画像処理に用いられたGPUの機能を画像処理以外の分野に転用したものだ。AI分野を拡大させるためには、ソフトウェアとサーバー、半導体企業の協力が欠かせないのだ。
◇膨大な学習量の保存・処理には高性能メモリ
サムスン電子やSKハイニックスなど韓国の代表的メモリー半導体企業は、AI用次世代メモリー半導体の研究・開発に力を入れる。サムスン電子メモリー事業部のキム・ジェジュン副社長は、「AIサービスが未来メモリー需要に肯定的な影響を与えると期待している」と話した。SKハイニックスのパク・ミョンスDRAMマーケティング担当も「人工知能商用化は、メモリー半導体市場の観点から中長期成長エンジンになりうる」と話した。
莫大な容量のデータを処理するためには高効率メモリが必要だ。複数のDRAMを垂直連結して3D形態で作ったHBM(高帯域幅メモリ)とプロセッシング機能を備えており、速度と性能が優れたPIM(知能型メモリ)が代表的だ。
サムスン電子は2021年、演算機能を内蔵した高性能メモリである「HBM-PIM(Processing-in-Memory)」を開発した。データ処理と保存を担当するメモリが、GPUが担ってきた学習と推論機能も担当し、莫大な容量の処理作業を可能にする。米エヌビディア(NVIDIA)と共にGPU業界を二分する米アドバンスト・マイクロ・デバイセズ(AMD)が、サムスン電子のHBM-PIMを使用する。DRAM容量を増やすインターフェース概念「CXL」も、サムスン電子が出した次世代メモリーソリューションだ。
サムスン電子は、昨年12月にはネイバーとAI半導体ソリューション開発のための業務協約(MOU)を締結した。ネイバーは、チャットGPTのライバルになる韓国型AIを上半期中に発売すると明らかにした。
SKハイニックスは、GPU業界1位のNVDIAに超高性能メモリーのHBM3を供給している。HBM3はフルHD級映画163本を1秒で伝送する速度を実現する。PIMを適用した次世代DRAM規格であるGDDR6も開発した。GDDR6は演算速度が従来比16倍速いが、エネルギー消耗は80%少ない。
◇データセンターの拡充
AIシステムを支えるサーバー、すなわちデータセンターの必要性が強まっていることも、メモリー半導体業界に好材料になるとみられる。AIがテキストだけでなく、画像や映像など多様な形態(マルチモーダル)の情報を学習しつつ、サーバーとストレージ拡充も必要だ。マイクロソフト(MS)は最近チャットGPTを開発したオープンAIに投資を約束し、自社クラウドサービスである「アジュール(Azure)」に超巨大AIを搭載する計画だと明らかにした。
CPU(中央処理装置)と結合してデータセンターに入るサーバー用DRAMは、付加価値が高く、サムスン電子とSKハイニックス全体の売り上げでそれぞれ40%前後を占める。特に今年は、AI産業の発展とデータセンターのCPU交替周期が重なり、サーバー用DRAM需要はさらに増える可能性がある。
データセンターは通常、新規CPUが発売されれば、これと交換し、DRAMも最適化された規格のものにする。今年初めにインテルが、CPUの「サファイアラピッズ(Sapphire Rapids)」の新製品を発売しており、次世代サーバー用DRAM規格のDDR5搭載も増える見通しだ。DDR5は、従来のDDR4よりデータ伝送速度は2倍速く、電力効率はさらに高い。価格は30~50%ほど高く、メモリー半導体業界の収益性拡大も期待できる。
市場調査会社ガートナーは、AI半導体の市場規模は今年は553億ドルになり、2026年には861億ドル規模に達するとみている。
韓国の半導体業界関係者は「人工知能システムは、大量のデータを非常に早く処理することがカギだ。システム容量を大きくしてこれを助ける高性能メモリー半導体が必須だ。ソフトウェア、サーバーに加え、半導体会社の協力があってこそ、AI業界は完成する」と強調した。
(つづく)
(c)MONEYTODAY