2025 年 11月 14日 (金)
ホーム経済IT/メタバースGPU26万枚を最大活用…韓国発「AstraGo」による「AIインフラ」の未来

GPU26万枚を最大活用…韓国発「AstraGo」による「AIインフラ」の未来

取材に応じるXIIlabのソン・ユジンCTO(c)KOREA WAVE

韓国が米エヌビディアの高性能GPU26万枚を2030年までに順次導入する。これら26万枚のGPUチップは、韓国政府が5万枚、ネイバーが6万枚、サムスン電子が5万枚、SKグループが5万枚、現代自動車が5万枚をそれぞれ導入・使用する。

このGPUの導入は「先端技術の輸入」にとどまらず、国家の人工知能(AI)競争力を支える核心インフラの確保でもある。高性能GPUはAIモデルの学習(トレーニング)および推論(インファレンス)に絶対的に必要な資源だ。しかし、価格は非常に高価で、1枚あたり数千万ウォンから億単位にもなり、消費電力も大きい。また、GPUは一度に特定の作業しかできないため、非効率的な配分や低い稼働率が発生すると、全体資源の50~70%が無駄になる。GPUの使用効率が国家や企業の競争力と直結する理由だ。

AIプラットフォーム開発企業「XIIlab」はGPUを効率的に活用できるよう支援する。韓国内には同様の企業が3~4社ある。海外では昨年12月にエヌビディアが約7億ドルで買収した「Run:AI」が代表的な存在だ。XIIlabのGPU効率化ソリューション名は「AstraGo」で、現在、斗山デジタルイノベーションなどの大企業グループや大学、各種研究開発センターで使用されている。

XIIlabの最高技術責任者(CTO)ソン・ユジン氏はこのほど、メガ・ニュース(MEGA News)のパン・ウンジュ記者の取材に応じた。

――最近、AIインフラ市場でGPU需要が大きく増加していますが、現在の技術トレンドをどう見ていますか?

ソン・ユジン氏 AI産業は『Sovereign AI』を中心に、GPUはもはや研究開発用の演算装置ではなく、モデルの学習から推論・運用まで産業全体を支える中核インフラとして位置づけられています。最近、エヌビディアが韓国政府および主要企業と協力して26万個の高性能GPUを供給することになったのは、その象徴的な事例です。

2025年に入ってから、グローバルな国家単位でのAIコンピューティングネットワーク構築が進み、主要企業がAI専用データセンターへの投資を拡大しており、GPU需要だけでなく、リソース活用効率やクラスター管理技術の重要性がさらに高まりました。もはやGPUを多く保有することよりも、それをどれだけ効率的に管理し、自動化できるかが産業競争力を左右すると考えます。

XIIlabもこれに対応するため、GPUリソースの最適化と運用自動化技術に注力し、AstraGoを高度化してきました。これにより企業がGPU活用率を向上させ、安定的なAIサービス運用が可能なAIインフラ・オーケストレーションプラットフォームとして成長することに貢献しています。

――今後のトレンドがNeocloudに向かうと話していましたが?

ソン・ユジン氏 Neocloudとは、AI演算に特化したクラウドインフラのことを指します。一般的な汎用クラウド(AWS、Azure、Google Cloud)はCPU中心でウェブアプリ、データベース、ストレージなど多様なワークロードを支援しますが、ネオクラウドはGPUとAI/MLワークロード(大規模言語モデル、画像・映像処理など)に最適化されたインフラを提供します。

韓国がエヌビディアのGPUを26万個導入する中で、政府が掲げる『AI三大強国』を実現するには、導入後の運用が重要です。これらGPUをどこに設置し、どう管理するのかが大きな課題として浮上しています。クラウドサービスとして運用するのか、IDC(インターネットデータセンター)を構築して管理するのかなど、まだ決めなければならないことが多いです。私は今後のトレンドがネオクラウドへと向かうと見ており、国内でもこうしたサービスがより重要になると考えています。

XIIlabのソン・ユジンCTO(c)KOREA WAVE

◇『AstraGo』の技術構造と競争力

――XIIlabの『AstraGo』はどのような技術的原理でGPU効率を高めているのですか?

ソン・ユジン氏 AstraGoはKubernetesベースのGPUクラスター管理プラットフォームです。GPU、CPU、メモリなどのリソースを統合制御し、AIワークロードに応じて自動で配分・回収する構造を持っています。リソース最適化ポリシーにより、遊休GPUを自動で回収・再割当し、MIG(マルチインスタンスGPU)やMPS(マルチプロセスサービス)技術を適用することで、単一GPU上でも学習と推論作業を並列で処理可能です。また、リアルタイムモニタリングによりリソースの状態を可視化し、ボトルネックを即座に検出、安定的な運用を支援します。これにより企業はGPUの活用率を大幅に向上させ、インフラ管理コストを大きく削減できます。

――他社のGPU管理ソリューションと比較した際、『AstraGo』独自の競争力とは?

ソン・ユジン氏 『AstraGo』はGPUリソース管理にとどまらず、AIインフラの運用全体を統合支援する点で優位性があります。AI専任組織を通じて、GPUの構築から活用・運用、保守までAIの全ライフサイクルを支援します。当社の『AstraGo』はGPUの効率的活用、運用の安定性および経済性に焦点を当てて設計されています。これにより作業者はAIインフラの生産性と運用効率を同時に最大化でき、管理者は複雑なインフラを容易に運営できます。

また、HPE、Dell、NVIDIAなど主要グローバルサーバーとの連携が可能なハードウェアとソフトウェアの統合管理体制を持っている点も差別化要素です。加えて、国内企業環境に最適化されたサブスクリプションモデルとAI専門エンジニアによるカスタマイズコンサルティングおよび現場支援を提供しており、AIインフラの構築・運用・保守を一つのプラットフォームで完結できます。企業の目的や規模に応じた柔軟かつ迅速な対応が可能であり、技術に詳しくない経営陣にも、どこでどれだけGPUが使われているのかを把握できる技術レポートも提供しています。

◇ 技術の拡張と将来戦略

――今後の『AstraGo』の技術ロードマップは?

ソン・ユジン氏 短期的には、ハイパースケールクラスター管理技術とGPUパーティショニング・仮想化の高度化に注力し、数千枚規模のGPUを安定的に統合運用できるインフラを強化していく計画です。また、モデルサービングと推論サービスの機能を統合し、学習からデプロイ(配備)までを単一プラットフォーム上で実行できるよう進化させています。

中長期的には、GPU as a Service(GPUaaS)プラットフォームを構築し、クラウド環境でGPUをサブスクリプション型で提供、企業が自由にリソースを活用できるサービス形態を整備して、AIインフラ導入の負担を大きく軽減できるようにする予定です。

――AIインフラやデータセンターの拡大傾向に合わせた技術開発の方向性は?

ソン・ユジン氏 エヌビディアが韓国に供給する26万枚のGPUは、韓国AIインフラの核心的な転換点です。XIIlabはこれに対応し、『AstraGo』の高度化を中核課題として推進しています。ハイパースケールクラスター技術とハイブリッドクラウドインフラを組み合わせ、グローバルレベルのAIコンピューティング環境を構築します。また、最新のGPU(DGX B300)を基盤とした性能検証と最適化を強化し、AIサービスの常時運用およびスケールアップを支援していきます。

将来的には、こうしたインフラを土台に、クラウド型AIサービスを常時提供可能な自律型データセンター構造を完成させ、AI技術の商用化スピードを一層加速させていきます。

――CTOとして見たXIIlabの技術ビジョンとは?

ソン・ユジン氏 XIIlabの技術ビジョンは、AIインフラからモデル、サービスまでを一貫してつなぐ統合エコシステムを構築することです。AIインフラ領域では『AstraGo』を中心に、GPUリソースを効率的に管理・運用できるハイパースケールインフラ技術を進化させていきます。

ビジョンAI領域では、大規模言語モデル(VLM)とフィジカルAI(Physical AI)を通じて、人間の視覚、言語、物理的な行動までを理解するインテリジェントAIへと進化を図ります。また、デジタルツインと連携したシミュレーション型の産業AI環境を構築し、AIが実際の産業現場で動作し、学習し、進化できる構造を実現したいと考えています。

(c)KOREA WAVE

RELATED ARTICLES

Most Popular