※本記事は、CDTのDigital Leadership Agenda 2025で開催されたパネルディスカッションの内容を基に作成されています。 本記事では、パネルディスカッションの内容を要約しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご覧いただくことをお勧めいたします。
パネリスト:
- Irfan Ali氏 NVIDIA社 Global Head of Edge Solutions Sales エッジソリューションのグローバルセールスを統括
- Julian Merten氏 Mercedes-Benz Research & Development North America Distinguished Machine Learning Engineer 理論天体物理学者からAIエンジニアに転身、顧客向けAIユースケースの開発を担当
- Frank Antonysamy氏 Hitachi Digital Chief Growth Officer 10万人以上のデジタルエンジニア、データサイエンティスト、クラウド実践者を率いる プリンストンを拠点に活動
- Yashpaul Singh氏 Amazon Web Services GenAI Pursuits 企業やパートナーとの協働を通じてAIによるデジタルトランスフォーメーションを推進
モデレーター:
- Shashank Samant氏 Hitachi America, Ltd. & Hitachi Digital LLC Executive Chairman Hitachi Energy, Office Depot, Rackspaceの取締役を兼任
本パネルディスカッションは、自動車、ヘルスケア、製造業などの産業におけるジェネレーティブAIの実際の応用から、AIソリューションのスケーリングに伴うインフラストラクチャーの課題やエネルギー需要に至るまで、現在のジェネレーティブAIの状況を広く議論しています。
1. イントロダクションと背景
1.1. GPT-4のローンチと急速な普及
Shashank Samant:今日は非常に複雑なトピックについて議論したいと思います。約9ヶ月前、私たちはNVIDIAの本社でJensen Huangと共に時を過ごしました。その時期はちょうどNVIDIAが2兆ドルの時価総額を達成した頃で、その後わずか2-3ヶ月で3兆ドルに到達しました。その夜、私たちは4時間もの間議論を重ねましたが、このトピックを完全に理解するには至りませんでした。
特筆すべきは、2023年3月14日のGPT-4のローンチです。ローンチから最初の60日間で、アクティブユーザー数はゼロから約1億人へと急増しました。さらに昨日の発表では、週間アクティブユーザー数が2.5億人を大きく超えていることが報告されています。
Irfan Ali(NVIDIA):この成長は前例のないものです。私たちNVIDIAでは、GPT-4ローンチの約9ヶ月前にH100をリリースしましたが、GPT-4のローンチ後わずか1週間で、さらなるアップグレードを実施しました。この急速な技術革新とユーザー数の爆発的な増加は、私たちがいかに重要な転換点にいるかを示しています。
Yashpaul Singh(AWS):この急速な成長に対応するため、私たちAWSでも大規模なインフラ投資を行っています。特に注目すべきは、ユーザーの需要に応じた柔軟なキャパシティプランニングの重要性です。2019年に掲げた2040年カーボンニュートラル目標に向けて、すでに大きな進展を遂げています。
Julian Merten(メルセデス・ベンツ):私たちが目にしているこの成長は、単なる技術の進歩以上のものです。これは人間とマシンのインターフェースの根本的な変革を示しています。私たちはシリコンバレーにR&Dハブを持っており、この急速な変化に最前線で対応しています。
1.2. NVIDIA H100の市場投入とその影響
Shashank Samant:このディスカッションの背景として重要な出来事についてお話ししたいと思います。今年3月、私たちはNVIDIAのJensen Huangと本社で非常に興味深い議論を交わしました。その時期はちょうどNVIDIAが2兆ドルの時価総額を達成した頃で、その後驚くべきことに2-3ヶ月で3兆ドルまで上昇しました。
Irfan Ali(NVIDIA):その通りです。H100は、GPT-4のローンチの約9ヶ月前に市場投入されました。その後、GPT-4のローンチ直後にさらなるアップグレードを実施し、市場のニーズに迅速に対応してきました。私たちの成長は、単なる市場価値の上昇以上の意味を持っています。
Shashank Samant:その時、Jensenは非常に印象的な発言をしました。彼は1963年生まれで、1964年にIBM 360が発売されたことに触れ、「コンピューティングのパラダイムは60年間変わっていなかった。しかし今、私たちはそれを変革している」と語りました。特にIBMの出身である私にとって、この発言は非常に印象的でした。
Irfan Ali(NVIDIA):はい、このパラダイムシフトは、2000年代初頭のドットコムブーム時のCiscoの成長曲線に似ていると指摘されることがありますが、本質的に異なります。現在の需要は、特にBlackwell製品に関して、Jensenの言葉を借りれば「狂気じみている」状況です。顧客は可能な限り早く製品を手に入れたいと考えています。
Yashpaul Singh(AWS):この変革は、私たちクラウドプロバイダーにも大きな影響を与えています。特に、AI基盤モデルのトレーニングに必要なインフラストラクチャーへの投資は前例のない規模になっています。
Frank Antonysamy(日立):製造業の視点からも、このパラダイムシフトは重要です。特に既存インフラストラクチャーのアップグレードと新技術の統合において、NVIDIAの革新は私たちの戦略に大きく影響しています。
1.3. 企業・政府セクターでの議論の活発化
Shashank Samant:日立アメリカのエグゼクティブとして、私は多くの州知事と会談する機会がありますが、AI技術の進展に伴い、政策面での議論が急速に活発化しています。特に社会的な影響と、エネルギー・冷却要件に関する課題が主要な論点となっています。
Yashpaul Singh(AWS):私たちは、これらの課題に対して具体的な行動を起こしています。特にデータセンターのエネルギー消費については、バージニア州での新規データセンター建設において、原子力発電所の活用を含めた包括的なアプローチを検討しています。また、2019年に掲げた2040年カーボンニュートラル目標に向けて、具体的な施策を展開しています。
Frank Antonysamy(日立):エネルギーインフラの観点から見ると、この状況は私たち日立にとって重要な事業機会となっています。現在、エネルギー関連のハードウェアの受注残は2年半から3年にまで及んでいます。例えば、新規の変圧器を注文した場合、納品まで3年かかる状況です。これは、AI関連インフラへの需要が、エネルギー供給能力の拡大を急速に必要としていることを示しています。
Irfan Ali(NVIDIA):確かにエネルギー消費は重要な課題ですが、私たちは技術革新を通じてこの課題に対応しています。例えば、新しいBlackwellチップは、従来と比べて大幅な電力効率の改善を実現しています。Jensenが言うように、「より多く購入すれば、それだけ多く節約できる」のです。
Julian Merten(メルセデス・ベンツ):自動車メーカーとしては、特に規制面での議論に注目しています。実際、同じAI製品であっても、アメリカ、ヨーロッパ、中国で異なる規制対応が必要となっており、これは製品開発とユーザーエクスペリエンスの一貫性の確保に大きな課題をもたらしています。
2. インフラストラクチャーの現状
2.1. データセンターの需要と電力消費
Shashank Samant:データセンターのエネルギー消費について、具体的な数字を見ていきましょう。現在、データセンターの電力消費は33GWに達しており、将来的には100GWまで増加すると予測されています。特に米国は、この需要の約40%を占めています。
Yashpaul Singh(AWS):実際、私たちAWSでは、バージニア州での新規データセンター建設を進めていますが、電力供給は重要な課題となっています。需要に応じたキャパシティプランニングを行う中で、クリーンエネルギーへの移行も同時に進めています。特に注目すべきは、原子力発電所の活用を含めた包括的なアプローチです。
Irfan Ali(NVIDIA):私たちが提供するBlackwellチップは、この電力消費の課題に対する一つの解決策となっています。消費電力あたりの性能を大幅に向上させることで、データセンター全体の電力効率を改善することができます。Jensenが言うように、「より多く購入すれば、それだけ多く節約できる」のです。
Frank Antonysamy(日立):エネルギーインフラの供給側から見ると、この需要増加は私たちにとって重要な事業機会となっています。現在、変圧器などのエネルギー関連ハードウェアの受注残は2.5年から3年にまで及んでいます。これは、データセンターの急速な拡大に対して、エネルギーインフラの整備が追いついていない状況を示しています。
Shashank Samant:特にクリーンエネルギーへの移行については課題が残ります。ガス火力発電は唯一の選択肢となっていますが、日立が手がける小型モジュール原子炉(SMR)の実用化には、順調に進んでも5-8年はかかるでしょう。この期間、どのようにエネルギー需要の増加に対応していくかが、業界全体の課題となっています。
2.2. サステナビリティへの取り組み
Yashpaul Singh(AWS):私たちAWSは、生成系AIの世界的な需要増加に伴うエネルギー問題に対して、積極的な取り組みを展開しています。2019年に、Amazonとして2040年までにカーボンニュートラルを達成するという目標を掲げました。その中間目標として、消費電力の再生可能エネルギーへの置き換えを設定しましたが、私は誇りを持ってお伝えできます。当初の予定より7年前倒しで、2023年にはAmazonが世界で消費する電力量と同等の再生可能エネルギーの発電を実現することができました。
Shashank Samant:確かにAWSはバージニア州での新規データセンター建設を進めていますが、その電力供給について、原子力発電所の活用を含めた包括的なアプローチを検討されているとうかがっています。
Frank Antonysamy(日立):その通りです。私たち日立製作所は、データセンターのエネルギー供給に関して重要な役割を担っています。実際、エネルギー関連ハードウェアの需要が非常に高く、現在の受注残は2.5年から3年に及んでいます。小型モジュール原子炉(SMR)の開発も進めていますが、その実用化までには5-8年程度必要となる見込みです。
Irfan Ali(NVIDIA):エネルギー効率の観点から、私たちも新しいBlackwellチップの開発を通じて、消費電力の削減に取り組んでいます。性能向上と省電力化の両立は、サステナビリティへの重要な貢献となります。
2.3. インフラ投資の規模と方向性
Shashank Samant:私はあるハイパースケーラー(Amazon以外)のトップエグゼクティブとの会話で、驚くべき情報を得ました。同社のCFOが5月に退任する際のスタッフミーティングで明かしたところによると、生成AIインフラに対する直近4四半期の投資額が、過去12年間の投資総額に匹敵するとのことでした。これは業界全体の投資規模を象徴する出来事だと言えるでしょう。
Irfan Ali(NVIDIA):私たちの視点から見ると、エンタープライズ市場は全体の約14%を占めています。興味深いのは、この市場でのインフラ投資の性質です。今日、新規のデータセンターを構築する場合、加速コンピューティング機能を備えないという選択肢はほとんどありません。同様に、新しいアプリケーションを開発する際も、AIスタックを活用しない理由はないのです。
Yashpaul Singh(AWS):私たちAWSの投資戦略は、常に顧客需要に基づいています。実際の顧客の利用状況と、将来の需要予測に基づいてキャパシティプランニングを行っています。さらに、エネルギー効率の観点から、2019年に掲げた2040年カーボンニュートラル目標の達成に向けた投資も並行して進めています。
Frank Antonysamy(日立):エネルギーインフラの供給側として、この投資規模の急増は私たちにも大きな影響を与えています。変圧器などの重要機器の受注残が2.5年から3年に及ぶ状況は、インフラ投資の規模と速度を如実に示しています。
Shashank Samant:一般的に、企業のIT予算は売上高の2-4%程度ですが、この生成AI関連の投資は追加的なものなのか、それとも既存予算の再配分なのか、これは重要な論点です。
Irfan Ali(NVIDIA):私の見方では、これは配分の変更であって、必ずしも総額の大幅な増加ではありません。企業は事業規模に応じて投資可能な額が決まっています。重要なのは、その中でAIワークロードや加速コンピューティングへの優先順位が高まっているという点です。この傾向は、特にエンタープライズ市場において顕著に表れています。
3. 企業における実装と活用
3.1. メルセデス・ベンツのユースケース
Julian Merten(メルセデス・ベンツ):私は理論天体物理学者としての経歴を持っていますが、現在はメルセデス・ベンツで Distinguished Machine Learning Engineerとして、顧客向けAIユースケースの開発を担当しています。私たちは、シリコンバレーにR&Dハブを設置し、AIと自動車技術の融合に取り組んでいます。
実際、私たちは自動車メーカーとして初めて、昨年末にChatGPTを車両に統合することに成功しました。これは単なる技術統合以上の意味を持っています。生成AIは、人間と機械のインターフェースを根本的に変える可能性を秘めているのです。
現在、私たちは「Smart search」機能を実装しています。これは「Hey Mercedes」音声アシスタントを通じて、ChatGPTとツールやエージェントを組み合わせ、インターネット上の情報にシームレスにアクセスできる機能です。例えば、運転中にGoogleやBingでの検索が可能になります。
Shashank Samant:その機能は、どのようにして車載システムに統合されているのでしょうか?
Julian Merten(メルセデス・ベンツ):私たちの取り組みは、製品部門が主導しています。特にメルセデス・ベンツのユーザーエクスペリエンスチームと密接に連携しながら開発を進めています。重要なのは、この技術が顧客からの実際の需要に応えているという点です。現在、AppleやGoogleが新しいAI機能を搭載したデバイスを発表していますが、これは市場が人間と技術の新しい対話方法を求めていることの表れです。
さらに、将来的にはメルセデス仮想アシスタントの導入を予定しています。これは大規模にAIと生成AIを活用したシステムとなります。私たちの目標は、単なる機能の追加ではなく、車両とユーザーの対話を根本的に変革することにあります。
これらの取り組みは、技術的な革新というだけでなく、効率性の向上にも貢献しています。例えば、雪が降っているかどうかを判断するために、従来であれば温度や湿度のセンサーを組み合わせる必要がありましたが、生成AIを使えば、単純なカメラ画像から判断することが可能になります。このように、生成AIは革新的なアイデアをより効率的に実現する手段としても機能しているのです。
3.2. 日立製作所の産業応用
Frank Antonysamy(日立):先週、私たちはNVIDIA IGXプラットフォームを活用した鉄道ソリューションの導入を公表しました。この事例は、日立が目指す大規模なAI実装の典型的なテンプレートとなっています。
私たちの実装アプローチには、3つの重要な原則があります。第一に、ブラウンフィールドインフラストラクチャーでの動作を確保することです。例えば、米国の電力網には過去数十年間で少なくとも2,000億ドルの投資が行われています。私たちの目標は、新しい製品や設備の導入を待つのではなく、既存のインフラをよりスマートにすることです。この原則は、鉄道、エネルギー、産業製造など、すべての分野に適用されています。
Shashank Samant:その規模感について、具体的な数字を示していただけますか?
Frank Antonysamy(日立):はい。例えば、1編成の列車には5万個のセンサーが搭載されており、時速350kmで走行中、2ミリ秒ごとにデータを収集しています。これは1列車あたり1日1テラバイトものデータ量になります。このソリューションは既存の列車の25%に導入される予定です。
第二の原則として、産業設備におけるエッジでのAIは依然として確率的な技術であるため、完全な自動化ではなく、人間を介在させたシステムを採用しています。例えば、鉄道信号システムでは、AIが「はい」「いいえ」「たぶん」という予測を行う段階では、完全な自動化は時期尚早です。
Irfan Ali(NVIDIA):その点について、私たちのIGXプラットフォームは、エッジでの推論処理に最適化されており、人間を介在させたシステムの実現に貢献できると考えています。
Frank Antonysamy(日立):その通りです。実際、このプロジェクトの実現の速さは、NVIDIAとの強力なパートナーシップによるところが大きいです。4月に初回のミーティングを行い、インフラストラクチャーからモデル機能、ライブラリまでの全スタックを一から構築する必要がありましたが、NVIDIAのインフラストラクチャーとソフトウェアスタックのおかげで、わずか4ヶ月で実装を完了することができました。これは、マルチイヤープロジェクトから数ヶ月単位での実装へと、大きく時間を短縮できることを示しています。
4. 組織的な取り組み方
4.1. トップダウンとボトムアップの併用
Frank Antonysamy(日立):生成AIの実装において、私たちは興味深い現象を観察しています。収益創出に関連するアイデアはトップダウンで推進される一方、生産性向上に関するアイデアは現場からボトムアップで上がってくる傾向があります。
製造現場や運用管理に携わる第一線の従業員たちは、日々の業務の中で改善の機会を見出しています。彼らは必ずしも生成AIの技術的な詳細を理解しているわけではありませんが、「もっと良いやり方があるはずだ」という実践的な視点を持っています。
例えば、ある製品には10種類のバリエーションがあり、それぞれに紙のマニュアルが必要です。規制上、紙のマニュアルが必要な業界もありますが、なぜすべてを一から印刷し直さなければならないのでしょうか。このようなアイデアは、現場のスタッフから生まれてきています。
Julian Merten(メルセデス・ベンツ):私たちの場合、製品部門が主導的な役割を果たしています。特にユーザーエクスペリエンスに関わる部分は、トップダウンでの意思決定が重要です。なぜなら、私たちは顧客志向の企業であり、市場からの要求に応える必要があるからです。
Yashpaul Singh(AWS):2023年に見られた特徴的な動きとして、取締役会からの強いプッシュがありました。「生成AIが我々の企業に何をもたらすのか」という問いが、経営陣から現場に投げかけられ、それが具体的なアクションにつながっています。
Frank Antonysamy(日立):そうですね。この効率化と生産性向上のアイデアを現場から集め、解決策を提供する仕組みを整備することが重要です。これは、アプリケーション経済のように組織全体に民主化される可能性があります。必ずしも中央の製品管理部門からの指示を待つ必要はないのです。なぜなら、生産性向上の取り組みは、新規収益創出のような大規模な資本配分を必要としないからです。
4.2. 中央集権型と分散型の組織構造
Frank Antonysamy(日立):日立のような複合企業の場合、私たちはフェデレーテッドモデルを採用しています。これには明確な理由があります。インフラストラクチャーの運用に関しては、スケールメリットを活かすために中央集権的な管理が必要です。具体的には、テクノロジースタック、インフラストラクチャースタックの選定などは中央で統制しています。
一方で、ユースケースの特定については分散型のアプローチを取っています。なぜなら、鉄道事業、エネルギー事業、医療機器事業では、それぞれ顧客のニーズが大きく異なるからです。各事業部門が、その分野に特化したユースケースを開発し、推進していく必要があります。
Shashank Samant:その場合、部門間の連携はどのように図られているのでしょうか?
Frank Antonysamy(日立):中央のCoE(Center of Excellence)が、ポリシーやインフラの決定、組織全体の学習促進を担当し、規模の経済が得られる分野や迅速な展開が必要な領域を主導します。一方、ユースケースの特定と実装は、ビジネスユニットとCoEの強力なパートナーシップのもとで実行されます。
Yashpaul Singh(AWS):私たちの経験では、企業の規模によってアプローチが異なります。大企業では専門のAIチームが戦略を主導し、それを各部門に展開するケースが多い一方、中小規模の組織では、より機動的な体制を取ることが可能です。
Julian Merten(メルセデス・ベンツ):私たちの場合、製品部門が主導的な役割を果たしていますが、シリコンバレーのR&Dハブとの連携も重要です。これにより、最新の技術動向を製品開発に迅速に反映することができています。
4.3. 予算配分とROIの考え方
Shashank Samant:一般的に企業のIT予算は売上高の2-4%程度であることが知られています。10億ドル以上の企業では2-3%、それより小規模な企業では4%程度となっています。生成AI関連の投資は、この既存予算の枠内で対応するのか、それとも追加的な投資として扱うのか、これは重要な論点です。
Irfan Ali(NVIDIA):私の見方では、これは主に予算配分の変更であり、必ずしも総額の大幅な増加を意味するものではありません。企業には事業規模に応じた投資可能額があり、その中でAIワークロードや加速コンピューティングへの優先順位が高まっているのです。例えば、今日データセンターを構築する場合、加速コンピューティング機能を備えないという選択肢はほとんどありません。
Yashpaul Singh(AWS):初期段階では、生成AI技術の導入によるROIや利点の理解が十分ではありませんでした。単に情報アクセスが容易になったという段階から、実際にどのように効率性を向上させ、人件費を削減し、より良い成果を生み出せるのかという具体的な評価が可能になってきています。例えば製造業のお客様では、生成AIを予測保守に適用し、現場作業員に対して具体的な修理計画を提示することで、稼働率の向上とダウンタイムの最小化を実現しています。
Frank Antonysamy(日立):私たちの経験では、生産性向上に関する投資判断は、現場レベルでより柔軟に行えることがわかっています。これは資本配分を必要としない改善活動として位置づけられるためです。一方、新規収益創出のための投資は、より慎重な評価と意思決定プロセスを必要とします。
Julian Merten(メルセデス・ベンツ):生成AIは、革新的なアイデアをより効率的に実現する手段としても機能します。例えば、従来であれば複数のセンサーと複雑なシステムが必要だった機能を、シンプルなカメラと生成AIの組み合わせで実現できるケースも出てきています。このような効率化効果も、ROI評価の重要な要素となっています。
5. 業界別の採用動向
5.1. 先行する業界
Irfan Ali(NVIDIA):テクノロジー業界を除くと、特に注目すべき先行業界が3つあります。ヘルスケア、製造業、そして金融サービス業です。これらの業界は、生成AIの可能性を積極的に探求し、実際の導入も進めています。特に注目すべきは、これらの業界ではAI戦略を専門に担当する部門を設置する企業が増えていることです。
Yashpaul Singh(AWS):私たちの観点からも、産業別の採用状況について興味深い傾向が見えています。製造業では、予測保守の分野で大きな進展が見られます。例えば、現場作業員が製造設備の前で生成AIを使用し、必要な修理計画をその場で生成し、最適な効率性と稼働時間を確保するといった活用が始まっています。
Frank Antonysamy(日立):製造業の視点から付け加えると、私たちは既存のインフラストラクチャーをよりスマートにすることに注力しています。例えば、米国の電力網には過去数十年で2,000億ドル以上の投資が行われていますが、これらの既存設備を生成AIで最適化することで、新たな価値を生み出すことができます。
Julian Merten(メルセデス・ベンツ):製造業の中でも自動車産業は特に積極的です。私たちは顧客との接点を重視していますが、同時に製造プロセスの効率化にもAIを活用しています。特に品質管理や生産計画の最適化で成果を上げています。
Irfan Ali(NVIDIA):金融サービス業界も非常に積極的です。特にFSI(金融サービス機関)では、専門のAI戦略部門を設置し、リスク管理やカスタマーサービスの分野で革新的な取り組みを行っています。
Yashpaul Singh(AWS):医療分野での活用も急速に進んでいます。特に創薬プロセスや診断支援において、生成AIの活用が進んでいます。ただし、この分野では規制対応が特に重要で、慎重な展開が必要とされています。
5.2. テクノロジー企業の役割
Yashpaul Singh(AWS):私たちが注目しているのは、特にISV(独立系ソフトウェアベンダー)とSaaS企業の動向です。これらの企業は、生成AI技術を自社製品に積極的に統合しています。例えば、SalesforceやServiceNowのような企業は、既に自社製品に生成AI機能を組み込んでおり、次期リリースでさらなる機能拡張を予定しています。これにより、既存のSalesforceユーザーは、販売プロセスをサポートするAIエージェントの機能を自然に活用できるようになっています。
Irfan Ali(NVIDIA):私たちのプラットフォームは、技術企業のイノベーションを支える基盤となっています。特に注目すべきは、これらの企業が単なる技術統合を超えて、実際のビジネス価値の創出にフォーカスしていることです。テクノロジー企業が主導的な役割を果たすことで、その他の産業界への普及も加速すると考えています。
Frank Antonysamy(日立):プリンストンを拠点とする私たちの視点からは、テクノロジー企業の役割は技術提供だけでなく、実装知識の共有者としても重要です。私たちは10万人以上のデジタルエンジニア、データサイエンティスト、クラウド実践者を抱えており、この知見を活かして他産業の変革を支援しています。
Yashpaul Singh(AWS):その通りですね。私たちは顧客企業のデジタルトランスフォーメーションを支援する中で、生成AIの導入においては、特に基盤となるセキュリティやガバナンスの重要性を強調しています。例えば、Amazon CodeWhispererを使用したコーディング時のIP侵害防止など、責任あるAI実装のためのガードレールを提供しています。
5.3. 各業界特有の課題と対応
Julian Merten(メルセデス・ベンツ):私たちが直面している最大の課題は規制の多様性です。現在、同じAI製品であっても、アメリカ、ヨーロッパ、中国で全く異なる規制要件に対応しなければなりません。これは一貫したユーザーエクスペリエンスを提供する上で大きな障壁となっています。同じ製品を市場ごとに異なる形で展開する必要があり、開発効率を著しく低下させています。
Yashpaul Singh(AWS):その通りですね。私たちの視点からは、業界によって導入速度に大きな差が生じていることが顕著です。2023年の初期段階では、多くの企業が生成AI技術の理解と評価に時間を費やしていました。特に、ROIの明確化が課題でした。現在は、製造業などで具体的な価値が見えてきており、導入が加速しています。一方で、規制の厳しい業界では、まだ慎重な姿勢が続いています。
Frank Antonysamy(日立):産業機器分野では、既存インフラストラクチャーへの統合が大きな課題です。例えば、鉄道分野では安全性が最優先されるため、AIの導入には慎重なアプローチが必要です。私たちは確率的な技術であるAIを、決定論的な結果が求められる産業システムにどう統合するかという課題に取り組んでいます。
Irfan Ali(NVIDIA):データセキュリティの要件も業界によって大きく異なります。金融サービスや医療分野では特に厳格な基準が設けられており、エッジコンピューティングの活用など、新しいアプローチが必要とされています。私たちのIGXプラットフォームは、このような要件に対応するために設計されています。
Yashpaul Singh(AWS):セキュリティとガバナンスの観点から、私たちはBedrock基盤を通じて、マルチモデル・マルチモーダルなアプローチを提供しています。これにより、企業は自社の要件に最適なモデルを選択し、必要なセキュリティ対策を実装することができます。
Julian Merten(メルセデス・ベンツ):自動車業界では、これらの課題に加えて、リアルタイム性の要件も重要です。車載システムでのAI活用には、高い信頼性と応答性が求められ、これが導入のペースに影響を与えています。
6. 実装における主要な課題
6.1. エネルギー消費と持続可能性
Irfan Ali(NVIDIA):エネルギー消費は確かに重要な課題ですが、私たちNVIDIAはBlackwellチップを通じてこの課題に積極的に取り組んでいます。従来と比較して、必要な演算性能あたりの消費電力を大幅に削減することに成功しています。Jensenが言うように、「より多く購入すれば、それだけ多く節約できる」のです。これは単なるスローガンではなく、実際の効率改善を反映したものです。
Yashpaul Singh(AWS):私たちはデータセンターの電力需要に関して、包括的なアプローチを取っています。バージニア州での新規データセンター建設では、原子力発電所の活用を含めた電力供給の検討を行っています。また、2019年に掲げた2040年カーボンニュートラル目標に向けて、具体的な施策を展開しています。
Frank Antonysamy(日立):エネルギーインフラの供給側から見ると、状況は深刻です。現在、変圧器などのエネルギー関連ハードウェアの納期は2.5年から3年に及んでいます。また、私たちは小型モジュール原子炉(SMR)の開発も進めていますが、その実用化までには5-8年程度必要です。この期間、急増するエネルギー需要にどう対応するかが大きな課題です。
Shashank Samant:現在のデータセンターの電力消費は33GWですが、将来的には100GWまで増加すると予測されています。特に米国は、この需要の約40%を占めています。クリーンエネルギーへの移行には課題が残りますね。
Irfan Ali(NVIDIA):その通りです。しかし、私たちは技術革新を通じてこの課題に対応しています。例えば、エッジコンピューティングの活用により、データセンターへの負荷を分散させることも可能です。また、AIアルゴリズムの最適化によっても、必要な計算リソースを削減できます。
6.2. 人材確保と育成の問題
Frank Antonysamy(日立):人材に関する課題は、私にとって最も気がかりな問題の一つです。特に、AIと特定のドメインの両方を理解する人材の確保が難しい状況です。データサイエンティストは自分の専門分野では非常に優秀ですが、具体的な業務領域の課題を必ずしも理解しているわけではありません。逆に、列車や公共設備の運用担当者は、自分たちが何を必要としているかは理解していても、それをデータサイエンティストに効果的に伝えることが困難な場合があります。
Julian Merten(メルセデス・ベンツ):私自身、理論天体物理学者からAIエンジニアへとキャリアを変更した経験があります。この経験から、異なる分野の知識を統合することの重要性と難しさを深く理解しています。シリコンバレーのR&Dハブでは、多様なバックグラウンドを持つ人材を集め、自動車産業特有の課題に取り組んでいます。
Yashpaul Singh(AWS):2023年の初期段階では、多くの企業が生成AI技術の理解に苦心していました。現在は、技術の理解から実装段階へと移行していますが、新たな課題として、AIと業務プロセスを効果的に統合できる人材の不足が顕在化しています。特に、エンタープライズレベルでAIを展開する際には、技術だけでなく、ビジネスインパクトを理解できる人材が必要です。
Frank Antonysamy(日立):この課題は、特定のプロジェクトだけの問題ではありません。エンタープライズ全体でスケーラブルなソリューションを構築しようとする際に、より深刻な問題となります。個別のケースでは努力次第で解決できても、組織全体での展開となると、このスキルギャップが大きな障壁となっています。
Shashank Samant:つまり、単なる技術トレーニングだけでは不十分で、ドメイン知識とAIスキルの両方を育成するための、より包括的なアプローチが必要というわけですね。
Frank Antonysamy(日立):その通りです。私たちは、10万人以上のデジタルエンジニア、データサイエンティスト、クラウド実践者を抱えていますが、この人材プールを最大限活用するためには、継続的な学習と分野横断的な経験の共有が不可欠だと考えています。
6.3. 規制対応の複雑さ
Julian Merten(メルセデス・ベンツ):現在、私たちが直面している最大の課題は、地域ごとの規制の多様性です。米国、欧州、中国など、主要市場でAI製品に対する規制アプローチが大きく異なっています。この状況は、グローバルな製品開発とユーザーエクスペリエンスの一貫性確保に深刻な影響を与えています。例えば、EUでは現在、同じApple製品でもApple intelligenceの機能が制限されるなど、地域による機能の差異が生じています。
Yashpaul Singh(AWS):確かに規制対応は複雑です。私たちはBedrock基盤を通じて、セキュリティとガバナンスの課題に対応しています。特に知的財産権の侵害防止や、AIの責任ある利用のためのガードレールの設置が重要です。各地域の規制に準拠しながら、いかに一貫したサービスを提供するかが課題となっています。
Frank Antonysamy(日立):産業機器分野では、さらに複雑な状況に直面しています。例えば、鉄道システムでは各国の安全基準に加えて、AIに関する新たな規制にも対応する必要があります。これは製品開発サイクルに大きな影響を与え、場合によっては同じ製品を市場ごとに異なる形で実装しなければならない状況を生んでいます。
Julian Merten(メルセデス・ベンツ):そのため、現状では同じAI製品を複数回開発する必要があります。これは開発効率を著しく低下させるだけでなく、グローバルな一貫性のあるユーザーエクスペリエンスの提供を困難にしています。この問題は解決不可能というわけではありませんが、現時点では大きな課題となっています。
Irfan Ali(NVIDIA):インフラストラクチャー提供者としての私たちの立場からも、各地域の規制に対応したハードウェアとソフトウェアの提供が必要です。特にエッジコンピューティングの分野では、データの現地処理要件など、地域特有の規制への対応が重要になっています。
7. 今後の展望
7.1. アプリケーションレベルでの競争
Irfan Ali(NVIDIA):Jensenが最近言及したように、現在の競争の焦点はLLMやSLMのレベルからアプリケーションレベルへと移行しています。消費者市場ではOpenAIが明確なリーダーシップを確立していますが、エンタープライズ市場ではまだ確固たるリーダーが現れていない状況です。これは市場がより複雑で、業界固有の要件が多いためです。
Yashpaul Singh(AWS):私たちの観点からは、2023年から2024年にかけて、企業のニーズが大きく変化していることが分かります。当初は単純な情報アクセスの改善が主な目的でしたが、現在は業務プロセスの最適化や新しい価値創造へと焦点が移っています。例えば、製造業での予測保守や、金融サービスでのリスク分析など、より高度なアプリケーションへの需要が高まっています。
Julian Merten(メルセデス・ベンツ):自動車業界の視点からは、人間とマシンのインターフェースとしての生成AIの可能性に注目しています。私たちが業界で初めてChatGPTを統合したように、今後もユーザーエクスペリエンスを革新する新しいアプリケーションが登場すると予想しています。
Frank Antonysamy(日立):産業分野では、既存インフラストラクチャーをよりスマートにするアプリケーションの開発競争が始まっています。私たちの鉄道ソリューションのように、大規模なセンサーデータをリアルタイムで処理し、実用的な知見を提供するアプリケーションの需要が高まっています。
Yashpaul Singh(AWS):重要な点は、エンタープライズ市場では単一のソリューションではなく、マルチモデル・マルチモーダルなアプローチが必要とされていることです。Bedrock基盤を通じて、企業が自社の要件に最適なモデルを選択し、カスタマイズできる環境を提供することが重要だと考えています。
7.2. インフラストラクチャーの進化
Irfan Ali(NVIDIA):インフラストラクチャーの進化において、私たちのBlackwellチップが重要な転換点となっています。Jensenの言葉を借りれば、現在の需要は「狂気じみている」状況で、顧客は可能な限り早く製品を入手したいと考えています。特に重要なのは、演算性能の向上と消費電力の削減を同時に実現している点です。
Yashpaul Singh(AWS):私たちのデータセンターも大きな進化を遂げています。バージニア州での新規開発では、原子力発電所の活用を含めた包括的なアプローチを検討しています。現在33GWのデータセンター電力消費が将来的には100GWまで増加すると予測される中、効率的なインフラ整備は急務となっています。
Frank Antonysamy(日立):エネルギーインフラの供給側から見ると、現状はかなり逼迫しています。変圧器の納期が2.5年から3年かかる状況で、小型モジュール原子炉(SMR)の実用化にも5-8年程度必要です。この期間をどう乗り切るかが重要な課題となっています。
Irfan Ali(NVIDIA):そのため、私たちはエッジコンピューティングの強化にも注力しています。データセンターへの負荷を分散させることで、全体的なエネルギー効率を改善できると考えています。IGXプラットフォームはこの戦略の重要な要素です。
Yashpaul Singh(AWS):インフラの進化は、単なる規模の拡大ではありません。例えば、私たちは2019年に設定した2040年カーボンニュートラル目標に向けて、再生可能エネルギーの活用を加速しています。実際、2023年には予定を7年前倒しで、グローバルな電力消費と同等の再生可能エネルギー発電を実現しました。
7.3. 規制環境の調和の必要性
Julian Merten(メルセデス・ベンツ):現在、私たちは深刻な規制の断片化に直面しています。米国、欧州、中国で全く異なるAI規制の枠組みが存在し、これは製品開発とユーザーエクスペリエンスに大きな影響を与えています。この状況では、同じAI製品を市場ごとに異なる形で複数回開発しなければならず、これは効率性とイノベーションの両面で大きな障害となっています。
AWS(Yashpaul Singh):私たちは、この課題に対してBedrock基盤を通じた標準化されたアプローチを提供しています。重要なのは、セキュリティ、ガバナンス、責任あるAIの使用といった基本的な要件を満たしながら、各地域の規制にも対応できる柔軟性を確保することです。
Frank Antonysamy(日立):産業機器分野では、既存の安全基準に加えて新たなAI規制への対応が必要となり、状況はさらに複雑です。私たちは、複数の規制要件を満たしながら、なおかつ効率的な製品開発を可能にする標準化されたアプローチの確立を目指しています。
Julian Merten(メルセデス・ベンツ):特に自動車業界では、一貫したユーザーエクスペリエンスの提供が重要です。しかし現状では、例えばEUでのApple intelligenceの制限のように、地域による機能の違いが生じています。これは解決不可能な問題ではありませんが、グローバルな規制の調和なしには、真の意味でのイノベーションは難しいでしょう。