※本記事は、Center for Digital Transformation (CDT)のDigital Leadership Agenda 2025における、フレッチャースクールのグローバルビジネス学部長Bhaskar Chakravorti氏による講演「AI Trust and Transparency: How Leaders Can Balance Innovation with Ethics」の内容を基に作成されています。
CDTは、Paul Merage School of Businessの卓越した研究センターとして、Faculty Director の Vijay Gurbaxani氏のリーダーシップのもと、AI時代におけるビジネスとテクノロジーの戦略的課題に取り組んでいます。
本記事では、講演の内容を要約・構造化しております。なお、本記事の内容は講演者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの講演映像をご覧いただくことをお勧めいたします。
CDTの活動や研究についての詳細は、www.centerfordigitaltransformation.org でご覧いただけます。また、本講演は、AIと社会の関係性について、透明性、不平等、規制の課題、倫理的ジレンマなど、幅広い観点から検討を行っています。
1. AIの現状認識
1.1. AI開発の加速と投資状況
Bhaskar Chakravorti:私たちは今、AIの発展における重要な転換点に立っています。2022年秋のChatGPTの登場は、メルセデスAMG ONEの爆発的なデビューに例えられるような衝撃的な出来事でした。しかし、それはAIの始まりではありません。ChatGPT登場の数ヶ月前には、DeepMindが人体のすべてのタンパク質構造を予測する能力を実証するなど、すでに画期的な進展が見られていました。
現在、AIへの投資は依然として活況を呈しています。OpenAIの企業価値は1,570億ドルに達し、さらに上昇を続けています。生成AI分野への投資は前年比で倍増しており、業界全体で大きな期待が寄せられています。
しかし、同時に慎重な見方も出てきています。Goldman Sachsは最近のレポートで、生成AI分野への巨額投資(約1兆ドル規模)に対して、その投資効果への懐疑的な見解を示しています。彼らは、この大規模な投資に見合う成果が得られるかどうかについて疑問を投げかけています。
さらに、業界の著名人からは、AIが人類に及ぼす潜在的な脅威についての警告も出されています。特に自律型兵器システムの発展による人類への existential risk(存続の危機)について、深刻な懸念が表明されています。
このような状況は、私が「artificial insecurity(人工的な不安定性)」と呼ぶ状態を生み出しています。これは、経営者、政策立案者、そして一般市民の間で、過去数年間にわたって私が対話してきた中で浮かび上がってきた複合的な課題です。我々は今、高性能なF1マシンが未舗装の道路に差し掛かったような状況にあり、様々な岐路で適切な判断を迫られているのです。
1.2. 政策的な分岐点
米国は現在、AIに関する重要な政策的分岐点に差し掛かっています。数日後、もしくは数週間後に控える2024年の大統領選挙は、AIの政策と規制の方向性を大きく左右する重要な転換点となるでしょう。
この選挙の結果により、AIの規制政策は大きく異なる道筋を辿ることになります。もしトランプ氏が選出された場合、イーロン・マスクがホワイトハウスでのAI政策の主導権を握る可能性が高いと考えられます。一方、ハリス氏が選出された場合は異なる展開が予想されます。実際、カマラ・ハリス副大統領は、バイデン政権下でのAIに関する主要な会議にほぼすべて参加しており、AIの安全性と社会的不平等の問題、そして誤情報の拡散に特に注力してきました。
この問題に対するハリス氏の関心は個人的な経験にも基づいています。彼女自身がAIによる誤情報の標的となった経験があり、その影響を直接理解しています。このような背景から、来るべき選挙においてAIは規制や政策のアジェンダにおいて極めて重要な位置を占めることは明らかです。
いずれの候補が勝利するにせよ、AIは今後の政策・規制アジェンダにおいて中心的な役割を果たすことになるでしょう。この状況は、私が「様々な岐路」と呼ぶものの一つであり、高性能な技術が社会実装される過程で直面する重要な政策的判断点となっています。
1.3. デジタルエボリューション指数による国際比較
私は過去12年間、Digital Planetという大規模なグローバル研究プロジェクトを主導してきました。このプロジェクトでは、世界中の技術が人々の生活と生計にどのように影響を与えているかを研究しています。具体的には12カ国を対象に、様々な産業分野における技術の影響を毎年分析しています。
最新の研究成果である「デジタルエボリューション指数」では、125カ国について物理的な過去からデジタルな未来への移行度を測定しています。この指標は2つの軸で構成されています。縦軸はデジタル進化の現状を示し、横軸はその変化率を表しています。つまり、グラフの北に位置するほどデジタル化が進んでおり、右に位置するほど変化の速度が速いことを意味します。
今回の分析で特筆すべき発見は、米国と中国の両国が「スタンドアウト」ゾーンに位置していることです。これは2年前の測定時点とは大きく異なる結果です。前回の測定では、中国はより低い位置にあり、米国もシンガポールなど他の国々に追い抜かれていました。この劇的な変化をもたらした最大の要因は、両国におけるAI開発の急速な進展です。
AIは、国のデジタルエコシステムを構成する基本的な要素を根本的に変革する力を持っています。この変革により、米中両国は他国を大きく引き離す結果となりました。これは、AIが単なる技術革新を超えて、国家の競争力を決定づける重要な要素となっていることを示しています。
我々が「デジタルドルドラムス(デジタル低迷地帯)」と呼ぶ地域も存在します。一方で、投資家や起業家にとって魅力的な「成長潜在地域」もあり、これらの地域は大きな成長の余地と強いモメンタムを持っています。このように、デジタル化の進展は世界で均一に起こっているわけではなく、国や地域による大きな差異が生じています。
2. AIへの信頼性の課題
2.1. パフォーマンスリスク
AIに対する企業の信頼は世界的に着実に低下しています。特に興味深いのは、AIの楽観論者たちの間でさえ、AIによる人類の存続への危機を懸念する声が上がっていることです。ネット楽観主義者の約半数が、AIによる人類滅亡の可能性を5%と見積もっています。これは決して無視できない数字です。例えば、もし飛行機が5%の確率で墜落するとしたら、誰も搭乗しないでしょう。
情報産業、特にアカデミアやコンサルティング、アナリストなど、人間の代わりにAIを使って情報を生成しようとする分野では、具体的な性能リスクが報告されています。主な懸念事項として、エラーとハルシネーション(幻覚)の問題があります。現在までのところ、ハルシネーションの発生率は顕著な改善を見せていません。
もう一つの重大な問題は、ブラインドスポット(盲点)の存在です。これは、AIモデルが特定のデータセットで訓練されているために、実世界のデータに直面した際に認識できない領域が生じる現象です。このような状況では、AIは予期せぬ、時には奇妙な反応を示すことがあります。
さらに深刻な問題として、誤情報の拡散があります。これは知識・情報コミュニティにおいて継続的な懸念事項となっています。AIの生成する情報の正確性や信頼性を確保することは、依然として大きな課題です。
私がこれらの課題を研究する中で明らかになってきたのは、これらのパフォーマンスリスクが単なる技術的な問題ではなく、AIの社会実装における根本的な障壁となっているということです。これらの問題は、AIの信頼性に対する深刻な疑問を投げかけ、その実用的な導入を妨げる要因となっています。
2.2. 医療分野での具体的課題
医療分野、特に放射線科におけるAIの導入について、私は多くの放射線科医と議論を重ねてきました。興味深いことに、彼らはAIの採用に対して必ずしも積極的ではありません。これは雇用の置き換えへの懸念からではなく、むしろAIを補助的なパートナーとして活用する上での本質的な課題が存在するためです。
最も大きな懸念は「ブラックボックス」現象です。例えば、AIが特定の病変が良性であると判断を下した場合、放射線科医はその判断に至った論理的プロセスを理解できません。このため、放射線科医はAIの判断を完全には信頼できず、自身で追加の確認作業を行う必要性を感じています。つまり、AIの導入が必ずしも業務の効率化につながっていないという現状があります。
この問題に対応するため、放射線科の分野では現在、AI画像診断における透明性と説明可能性を高めるための研究が進められています。これは単なる技術的な改善以上の意味を持ちます。医療現場では、診断の根拠を患者や他の医療従事者に説明できることが不可欠だからです。
このような課題は、医療分野におけるAIの信頼性構築の本質的な部分に触れています。AIが提供する判断の背後にある理由を理解し、説明できることは、医療専門家がAIを効果的に活用するための前提条件となっているのです。
3. 産業構造への影響
3.1. 業界の集中化
AI業界において、私たちは急速な市場集中が進行していることを目の当たりにしています。現在、業界の主導権は実質的に6社程度の大企業に握られています。この状況は、ビジネスの基本的な構造が変化していることを示しています。
特に懸念されるのは、スタートアップコミュニティが年々、業界での足場を確保することが困難になっていることです。これは、AIビジネスの根本的な経済性とダイナミクスによるものです。大規模な計算資源と膨大なデータが必要とされる現在のAI開発において、新規参入企業が既存の大手企業と競争することは極めて困難になっています。
このような市場の寡占化傾向は、単なる一時的な現象ではありません。業界の基礎的な経済構造が、大規模な投資と資源を持つ企業に有利に働くように変化しているのです。結果として、イノベーションの源泉となるべきスタートアップ企業の成長が阻害され、業界全体のダイナミズムが失われつつあります。
この集中化の問題は、後ほど触れる規制の問題とも密接に関連しています。規制の分断化や複雑化が、逆説的にも大手企業の優位性をさらに強化する結果となっているのです。この状況を改善するためには、業界構造と規制の両面から包括的なアプローチが必要となっています。
3.2. 倫理的フレームワークの問題
AIの倫理的フレームワークに関して、私たちは非常に複雑な課題に直面しています。人々は「倫理委員会を設置しよう」「国連が委員会を組織するだろう」といった提案をしますが、最も基本的な問題として、「誰の倫理観を採用するのか」という根本的な疑問があります。
特に注目すべきは、世界の二大AI生産国である米国と中国の倫理観の違いです。米国で倫理的と考えられている枠組みが、中国では危険とみなされ、その逆もまた然りです。これは単なる見解の相違ではなく、根本的な価値観と文化の違いを反映しています。
この問題は、AIが本質的に国境を越える技術であることによってさらに複雑化しています。AIは世界中で使用され、時にはその使用を追跡することさえ困難です。このような状況で、どのような倫理的フレームワークを適用すべきなのでしょうか。
グローバルな倫理基準の確立が困難である一方で、これは避けて通れない課題です。なぜなら、この技術は多くの専門家が恩恵を受け得るものでありながら、倫理的な不確実性が、その採用を躊躇させる大きな要因となっているからです。
私の見解では、倫理的フレームワークの問題は、単なる理論的な議論ではなく、AIの実用化と普及に直接影響を与える実践的な課題となっています。この問題の解決なしには、AIの健全な発展は望めないでしょう。
4. AIと不平等
4.1. グローバルな経済格差への影響
不平等の問題は、2024年の大統領選挙年において最も重要な議題の一つとなっています。この問題は、どちらの候補者も明確な解決策を持ち合わせていない課題です。不平等は、産業労働力の自然な変化やグローバル化により職を失った人々にとって、まさに切実な問題となっています。また、グローバルな不平等は移民問題の主要な原因の一つでもあります。
興味深いことに、過去30年間を見ると、実はグローバルな不平等は減少傾向にありました。これは、特にインドや中国、そしてアジアの多くの地域における中間層の台頭によるものです。この変化は主に、製造業とサービス業の成長に支えられてきました。
しかし、AIの台頭により、この状況は大きく変わろうとしています。AIは自動化を通じて製造業に影響を与え、また多くのルーティン業務やバックオフィス業務といったサービス部門にも影響を及ぼします。つまり、これまで発展途上国の中間層の成長を支えてきた2つの主要な成長ベクトルが、AIによって大きく損なわれる可能性があるのです。
これは深刻な問題です。なぜなら、これまでの経済発展モデルが機能しなくなる可能性があるからです。発展途上国が中間所得層を育成するために用いてきた従来の経済発展の道筋が、AIによって阻害される可能性があります。このことは、グローバルな不平等の問題に新たな複雑さを加えています。
対策を講じなければ、AIは過去30年間で達成されてきたグローバルな経済格差の縮小傾向を逆転させる可能性があります。これは単なる一国の問題ではなく、グローバルな開発と公平性に関わる重要な課題として認識する必要があります。
4.2. 職業内・職業間の格差
初期のデータによると、労働力の約80%が、その業務の少なくとも10%においてAIの影響を受けることが示されています。しかし、この「影響を受ける」という言葉の意味を、私たちはまだ十分に理解していません。AIが補完的な役割を果たす場合、生産性が向上し収入も増加する可能性があります。一方、AIが代替的な役割を果たす場合、その職種は消滅の危機に直面するかもしれません。
職種による影響の差異は顕著です。例えば、食器洗いの作業員や在宅医療従事者などの職種は、AIによる影響が比較的小さいと考えられます。しかし、フィリピンやインドのバックオフィスにおけるカスタマーサービス担当者などは、深刻な影響を受ける可能性があります。
再訓練の必要性について、多くの人々が「AIによって職を失った人々を再訓練し、新しい仕事に就かせればよい」と楽観的に考えています。しかし、現実には誰もその再訓練がどのようなものになるのか具体的な答えを持ち合わせていません。私たちは問題を先送りにしているだけかもしれません。
さらに、職業内での格差も見逃せない問題です。同じ職種でも、AIとの相互作用の仕方によって、個人間で大きな所得格差が生じる可能性があります。また、所得以外の不平等、特に社会経済的な不平等も深刻な問題です。AIモデルの訓練に使用されるデータには、すでに大きな社会経済的バイアスと非対称性が含まれています。これらのバイアスは、すべての善意による中立化の試みにもかかわらず、継続的に伝播されていく可能性があります。
特に懸念されるのは、これらのモデルが発展を続け、やがて誰もその内部構造を逆解析してバイアスを特定・修正できなくなる段階に達することです。私の見解では、その臨界点はすでに通過してしまった可能性もあり、過去のバイアスが未来に永続的に組み込まれてしまう危険性があります。
5. 規制とガバナンス
5.1. 現状の規制の問題点
米国における現在のAI規制の状況は極めて複雑です。チャック・シューマー上院議員は、1年間にわたって少なくとも150人の専門家と対話を重ね、AIのロードマップを策定しようと試みました。しかし、その結果は期待に反するものでした。正直に申し上げると、出てきた内容は、誰でもコーヒーを数杯飲んで、あるいはビールを2本ほど飲んだ後に書けるような一般的な内容にとどまりました。
連邦レベルでの明確な規制フレームワークが欠如している状況で、各州が独自に行動を起こし始めています。ある州が前進する一方で、別の州は後退し、結果として一貫性のない規制の寄せ集めが生まれています。例えば、私たちがいるカリフォルニア州でも、AIに関する規制をめぐって様々な議論が行われており、その影響を目の当たりにすることができます。
この状況は、特にスタートアップ企業に深刻な影響を及ぼしています。革新的なアイデアを持つスタートアップが、カリフォルニア州、ネバダ州、オレゴン州、ミシシッピ州など、州ごとに異なる規制に対応しなければならないのです。これは実質的に、新規参入の障壁として機能しています。
さらに懸念されるのは、この規制の断片化が業界の集中化を促進してしまう可能性があることです。大手企業は豊富な法務リソースを持ち、複雑な規制環境に対応できますが、小規模な企業にはそれが困難です。結果として、規制が逆説的に産業の集中化を加速させ、それがさらなる規制や訴訟の必要性を生み出すという悪循環に陥る可能性があります。このような状況は、業界の健全な発展を阻害する要因となっています。
5.2. グローバルな規制調和の必要性
世界各国のAI規制アプローチは大きく異なっています。EU、米国、中国、インドそれぞれが独自の規制の枠組みを模索しており、時には前進と後退を繰り返しています。例えば、インドは規制の方向性において前進と後退を繰り返し、一貫した方針を打ち出せていない状況です。
特に深刻なのは、クロスボーダーでの規制の問題です。中国と米国の間では、AIに関する実質的な対話がほとんど行われていません。両国は閉じられた扉の後ろで6時間にわたる会議を行うものの、議事録も次のステップも記録されないまま終わってしまいます。これは非常に憂慮すべき状況です。なぜなら、この両国は自律的なシステムを「レッドボタン」(核のメタファー)に近づける可能性を持つ国々だからです。
このような規制環境の違いは、企業規模によって異なる影響を及ぼしています。豊富な法務リソースと資金を持つグローバル企業は、複雑な規制環境に対応することができます。しかし、そうでない企業にとって、この状況は深刻な参入障壁となっています。
私の見解では、従来型の多国間主義は機能していません。しかし、今こそデジタル多国間主義、特にAIに関する多国間主義を構築する絶好の機会です。規制当局は、個々の狭い管轄区域を超えて考える必要があります。この問題に先手を打って対応することで、将来の深刻な問題を防ぐことができるでしょう。
世界のAI規制の調和は、単なる理想ではなく、AIの健全な発展のための必須条件となっています。各国の規制当局が協力し、一貫性のある規制フレームワークを構築することが、今、強く求められています。
6. 解決への方向性
6.1. 技術的アプローチ
AIの課題に対する技術的な解決策として、私は特に4つの重要なアプローチを提案したいと思います。
第一に、スモールAIの開発です。大規模なAIモデルだけでなく、特定の目的に特化した小規模なAIの開発を推進すべきです。これは、AIの利用をより焦点化し、効率的にすることができます。
第二に、エッジAIの活用です。エッジでのAI処理は、集中型の産業構造を分散化させる可能性を持っています。これにより、特定の企業による市場支配を緩和し、より多様なプレーヤーの参入を促すことができます。
第三に、AI技術の地理的分散を進める必要があります。現在、AIは米国と中国に集中していますが、実際には少なくとも40カ国以上でAI開発が行われています。この地理的な多様性を活かし、それぞれの地域の知識を活用して地域固有の問題を解決することが重要です。
第四に、ローカライズされたソリューションの開発です。地域特有の課題に対応するためには、その地域の文脈を理解したAIソリューションが必要です。これは、専門知識の価値を低下させることなく、所得格差を縮小する可能性を持っています。
これらのアプローチは、AIの開発と展開をより包括的で持続可能なものにすることを目指しています。特に、AIの地理的な拡大は、新たな視点と解決策をもたらす可能性があり、グローバルな課題に対するより効果的な対応を可能にするでしょう。
6.2. 制度的アプローチ
制度的なアプローチとして、特に注目すべき動きがインドとエストニアから現れています。これらの国々は、デジタル公共財(Digital Public Goods)とデジタル公共インフラストラクチャー(Digital Public Infrastructure)の概念を推進しています。この考え方は、技術スタックの特定の要素を電気のような公共インフラとして扱うというものです。
私が特に重要だと考えるのは、このアプローチをAIにも適用できる可能性です。もしAIを技術スタックの一部として公共インフラに組み込むことができれば、人々は必要な分のAIリソースを利用し、それぞれのニーズに合わせてカスタマイズすることが可能になります。
最近、Sam Altmanがユニバーサルベーシックコンピュート(Universal Basic Compute)という概念を提案しました。これは世界中の誰もが計算資源にアクセスできるようにする構想です。しかし、私は正直なところ、この提案に対して懐疑的です。世界で最も賢い人々の一人が「ユニバーサルベーシックコンピュート」という解決策を提案するのは、少々頭を悩ませる問題です。
より現実的なアプローチとして、私は既存のデジタルインフラの公共化の方法に注目しています。将来の深刻な問題を防ぐために、今この時点でAIの公共インフラ化について真剣に検討を始める必要があります。これは単なる技術的な問題ではなく、社会的な公平性と経済的機会の平等を確保するための重要な制度的取り組みとなるでしょう。