※本記事は、MIT Sloan Management ReviewとBoston Consulting Groupによる共同制作のポッドキャスト「Me, Myself, and AI」の内容を基に作成されています。本エピソードは、Sam RansbothamとShervin Khodabandehがホストを務め、Partnership on AIのCEO Rebecca Finlayへのインタビューを特集しています。ポッドキャストの詳細情報はmitsmr.com/AIforLeaders でご覧いただけます。本記事では、ポッドキャストの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのポッドキャストをお聴きいただくことをお勧めいたします。
【登壇者紹介】 Rebecca Finlayは、Partnership on AI(PAI)のCEOを務めています。PAIは、17カ国100以上のパートナーが参加するグローバルな非営利団体で、AIの発展が人々と社会にポジティブな成果をもたらすことを目指しています。技術と社会の接点で活動してきたFinlayは、市民社会、研究機関、産業界でリーダーシップを発揮してきました。
PAI就任前は、社会におけるAIの影響に関する最初の国際的なマルチステークホルダーイニシアチブの一つである、グローバル研究機関CIFARのAI & Society programを設立。その知見は、Financial Times、The Guardian、Politico、Nature Machine Intelligenceなどの媒体で取り上げられ、South by SouthwestやU.K. AI Safety Summitなどで講演を行っています。
アメリカ科学振興協会のフェローであり、カナダ、フランス、米国の諮問機関のメンバーも務めています。McGill UniversityとUniversity of Cambridgeで学位を取得しています。
1. Partnership on AIの概要と使命
1.1. 設立の背景と初期メンバー
Partnership on AI(PAI)は、AIの倫理的かつ責任ある開発を確保するために2016年に設立されました。当時、深層学習を活用したAIが実用化段階に入り、インターネット検索、地図サービス、レコメンデーションエンジンなどで実際に展開され始めていました。この技術革新の中で、重要な倫理的課題に対処する必要性が認識されていました。
設立時の最初の投資は、6つの大手テクノロジー企業によってなされました。具体的には、Amazon、Apple、Microsoft、当時のFacebook(現Meta)、Google/DeepMind、IBMです。これらの企業は、AIの開発と展開において主導的な立場にあり、その技術が社会に与える影響の大きさを認識していました。
私たちは設立当初から、多様な視点を集結させることで、AIの開発がもたらす倫理的課題と機会の両方に取り組む必要があるという信念を持っていました。特に、AIの革新が人々とコミュニティに確実に利益をもたらすようにすることを重視しました。
この時期は、AIの新しい波、特に深層学習が実用化され始めた重要な転換点でした。インターネットサービスへの実装が進む中で、倫理的な問題に対する答えを見つける必要性が急速に高まっていました。このような背景から、業界のリーダー企業が協力して、責任あるAI開発のための枠組みを作ることを決意したのです。
1.2. グローバルコミュニティの構築と現在の規模
設立当初の6大テクノロジー企業からの投資を基盤として、Partnership on AIは急速にその規模を拡大してきました。現在では、17カ国から100を超えるパートナー組織が参画し、真にグローバルなコミュニティを形成しています。
私たちのコミュニティの特徴は、その多様性にあります。民間企業だけでなく、ACLUのような市民社会団体、Berkeley、Stanford、Harvardといった主要な研究機関が積極的に参画しています。さらに、英国のAllen Turing Instituteをはじめとする国際的な研究機関も加わり、AIの倫理的な開発と展開について、グローバルな視点から議論を重ねています。
このような多様な組織の参画により、プライベートセクターの視点だけでなく、研究者や市民社会の声も含めた包括的な議論が可能となっています。これは、インターネット検索、マッピング機能、レコメンデーションエンジンなど、実際のAI技術の展開において、倫理的な課題に対する多角的な視点を提供することを可能にしています。
特に重要なのは、これらの組織が単なるメンバーシップの関係を超えて、実際の作業グループを形成し、予測AIの影響から生成AIの潜在的な影響まで、幅広いテーマについて協働していることです。これにより、理論的な議論だけでなく、実践的な解決策の開発も可能となっています。
1.3. 組織の主要な焦点領域
Partnership on AIは、AIの開発が真に人々とコミュニティに利益をもたらすことを確実にするという信念のもとで活動しています。私たちは、多様な観点を結集させることで、AIの開発における倫理的課題と機会の両方に取り組むことが重要だと考えています。
私たちの主要な焦点は、まず第一に人々とコミュニティのためのAI開発です。AIが人々のために機能し、コミュニティの価値を高め、共有された繁栄を促進することを目指しています。特に、工夫や創造性を発揮できる意思決定の機会を増やし、労働者が自分の仕事にイノベーティブにアプローチできるようにすることを重視しています。
私たちは、労働者のためのAI開発も重要な焦点としています。これは単なるAIの導入ではなく、労働者の声を開発プロセスに取り入れ、彼らの経験と知見を活かしたシステムの構築を意味します。特に、ルーティンタスクや反復作業への追い込みを避け、監視されているという感覚を与えないよう配慮しています。
さらに、持続可能で責任あるイノベーションの推進に力を入れています。これには、プライバシーを保護し、公平性を確保しながら、技術革新を進めることが含まれます。私たちは、イノベーションと責任の間にトレードオフは存在しないと考えています。安全で責任ある方法で開発を進めることが、新しい市場を開拓し、有益な成果を生み出すための基盤となるのです。
このような焦点領域を通じて、私たちは医療やサステナビリティなどのグローバルな課題に対するAIの変革的な可能性を追求しています。予測AIの世界ですでに見られるように、科学的プロセス全般にわたってAIが統合されつつある現在、これらの焦点領域はますます重要性を増しています。
2. AIの責任ある開発と実装
2.1. 合成メディアの責任ある開発フレームワーク
私たちは、AIの責任ある開発と実装において、社会技術的なレンズを通じて課題を捉えることが重要だと考えています。現在、18の組織が参加している合成メディアの責任ある開発フレームワークは、この考えを具現化した取り組みの一つです。
このフレームワークでは、技術的な標準として、ウォーターマーキングやC2Pなどの認証追跡システムを採用しています。これらは、メディアの真正性を制作から公開までのサイクルを通じて追跡することを可能にします。しかし、技術的な解決策だけでは十分ではありません。
私たちのフレームワークは、バリューチェーン全体を通じて、クリエイター、開発者、プラットフォームなどの展開者それぞれの責任を明確にしています。特に重要なのは、AIによって生成されたメディアに接触する誰もが、それがAIによって生成されたものであることを適切に認識できるようにすることです。
また、生成されたメディアが悪意を持って使用されたり、害を及ぼす方法で使用されたりすることを防ぐための保護措置も含まれています。私たちは、そのような潜在的な害とそれらから人々を保護する必要性について、詳細なリストと情報を提供しています。
フレームワークに署名した組織は、実際の状況下でこれらの原則をどのように適用しているかについて透明性を持って報告することが求められます。これにより、フレームワーク自体の説明責任を果たすとともに、他の組織が学習できるケーススタディを作成することができます。
2.2. 技術標準と社会システムの統合アプローチ
私たちは、AIの責任ある開発において、社会技術的なレンズを通じて課題を見ることが不可欠だと考えています。技術的な標準は確かに重要です。例えば、ウォーターマーキングやC2Pのような標準は、メディアの真正性を追跡するために必要不可欠です。しかし、それだけでは十分ではありません。
私たちは、技術的な解決策と社会システムの両方を同時に考慮する必要があります。これは単なる理論ではなく、実践的な必要性から生まれた考え方です。例えば、合成メディアの開発において、技術的な認証システムを導入するだけでなく、それを社会の中でどのように機能させるか、どのような社会的構造や制度が必要かを考える必要があります。
また、私たちは保護措置の実施においても、この統合的なアプローチを採用しています。悪意のある使用や危害を防ぐためには、技術的な防御策だけでなく、適切な開示の仕組みや、コンテンツに接触する人々への配慮も必要です。私たちは、潜在的な危害の種類とそれらから人々を保護する必要性について、包括的なリストを作成し、それに基づいて保護措置を実施しています。
このアプローチは、規制の代替として機能するものではありません。私たちは常に、政府が市民を保護し、危害に対して適切な対応を取ることの重要性を認識しています。しかし、責任ある行動を望む組織が「良い実践とは何か」を理解するための指針として、この統合的なアプローチは重要な役割を果たしています。
2.3. 透明性とアカウンタビリティの実践例
私たちは、フレームワークに署名した組織が、実際の状況下でこれらの原則をどのように適用しているかについて、透明性を持って共有することを重視しています。これは単なる透明性のためだけではなく、フレームワーク自体の説明責任を果たし、他の組織が学習できるケーススタディを作成するという二重の目的を持っています。
特に、私たちは企業が技術の展開やリスクの解消に関して孤立感を感じていることを認識しています。そこで、これらの組織がどのように生産性向上と顧客サービスの改善のバランスを取りながら、システムの展開に伴うリスクを解消しているかについて、実例を通じて示すことを重視しています。
組織には、フレームワークの使用方法を透明に開示し、実世界の状況への対応をケーススタディとして共有することが求められます。これにより、他の組織がベストプラクティスを学び、同様の課題に直面した際の参考とすることができます。
このような透明性の文化は、安全性の文化を構築する上で不可欠です。私たちは、他のセクターでの経験から、安全性の文化を築くためには透明性と開示の文化が必要不可欠であることを学んでいます。組織が実際の適用事例や、直面した課題とその解決方法を共有することで、コミュニティ全体が学び、成長することができるのです。
私たちは、これらのケーススタディを通じて、リアルタイムで何が機能し、何が機能していないかを理解し、ベストプラクティスを発展させることができます。これは、責任あるAI開発のための実践的な知識の蓄積に貢献しています。
3. AIと労働力の関係性
3.1. 「必然性」の神話への反論
AIと労働力の関係性について、私が特に注目しているのは、AI開発に関する議論の中で、唯一「必然性」という空気が漂っている分野だということです。「ロボットが来て私たちの仕事を奪う」「ユニバーサルベーシックインカムを考える必要がある」といった議論が、まるで避けられない未来であるかのように語られています。
私たちは、このような必然性という考え方を明確に否定しています。なぜなら、企業や雇用者、労働組織、政策立案者には、AIを労働者の能力を補強する形で開発し、導入するための選択肢があるからです。また、技術開発の段階で労働者の声を反映させることで、より効果的なシステムを構築することができます。
この問題は非常に複雑です。単なる教育や再訓練の問題ではありません。むしろ、これらのシステムをどのように測定し評価するか、人々のために機能する開発に焦点を当てているかを確認する必要があります。私たちは「共有された繁栄のためのガイドライン」を発行しましたが、これは労働者自身へのインタビューと研究に基づいて、職場でのAI導入が有益だった場合とそうでない場合を明確に理解するために作成されたものです。
労働者がAIシステムと協働することの価値を認識するのは、それが創造性を高め、意思決定の機会を増やし、より革新的な方法で仕事にアプローチできる場合です。逆に、単純作業や反復作業に追い込まれたり、システムを通じて監視されているように感じる場合には、効果的に機能しません。これらの洞察を基に、システムを展開する際の明確な選択肢を提示することが重要なのです。
3.2. 労働者視点からの有益なAI導入事例の研究
私たちは、労働者へのインタビューと研究を通じて、職場でのAI導入が実際にどのように機能しているのかを詳細に調査しました。この調査から、AIシステムが労働者にとって真に価値があると認識される具体的な状況が明らかになりました。
特に注目すべき発見は、労働者がAIシステムと協働することで創造的な機会が増えた場合に、高い満足度が得られるということです。例えば、AIシステムが定型的な作業を支援することで、労働者がより戦略的な意思決定に時間を割けるようになったケースがありました。また、AIシステムを使用することで、より革新的な方法で仕事にアプローチできるようになったという報告も多く見られました。
一方で、これらの導入が成功しなかったケースも明確に特定されています。特に、AIシステムが労働者を単純な反復作業に追い込んだり、過度な監視ツールとして使用されたりした場合には、否定的な結果となりました。このような失敗事例からも、重要な教訓を得ることができました。
成功事例に共通する重要な要素は、労働者が技術との関係において主体性を保持していることです。AIが労働者の判断や創造性を支援するツールとして機能し、労働者自身が意思決定の機会を保持している場合に、最も効果的な結果が得られています。これらの知見は、私たちの「共有された繁栄のためのガイドライン」に具体的に反映されており、今後のAI導入の指針として活用されています。
3.3. 実験的アプローチの重要性
職場へのAI導入を考える雇用者にとって、私が強調したいのは実験的なアプローチの重要性です。単にコスト削減のために一気にAIを導入するのではなく、実験的な方法で新しい技術を試験的に導入し、労働者の声を聞きながら進めていくことが重要です。
具体的には、まずパイロットプログラムを実施することから始めるべきです。これは、「AIがこれだけのコストを削減できる」という単純な思考で全面展開するのではなく、特定の部門や工程で試験的に導入し、その効果を慎重に評価する approach です。
私たちの経験から、多くのAIシステムが導入時に失敗する主な理由は、職場環境への導入や、リスク管理の観点からの検討が十分になされていないことにあります。この課題に対処するために、段階的な導入アプローチが効果的です。各段階で発生する課題を特定し、解決策を見出しながら、次の段階に進むことができます。
特に重要なのは、労働者からのフィードバックを継続的に収集することです。実際にシステムを使用する労働者の声を聞き、彼らの経験から学ぶことで、より効果的なシステムの導入が可能になります。このフィードバックは、システムの改善だけでなく、労働者のニーズに合わせた調整や、新たな機会の発見にもつながります。
3.4. 新しい機会創出の可能性
AIの導入により、労働者の業務の30%が置き換えられる可能性があると指摘されています。しかし、私たちの視点では、これは単なる業務の削減ではなく、新たな価値を創造する機会として捉えるべきです。労働者全体を削減するのではなく、解放された時間とリソースを、より創造的で価値の高い活動に振り向けることができます。
私たちは、AIをイノベーションと生産性向上の触媒として活用することを提案しています。例えば、ヘルスケアや環境の持続可能性といった世界的な課題に対して、AIは変革的な可能性を秘めています。すでに予測AIの分野では、科学的プロセス全般にわたってAIが統合され始めており、様々な分野でブレークスルーを支援しています。
成長志向のAI導入アプローチにおいて重要なのは、コスト削減だけでなく、新しい市場の開拓や有益な成果の創出を目指すことです。そのためには、企業が実験的な方法でAIを導入し、革新的な使用方法を探索することが重要です。このアプローチは、単なる効率化を超えて、より大きな機会を見出すことを可能にします。
私たちは、AIと人間が協働することで、より大きな価値を生み出せると確信しています。AIは特定のタスクを置き換えることはできても、労働者全体を置き換えることはできません。むしろ、AIとの協働を通じて、労働者はより創造的で戦略的な役割を担うことができ、これが組織全体の成長につながるのです。
4. オープン性と透明性の文化構築
4.1. 失敗事例の共有の重要性
私たちは、AIの失敗事例から学ぶことの重要性を強く認識しています。他のセクターでの経験から、安全性の文化を構築するためには、透明性と開示の文化が不可欠であることを学んでいます。過去25年間のAI分野では、通常、技術開発者や推進者の一方的な視点のみが共有され、それに対する反論が極端な形で示されるという、非常に分極化された対話が行われてきました。
最近、私は興味深い例を目にしました。あるYouTubeの動画で、企業が顧客注文の処理でどのようなミスを犯し、それをどのように修正したのかを公開していました。彼らは失敗事例を積極的に共有し、そこからの学びを示すことで、多くの視聴者の関心を集めていました。これは、失敗を隠すのではなく、それを学習の機会として活用する良い例です。
このような透明性の文化は、特に現在のような急速な技術発展の時期において重要です。学習と適応のスピードが極めて重要な時期だからこそ、うまくいかなかったことを共有する必要があります。昨年のオープンモデル、オープンソースモデル、クローズドモデルの安全性に関する議論を振り返ると、オープン性の問題は単なる技術的な課題ではなく、AI開発エコシステム全体における共有と学習の文化をどのように構築するかという問題であることが分かります。
実際の失敗事例を共有し、その解決策を示すことは、他の組織が同じ失敗を避けるのに役立つだけでなく、業界全体の信頼性を高めることにもつながります。このような透明性は、AIシステムの改善と、社会全体の理解促進に貢献するのです。
4.2. インシデント報告メカニズムの開発
私たちは数年前、研究者たちと協力して、AIインシデントの報告メカニズムの開発に取り組みました。このメカニズムは現在、活発に運用されており、大きな成果を上げています。特に嬉しいことに、この取り組みは現在、G7やOECDが進めているフロンティアモデルやファウンデーションモデルに関する枠組みの中でも、重要な要素として認識されています。
インシデント報告の仕組みは、システムが実際に展開された後に何が起こっているのかをより良く理解し、それを共有するための重要なツールとなっています。この報告システムを通じて、私たちは単に問題を特定するだけでなく、それらの問題から学び、改善策を見出すことができます。
報告システムの運用において特に重要なのは、インシデントを単なる失敗として扱うのではなく、学習の機会として捉えることです。私たちは、他のセクターでの安全性確保の経験から、透明性と開示の文化が安全性の文化を構築する上で不可欠であることを学んできました。
このメカニズムを通じて収集された情報は、実際の展開環境でAIシステムがどのように機能しているのか、どのような課題が発生しているのかを理解する上で貴重な資源となっています。これらの知見は、今後のAI開発と展開における重要な指針となり、より安全で効果的なシステムの構築に貢献しています。
4.4. 市民参加の重要性
オープン性の最後の重要な要素として、私たちは市民参加の促進に力を入れています。これは単なる形式的な参加ではなく、技術開発プロセスに市民の声を実質的に反映させることを意味します。特に、これらのツールが市民に対してではなく、市民のために機能するようにするためには、開発プロセスの早い段階から市民の参加を確保することが重要です。
私たちは、技術開発プロセスにおいて市民の声をどのように取り入れるかについて、実践的なアプローチを採用しています。市民が技術開発のプロセスに関与し、その技術が自分たちのために機能してほしい方法について発言できる機会を作ることが重要です。
対話型の技術開発アプローチにおいて、市民は単なる技術の受け手ではなく、積極的な参加者として位置づけられます。私たちは、技術が彼らに対して働くのではなく、彼らのために働くようにするためには、市民との継続的な対話が不可欠だと考えています。
このような市民参加のアプローチは、透明性と説明責任の文化を強化するだけでなく、より良い技術開発につながります。市民の声を直接聞くことで、技術の実際の影響や必要な改善点をより正確に理解することができ、それによってより効果的で有益な技術の開発が可能となります。
5. グローバルガバナンスと包括性
5.1. 先進国以外の声の統合
今日、グローバルサウスの多くの労働者は、グローバルノースで開発された技術の消費者となっています。このような状況において、彼らの声をグローバルガバナンスの議論に取り入れることは極めて重要です。
私は特に、今年9月の国連総会で見られた動きに勇気づけられています。G7や各国で設立されている安全性研究機関など、従来の議論の場に含まれていなかった多くの国々の声を、グローバルガバナンスの議論に取り入れようとする大きなイニシアチブが立ち上がりました。
私たちは、グローバルサウスの視点を理解するため、現地の組織との対話を重ねています。技術がどのように機能しているのか、またどのように機能してほしいのかについて、彼らの意見を直接聞く機会を設けています。これには、地域の企業や新興企業から、技術を開発している学術機関まで、幅広い関係者が含まれます。
特に重要なのは、多様な視点の統合方法です。単に意見を聞くだけでなく、それをどのように実際の政策や開発プロセスに反映させていくかが課題となっています。これは、真にグローバルな対話と協力を実現するための重要なステップだと考えています。
5.2. 国連との協力関係
今年9月の国連総会は、私たちにとって画期的な機会となりました。G7や各国の安全性研究機関の議論の場に含まれていなかった多くの国々の声を、グローバルガバナンスの議論に取り入れようとする大きなイニシアチブが立ち上がったのです。
特に注目すべきは、国連事務総長への諮問機関による報告書の発表です。この報告書は、AIのグローバルガバナンスについて、これまでになく包括的な視点を提供しています。従来の技術先進国中心の議論から脱却し、より広範な国際社会の声を反映させようとする試みとして、私は非常に心強く感じています。
グローバルガバナンスの枠組み構築において、私たちは国連を通じて多くの声に耳を傾けています。特に、これまでAIの開発や展開に関する議論から除外されてきた国々の視点を積極的に取り入れることを重視しています。これらの国々の多くは、現在グローバルノースで開発された技術の消費者となっていますが、その声が十分に反映されていない状況にあります。
このような包括的なアプローチを通じて、私たちは真にグローバルなAIガバナンスの枠組みを構築しようとしています。これは単なる形式的な国際協力ではなく、実質的な対話と相互理解に基づく新しい形のガバナンスを目指すものです。
5.3. 多言語データセット開発の取り組み
私たちは、グローバルな視点からAI開発を進める中で、言語の多様性が重要な課題であることを認識しています。西洋中心のデータセットでは、世界の多くの言語や文化が適切に反映されないという問題があります。
非西洋言語のデータセット開発において、多くの学術機関や組織が革新的な取り組みを行っています。これは単なるデータの収集以上の意味を持ちます。各言語が持つ独自の特徴や文化的な文脈を理解し、それを適切にデータセットに反映させることが重要です。
言語の多様性を確保する取り組みは、技術的な課題であると同時に、文化的な挑戦でもあります。私たちは、各地域の組織と協力して、その地域の言語や文化的特性を活かしたデータセットの開発を支援しています。これは、西洋中心のAI開発から、真にグローバルで包括的な開発へと移行するための重要なステップです。
このようなインクルーシブな技術開発アプローチは、AIの便益をより広く、より公平に分配することを可能にします。現在のグローバルノースで開発された技術の単なる消費者としての立場から、各地域が主体的に技術開発に参加できる環境を整備することが、私たちの重要な使命となっています。
6. イノベーションと責任のバランス
6.1. 企業が直面する課題
私の経験から、現在多くの企業がAIの展開とリスクの解消について、ある種の孤独感を感じていることを認識しています。企業は、生産性の向上と顧客サービスの改善を追求しながら、同時にこれらのシステムの展開に伴うリスクにも対処しなければならないという課題に直面しています。
責任ある導入の実践において、企業は単なるコスト削減だけでなく、より広い視点での価値創造を考える必要があります。現在の課題は、企業がこれらの技術をどのように安全に、そして責任を持って展開できるかということです。しかし、この判断を個々の企業が単独で行うことには限界があります。
特に重要なのは、企業が単独でこれらの課題に取り組もうとするのではなく、同じような課題に直面している組織のコミュニティがあることを認識することです。私は、企業がこれらの質問について一緒に取り組み、リアルタイムで何が最善の実践となるかを見出していく必要があると考えています。
責任ある技術の展開とイノベーションは、私たちが考えるような二項対立ではありません。むしろ、安全性と責任を持って開発を進めることが、新しい市場を開拓し、有益な成果を生み出すための基盤となるのです。このバランスを取ることは確かに難しい課題ですが、それは個々の企業が孤立して解決できる問題ではありません。
6.2. コミュニティ学習の重要性
私たちがPAIで行っている活動の重要な理由の一つは、まさにこのコミュニティ学習の促進です。同じような課題に直面している組織のコミュニティが存在し、リアルタイムで何が最善の実践となるかを一緒に見出していく必要があります。
企業間の経験共有は、単なる成功事例の共有以上の価値があります。特に、技術の展開やリスクの解消について企業が感じている孤独感を解消する上で重要です。生産性の向上と顧客サービスの改善を追求しながら、システムの展開に伴うリスクにも対処するという課題に、企業は共に取り組むことができます。
ベストプラクティスの開発においては、実際の適用事例から学ぶことが重要です。私たちは、組織がどのようにフレームワークを使用し、実世界の状況に対応しているかを共有することで、他の組織が同様の課題に直面した際の参考となる実践例を提供しています。
実時間での学習と適応は、特に現在のような急速な技術発展の時期において極めて重要です。私たちは、企業がこれらの質問について一緒に取り組み、リアルタイムで最善の実践を見出していけるような場を提供しています。これにより、個々の組織が独自に解決策を見出そうとする場合よりも、より効果的に課題に対処することが可能となります。
6.3. 実践的な導入ガイドラインの開発
私たちは、研究開発からポスト展開の監視に至るまで、開発と展開のエコシステム全体にわたる22のポイントでのガイドラインを作成しました。これは、リスクに意識的に対処し、適切なガードレールを設置するためのものです。
事前・事後のモニタリング方法については、既存の金融サービスセクターなどで実践されている開示要件を参考にしています。特に、大規模なモデルの展開においては、どのような種類の開示体制が必要となるのか、詳細な検討を行っています。私たちは、システムが展開された後の実際の影響を理解し、それを継続的に監視することの重要性を強調しています。
リスク評価とガードレールの設置においては、技術的な対策だけでなく、社会的な影響も考慮に入れています。これには、AIシステムの開発者、展開者、プラットフォーム事業者それぞれの責任の明確化が含まれます。特に重要なのは、技術が悪用されたり、害を及ぼすような方法で使用されたりすることを防ぐための具体的な保護措置です。
段階的な導入プロセスについては、実験的なアプローチを推奨しています。一気に全面展開するのではなく、パイロットプログラムを通じて段階的に導入し、各段階での学習を次のステップに活かしていくことが重要です。これにより、リスクを最小限に抑えながら、効果的な導入を実現することができます。
7. 今後の展望と機会
7.1. AI実験の重要性
私が企業に対して最も強調したいのは、AIに関する実験を開始することの重要性です。現時点でAIがお客様にとって何ができるのか、何ができないのかを理解するために、低リスクで高価値な方法での実験を可能な限り早く始めることを推奨しています。
技術を使えば使うほど、その技術が自分たちにとって何ができるのか、そして何ができないのかをより深く理解することができます。私たちの経験から、直接的な実践を通じた学習が最も効果的であることが分かっています。特に、生成AIのような新しい技術は、実際に使用してみなければその可能性と限界を本当に理解することは難しいのです。
組織的な実験アプローチにおいては、単にコスト削減のために全面的な展開を行うのではなく、特定の部門や工程で試験的に導入し、その効果を慎重に評価することが重要です。多くのAIシステムが導入時に失敗する主な理由は、職場環境への導入やリスク管理の観点からの検討が十分になされていないことにあります。
実験を通じて得られた知見は、より大きな展開のための貴重な基礎となります。イノベーションと責任のバランスを取りながら、組織は実験から学び、その学びを次のステップに活かしていくことができます。これは、AIの安全で効果的な導入を実現するための最も確実な道筋だと私は考えています。
7.2. 過信のリスク
AIシステムに関して私たちが特に注意を払うべき点の一つは、コンピュータやマシンを通じて提供される情報に対して、人間が過度の信頼を置く傾向があることです。これは、AIシステムへの過信というリスクとして認識する必要があります。
私たちの研究から、AIシステムが失敗するのは、主にそれらが職場環境に適切に統合されていない場合や、リスク管理の観点から十分な検討がなされていない場合だということが分かっています。このため、AIシステムとの適切な信頼関係を構築することが極めて重要です。
バランスの取れた導入アプローチとして、私たちは実験的な方法を推奨しています。AIシステムを導入する際には、その能力と限界を十分に理解し、人間の判断や創造性を補完するツールとして位置づけることが重要です。システムが提供する情報や推奨事項を鵜呑みにするのではなく、適切な批判的思考を維持することが必要です。
AIが現在でもまだ幻覚(ハルシネーション)や他の課題を抱えていることを認識することも重要です。これらの技術は確かに大きな可能性を秘めていますが、完璧ではありません。そのため、期待される成果を得るためには、人間の監督と判断が依然として不可欠なのです。
7.3. 技術と人間の適切な関係構築
私はAIが持つ変革的な可能性を信じています。特に医療や環境の持続可能性といった世界的な課題に対して、AIは重要な役割を果たすことができます。しかし、この可能性を実現するためには、技術と人間の適切な関係を構築することが不可欠です。
補完的な関係性の構築において重要なのは、AIを人間の判断や創造性を支援するツールとして位置づけることです。例えば、私が愛用しているMerlin Bird Appは、ぼんやりした鳥の写真や鳥の鳴き声からその種類を特定してくれます。これは、AIが人間の能力を補完し、より豊かな体験を可能にする良い例です。ただし、最終的に鳥を見つけ出すのは人間の役割であり、AIはその支援をする存在なのです。
人間中心の技術開発においては、技術が人々に対してではなく、人々のために機能することが重要です。私たちの研究から、AIシステムが最も効果的に機能するのは、それが労働者の創造性や意思決定能力を高め、より革新的な方法で仕事にアプローチできるようにする場合だということが分かっています。
持続可能な共存関係の確立のためには、技術の限界を理解し、人間の役割を明確にすることが重要です。AIは確かに多くのタスクを支援できますが、人間の判断や創造性、倫理的な考察を置き換えることはできません。このバランスを保つことが、長期的に持続可能なAIの活用につながるのです。