※本記事は、Thomas氏(OriginTrail共同創業者)、Laura Bishop氏(英国規格協会(BSI)AIおよびサイバーセキュリティ担当セクターリード、ヒューマンファクター・サイバー心理学者)、Mark Fewel氏(BSIグローバル・デジタル・ディレクター)が登壇したウェビナー「Shaping AI for good: Ethics, regulation, and standards for a human-centric future」の内容を基に作成されています。ウェビナーの詳細情報は https://www.youtube.com/watch?v=x5GZYp3IsQA でご覧いただけます。本記事では、ウェビナーの内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルのウェビナーをご視聴いただくことをお勧めいたします。
1. 開会・登壇者紹介と問題提起
1.1 ウェビナーの趣旨——AIが技術革新であると同時に社会変革であること
Thomas: 本日はお集まりいただきありがとうございます。これから数十分間、非常に重要なテーマについて一緒に考えていきたいと思います。私たちが今日取り上げるのは、人工知能という技術です。AIは今まさに世界を席巻しつつありますが、それは単なる技術革新としてではなく、社会全体に対してきわめて大きなインパクトをもたらす変革として捉える必要があります。今日の議論では、AIの技術的な側面や強みについて触れるだけでなく、こうした技術的進歩をいかに「善のための変革」へと結びつけられるかという視点を中心に置きたいと思います。これは、現在の時代状況を踏まえれば、非常に広く共有されている切実な問いかけだと感じています。具体的には、ヒューマンセントリズム——AIをいかに人間中心のものにするか——、倫理的な影響、そして規制や標準がそれにどう貢献できるかといったテーマを扱っていきます。
1.2 三者の自己紹介と専門領域——Thomas(OriginTrail)、Laura Bishop(BSI)、Mark Fewel(BSI)
Thomas: 私はThomasと申します。OriginTrailの共同創業者の一人です。OriginTrailは、信頼と透明性に特化したエコシステムで、この分野に取り組んで約10年になります。私たちが注目してきたのは、透明性こそが最良の「消毒剤」として機能するという考え方です。透明性があれば、時間をかけて本物の価値が浮かび上がってきます。技術的には、いわゆる「古き良き」AIに相当するシンボリックAIのアプローチ、具体的にはナレッジグラフを中心に取り組んできました。特に2018年に立ち上げた分散型ナレッジグラフは、現在さまざまな領域のグローバルリーダーたちに活用されています。
Laura: 私はLaura Bishopと申します。現在はBSI(英国規格協会)に所属しています。BSIは英国政府から任命された英国の国家標準化機関であり、「公正な社会と持続可能な世界の実現に向けて、標準の策定を通じてインパクトをもたらす」ことを使命としています。私のBSIにおける具体的な役割は、AIとサイバーセキュリティを担当するセクターリードです。この二つは、非常に重要かつ相互に密接に関連するテーマです。私の役割を一言で表すなら、標準化の世界と社会とをつなぐ「結節点」です。標準が必要だと気づくところから始まり、標準の採用を促進し、その恩恵が現実のものとなるよう支援するという一連のプロセス全体に関わっています。専門的な背景としては、心理学者であり、特にサイバー攻撃に対する人間の脆弱性をテーマにした博士号を持っています。研究領域は、ロボットとの人間の相互作用、サイバーセキュリティ、そしてAIにまで及びます。当時はいずれも心理学の中では非常に新しい分野でした。BSI入社以前は、長年にわたってアカデミアと産業界の接点に立ち、「人間とテクノロジーの相互作用について何を知るべきか」そして「より確固たる研究成果を待たずとも、今わかっていることをどう応用できるか」を追い続けてきました。その中では、チャットボット、ディープフェイク、AIを活用したソーシャルエンジニアリング、AIロボットといったテーマも扱ってきました。
Mark: 私はMark Fewelと申します。BSIのグローバル・デジタル・ディレクターを務めています。BSIについてはLauraがすでに説明してくれましたので、私の役割に絞ってお話しします。私が担っているのは、BSI自身がデジタルソリューションをどう活用するかという内部的な側面と、BSIが外部世界における安全なデジタル活用にどう影響を与えていくかという外部的な側面の両方です。後者には、Lauraが触れた標準化活動も含まれますし、企業がその標準を実際に組織に取り込み、認証を取得し、完全かつ確実に採用できるよう支援することも含まれます。AI以外にも、量子コンピューティングやIoTといった破壊的技術にも関与しています。以前はBSI内でEUのAI法(AIアクト)への対応を担うAI規制サービス事業部門の立ち上げに携わっていました。
1.3 ヒューマンセントリックAIの定義——人間とインテリジェントシステムの協調と相乗効果
Laura: ヒューマンセントリックAIとは、人間とインテリジェントシステムの間の協調と相乗効果に焦点を当てるという考え方です。これが重要なのは、AIには非常に大きな「善」をもたらす能力がある一方で、私たちの知識の在り方そのものを根本から変えてしまうような、まさに画期的なレベルで物事を変える力も持っているからです。たとえば、人々はこれまでWikipediaのようなものを知識の源として活用してきましたが、今やチャットボットが新たな情報源として台頭してきています。しかしチャットボットは、約27%の確率でハルシネーション——つまり事実と異なる情報の生成——を起こすと言われています。そうなると、そこから得られる知識をどこまで信頼し、どこまで行動の根拠にできるのかという問いが生じます。さらに見落としてはならないのは、AIが健康・福祉、教育、平等、環境、司法といった領域に対してポジティブにもネガティブにも影響を与えうるという点です。こうした重大な領域において、AIの設計・開発・運用のあらゆる段階で人間が十分に考慮されないままAIが影響力を持つことは、誰も望まないはずです。
Mark: 私もLauraの意見に完全に同意します。AIは他のあらゆる道具と同じように捉える必要があります。印刷機からインターネットに至るまで、道具は常にそうであったように、AIも人間の能力を拡張するものであるべきで、代替するものであってはなりません。そのためには、人間がAIをどう採用するか、人間の幸福や公正さをそのエコシステム全体のライフサイクルの中心に置くことが不可欠です。車を設計する際に「人間がどう使うか」「どう人間を安全に保つか」を考慮しないことはありえません。AIも同じです。技術のための技術ではなく、人間の問題を解決することを出発点にしなければなりません。一方で、課題もあります。倫理や公正さといった、きわめて人間的な概念をコード化しようとすること自体が難しい。哲学者たちが何千年もかけて議論してきたにもかかわらず、「倫理とは何か」「何が倫理的か」について一致した見解がまだ得られていないわけですから。全員が同じ方向を向いて取り組むことを確実にする、それ自体が大きなチャレンジです。
Thomas: そしてさらに「速度」というベクトルも考慮しなければなりません。AIの進化のスピードは、どんなアプローチも瞬く間に時代遅れにしかねない。BSIの皆さんの部門が互いに連携しながら、その点を標準や規制の提案に反映させようとしているのは、まさにそのためだと思います。
2. AIリスクの全体像と倫理的実装への障壁
2.1 AIが及ぼす社会的影響と主要リスク——ハルシネーション・ディープフェイク・AIリテラシー不足・自律性の侵害
Thomas: AIが引き起こしうるリスクにはさまざまな形があります。ハルシネーション(幻覚)という意味では、意図的なものか否かを問わない誤情報の拡散、ディープフェイク、知的財産の侵害、そして長期的なバイアスの蓄積といった形で現れます。これらはそれぞれ異なる経済的・個人的影響を社会に与えますが、Lauraに伺いたいのは、今この瞬間、最も差し迫った懸念はどこにあるのか、あるいはどう優先順位をつけて考えるべきかという点です。
Laura: リスクの測定が難しいのは、同じリスクでも人によって意味するものがまったく異なるからです。人間のリスク認知を測定する際には、二つの軸を見ます。一つは「何かが起きる確率」、もう一つは「実際に起きた場合の深刻さ」です。そしてこの深刻さの捉え方も、個人と組織とでは見え方が異なります。組織にとっての最大の懸念としてまず挙げられるのはディープフェイクです。技術的にも心理学的にも、この問題を解決するための確固たる答えがまだ存在していないという点で、特に深刻です。テクノロジーが進歩し続ける中で、その対応策もいまだ十分に確立されていません。
ただ私自身が日頃からより強く懸念しているのは、もっと目に見えにくいリスクです。その筆頭が「AIリテラシーと能力の欠如」です。これは小学生から始まり、組織の取締役会レベルに至るまで、あらゆる層に存在する問題です。AIに関する意思決定を行う責任を持つリーダーたちが、そもそもAIとは何か、どのように機能するのかさえ理解していない場合があります。次に深刻なのが、人間の認知と自律性に関わる問題です。人々はどの時点でAIと対話しているのかを認識できているでしょうか。たとえばカスタマーサービスにおいて、対応が人間からAIへ、またAIから人間へと切り替わることがあります。しかし人は、人間には特定の質問をし、AIには別の質問をするという形で、相手によって信頼の置き方を変えています。もし切り替わっていることに気づかなければ、適切な判断ができなくなります。
具体的な例として、Alexaのようなシステムがあります。AIを使った有料プランを解約した場合、よりベーシックなAlexaに戻るのかもしれませんが、そのことをユーザーは知らされているでしょうか。人はAIかどうかによって問いかける内容を変えるため、そのことは非常に重要な意味を持ちます。同様に、AIを搭載したウェアラブルデバイスにも問題があります。Ring Doorbellには、設置した場合には監視中であることを示すステッカーを窓に貼るべきとされています。では、グラス型デバイスやAIネックレスのようなウェアラブルを使って周囲の人を記録しているとき、その場にいる人々は知らされているのでしょうか。自律性の観点から言えば、もし職場でAIの使用が求められている場合、使わないという選択肢はあるのでしょうか。こうした「忘れられがちな側面」こそが、今最も懸念すべき領域だと考えています。
Thomas: システムの説明可能性(Explainability)も非常に重要な問題です。多くの組織が、AIを試してみたものの期待通りの結果が出なかった、あるいは想定していなかったリスクが生じたという経験をして、落胆しています。システムがどのようにして特定の出力を導き出すのかが説明できない状態では、透明性も情報の来歴も担保できません。また、データの所有権という問題もあります。ある特定のサービスを利用しているのは、それが便利だからであって、自分が何にサインアップしているかを十分に理解したうえでの選択ではない場合があります。本当に自分の意思でそのサービスを選んでいるのか、それとも単に便利だから使っているだけで、実態をよく把握していないのか——この問いは非常に重要です。
Laura: BSIでは現在、コンテスタビリティ(結果への異議申し立て)に関するプログラムのフェーズ2に取り組んでいます。人々が異議を申し立てる際の手続きはどうあるべきか、異議申し立て後の判断を誰が下すのか、そして人々は何に対して異議を申し立てているのか——使用されたデータに対してなのか、あるいはAIシステムが廃止されることで自分たちの生活に深刻な影響が及ぶという事実に対してなのか——こうした多くの問いに答えようとしています。
2.2 倫理的AIを実装する上での組織的・構造的障壁——規制の断片化、速度の問題、データの倫理的偏り
Thomas: 心も姿勢も資金も正しい方向に向いていて、倫理的なAIの未来を本気で実現しようとしている組織があるとします。そういった組織にとっての障壁はどこにあるのか、あるいは幸福なシナリオとSkynet的なシナリオの分岐点はどこにあるのか——Markはどうお考えですか。
Mark: まず、意志という点では、AIに関わる業界の人々の多くは正しい動機を持っていると感じています。私自身の経験でも、AIを「善のため」に使いたいという思いからこの分野に入った人が多く、だからこそ倫理的な課題にも向き合おうとしています。BSIでAI規制とアシュアランスを担うチームを採用する際、優秀なAI人材を引きつけることが最大の課題になると予想していましたが、実際には質の高い人材が集まり、驚くとともに大変嬉しく思いました。その背景にあるのは「正しいことをしたい」という強い意志と、AI倫理という難問に最前線で取り組むことへの知的な魅力です。AIにおける最大の課題は技術的なものではなく倫理的なものであり、まさにそこが多くの優秀な人材を引きつけているのだと感じています。
ただし、障壁も確実に存在しています。一つ目は、現在の議論の構図が有害だという点です。規制や政府の議論、メディアの報道においても、「倫理とコントロール」対「イノベーション」という二項対立として語られることが多すぎます。あたかもどちらか一方しか選べないかのように。しかし私はこれを、表裏一体のものだと考えています。真のイノベーションを実現するためには、信頼が根本的な前提条件です。信頼がなければ、投資家も集まらず、クライアントも得られず、サプライチェーンとも連携できません。イノベーションのための土台となるのは、実証可能な信頼なのです。
二つ目の障壁は、スピードです。AIの進化が非常に速いため、規制側も標準化機関もAI業界自体も追いつくのに必死です。その結果、現在は著しい断片化が生じています。国際的な規制だけでもすでに100を超える異なる取り組みが存在し、それぞれが異なるアプローチをとり、相互の整合性も限られています。AIはボーダーレスであり、「この製品はこの法域、あの製品はあの法域」という線引きが明確にできません。特にグローバルに製品を販売しようとするスタートアップには専任のコンプライアンスチームもなく、国際的な規制が整合していなければ適合することが非常に難しい状況です。
三つ目は、AI技術そのものの技術的複雑性です。高度で最先端の技術であるがゆえに、独自の規制・アシュアランスの枠組みが必要です。たとえばデータセットやアルゴリズムのバイアスを検出するためのアルゴリズム監査は、それ自体のためのツールが必要であり、昨日の手法が明日には通用しないという現実があります。
四つ目として、業界ごとの成熟度の違いがあります。医療機器業界は数十年にわたって規制に慣れており、コンプライアンスの手順も熟知しています。一方、AIの登場によって生まれた新興産業、たとえば生体認証識別などは「テクノロジーファースト」で動いており、規制にどう対応すべきか、ガバナンスのプロセスをどう踏むべきかを内部で理解するリソースや能力を持っていないことが多いです。
そして最後に、学習データの問題があります。現在の大規模モデルの学習データの多くはインターネットから取得されています。しかしインターネット上のコンテンツが必ずしも倫理的なものの鑑であるとは言えません。その状態でAIを訓練すれば、最初から倫理的な観点で言えばハンデを背負っていることになります。意識と意志は業界全体に確かに存在しています。問題は、早急に整合を取り、人々がコンプライアンスを取りやすい環境を整えることです。
Thomas: 全面的に同意します。信頼性と信頼できるシステムがあれば、一度失望した組織でも一気に意欲が高まります。ただし、それが企業として使えるレベルに達していることが前提です。航空産業の例がよく当てはまると思っています。初期の飛行家たちは安全でない機体でも革新的な仕事をしていましたが、社会全体にとっての価値は、そうした個人の挑戦にあったのではなく、今日の空の旅を世界で最も安全な移動手段にしたガードレールと安全基準の整備にあったのです。AIにおいても同じことが言えると思います。安全で信頼できる使い方ができれば、特に非自明なユースケースにおいて、それが社会全体への価値創出の起爆剤になる。ガードレールの整備こそが、AIの可能性を最大限に引き出すための鍵になるはずです。
3. OriginTrailによる技術的アプローチ——検証可能AIの実装
3.1 純粋な生成AIが抱えるパスロジーと解決の方向性——情報来歴・データ所有権・モデル崩壊
Thomas: ここからは、AIを倫理的かつ実用的に実装するための具体的な方法について、OriginTrailの観点からお話しします。まず出発点として、純粋なニューラルネットワークや生成AIモデルが本質的に抱えているパスロジー(病理的問題)を整理したいと思います。
最初の問題はハルシネーションです。これはすでに議論に出てきましたが、技術的な観点から補足すると、純粋な生成モデルの出力はすべて「生成されたもの」です。つまり確率論的なシステムであり、統計的に最も高い確率を持つものが出力として生成される仕組みになっています。ある出力が一人にはハルシネーションに見えても、別の人には求めていたものに見えることがあります。これは情報の来歴が存在しない——つまり出力が何に基づいているかを追跡できない——という問題と直結しており、説明可能性が担保できない状態を生み出します。
二つ目はバイアスと誤情報です。特定のシステムを盲目的に信頼することで、意図的に誘導されたレスポンスを真実として受け取ってしまうリスクがあります。動機を持った誰かがシステムに偏った情報を注入した場合、その情報がそのまま真実であるかのように提示され、ユーザーはそれに基づいて行動してしまいかねません。
三つ目は知的財産侵害とデータ権利の問題です。これは今日ではある種「ビジネスのコスト」として半ば容認されているような状況になっていますが、私はこの状況が将来的に大きく変わると見ています。AIが消費できる形で知識や技術を整備すること、そしてその消費に対して正当な対価が支払われる仕組みを作ることは、信頼できるAIエコシステムの観点からも非常に大きな価値を持つはずです。
四つ目はモデル崩壊(Model Collapse)です。これは少し将来的な問題ですが、すでに科学的な文献で広く取り上げられている課題です。現在の大規模モデルはパブリックなデータを学習に使っていますが、今やインターネット上のコンテンツにはAIが生成したデータが人間が生成したデータよりも多くなるという転換点が近づいています。AI生成データは合成的であるため、データセットとしての多様性に乏しくなりがちです。ニューラルネットワークにとって「外れ値」——つまり統計的に稀なデータポイント——は、有効な確率分布を維持するために不可欠な存在です。しかしAI生成データが増えれば増えるほど、そうした外れ値が失われ、モデルが自分自身の出力から学習し続けることで品質が劣化し、最終的には崩壊するリスクが高まります。
これら四つの問題に共通する解決の方向性として、私たちが最も重要と考えるのは「情報来歴(Information Provenance)」と「データ所有権」の確立です。ある情報がどこから来たのかを追跡し、その出所を信頼できるものとして確認できる仕組みがあれば、それだけで倫理的なAI実装の出発点として大きな差別化要因になります。さらに、こうした情報来歴とデータ所有権の仕組みを、単一の企業や限られた主体だけでなく、インターネット規模で複数のデータソースや貢献者に広げることができれば、より民主化された形でAIの恩恵を分配できます。そしてこれを実現するうえで欠かせないのが「公正な価値交換とインセンティブの設計」です。「インセンティブを見れば結果がわかる」という言葉があるように、意図がどれだけ良くても、インセンティブが歪んでいれば長期的な均衡はインセンティブが指し示す方向に収束してしまいます。善意だけでは不十分であり、インセンティブの構造ごと正しく設計することが必要です。
3.2 分散型ナレッジグラフによる神経記号的AIの構造と実装事例
Thomas: では、こうした課題を踏まえて、安全で信頼できるAIを実際にどう構築するかについてお話しします。私たちは「人間の脳の構造」をアナロジーとして使うことがあります。脳の左側は、事実的・決定論的な処理、論理的推論、ルールベースの推論を担います。私たちはこれを「分散型ナレッジグラフ(Decentralized Knowledge Graph)」で表現しています。ナレッジグラフは、複雑な環境をデータとして記述するための非常に構造化された「世界モデル」であり、各データポイントには検証可能性とデータ所有者が紐づいています。つまり信頼できるAIを構築するための構成要素がすべて揃っているのです。
一方、脳の右側は創造的・確率的な処理を担います。これが生成AIに相当します。決定論的なものと確率論的なものを組み合わせること——これはまさに私たちが人間として思考する際にやっていることと同じです。情報を記憶のどこかに蓄積しておき、その上に新たな推論を積み重ねていく。この二つを組み合わせることで、非常に多くのエキサイティングなアプリケーションが実現できます。
このアナロジーをアーキテクチャとして垂直方向に展開すると、三つの層に整理されます。最下層は「信頼層(Trust Layer)」としてのブロックチェーンです。その上に「ナレッジベース層」としてナレッジグラフが位置し、さらにその上に「検証可能AI層」としてニューラルネットワークが組み込まれます。この構造によって、検証可能なAI(Verifiable AI)が実現できます。たとえば、世界各地の異なるデバイス——サーバーであれウェアラブルであれ——がそれぞれナレッジベースを持ち、その中でAIをローカルに動作させることができます。これはデータをデバイス外に出さないプライバシー保護の観点からも有効です。あるいは、分散型ナレッジグラフを介して複数のソースを統合し、すべてが検証可能でデータ所有者が明示された、複数のデータソースに基づく神経記号的AI(Neurosymbolic AI)のソリューションを構築することも可能です。どのビジネスモデルが最適かに応じて、さまざまな形で応用できます。
この技術は、このウェビナーのために新たに考案したものではありません。2018年から存在しており、すでに多くの強力なユースケースで実際に展開されています。具体的な事例をいくつかご紹介します。まずBSIとの協働により、Walmart、Home Depot、Costcoといった米国の大手小売業者へのセキュリティ監査の内容を保護し、共有する仕組みを構築しました。次に、スイス連邦鉄道(SBB)のユースケースがあります。彼らは分散型のリポジトリを活用して、サプライヤーとリアルタイムで鉄道部品に関する情報を交換しており、そのデータをAIシステムが必要な出力を生成するために利用しています。また食品・飲料のトレーサビリティ分野では、消費者が利用できる情報の充実と透明性の向上に同じ仕組みが活用されています。製薬分野では、寄付医薬品のサプライチェーンにおける透明性の大幅な向上を実現しました。
これらの事例が示しているのは、安全で信頼できるAIはすでに今日の技術で実現可能だということです。そして理想的には、こうした技術を使うことで、設計の段階から各種の標準や規制に準拠した「コンプライアンス・バイ・デザイン」の状態を実現できることを目指しています。これがOriginTrailの長期的な目標の一つです。
4. 国際的なAI規制の現状と標準化の役割
4.1 断片化する国際AI規制の比較——EUのAIアクト・英国・カナダ・中国のアプローチの違い
Mark: 規制の断片化については先ほど触れましたが、ここではその実態をより具体的にお示しします。直近の半年間だけを見ても、世界のAIガバナンスをめぐる状況は大きく変化しています。大きな流れとして、AIの安全性を重視する方向から、AIのイノベーションを推進するプロビジネス的な方向への揺り戻しが起きています。今年初めのパリサミットや、トランプ政権の大統領令もその流れの中にあります。私はこの揺り戻し自体が良いことだとは必ずしも思いません。安全性とイノベーションは対立するものではなく、どちらも必要です。一方から他方へと振り子のように揺れ続けることが、果たして建設的かどうかは疑問です。
現在存在する国際的なAI規制を俯瞰すると、最も進んでいるのはEUのAI法(AIアクト)です。中国が時系列的には先行しましたが、あれは中国国内に特化した規制です。EUのAIアクトはより普遍的な性格を持ち、EU域内で製品を販売したいと考えるすべての企業——EU域外に本社を置く企業も含む——に適用されます。リスクベースのアプローチを採用しており、AIが高リスクをもたらしうる分野、たとえば医療機器、自律走行車、生体認証識別など、人間への危害につながる可能性のある領域を横断的に規制します。これが「水平的規制」と呼ばれるアプローチです。産業ごとの違いを問わず、AIというレンズを通して横断的にリスクを見るという考え方です。カナダもEUのアプローチをできる限り踏襲しようとしています。
一方、英国は異なる方向性を選んでいます。「垂直的規制」と呼ばれるアプローチで、産業ごと・ユースケースごとに規制を設けるという考え方です。AIの産業横断的な使われ方があまりにも多様であるため、一律の水平的規制では対応しきれないという判断に基づいています。
もう一つの重要な軸は、規制の「距離感」です。一方の極には、原則ベース・ガイダンスベースの緩やかなアプローチがあります。もう一方の極には、より規定的で詳細なガイダンスを提供するアプローチがあります。また、適合性の確認をどう行うかという点でも違いがあります。第三者機関による適合性評価を求めるものと、企業が自己評価できるものとに分かれています。
こうした違いはあるものの、突き詰めれば各国の規制が守ろうとしているリスクの集合は共通しています。AIが言っていることを実際に実行するかどうかという信頼性、セキュリティ、データ保護、倫理基準への適合、バイアスからの自由、そしてトレーサビリティ——つまりシステムが約束した通りのことだけを行い、それ以上のことはしないという追跡可能性です。ここに標準化が介入する意義があります。
標準は合意形成に基づいて作られます。業界の利用者、開発者、アカデミア、市民・社会団体といった社会全体の代表が一堂に会して標準の内容を策定します。BSIに入る前の私には、標準化とは少数の業界専門家が部屋に集まって書き上げるものというイメージがありましたが、実際にはその真逆です。社会全体の幅広い声が反映される、真の意味での合意形成のプロセスです。そして標準は規制よりも機動的です。立ち上げのスピードが速く、エコシステムの変化に素早く対応できます。現在存在する多くの規制は、その根底に標準によって支えられており、標準は規制の代替としても機能しえます。一貫性の確保、信頼の醸成、相互運用性の実現——これらを推進する手段として、標準は非常に強力なツールです。
4.2 標準が規制を補完する仕組みと英国AI機会行動計画
Mark: 英国固有の動きとして、「AI機会行動計画(AI Opportunity Action Plan)」についても触れておきたいと思います。これは比較的最近発表されたもので、英国がAIの活用を促進しつつ、同時に適切な保護も確保するために何をしようとしているかを示しています。三つの柱から構成されています。
第一の柱は「AIの基盤整備」です。インフラと人材に関するもので、BSIはここで「Bridge AI」と呼ばれる英国全体のイニシアティブの一部として動いています。Lauraが先ほど述べたAIへの認知と理解の底上げ——AIについて学ぶ必要がある人々が確実に学べる環境を整えること——がこの柱の核心です。
第二の柱は「AIの普及推進」です。公共サービスへのAI組み込み、民間セクターの成果の底上げが中心で、保護よりも積極的な採用の促進に重きを置いています。
第三の柱は「国産AI」です。AIの生産をいかに自国内に引き込むかという課題で、最近の政治的な議論の文脈では、AIだけでなくスマートマニュファクチャリングも含めた生産のローカライゼーションの動きとして広がっています。
Thomas: 私たちOriginTrailとしても、こうした標準化や規制の取り組みに関与する機会をいただいてきました。欧州連合の枠組みの中でも、またビジネス標準にとどまらないデータ標準といった技術的な標準の領域でも、複数のステークホルダーを調整することの複雑さを実感しています。より俊敏で小回りの利く企業、長年の実績を持つ大企業、そして公的機関や政府機関——それぞれが異なる時間軸と優先順位を持っています。ただ、標準化されたアプローチにたどり着いたとき、OriginTrailの経験として言えるのは、スケールの仕方が根本的に変わるということです。個社のためだけに何かを実装するのではなく、より広い範囲にわたってインパクトを生み出せるようになります。ナレッジグラフ自体も、データの格納方法や構造化の方法について一定のルールを設けることができれば、AIをより確固たる基盤の上に乗せることができるという意味で、標準化の考え方ととても親和性が高いと感じています。
5. ソシオテクニカルシステム論とヒューマンセントリックAIの実践
5.1 ソシオテクニカル思想の四つの柱——技術・プロセス・人・文化とISO/IEC 42001
Laura: ここで、現在AIをめぐる議論の中でよく登場する二つの概念を整理しておきたいと思います。「ソシオテクニカルAI」と「ヒューマンセントリックAI」です。混同されることが多いのですが、それぞれに固有の意味があります。どちらも新しい言葉ではありません。ロボット工学やサイバーセキュリティの分野では長年使われてきた概念であり、今それをAIにどう適用するかが問われているのです。将来また別の新しい技術が登場すれば、同じ問いが繰り返されることになるでしょう。
ソシオテクニカルという哲学の根本は、「現実の状況の複雑さを理解し、効率性と人間性のバランスを見つける」ということです。物事をできる限り効率的に機能させたい、しかしそれは人間を考慮した方法でなければならない——この緊張関係を常に意識することがソシオテクニカルな思考の出発点です。ソシオテクニカルシステムはテーマによって形が異なることがありますが、その根底にあるのは常に「技術」「その技術を使うためのプロセス」「人」という三つの要素の相互作用です。たとえばプロセスとは、組織がそのシステムや機器をどう扱うかについての方針やドキュメントに相当します。
その後この枠組みに「文化」という概念が加わりました。人を個人として見るだけでなく、社会としての人を考えるということです。大きな組織の中に人が集まると、「ハーディング効果」や集団思考、規範といった現象が生じます。ある一定数の人が特定の行動を取ったり特定の見解を持ったりすると、周囲もそれに倣う傾向があります。技術の採用においても同じことが言えます。もしAIを使うことは良くないという空気が組織の中に生まれれば、誰も使わなくなります。いつ使うか、どう使うか、何のために使うかという文化的な規範が、技術の普及を大きく左右するのです。
ここで一つ重要な観点を加えたいと思います。イノベーションとヒューマンリスクへの配慮は二項対立だと思われがちですが、それは誤りです。イノベーションを哲学的に突き詰めると、それは「発明を人間に採用される形でマーケティングすること」です。発明とは技術を見つけて問題を解決できることを発見する部分であり、イノベーションとはそれを人間が採用する形に落とし込むマーケティングと普及の部分です。つまり人間が採用しなければ、イノベーションは成立しません。Humane社のAI Pinという製品を例に挙げましょう。期待されていたほどの普及がありませんでした。それは人々がそれを採用しなかったからであり、自分たちの目的に合っていないと感じたからです。どれだけ優れた技術であっても、人間にとって機能するものでなければ普及しない——これがイノベーションの本質です。
では、こうした考え方はすでに標準の中に落とし込まれているのでしょうか。答えはイエスです。Markが触れていたISO/IEC 42001——世界初のAIマネジメントシステム規格——は、まさにこの四つの柱を体系的に扱っています。技術については、AIに関連するリスクは何か、それをどう評価するかを規定しています。プロセスについては、誰が何に責任を持つか、どのような方針を策定すべきかを定めています。人については、技術を適切に活用するためにどのような能力が必要かを示しています。そして文化については、リーダーシップがどのような役割を担うか、組織全体にどう伝達するか、どれくらいの頻度でコミュニケーションを取るべきかを整理しています。
ISO/IEC 42001は情報セキュリティ分野のISO/IEC 27001と同様の構造を持つマネジメントシステム規格であり、「組織がAIのリスクを自ら理解し適切に軽減するためにどう体制を整えるべきか」を規定するものです。規格の適用にあたっては一律ではなく、スコープ設定が最初のステップとなります。2人のスタートアップと多国籍企業では求められる管理の水準が異なりますし、医療機器のような生命に関わるAIと一般消費者向けのデバイスとでは、必要なコントロールのレベルも当然異なります。
スコープの次は、ポリシーの策定です。組織として何を目指すか、どのような原則に従うか、どのリスクを許容しどのリスクは取らないかを明文化します。続いてリスクの計画——開発または使用するAIのリスクと影響を詳細に把握すること——そしてデータ取り扱いへの対応です。AIはデータそのものであり、データなしにAIは存在しません。そのデータがどう扱われ、正しい方法で使われているかを確保することは、ますます難しくなっています。運用フェーズでは、リスクをどう管理・監視・軽減するかが問われます。そして最後にパフォーマンス評価として、内部監査・外部監査を含む形で、講じているコントロールが目的に適しているかを検証します。
AIスタートアップを立ち上げたばかりの人がこれを最初に優先したいとは思わないかもしれません。しかしベストプラクティスに従い、エコシステム全体——投資家・クライアント・サプライチェーン——からの信頼を得るためには、このような体制を整えていることを示すことが非常に重要です。
5.2 ヒューマンセントリックAIの要素と「設計段階からの人間考慮」の必要性
Laura: ISO/IEC 42001の四つの柱のうち「人」の部分をさらに掘り下げると、ヒューマンセントリックAIの議論に入っていきます。AIについての議論ではセキュリティ、安全性、プライバシーが重点的に語られますが、それだけでは不十分です。エンパワーメント——人々が自分にとって適切な形でAIを使う自律性を持てること——も同様に重要な要素です。自己効力感、つまり「自分はAIを適切に使いこなせる」という感覚がなければ、人はAIを使わなくなります。採用率に直結する問題です。倫理と透明性はこれらすべてを束ねる基軸であり、信頼されるAI、AIの採用、アカウンタビリティといった概念はすべて、人間を中心に置くことなしには成立しません。
ここで強調したいのは、「設計の最初の段階から人間を考慮すること」の重要性です。後から付け加えようとしても手遅れになる場合があります。その典型的な例が電子メールシステムです。電子メールの技術は素晴らしいものでしたが、人間の視点から設計されたわけではありませんでした。その結果、フィッシング攻撃が登場したとき、人間の脳がどう機能するかを考慮していないシステムに対して後付けで対策を施さなければなりませんでした。現在、職場では外部とのやり取りに使うシステムと内部のやり取りに使うシステムを分けることで、フィッシングのリスクが格段に管理しやすくなっています。しかしこれは、最初から人間の認知を踏まえて設計されていれば、はじめからそのような形になっていたかもしれない構造です。
Thomas: 説明可能性と情報の来歴という観点から見ると、電子メールの事例は非常に示唆的です。私たちが実際の案件で見てきたのも同じパターンです。最初から透明性と来歴の確保を組み込んで設計されたシステムは、後からリスクが発覚して対処しなければならない状況にならずに済みます。これはコンプライアンス・バイ・デザインという考え方とも直結しています。
Laura: まさにその通りです。標準の目的を最終的に一言で言うなら、「人々がAIを目的に適った、機能的で、人道的な形で使えるよう支援すること」です。そのためには標準の発見から採用支援まで、一連のプロセス全体を通じて人間を中心に据え続けることが不可欠です。技術がどれだけ優れていても、人間にとって機能するものでなければ意味がない——これはソシオテクニカルな思想の核心であり、ヒューマンセントリックAIが目指すものでもあります。
6. 標準化プロセスへの参加とQ&A——擬人化・説得・社会規範化
6.1 BSIの標準化プロセスと組織参加の方法
Laura: 標準がどのように作られるかについて、最後にお伝えしておきたいと思います。標準化のプロセスは「発見」から始まります。ある技術が標準を必要とする段階に達したと判断されるできる限り早い時点で、その必要性を認識することが重要です。スコーピングの段階では、BSIはワークショップなどを通じて産業界の関係者と協働し、すべての標準があらゆる人にとってできる限り機能するものになるよう取り組みます。これが組織が最も積極的に関与できる段階の一つです。その後、委員会が標準を開発し、コンサルテーションプログラムとして広く公開され、フィードバックを受け付けます。そこで得られた意見をもとに標準が精緻化され、最終的に採用の段階へと進みます。
Mark: BSIとして強調したいのは、採用の段階で「あとは各自で頑張ってください」とは言わないということです。Bridge AIプログラムをはじめとするさまざまな支援施策を通じて、「この標準を自分たちの組織のコンテキストで実際にどう機能させるか」を伴走支援しています。標準を作るだけでなく、それが現実の組織の中で生きて機能するものになるよう、採用後のサポートまでを一連のプロセスとして捉えているのです。
6.2 AIの擬人化をめぐる研究知見と、標準・倫理的AIを社会規範として普及させるための戦略
Thomas: Q&Aに移りたいと思います。Adelinaさんからいただいた質問です。生成AIチャットボットへの「擬人化」、つまり人間的な特性を付与することの影響についてどうお考えでしょうか。たとえば「AIが幻覚を見る」という表現自体、本来人間の能力に紐づく言葉をAIシステムに使っています。これは危険なことなのか、それとも技術を人々に身近にするための有効な手段なのか、という問いです。
Laura: この話題は私がいつも語っていることなので、もしかしたらAdelinaさんは私のことをご存じなのかもしれません(笑)。ロボット工学の研究を始めた頃、私は「Pepper」というアンソロポモーフィック(擬人化された)ロボットと多く関わっていました。その研究の中で、さまざまな設計上の配慮が必要であることがわかりました。たとえばPepperが悪いニュースを伝えなければならない場面では、口元が笑顔の表情のままでは不適切です。また、ロボットにどのような話し方をさせるかについても研究を行いました。喜びに満ちたトーンで話すと子供っぽく聞こえ、結果として言っている内容への信頼感が低下するという知見が得られました。今日ではAIを搭載したロボットが、バックグラウンドで誰かがプログラムを操作しなくても実際に会話できるようになっており、状況はさらに複雑になっています。
擬人化が懸念されるのは、明らかにロボットとわかるものだけではありません。むしろ私が心配しているのは、ロボットだとは誰も思わないような産業用機器のケースです。スクリューが二つ付いた目のような部分と口のような部分がある産業機器であっても、人間はそこに人間性を見出してしまいます。荒唐無稽に聞こえるかもしれませんが、私たちは実際にそういう機器の中に別の人間を見てしまい、必要以上に信頼してしまうのです。これは自然には懸念が生じにくいからこそ、より多くの研究が必要な領域だと感じています。医療分野でも同様の懸念があります。患者の福祉向上を目的としてさまざまな患者と話すAIチャットボットが導入されるケースが増えていますが、ここでも擬人化の問題は非常に慎重に扱わなければなりません。
Thomas: 一方で、擬人化には別の側面もあります。技術をより親しみやすくすることで利用率が上がり、それが「善のための技術」であれば、ネットとしてはポジティブな効果をもたらす可能性もあります。どちらの方向に振れるかは難しいところですが、私は透明性が常に鍵だと思っています。AIを搭載したシステムと話しているなら、ユーザーはそのことを完全に認識していなければなりません。そしてアウトプットの説明可能性も、できる限り確保されるべきです。
Thomas: 次の質問に移ります。クライアント企業であれ、大きな産業組織であれ、さまざまなステークホルダーを説得して標準的なアプローチや倫理的AIの採用へと導くにはどうすればよいか、という問いです。W3CのウェブコンテンツアクセシビリティガイドラインへのW3Cの言及もありましたが、これはより広く標準全般の普及という文脈で考えたいと思います。私自身の経験から言えば、最も効果的なのは常に「具体的な一歩」を示すことです。標準の一部をパイロットとして実際に動かして見せる。なぜそれが作られたのか、何を実現するのかを体験として示す。これが誰かを「線を越えさせる」——つまり特定のアプローチや既存標準の革新、あるいはゼロからの草の根的な動きへの支持を獲得する——最も強力な方法だと感じています。Markはこの点についてより多くの時間を使っておられますが、いかがでしょうか。
Mark: 現在の組織における意思決定の構造上、「正しいことをする」ことと「ビジネスケースとして成立するか」のバランスを取ることが非常に難しいのが現実です。私が有効だと思うのは、飲酒運転に関する社会規範の変化をアナロジーとして使うことです。最初は罰則という形でルールが設けられ、違反すれば罰金や免許点数の減点といった罰が科されました。しかし時間をかけて社会全体が新しい規範を採用していく中で、今では多くの人が飲酒運転をしないのは罰を恐れてではなく、単純に「社会的に受け入れられないから」という理由からです。文化や地域によって差はありますが、これはまさに社会規範としての変容です。AIの倫理についても同じプロセスを辿ると思います。最初は「正しいことだから」という動機と同時に、「投資家を得るため」「クライアントを獲得するため」というビジネス上の具体的な理由と結びつけて語ることが重要です。Thomasが言ったように、具体的な成果を示し、素早く学び、繰り返し改善する。そのプロセスを経ていくうちに、やがてAIに関わるならヒューマンセントリックAIと倫理を最前線に置くことは「ビジネスをするためのコスト」として当たり前のものになっていく——私はそう確信しています。
Thomas: Laura、Mark、本当にありがとうございました。倫理的AIの実装を考えている方にとって、何から始めるか、どう考えるか、最初のステップとして何ができるか、そしてコンプライアンスの側面だけでなく、さまざまな標準やヒューマンセントリックなアプローチを活用することの機会という側面をどう捉えるかについて、多くの明確なガイドラインが示されたと思います。今日カバーしきれなかった質問も多くありましたし、続きはぜひ近いうちのフォローアップセッションで議論できればと思います。本日ご参加いただいた皆さん、ありがとうございました。
