※本記事は、Nashlie Sephus氏によるAI for Good基調講演「Responsible AI in practice | AI for Good Keynote」の内容を基に作成されています。講演の詳細情報は https://www.youtube.com/watch?v=eS8uRnzU5Fc でご覧いただけます。本記事では、講演の内容を要約しております。なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの講演動画をご視聴いただくことをお勧めいたします。
登壇者のNashlie Sephus氏は、Amazon AIのPrincipal Tech Evangelist(主席技術伝道師)です。機械学習とアルゴリズム的バイアスの特定を専門とするコンピューターエンジニア・起業家であり、AWSにおいて責任あるAIの実践と普及に向けて多大なリソースを投じ、顧客が公平性を考慮したデータセットの構築や責任あるAIモデルの設計を行えるよう支援しています。また、Nashlie Sephus氏のソーシャルメディアアカウントもご参照ください。
1. 開会・登壇者紹介
1.1 AI for Goodプラットフォームの概要とセッションの目的
司会: 本日は、国連のAI for Goodプラットフォームが主催するセッションにようこそいらっしゃいました。AI for Goodは、国際電気通信連合(ITU)が40の国連姉妹機関と連携し、スイスと共同で運営する、行動志向のグローバルかつ包摂的な国連プラットフォームです。その目的は、AIの実践的な応用事例を特定し、国連の持続可能な開発目標(SDGs)の達成に向けてスケールアップさせることにあります。本日のセッションでは、ライブ動画ウォール機能を活用して質問やコメントを投稿していただき、活発な議論を生み出していきたいと思います。セッション終了後も、ニューラルネットワーク上でパネリストや世界トップクラスのAI専門家とチャット・交流・質疑応答を続けていただけますので、ぜひ最後までご参加ください。
1.2 UNESCOモデレーターによる倫理的フレームワークの提示とDr. Sephus紹介
Cucharini: 皆さん、おはようございます、こんにちは、そしてこんばんは。私はCuchariniと申します。UNESCOの社会・人文科学部門において、局長代理兼事務局長を務めております。本日は、責任あるAIをテーマにした特別セッションのモデレーターを担当できることを大変嬉しく思います。AIが責任ある形で開発・利用・展開されない場合に生じる諸課題に、私たちはどう向き合うべきか、ともに考えていきましょう。
責任あるAIのあり方とは何か、少し整理させてください。プライバシー、公平性、説明可能性、堅牢性、透明性、ガバナンスといった価値をAIモデルやシステムが尊重することは、確かに重要であり不可欠な第一歩です。しかしそれだけでは十分ではないと私は考えています。UNESCOでは、AIの技術が私たちの働き方、社会的関係、健康、金融など生活のあらゆる側面に急速かつ深く浸透しつつある現状を踏まえ、倫理的アプローチこそが求められると考えています。AIを「汎用目的技術(general purpose technology)」と呼ぶ専門家も多くいますが、私もその見方に同意します。
倫理と言うとき、私が意味するのは人権と人間の尊厳を中心に据えるということです。UNESCOが掲げるAI倫理勧告は四つの中核的価値の上に成り立っています。第一に、人権と基本的自由の尊重と促進。第二に、環境と生態系の繁栄。第三に、多様性と包摂性の確保。そして第四に、平和で公正かつ相互につながった社会の実現です。2021年11月、UNESCOの193の加盟国が拍手採択でAI倫理勧告を承認したことは、私たちにとって大きな喜びでした。これは、より包摂的な未来を望み、AIが多くの課題解決に貢献し得るという認識が世界的に共有された証だと受け止めています。もちろん、それはAIが正しい方向に導かれてこそのことです。
さて、本日の登壇者をご紹介しましょう。Dr. Nashlie Sephusは、アメリカのコンピューターエンジニアであり起業家で、機械学習とアルゴリズム的バイアスの特定を専門としています。彼女がAIの世界に足を踏み入れたきっかけは、女子向けのコンピューターエンジニアリングの2週間サマーキャンプへの参加でした。ロールモデルの存在と啓発活動がいかに重要かを示す好例だと思います。そして彼女は「問題を嘆くのではなく、解決に動く」人物でもあります。2013年、当時博士課程の学生だったDr. Sephusは、Patpikという黒人女性だけで構成されたスタートアップでパートタイムの仕事を始め、視覚認識アルゴリズムとプロトタイプの開発に取り組みました。顔認識システムが性別や人種に基づいて差別的な判断を下す問題は当時から存在しており、今も続いています。彼女はその問題に真正面から向き合い、解決策を探り続けてきました。私は彼女の大ファンです。それでは、Dr. Sephus、どうぞ。
Nashlie: ありがとうございます。素晴らしいご紹介をいただき、光栄です。皆さん、本日は私のトークにお集まりいただき、本当にありがとうございます。これからAWSでの経験も含めた複数の業界経験を踏まえながら、責任あるAIを実際の産業においてどのように実践するか、またその知識をいかに広く共有するかについてお話しします。どうぞよろしくお願いします。
2. 責任あるAIの定義と社会的背景
2.1 従来型ソフトウェア開発と機械学習開発の本質的な違い
Nashlie: 責任あるAIの話に入る前に、まず機械学習の開発が従来のソフトウェア開発とどう違うのかを整理しておきたいと思います。この違いを理解することが、なぜ責任あるAIがこれほど重要かつ難しいのかを理解する上での出発点になるからです。
従来のソフトウェア開発では、まず人間の言葉で「この機能はX、Y、Zをする」と仕様を定め、その通りにコードを書けば、システムはその通りに動きます。要件定義と実装の関係が比較的明確です。しかし機械学習では、そうはいきません。モデルを訓練したことのある方ならご存知のように、まず「どんなデータが手に入るか」というところから話が始まります。アルゴリズムの挙動はデータに依存しており、データの制約がそのままシステムの限界になることも珍しくありません。
もう一点、テストの考え方も大きく異なります。従来のソフトウェアでは、リリース前に厳密なテストを行い、それが通れば製品を出荷します。機械学習でも事前テストはもちろん行いますが、それだけでは不十分です。実際のエンドユーザーがどんな体験をするかは、リリースしてみなければわからない部分が必ず残ります。また、顧客(customer)とエンドユーザー(end user)は必ずしも同一ではない点にも注意が必要です。AWSのようなプラットフォームの場合、直接の顧客は企業であり、そのシステムを使う最終的なユーザーはまた別の人々です。この二層構造を常に意識する必要があります。
さらに、従来のソフトウェアでは新しいバージョンをリリースすれば、基本的にすべての入力に対して同等以上のパフォーマンスが期待できます。ところが機械学習では、新バージョンのリリースによって、ある層のユーザーにとっては性能が上がる一方で、別の層のユーザーにとっては逆に性能が低下する、ということが起こり得ます。これは非常に重要な点です。一部の人にとって改善されたシステムが、別の人にとっては不利益をもたらすという状況は、責任あるAIの観点から見て見逃すことのできない問題です。
AWSではヘルスケア、自然言語処理、音声認識、コンピュータービジョン、チャットボット、検索・推薦システムなど、幅広いAIサービスを提供しており、SageMakerのようなモデルの構築・訓練ツールも持っています。これだけ多くの製品とツールを持つ以上、私たちはサービスの監査と品質保証に一層慎重でなければなりません。顧客だけでなく、あらゆる背景・属性・地域のステークホルダーに対して機能するプロダクトを届ける責任があります。また、顧客の業種も用途も多岐にわたる中でどのように責任あるAIを実践するかは、非常に難しい挑戦です。技術革新のスピードが速ければ速いほど、責任あるAIへの取り組みも同じかそれ以上のスピードで進めなければならないと私は考えています。
2.2 AIの急速な普及がもたらす社会的懸念:プライバシー・顔認識・軍事利用
Nashlie: AIと機械学習への世界的な支出は、2025年までに2,040億ドルに達するという予測があります。また、Gartnerなどの調査によれば、経営幹部の約50%が「AIは今後3年以内に自社のビジネスを変革する」と回答しています。私個人的には、その実際の数字はもっと高いと感じています。一方で、多くの組織が責任あるAIをどうオペレーション化するかに苦慮しているという現実も同時に存在しています。
こうした急速な普及の中で、社会的な懸念も高まっています。まず、プライバシーの問題です。New York Timesの記事によれば、アメリカで空港や公園などの公共空間を歩くだけで、知らないうちに顔データがデータセットに組み込まれてしまっている人が50%以上に上るとされています。至る所にカメラが設置されていますが、その存在すら知らされていない場所も多くあります。
顔認識技術の利用についても深刻な懸念があります。特に、軍や法執行機関による利用です。AWSはこれを受けて、法執行機関や軍事機関への顔認識技術の販売に一時停止措置(モラトリアム)を設けました。この問題に対する危機感が、いかに大きいかを示しています。
また、ジェンダー分類のような機能そのものの設計が差別的でないかを問い直すことも重要です。たとえば空港のセキュリティ機器の中には、担当者が画面上で「男性か女性か」を選択する仕組みのものがあります。もしその判断を誤れば、当該の乗客は不必要に足止めされ、セキュリティ通過が遅れるという不便を強いられます。こうした機能は今も実際に使われていますが、本当にそうある必要があるのかを、私たちは改めて問い直す必要があります。
さらに、顔認識技術への反発として、意図的に顔を隠したり、技術を欺くための「敵対的攻撃(adversarial attack)」を試みる人々も現れています。理由の良し悪しはともかく、こうした行動が存在すること自体、社会がこの技術に対して強い不信感を抱いていることの表れです。だからこそ、責任あるAIを正しく実践することが、これほど重要な意味を持つのです。
Cucharini: Nashlieがおっしゃる通りで、AIの技術がすでに空港でのセキュリティや住宅ローンの審査、医療へのアクセスといった生活の根幹に関わる判断に使われている現実を考えると、「機械がそう言ったから」という言い訳で誰かが不利益を被ることは決して許されません。害を加えた場合に「それはコンピューターが決めたこと」と人間が責任を逃れるような社会であってはならない、というのがUNESCOの推薦するAI倫理の立場でもあります。AIが責任ある形で使われるためには、最終的に必ず責任を負う「人間」の存在が不可欠なのです。
3. Responsible AIを構成する6つの次元
3.1 プライバシー・セキュリティ・説明可能性・堅牢性・透明性・ガバナンスの概要
Nashlie: ここまで「責任あるAI」という言葉を何度も使ってきましたが、改めてその定義を明確にしておきたいと思います。責任あるAIとは、革新的であり、信頼に値し、人権と民主主義的価値を尊重するAIのことです。では具体的に、どのような次元でこれを捉えればよいのでしょうか。完璧な定義とは言えないかもしれませんが、私はこれを六つの次元で整理しています。これは非常に広範な領域をカバーする枠組みであり、出発点として非常に有効だと考えています。
第一の次元は、プライバシーとセキュリティです。データがプライバシーや法的な要件に従って使用されているか、また盗難や漏洩から保護されているかという問いです。EUのGDPR(一般データ保護規則)はこの分野における先進的な取り組みの一例として挙げられます。少なくともポリシーの観点では、こうした試みは評価に値します。
第二の次元は、公平性とバイアスの軽減です。システムのパフォーマンスにおいて、特定のサブグループに対して有害な格差が生じていないかを問います。具体的には、データセットに含まれる人間に関するさまざまな属性、たとえば肌の色が濃い女性、アメリカに住む英語が母国語でない人、特定の宗教的背景を持つ人、あるいは特定の性的指向を持つ人など、それらの属性の「交差点」においてどのような格差が生じているかを丁寧に見ていく必要があります。
第三の次元は、説明可能性(Explainability)です。システムがある判断を下したとき、その判断に対して明確な根拠を示せるかどうかという問題です。モデルを訓練したことがある方はご存知の通り、私たちはモデル自体が何を学習しているのかを必ずしも正確に把握できているわけではありません。だからこそ、説明可能性は一層重要であり、現在も研究が活発に進められているフロンティア領域です。
第四の次元は、堅牢性(Robustness)です。システムを混乱させたり騙したりすることがいかに難しいか、またもし誰かがそれを試みた場合にどのような影響が生じるかを問います。たとえば、ディープフェイクや敵対的生成ネットワーク(GAN)によって意図的に作られた偽の入力データへの対処がこれにあたります。実際にNVIDIAの論文が示しているように、本物と見分けのつかない精巧な偽の顔画像を生成する技術はすでに存在しています。この技術が善意で使われれば、訓練データのシミュレーションに役立てることもできますが、悪意を持って使われた場合の影響は深刻です。
第五の次元は、透明性(Transparency)です。ユーザーが自分のデータの使われ方やシステムの動作について十分な情報を得た上で、利用するかどうかの選択ができているかという観点です。後ほど詳しく触れますが、モデルカード(Model Card)はこの透明性を実現するための一つの具体的な手段です。
第六の次元は、ガバナンスです。こうした責任あるAIの実践が、データ収集者から最終的なプロダクトの利用者に至るまで、すべてのステークホルダーの間で確実に遵守・執行されているかを問います。どれだけ優れた方針を掲げていても、それが実際に守られ、機能しているかを継続的に確認する仕組みがなければ意味をなしません。
3.2 各次元のトレードオフとユースケースによる優先順位の違い
Nashlie: 重要なのは、これら六つの次元はそれぞれが独立して存在するわけではなく、相互にトレードオフを持つという点です。たとえば、ある状況では格差(disparity)の存在を認識しつつも、それが許容範囲内であると判断せざるを得ないケースがあります。短期的・長期的な影響を考慮した上で、そのトレードオフが妥当かどうかを判断する必要があります。
また、六つの次元すべてを同時に最大化することは、現実的には非常に困難です。どのユースケースにおいても、最優先すべき次元は何かを明確に定め、そこに集中した上で、残りの次元をどう扱うかを考える順序が重要です。たとえば音楽の推薦システムは、自律走行車と比べて責任あるAIの観点から見た場合のミッションクリティカル度が大きく異なります。自律走行車は人命に直接関わるため、ガバナンスや堅牢性への優先度が格段に高くなります。一方で推薦システムでは、公平性や説明可能性の実装方法も異なるアプローチが求められます。
さらに、システムが展開される環境そのものを深く理解することが不可欠です。その環境が時間とともにどのように変化するか、あるいは変化しないかという見通しも含めて、設計段階から考慮しておく必要があります。精度(accuracy)という単一の指標を超えた、より広い視野で成功を定義することが、責任あるAIの本質的な出発点です。
Cucharini: とても重要な整理だと思います。UNESCOのAI倫理勧告においても、すべてのステークホルダーが連携して倫理的な責任を担うという考え方を採用しており、Nashlieがおっしゃるガバナンスの次元と深く共鳴しています。また、自己規制だけでは不十分であり、外部からの評価や検証の仕組みが必要だという点も、私たちが強調してきたことと一致しています。特定の誰かに一方的に責任を押しつけるのではなく、開発者から政府、企業、市民社会まで、それぞれが果たすべき役割を明確にしながら協働することが求められています。
4. 公平性評価の理論と実践
4.1 平等と公平の違い、交差性(Intersectionality)の考え方
Nashlie: 公平性の評価について話す前に、まず「平等(equality)」と「公平(equity)」の違いを整理しておきたいと思います。これはよく使われる例えですが、野球の試合を見るために柵越しに観戦する場面を想像してください。全員に同じ高さの踏み台を一つずつ渡すのが「平等」です。しかし身長の違う人が同じ踏み台に乗っても、背の低い人は柵を越えて見ることができません。「公平」とは、それぞれの人が柵の向こうを見渡せるように、必要な高さの踏み台を提供することです。AIシステムにおける公平性も同じ考え方で捉える必要があります。すべてのユーザーに対して同一のエラー率を適用することが「平等」だとすれば、「公平」とはそれぞれのグループが実際にシステムを有効活用できるよう、必要なパフォーマンス水準を確保することです。私たちが目指すべきは、後者の意味における機会の均等です。
次に、交差性(Intersectionality)という概念についてお話しします。人は複数の属性を同時に持つことができます。たとえば、ある人は「女性」であり、かつ「有色人種」であり、かつ「非英語圏出身者」でもあるかもしれません。こうした複数の属性が交差するとき、新たなサブグループが生まれます。そしてそのサブグループは、単一の属性で見ていたときには見えてこなかった格差を経験している可能性があります。
具体的な例を挙げましょう。あるシステムで「既婚か未婚か」という属性と「就業中か失業中か」という属性を組み合わせると、「既婚かつ失業中」「未婚かつ就業中」といった複数のサブグループが生まれます。これらのサブグループがシステムから受ける影響を個別に評価することが重要です。もしあるサブグループが他と比べて著しく不利な扱いを受けていると判明した場合、まず訓練データそのものを見直すことが必要になります。特定のグループのサンプルが過少になっていれば、そのデータを補完するか、あるいは過剰なグループをサブサンプリングするといった対処が考えられます。ただし、その際にも精度やエラー率を目標水準に保つことができているかを同時に確認しなければなりません。
また、モデルのアーキテクチャそのものを変えることで格差を改善できる場合もあります。さらに、多くのケースでは「人間によるループ(human in the loop)」の仕組みを設けることが推奨されます。モデルの限界を補うために、システムの上位レイヤーに人間が介在して特定の判断を検証・修正できる安全網を構築しておくことが重要です。
こうした評価はすべて、ユースケースごとに定義が異なります。成功の定義も、公平性の指標も、システムが担う機能ごとに設定し直す必要があります。一つのシステムが複数の機能を持つ場合には、それぞれの機能について個別にバイアス評価を行うことが求められます。
4.2 バイアスの特定・根本原因分析と実験事例(AWS性別分類モデルの失敗と改善)
Nashlie: 公平性の評価において技術的に難しいのは、バイアスを特定した後、その根本原因を突き止めるプロセスです。バイアスが存在することは測定によってわかっても、なぜそれが生じているのかを特定することは、非常に困難な作業になります。
AWSで実際に経験した事例をご紹介します。性別の二値分類モデル、つまり画像から対象者が男性か女性かを判定するモデルにおいて、私たちはある偏りを発見しました。髪が短い女性が男性と誤分類され、逆に髪が長い男性が女性と誤分類されるという問題です。原因を調査した結果、訓練データに偏りがあったことが判明しました。モデルは「女性=長い髪」「男性=短い髪」というパターンを学習しており、それ以外のパターンを十分に経験していなかったのです。
この事例が示す教訓は非常に重要です。問題を発見する前の時点では、「髪の長さ」という要素がバイアスの原因になるとは誰も想定していませんでした。つまり、事前に何をチェックすべきかを網羅的に列挙することは、原理的に難しいのです。だからこそ、バイアス評価には徹底的かつ反復的なプロセスが必要であり、想定外の要因がバイアスを引き起こしている可能性を常に念頭に置いて調査を続けなければなりません。
また、AIの分野は私自身が10年以上携わっていながら、いまだに追いつくのが難しいと感じるほど速いスピードで進化しています。この速さに対応するためには、成功の定義と測定方法をシンプルに保ちながら、AIと開発運用(DevOps)のすべての工程において継続的に改善を積み重ねていくことが有効です。データの取り込み方、デプロイの方法、ユーザーからのフィードバックの収集方法、そして長期的な継続改善のサイクル、これらをそれぞれ丁寧に設計することが求められます。
さらに、信頼区間やエラーバーを考慮した上でバイアスと指標を測定することも、技術的な観点から不可欠です。モデルが出力する予測値の信頼スコアや閾値の設定が、サブグループごとにどのような影響を与えているかを把握しておく必要があります。そして何よりも強調したいのは、「テストをしなければ何も仮定してはならない(you cannot assume unless you test)」ということです。問題がないと思い込んでいるだけで、実際にはテストによって初めて明らかになる格差が必ず存在します。公平性のテストは製品開発プロセスの各ステージに組み込まれるべきものであり、リリース前の一度だけ行えば済むものではありません。文脈に応じた懸念事項を優先基準として活用しながら、製品開発の反復サイクル全体を通じて継続的に公平性の検証を行うことが、責任あるAIの実践における核心です。
Cucharini: Nashlieがおっしゃった「テストなしに仮定してはならない」という言葉は、非常に重要な指摘だと思います。私はこれをそのまま使わせていただきたいと思うほどです。システムの中にチェックポイントを組み込んで、誰かを不当に扱っていないか、あるいは特定の人々を傷つけるような予測や判断を下していないかを継続的に検証する仕組みを持つことが、倫理的なAI開発の要諦です。UNESCOのAI倫理勧告においても、最終的な責任は常に人間が負うべきだという考え方を採用しています。どれだけ高度なシステムであっても、その結果に対する責任を機械に転嫁することは許されません。
5. Responsible AIのエンドツーエンドライフサイクル
5.1 問題定式化からデータ収集・アルゴリズム選択・テストまで
Nashlie: 私がこのトークの中で最も気に入っているスライドの一つが、Responsible AIのライフサイクルを示したフライホイールの図です。これは一度回り始めたら止まらない反復的なサイクルであり、終わりのない継続的なプロセスです。このサイクルを順番に見ていきましょう。
まず最初のステップは問題定式化です。ここで最も重要な問いは、「そもそもアルゴリズムはこの問題に対する倫理的な解決策なのか」ということです。これは軽視されがちですが、非常に重要な問いかけです。現在も実際に運用されているシステムの中には、長年にわたって使われてきたにもかかわらず、本質的に倫理的とは言えないものが存在します。私たちはそうした既存のシステムを見直し、どう改善するかを真剣に考える必要があります。
次はデータ収集の段階です。多くの人はまずデータの話から始めたがりますが、私はあえてライフサイクル全体の文脈を理解した後にこの話をするようにしています。データ収集において最も重要なのは、倫理的な方法でデータを集めるということです。特に人間に関するデータを扱う場合、対象者が自分のデータがどのように使われるかを理解した上で同意を与えているかどうかを確認しなければなりません。また、人々はなぜ自分のデータを提供するのかという問いも重要です。誰もが喜んでデータを差し出すわけではありません。参加者に対してどのようなインセンティブを提供できるかを考える必要があります。特にヘルスケアの文脈では、そのデータ収集が実際にその人の利益になるのかどうかを誠実に問いかけ、それを当事者にきちんと伝えることが求められます。
訓練データの代表性についても十分な注意が必要です。データセットが特定のグループを適切に反映しているかどうか、ラベル付けに偏りがないかどうかを確認し、必要に応じてデータを修正してバイアスを軽減することを検討します。具体的な手法としては、特定グループのサブサンプリングや、不足しているグループのデータ追加などが挙げられます。AWSのツールとして、SageMaker Ground Truthはこのデータ収集・ラベリングの工程を支援するものです。アノテーター(データにラベルを付ける人間の作業者)を集め、トレーニングするプロセスを効率化できますが、同時に注意が必要なのは、そのアノテーター自身が対象タスクに対して適切な背景知識や代表性を持っているかどうかを確認することです。ツールを使えば自動的に質が保証されるわけではありません。
アルゴリズムの選択においては、公平性の制約を目的関数に組み込む必要があるかどうかを検討します。モデルの訓練に使うアーキテクチャにはさまざまな選択肢があり、それぞれ入力の扱い方や学習の特性が異なります。どのアーキテクチャを選ぶかが、バイアスの発生にも影響します。また、前述の通り、ほとんどのケースにおいてシステムの中に人間が介在する仕組み(human in the loop)を設けることを強く推奨します。モデル単体では対処できない限界に対して、追加の安全網として機能させるためです。
テストのフェーズでは、製品開発プロセスと同等のリソース・労力・時間をバイアス評価と公平性テストに割り当てることが重要です。これらは互いに切り離せないものであり、並行して進めるべきものです。すべての属性の交差点においてテストを行うこと、信頼スコアや閾値、エラーバーを正確に把握すること、そして想定外の領域における格差を発見するために広範な実験を設計することが求められます。
5.2 デプロイ後のモニタリング・モデルカード・AWSツール群(Clarify・Ground Truth)
Nashlie: システムをデプロイした後も、責任あるAIの実践は終わりません。むしろここからが継続的な取り組みの本番とも言えます。デプロイ後には、モデルがエンドユーザーや顧客からのフィードバックをどう受け取っているかを常時モニタリングすることが不可欠です。環境は時間とともに変化します。モデルが訓練された時点のデータと、実際の運用環境におけるデータの分布がずれていく「モデルドリフト(model drift)」が発生することがあります。これを早期に検知し、対応するための仕組みを事前に設計しておく必要があります。
AWSのSageMaker Clarifyは、主にテーブル形式のデータを対象としたバイアス検出ツールです。データセット内の不均衡を特定し、デプロイ後のモデル全体の挙動をより深く説明することができます。モデルドリフトの検出にも対応しており、自動的なレポート生成機能も持っています。このツールは責任あるAIの実践を可能な限り容易にするための一つの手段として提供されており、完璧ではないながらも重要な出発点となります。AWSのウェブサイトにはResponsible AIの実践に関する専用ページも設けており、顧客向けのリソースとして公開しています。
透明性を実現するための重要な仕組みとして、モデルカード(Model Card)があります。これは元々Margaret Mitchellらのグループが提唱したもので、モデルや製品・サービスに対していわば「通知表」のような役割を果たす文書です。モデルカードには、モデルの詳細情報、意図された使用目的、性能に影響を与える要因(人口統計的グループや環境条件など)、指標の定義とその測定値、評価データと訓練データの概要、そして定量的な分析結果が含まれます。誰がこのモデルカードを読むのか、どのような目的で使うのかという点についてはまだ業界全体で議論が続いていますが、実際に広く採用され始めており、AWSとしても積極的に関与していきたいと考えています。
さらに学習リソースとして、私がよく紹介する書籍を挙げておきます。Cathy O'Neilによる『Weapons of Math Destruction』、Safiya Umoja Nobleによる『Algorithms of Oppression』、そしてAWSのチームメンバーでもあるMichael KearnsとAaron Rothによる『The Ethical Algorithm』です。これらはそれぞれ消費者側・開発者側の視点から、AIにおけるバイアスの実例と考え方を深く掘り下げており、ぜひ手に取っていただきたい一冊です。
最後に、ライフサイクル全体を通じたレッスンとして私が強調したいことをまとめます。交差性を考慮した見えにくい領域でのテストが格差発見の鍵であること、信頼スコアや閾値・エラーバーの測定は技術的に不可欠であること、表現(representation)の重要性は何度強調しても足りないこと、透明性・再現性・教育が製品への信頼を生み出すこと、そして公平性のテストは製品の反復サイクル全体を通じて行われるべきものであることです。精度という単一の指標を超えて、より広い意味での「成功」を定義し、継続的に改善し続けることが、Responsible AIの実践における核心です。
Cucharini: モデルカードの話は非常に興味深いと思います。特に、自己規制だけでは不十分であり、外部からの評価と説明責任の仕組みが必要だというUNESCOの立場と深く共鳴しています。また、Nashlieがデプロイ後のモニタリングを強調されていることも重要な指摘です。AIシステムは一度リリースすれば終わりではなく、社会の中で生き続けるものとして継続的に責任を持って管理されなければなりません。その意味で、フライホイールという比喩は非常に適切だと感じます。
6. ステークホルダー別の責任と実践的提言
6.1 政府・規制機関の役割とリスクベース規制の優先順位
Nashlie: 責任あるAIの実践において、政府と規制機関が果たす役割は非常に特別なものがあります。まず強調しておきたいのは、AIのユースケースはリスクの大きさという観点で大きく異なるという点です。音楽の推薦システムは、自律走行車と比べてミッションクリティカルの度合いが根本的に違います。自律走行車は人命に直接関わりますが、音楽推薦システムで誤った提案をされても生命の危機には至りません。政府はこのリスクの差異を正確に把握した上で、本当にクリティカルなユースケースから優先的に規制の整備を進めていくべきです。
具体的に優先すべき領域として私が挙げるのは、人命に関わる可能性があるもの、つまりヘルスケア、法執行・軍事用途、そして自律走行車です。これらの領域では、AIシステムが下す判断が人の生死に直結することがあります。政府規制の整備をそこから始めることは、理にかなった順序だと思います。
また、政府の役割はAIの適切な利用を確保することですが、それは政府だけの責任ではありません。すべてのステークホルダーがそれぞれの立場でその責任を担う必要があります。規制のアプローチとして、OECD各国の作業部会やさまざまな司法管轄区域と連携しながら、リスクに基づいた規制を共同で開発していくことが求められます。AIは国境を越えて存在するものであり、一国だけで完結する問題ではないからです。
アメリカでは最近、AI権利章典(AI Bill of Rights)に関する文書が公表されました。これは責任あるAIに向けた方向性を示すものとして評価できます。EUのGDPRもプライバシー保護の観点から先進的な取り組みですが、一方でテクノロジーの多くはすでにオープンソースとして世に出ており、データも流通しています。「一度見たものは見なかったことにできない」という現実がある以上、すでに存在している技術をどう統制するかは、政府にとって非常に難しい課題です。コンピュータービジョン、言語処理、推薦システムなど、それぞれの技術領域には固有のニュアンスがあり、既存の技術に対して事後的に規制を適用することが技術的に不可能なケースも出てくるでしょう。そうした現実を踏まえながら、できるところから着実に進めるしかないというのが私の見立てです。
6.2 企業・スタートアップへの具体的アドバイス:リソース20%ルールと競争優位
Nashlie: スタートアップへのアドバイスについては、私自身がかつてスタートアップのCTO(最高技術責任者)を務めていた経験から、現実的な目線でお話しできると思います。当時、私の下には6名ほどの開発者がいましたが、常に締め切りに追われており、何か新しいことをやろうとしても「そんな時間はない」という状況でした。スタートアップの厳しさは身をもって知っています。
そうした現実を踏まえた上で、それでも私はスタートアップに対してこう伝えたいと思います。まず、政府規制は遅かれ早かれ必ずやってきます。それに備えるなら早いほど有利です。規制が来てから慌てて対応するよりも、今から準備しておいた方が、長期的に見てはるかに賢明な選択です。
次に、競争優位の観点から考えてみてください。あなたと同じようなことをしているライバル企業が責任あるAIに何も取り組んでいない一方で、あなたの会社がそれを実践しているとしたら、投資家、ステークホルダー、取締役会、そして顧客に対して明確に差別化できます。責任あるAIへの取り組みは、単なるコストではなく競争優位の源泉になり得るのです。
具体的な実践方法として、私が勧めるのは「20%ルール」です。ソフトウェア開発の総工数の20%を責任あるAIの取り組みに充てるというものです。すべてを一度に切り替える必要はありません。まず一つのことを選んで、そこから始めてください。それだけで製品の品質は上がり、より良い会社になり、将来の規制にも備えられます。完璧を目指して動けなくなるよりも、小さく始めて継続することの方がはるかに価値があります。大企業の中にはすでにこれ以上のリソースを責任あるAIに投じているところもありますが、まだ何もしていない企業も少なくありません。少なくとも20%から始めることを強く勧めます。
また、ある調査によれば、ビジネスや企業の経営幹部の約半数がAIは将来不可欠だと考えている一方で、その大多数は責任あるAIをどこから始めればよいかわからないと回答しています。問題があることは認識されている、しかし何をすべきかがわからない、というのが現状です。私たちのような立場にいる人間が果たすべき役割は、その「どこから始めるか」を示すことだと考えています。
6.3 開発者の説明責任:ドキュメンテーション実践とアカウンタブルAI
Nashlie: アカウンタブルAI(accountable AI)という言葉が出てきましたが、これは責任あるAIのガバナンスの次元と密接に関連するものだと私は理解しています。具体的に誰が何に対して責任を持つのかを明確にし、それを実際に執行する仕組みをどう作るかという問題です。
私がとても重要だと思っているのは、Margaret Mitchellや彼女の共同研究者たちが提唱している実践、すなわちデータセットの収集方法やモデルのパフォーマンスについて文書化(ドキュメンテーション)することを通じて説明責任を果たすというアプローチです。ソフトウェア開発者はドキュメントを書くことを嫌がる傾向があることはよく知られています。コードにコメントを書かない、アーキテクチャ図を残さない、そういうことはよくあります。しかし、ドキュメンテーションは説明責任と表裏一体です。データをどのように集めたか、モデルがどのような条件でよく機能し、どのような条件で機能しないかを文書として残しておくことは、責任あるAI開発の基本的な実践です。
さらに重要なのは、開発者に自分自身を律することを期待してはいけないという点です。どれだけ優秀なエンジニアであっても、自分で自分を客観的に評価し、説明責任を果たすことには限界があります。システムと仕組みを設計して、それが実際に機能することを外部から確認する体制が必要です。口頭で「責任あるAIをやっています」と言うだけでは不十分です。実際にそれを裏付ける記録と検証の仕組みが伴っていなければなりません。
Cucharini: Nashlieのおっしゃる通りで、自己規制だけでは不十分だという点はUNESCOも強く主張してきたことです。外部からの評価なしに、自分がやっていることが正しいと保証することはできません。少なくとも、問題に対処しようとする努力の跡が残っていることが必要です。また、開発者だけに責任を押しつけるのも間違いです。政府から開発者に至るまで、すべてのステークホルダーがそれぞれの役割において責任を担う構造が必要だということを、改めて強調しておきたいと思います。
7. 教育・ダイバーシティ・デジタルインクルージョン
7.1 STEM分野の参入障壁・インポスター症候群の実体験と非営利活動Bean Path
Nashlie: 私はダイバーシティの推進、特にAIやテクノロジー分野における女性やマイノリティの参入を増やすことを強く支持しています。この問題には現実として明確な格差が存在しており、それを直視することが出発点です。
なぜ女性がSTEM分野に興味を持ちにくいのかという問いに対しては、さまざまな障壁が複合的に作用していると考えています。ある研究によれば、女性が理数系への興味を失い始めるのは小学校高学年から中学校の初期にかけての時期だという結果が出ています。私自身の経験で言えば、ちょうどその頃にサマーキャンプに参加したことが転機になりました。学校では感じることのできなかった「面白さ」と「可能性」を、そのキャンプで初めて実感したのです。つまり、提示の仕方を変えることで、興味を持ってもらえる可能性は十分にあると思っています。
また、テクノロジー業界に入ってからの障壁も深刻です。Society of Women EngineersやDeloitteの調査によれば、すでにこの分野で働いている女性やマイノリティ、あるいは過少代表グループのメンバーは、自分がより高いリーダーシップのポジションにいる姿を想像しにくいという傾向があります。メンターシップの欠如もその一因です。「自分はここにいるべき人間ではないのではないか」というインポスター症候群(Imposter Syndrome)を経験することも多く、それが原因でキャリアを変えたり、業界を去ってしまう人が少なくありません。私自身もこの感覚を経験したことがあります。だからこそ、「あなたにもできる」と伝え続けること、そして実際に機会を与えることが、こうした流れを変えていく上で重要だと感じています。変化は確実に起きています。ただ、目指すべき水準にはまだ達していません。
私がジョージア州アトランタに拠点を置く非営利組織Bean Pathを立ち上げたのも、こうした問題意識からです。また、私の故郷であるミシシッピ州ジャクソンでも活動を続けています。Bean Pathでは、子どもたちに無料でテクノロジーへの接触機会を提供し、キャンプやプログラムを通じてSTEM分野への興味を育てることを目指しています。若い世代に早い段階で「面白い」と感じてもらうことが、長期的なダイバーシティの向上につながると信じているからです。私は自分のことをイントロバート(内向的な性格)だと思っていますが、こうした啓発活動には強い情熱と動機を感じており、自然と取り組めています。日常の仕事と個人的な活動を組み合わせられていることは、大きな喜びです。
7.2 AI倫理教育の制度化:K-12から大学・グローバル標準化まで
Nashlie: 技術を開発する人々がAI倫理について十分な教育を受けていないという問題は、業界全体として早急に取り組むべき課題です。私自身の教育経験を振り返ると、倫理に関する授業は一度か二度しか受けていません。一方で、医学や法律の分野では、倫理や政策に関する複数のコースを履修することが当然のこととして求められています。AIや技術を実際に作り出す開発者に対して、それと同等の倫理教育が行われていないことは、明らかな不均衡です。
この状況を変えるためには、大学のコンピューターサイエンスやエンジニアリング、STEMプログラムに倫理とAIの責任に関するカリキュラムをより体系的に組み込む必要があります。一つの参考になるのが、大学の認定制度(accreditation)です。特定の基準を満たさなければプログラムや学位が認定されないという仕組みがすでに存在しているのですから、そこにAI倫理の要件を組み込むことは決して非現実的な話ではありません。さらに、これをグローバルな基準として展開することも考えられます。AIは国境を持たないのですから、教育の標準化もグローバルな規模で進めるべきです。
また、こうした教育は大学・大学院レベルにとどまる必要はありません。私の考えでは、コンピューターサイエンスやAI教育はK-12、つまり高校以前の段階から始まるべきものです。それならば、AI倫理の基礎的な内容もその早い段階から教えることができるはずです。「人々は知ればより良い行動をする(when people know better, they do better)」という言葉を私はよく口にしますが、教育こそが長期的な変化をもたらす最も根本的な力だと信じています。
Cucharini: Nashlieがおっしゃることに、私も完全に同意します。実はこの朝、いくつかの加盟国との議論の中で、アルゴリズムを設計する人々に対してAI倫理の入門的な内容を取り入れるべきだという話をしていたところです。問題の多くは、開発者が偏りの存在に気づいていないことから生じています。速度や性能、データの効率的な活用を最適化することに注力するあまり、そのシステムが引き起こし得る差別や、プライバシーの侵害といった問題への意識が育ちにくい環境があります。知識がなければ、問題を認識することも、回避することも、改善することもできません。だからこそ、開発の現場に倫理的な視点を持ち込む教育が不可欠なのです。
7.3 デジタルアクセスの格差と取り残されるコミュニティへの視点
Nashlie: 責任あるAIのデザインには、アクセシビリティという観点も含まれると私は考えています。グローバルな視点で見れば、インターネットへのアクセス自体を持たないコミュニティがいまだに多く存在しています。AIについて全く知らない、そもそもその存在に触れたことがないという人々も世界中にいます。私が住むアメリカのアトランタのような人口規模の大きな都市圏でさえ、デジタルアクセスの格差は現実として存在しています。
こうした人々に共通しているのは、責任あるAIが欠如することで最も深刻な影響を受ける可能性があるグループと重なっているという点です。技術にアクセスできない人々、AIについて知らない人々、デジタル社会に参加できていない人々こそが、偏りのあるシステムによって最も不利益を被るリスクが高いのです。私たちは財務的な収益をもたらすことを優先しがちですが、そこで立ち止まり、取り残されているコミュニティをどう包摂するかを真剣に問い直す必要があります。
また、テクノロジーに関心を持たない人々に対してどうアプローチするかという問いも重要です。今やスマートフォンを持っているだけで、AIと深く関わっています。音声認識、顔認識、推薦システム、これらはすでに日常の一部です。「なぜこのデバイスは私のことを認識しないのだろう」と感じたことがある人は、ぜひその疑問を入り口にしてほしいと思います。そのシステムを開発した人たちが、自分のような人のことを想定していなかったからかもしれません。その気づきこそが、技術への関心と参加の動機になり得ます。
さらに、STEMや技術の分野に入るために大学の学位やPhDが必要だという思い込みを崩すことも大切です。今はオンラインのコースやブートキャンププログラムなど、独学で学ぶためのリソースがかつてないほど充実しています。自己管理ができるタイプの人であれば、そうした経路からスタートしてAI関連企業に就職するケースも実際に増えています。大企業にも、多様な教育背景を持つ人材を受け入れる責任があると私は考えています。すべての人がPhDを取得できるわけではないし、そうである必要もありません。ブートキャンプや社会人向けのプログラム、日常業務へのAI活用といった入り口を広げていくことが、業界全体の多様性を高める上で不可欠です。
Cucharini: AIを怖がらないでほしいという言葉を、私からも強調したいと思います。今日ここに参加してくださっている方々、特に男性以外のあらゆる性別、あらゆる人種、世界中のあらゆる場所にいる方々に伝えたいのは、デジタル技術やAIを知ることは、それを使いこなすためにも、あるいは問題を認識して声を上げるためにも、とても重要だということです。知識があれば、技術を活用できる。知識があれば、害から身を守ることもできる。だからこそ、教育とアクセスの拡大は、単なる社会的善意の問題ではなく、責任あるAIを社会全体で実現するための根幹的な条件なのです。
8. 質疑応答:実践的課題への回答と知見
8.1 公平性保証の現実的限界・言語AIのバイアス・リスクレベルの定義方法
Cucharini: 聴衆からの質問として、「公平でバイアスのない結果をプロジェクトにおいてどのように保証するか」というものが来ています。Nashlieさん、いかがでしょうか。
Nashlie: 正直に申し上げると、100%の公平性を保証することはできません。これは私がどのトークでも最初に伝えることです。しかし、だからといって何もしなくていいという話ではありません。問題がどこにあるかを特定しようと努力すること、根本原因を探ること、そして改善できる部分については着実に改善していくことは確実にできます。
ただし、場合によっては根本原因を特定できても、それを修正することが技術的に不可能なケースも存在します。たとえば、特定の時期に特定の条件で収集されたデータセットを使っており、そのデータ自体に戻って修正することができないというケースです。そういうときにどうするか。私は医療のアナロジーを使って説明することがあります。医師は「健康的な食事をしてください、運動してください、水を飲んでください」とアドバイスします。私たちはそれが正しいと知っていますが、すべてを実行できるかどうかはまた別の話です。さまざまな事情があってそれが難しいこともある。大切なのは、自分に正直になって、今できることから着手し、継続することです。責任あるAIも同じで、完璧を目指して動けなくなるよりも、今できる一歩を踏み出すことの方が価値があります。実践を続ければ、必ず目標に近づいていきます。
Cucharini: 続いて、言語AIにおけるバイアスについて聞かせてください。異なる言語やデータセットに関連するバイアスは、視覚系のシステムとはまた異なる性質を持っていると思いますが、いかがでしょうか。
Nashlie: おっしゃる通りです。個人的な見解として、私たちはビジョン系のAIに多くの時間と労力を費やしてきましたが、言語はそれ以上に広く普及しており、社会への影響も大きいと考えています。言語AIには、音声認識、テキスト処理、そして今やビジョンと言語を組み合わせたマルチモーダルモデルなど、多くの側面があります。大規模な言語基盤モデル(large foundation language models)をベースとして、その上に多くのシステムが構築されていく現在のトレンドを考えると、その基盤となるモデル自体のバイアスはより一層重要な問題になります。個々のコンポーネントが適切にテスト・評価されているかどうか、そしてシステム全体としても評価が行われているかどうか、この両方を確認することが求められます。
言語の問題の難しさの一つは、情報がすべての言語で同じ程度に存在しているわけではないという点です。特定の言語やテーマについては十分なデータが存在する一方で、他の言語や地域に関連するトピックはデータが極めて少ないという不均衡があります。これはデータの収集段階から生じるバイアスであり、後から修正することが非常に困難です。私は言語AIに対して特別な関心と期待を持っており、その可能性をさらに広げていきたいと思っています。
Cucharini: 次に、Guillaume氏からの質問です。「AIシステムのリスクレベルをどのように定義すればよいか」という問いです。
Nashlie: 良い質問です。AIシステムとおっしゃっているということは、おそらく複数のコンポーネントが組み合わさったシステムを想定していると思います。私がまず勧めるのは、そのシステムを構成する個々の部分に分解し、それぞれにどのようなリスクが存在するかを書き出すことです。すべてのリスクを洗い出した上で、どれが高優先度でどれがやや低い優先度かを整理します。次に、それぞれのユースケースを明確に定義します。ユースケースごとにバイアス評価の実験を設計し、テストを重ねながら改善を積み重ねていきます。完璧に仕上げてから次に進むのではなく、一つひとつ「ひとまず完了」としてマークしながらサイクルを回し続けることが現実的です。なぜなら、先ほども述べた通り、公平性の検証は一度だけ行えば済むものではなく、常に戻ってきて再確認しなければならないプロセスだからです。リソースと時間の制約がある中で、すべてを一度に完璧にこなすことは誰にもできません。優先順位をつけて、一つずつ着実に進めることが最善の方法です。
8.2 集合知とシンボリックAIの可能性・国際標準化・研究資金調達・認証制度
Cucharini: James氏から興味深い質問が来ています。「知識駆動型AI、つまりシンボリックロジックのようなものを、データ駆動型の機械学習を統制するためのメタモデルおよび人間の集合知を集める手段として活用することについて、どう思うか」という問いです。
Nashlie: 非常に興味深い視点です。量子コンピューティングやWeb3など、自動的な推論を取り入れた新しい技術が次々と登場しており、それぞれに強力なインセンティブが存在しています。この質問で問われているのは、つまり人類の集合知をどう結集するかということだと理解しています。私は人間が協力し合えばより良い結果が得られると信じています。それは当然のことのように聞こえるかもしれませんが、現実には私たちはサイロの中で作業しがちです。AIを活用してそのような集合知のプラットフォームを構築するというアイデアは面白いと思いますが、同時にそのAI自体にもバイアスが入り込む可能性があるという問題を忘れてはなりません。私が今でも強く信じているのは、どれだけAIが進化しても、二人の人間が向き合って問題を解決しようと議論する営みを、AIが完全に代替することはできないということです。集合知のプラットフォームを目指す取り組みが増えることを歓迎しつつ、その中にある人間の対話の価値を大切にしていきたいと思います。
Cucharini: 倫理的AIをグローバルな舞台に持ち出すことについての質問もあります。AIはデジタルの世界において国境を知りません。私たちの倫理的イニシアチブを他のグローバルな取り組みとどう連携させ、整合性を持たせるかについてはいかがでしょうか。
Nashlie: 大学の認定制度が一つの参考になると思います。特定の基準を満たさなければプログラムや学位が認定されないという仕組みはすでに機能しています。それと同じように、コンピューターサイエンスやエンジニアリング、STEMのプログラムに責任あるAIと倫理に関する内容をより厳格に組み込むための基準を、まず大学レベルから策定してみてはどうでしょうか。法律や医学の分野では倫理に関する複数のコースが必修とされていますが、技術系の教育ではそれが一度か二度しか行われていない現状があります。この不均衡を是正するための標準を、グローバルなスケールで構築することは十分に現実的だと思います。そして、それは大学レベルにとどまらず、高校以前のK-12教育にまで広げていくことが理想です。
Cucharini: Tala氏から、責任あるAIの概念に取り組むデータサイエンティストへの資金提供をどう進めるかという質問が来ています。
Nashlie: 私が特に勧めたいのは、National Science Foundation(NSF)のような機関への寄付やパートナーシップです。私自身、ジョージア工科大学で博士課程の学生だった経験があるので、研究資金の重要性は身をもって知っています。NSFのような機関は研究グラントを提供しており、大学だけでなくコミュニティ組織とのパートナーシップを通じて特定の研究領域を前進させるための資金を出しています。私が最近関心を持っている分野の一つが、コンピューターサイエンス教育におけるダイバーシティの研究です。なぜ女性やマイノリティがSTEMに興味を持ちにくいのかという問いに対して、情報の提示方法を変えることで関心を引き出せるのではないかという仮説を検証するような研究が、NSFのグラントを通じて進められています。政府や産業界を待つだけでなく、自分たちで動くことも重要です。私自身がBean Pathという非営利組織を立ち上げたように、自分たちの組織を作って特定のアジェンダを推進し、研究資金につながるような活動をリードしていくことが、変化を起こす一つの道です。
Cucharini: 最後の質問です。James氏から、「B Corpや類似の認証プロセスへの準拠を責任あるAIの認証に組み込むことで、企業を責任あるAIの考え方に引き寄せることができるか」という問いです。またそもそも、企業を「説得」する必要があるのかという問いも加えさせてください。すでに信頼の危機は生じているのではないでしょうか。
Nashlie: 先ほど触れた調査データによれば、経営幹部の半数超がAIは自社の将来に不可欠だと認識している一方で、その大多数は責任あるAIをどこから始めればよいかわからないと回答しています。つまり問題の存在は認識されているけれど、何をすべきかがわからないという状況です。企業に対して責任あるAIの重要性を説く必要があるかどうかよりも、どうすれば実際に動き出せるかを示す方が今は重要だと思っています。文化的な変革も必要です。リソースの20%を責任あるAIに充てることの価値を伝え、それが実際に機能することを示すことができれば、より多くの企業が追随するはずです。そうした啓発と実践の橋渡しをすることこそが、私たちのような立場にいる人間の役割だと考えています。
Cucharini: Nashlieがおっしゃった「テストなしに何も仮定してはならない」という言葉は非常に印象的で、私はそのままメモに書き留めました。そしてUNESCOのAI倫理勧告においても同様に、システムの中にチェックポイントを設けて継続的に検証することが重要だとしています。誰かに対して不当な扱いをしていないか、誰かを傷つけるような予測や判断を下していないかを常に確認する仕組みを持つことは、倫理的なAI開発の核心です。最終的には必ず人間が責任を負う構造でなければならない。機械の判断を盾にして責任を逃れることは、どのような状況においても許されないというのが私たちの立場です。
9. クロージングと今後の展望
9.1 「知ればより良い行動ができる」:教育と啓発活動への思い
Cucharini: 最後に、Nashlieさんが取り組んできた数々のプロジェクトや活動の中で、人々がテクノロジーと親しみ、友好的な関係を築けるよう後押しするための最新の取り組みについて教えていただけますか。
Nashlie: 基本的には、こうした講演やトレーニングといった教育活動を続けることが私の中心的な取り組みです。実は私はイントロバート(内向的な性格)なので、普段であればこういった場に立つことはなかったかもしれません。しかし、このテーマへの情熱と動機があまりにも強いので、喜んでやっています。
地域コミュニティにおいては、私が立ち上げた非営利組織Bean Pathを通じて、若い人々をテクノロジーに触れさせることに注力しています。若い世代への働きかけこそが、長期的な変化を生み出す最も根本的な手段だと信じているからです。誰かに「これを知っているか」と伝えるだけで、その人の思考が変わり、行動が変わり、自分のコミュニティやビジネスの中でChange Makerになっていく。そういう連鎖を何度も目にしてきました。
私が常日頃から口にしている言葉があります。「人々は知ればより良い行動をする(when people know better, they do better)」というものです。この言葉が、私の活動すべての根底にあります。意識を広げ、知識を届け、そしてその知識を持った人々が自分の周囲で変化を起こしていく、そのサイクルを生み出すことが、いわば「伝道(evangelism)」としての私の仕事です。日常の業務と個人的な活動がこうして重なり合っていることを、私は心から嬉しく思っています。
Cucharini: Nashlieさん、本当にありがとうございました。あなたの仕事とその深さについては十分には語り尽くせませんが、今日のセッションを通じて、AIを追求する価値と、それを行う際に注意すべき点を多くの方々にお伝えいただけたと思います。今日のセッションが、より長い対話の始まりになることを願っています。
今日ここにいるすべての皆さんへのメッセージとして、AIやデジタル技術を怖がらないでほしいということを改めて申し上げたいと思います。どんな性別であれ、どんな人種であれ、世界のどこにいる方であれ、AIに関わることをためらわないでください。AIを知ること、そして使い方を学ぶことは、特に知識を持って臨むとき、非常に大きな助けになります。だからこそ、教育と啓発の積み重ねが重要なのです。
Nashlie: ありがとうございます。皆さん、今日は本当にありがとうございました。世界中のどこにいらっしゃる方も、おはようございます、こんにちは、そしてこんばんは。またいつかどこかでお会いしましょう。
