※本記事は、国際電気通信連合(ITU)が主催するAI for Goodグローバルサミットにおいて開催されたワークショップ「Ethical standards for the design & deployment of societally beneficial assistive robots」の動画内容を基に作成されています。動画はhttps://www.youtube.com/watch?v=xAl60K0DTMo でご覧いただけます。本記事では、ワークショップでの発表および討議の内容を要約・再構成しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈についてはオリジナルの動画をご視聴いただくことをお勧めいたします。
本ワークショップの登壇者は以下の通りです。Selma Šabanović氏(インディアナ大学ブルーミントン校、情報学・認知科学准教授)、Vicky Charisi氏(UCLロンドン教育研究所iMerc、リサーチアフィリエイト)、Shelly Levy-Tzedek氏(ベングリオン大学、准教授・認知・加齢・リハビリテーション研究室室長)、Maja Matarić氏(南カリフォルニア大学コンピュータサイエンス学科教授)、David Crandall氏(インディアナ大学ブルーミントン校、Luddyコンピュータサイエンス教授)、Takanori Shibata氏(産業技術総合研究所、上席主任研究員)、Friederike Eyssel氏(ビーレフェルト大学、心理学教授・CITEC研究室長)、Ginevra Castellano氏(ウプサラ大学情報技術学部、インテリジェント・インタラクティブシステム教授・ウプサラ社会ロボット研究室室長)、Alessandra Sciutti氏(イタリア技術研究所、テニュアトラック研究員・CONTACTユニット長)、Rodolphe Hasselvander氏(Blue Frog Robotics、CEO)、Randy Gomez氏(Honda Research Institute Japan、チーフサイエンティスト)。
AI for Goodグローバルサミットは、健康・気候・ジェンダー・包括的繁栄・持続可能なインフラをはじめとするグローバルな開発優先課題の推進にAIを活用することを促進する、国連の主要な行動志向プラットフォームです。ITU(情報通信技術を担当する国連専門機関)が主催し、40の国連関連機関との連携およびスイス政府との共同開催により運営されています。
※本記事は、国際電気通信連合(ITU)が主催するAI for Goodグローバルサミットにおいて開催されたワークショップ「Ethical standards for the design & deployment of societally beneficial assistive robots」の動画内容を基に作成されています。動画はhttps://www.youtube.com/watch?v=xAl60K0DTMo でご覧いただけます。本記事では、ワークショップでの発表および討議の内容を要約・再構成しております。なお、本記事の内容は登壇者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈についてはオリジナルの動画をご視聴いただくことをお勧めいたします。
本ワークショップの登壇者は以下の通りです。Selma Šabanović氏(インディアナ大学ブルーミントン校、情報学・認知科学准教授)、Vicky Charisi氏(UCLロンドン教育研究所iMerc、リサーチアフィリエイト)、Shelly Levy-Tzedek氏(ベングリオン大学、准教授・認知・加齢・リハビリテーション研究室室長)、Maja Matarić氏(南カリフォルニア大学コンピュータサイエンス学科教授)、David Crandall氏(インディアナ大学ブルーミントン校、Luddyコンピュータサイエンス教授)、Takanori Shibata氏(産業技術総合研究所、上席主任研究員)、Friederike Eyssel氏(ビーレフェルト大学、心理学教授・CITEC研究室長)、Ginevra Castellano氏(ウプサラ大学情報技術学部、インテリジェント・インタラクティブシステム教授・ウプサラ社会ロボット研究室室長)、Alessandra Sciutti氏(イタリア技術研究所、テニュアトラック研究員・CONTACTユニット長)、Rodolphe Hasselvander氏(Blue Frog Robotics、CEO)、Randy Gomez氏(Honda Research Institute Japan、チーフサイエンティスト)。
AI for Goodグローバルサミットは、健康・気候・ジェンダー・包括的繁栄・持続可能なインフラをはじめとするグローバルな開発優先課題の推進にAIを活用することを促進する、国連の主要な行動志向プラットフォームです。ITU(情報通信技術を担当する国連専門機関)が主催し、40の国連関連機関との連携およびスイス政府との共同開催により運営されています。
1. ワークショップの開幕——主催者紹介、趣旨、および「善」の定義をめぐる問題提起
1.1 主催者・オーガナイザーの紹介とワークショップの構成
Selma: 皆さん、ようこそ。今年も昨年に続いてここ国連のAI for Goodグローバルサミットに集まっていただけて、本当に嬉しいです。昨年このイベントに参加した私たちは、会場に持ち込まれたさまざまなロボットを目の前にして、大きなインスピレーションを受けました。しかしその一方で、深い疑問も感じずにはいられませんでした。展示されているロボットはどれも「ロボット・フォー・グッド」と称されていましたが、その「グッド(善)」とは一体何を意味しているのか、私たちには明確には見えてこなかったのです。その疑問がきっかけとなり、昨年のサミット後に共同研究者たちと議論を重ね、ロボティクスおよびソーシャルロボティクスの研究者たちが「善」をどのように定義しているのかを問う論文をまとめました。その論文は昨年、学術誌『Science Robotics』に掲載されています。今日のワークショップはその続きであり、より多くの方々と一緒にこの問いを深めていく場として設けました。
Vicky: 私からも補足させてください。私はUCLエデュケーションのアフィリエイト研究者として、主に子ども向けのロボットとAIと教育の分野を研究してきました。以前は欧州委員会の共同研究センターに6年間勤め、科学を政策に翻訳するための政策提言に携わってきました。昨年のサミットでSelmaとともに会場を歩き回りながら感じたのは、「ロボット・フォー・グッド」という言葉が非常に広く使われているにもかかわらず、その「グッド」の定義は発表者によってまちまちであり、多くの場合そもそも明確に定義されていないということでした。それが私たちがこのワークショップを企画した直接の動機です。今日は業界・学術・一般市民・政策立案者・NGOなど多様なバックグラウンドを持つ皆さんと一緒に、この問いに向き合いたいと思っています。
Shelley: 私はソーシャルロボットをリハビリテーションに活用する研究室を主宰しており、主なアプローチは参加型デザインです。主要なステークホルダーたちに直接「何が必要か」を尋ね、その回答に基づいてロボットのプラットフォームをグループごとに設計していきます。リハビリテーションといっても一口には語れず、対象となる集団によってニーズは大きく異なります。たとえばパーキンソン病の患者さんだけを取っても、患者本人・家族・臨床家それぞれで全く異なる見解が生まれることがあります。
Lee: 私はインディアナ大学のPh.D.候補生で、Selmaのもとで研究しています。主な研究テーマは、家庭・病院・学校におけるソーシャルロボットと子どものプライバシーに関する権利です。今日は時間管理の役を担います。フレンドリーに進めますが、時間が来たらきちんとお声がけしますので、どうぞよろしくお願いします。
1.2 アシスティブロボットの概念整理と本ワークショップの目標
Selma: アシスティブロボットについて簡単に整理しておきましょう。アシスティブロボットは、身体的・精神的・社会的な側面で人を支援するものであり、なかでも社会的相互作用を通じて支援を行うものをソーシャリー・アシスティブ・ロボット(SAR)と呼びます。これはMaya Matarが約20年前に提唱した概念です。スマートフォンのアプリや画面上のエージェントといった他のテクノロジーと比べたとき、ロボットが持つ最大の特徴は「物理的な共在(physical co-presence)」です。ロボットは実際に触れることもあり得る存在として目の前に存在します。そしてこの共在性は、画面越しのインタラクションとは異なる心理的・社会的効果をもたらすことが研究によって示されており、そこにこそロボット特有の可能性と課題の両方が宿っています。
Shelley: 今日のワークショップの目標をより具体的にお伝えします。私たちはすべての答えを持っているわけではなく、むしろ幅広い立場の方々からの視点を集めることこそが重要だと考えています。産業界・学術界・一般市民・政策立案者・NGOといった多様な声を一堂に集め、アシスティブロボットを展開することの倫理的考慮事項について率直に議論し、潜在的なリスクを最小化しながら便益を最大化するための方途を共に考えたい。具体的には、私たちが論文で提示した10の問いのリストを皆さんと一緒に見直し、追加・修正・削除を加えながら、社会として責任ある形でロボットを展開するための道筋を描くことが今日のゴールです。そして将来的には、今日の議論をベースに、アシスティブロボットを責任ある形で開発・展開するための標準化を目指したいと考えています。
Vicky: 「善」が異なる集団にとって相互に矛盾する場合があることも、私たちは十分に意識しています。善の定義は一枚岩ではなく、文脈・文化・立場によって異なり得ます。だからこそ今日のような場での対話が必要なのです。このワークショップを通じて何らかの方向性が見えてくることを期待していますし、議論の内容はホワイトペーパーとしてまとめ、皆さんにも共有する予定です。
2. コンピュータビジョンコミュニティにおける「善」の問い直し(David Crandle)
2.1 研究コミュニティの急成長がもたらした論文文化の変容——実証研究の知見
David: 本日はお招きいただきありがとうございます。私はロボット研究者ではなく、コンピュータビジョンの研究者です。ですので、少し視野を広げてAIコミュニティ全体における「AI for Good」という概念について率直にお話しさせてください。Selmaたちの論文を読みながら、正直に自問してみました。「AI for Goodと称されているプロジェクトの多くは、その『善』の定義をどこから持ってきたのか」と。答えは多くの場合、査読者や資金提供機関や投資家に対して「善そうに聞こえるから」というものではないでしょうか。つまりその「善」は、自分自身のためのものであって、必ずしも社会全体のためのものではないかもしれない。これは冷笑的に言っているわけではなく、AI研究者や実践者を動かしている動機そのものを真剣に考えてみることが重要だという意味で申し上げています。
コンピュータビジョンとは、画像や映像の中に何があるかを理解する分野であり、ロボティクスにとっても中核的な技術です。かつては計算機科学の中でも比較的静かな分野でしたが、ここ数年でニューヨーク・タイムズ紙をはじめとするメディアに頻繁に登場するほどの社会的存在感を持つようになりました。その規模の拡大は数字にも明確に表れています。全科学分野のジャーナル・学会を対象とした影響力ランキングにおいて、コンピュータビジョンの主要学会であるCVPR(Computer Vision and Pattern Recognition Conference)は、学術誌『Science』と並んで第4位にランクされています。私は今年のCVPRのプログラム委員長を務めていますが、今年は昨年比で30%増となる投稿数を受け付けました。そのうちポスターとして採択されるのは約23%、口頭発表に至っては1%未満です。これほどまでに競争が激化した環境の中で、研究者たちはどのように論文を書くようになったのでしょうか。
私の学生であるSam Gがここ25年間のコンピュータビジョン論文を対象に興味深い分析を行いました。その結果として浮かび上がってきたのは、現代の論文に共通する三つの特徴です。第一に、自分たちのシステムに固有の名称をつけること。"GFO"や"C-Extract"、"Closet"といった名前が並びます。第二に、論文冒頭に読者の目を引く大きなティーザー画像を配置すること。第三に、論文末尾に競合アルゴリズムと自分たちの手法を比較した大規模な結果テーブルを掲載し、自分たちの数値がすべての指標でボールド体(太字)になっていること——これが採択の条件と化しています。こうした論文スタイルは、深夜のテレビショッピングで「他社製品より20%優れています」と謳う広告と、どこか構造的に似ていると私は感じています。
2.2 研究者の感情調査から浮かび上がる興奮・疎外・倫理的懸念
David: こうした変化の中でコンピュータビジョン研究者たちが実際にどのような感情を抱いているのかを明らかにするため、私は民族誌学者であるNorman Sue教授と共同研究を行いました。アカデミアと産業界の双方から、キャリアのさまざまな段階にある研究者を幅広く対象にインタビューを実施したものです。
浮かび上がってきた感情は非常に幅広いものでした。まずポジティブな感情として、ディープラーニングの登場がコンピュータビジョンを救ったとも言える飛躍的な進歩への興奮が挙げられました。ディープラーニングは今や多くの人が使えるツールとなり、それに伴って学生がインターンシップ先を探す立場から、企業が優秀な学生を獲得しようと競争する立場へと力学が逆転したことへの驚きと喜びも語られました。
一方でネガティブな感情も数多く見られました。研究者の中には、もともと知覚・認知・視覚・学習についての根本的な問いに答えたくてこの分野に入ったのに、気づけばブラックボックス・エンジニアになってしまったという強い失望感を持つ人がいました。ベンチマーク上の精度をわずかに改善するために莫大な計算資源を費やすことへの疑問も語られました。また、数年前の論文がすでに「古文書」扱いされる「選択的健忘(Selective Amnesia)」とも言うべき現象への苛立ち、論文数の多さへの圧倒感、そして倫理やその他の主流から外れたテーマに取り組もうとする研究者が周縁化されていくことへの懸念も聞かれました。教育者たちにとっても、この変化は不利に働いているという声がありました。さらに驚くべきことに、こうした疎外感や孤立感は、トップ研究機関に所属する研究者の間でも珍しくなかったのです。
そして最も重要なのは、テクノロジーの向かう先への深い懸念です。あるインタビュー対象者はこう言いました。「私はもはや、砂に頭を突っ込んで他人の技術悪用を責めていればよい単純に幸せなオタク研究者ではいられない。なぜなら自分自身がそれを開発しているのだから」と。AIに流れ込む巨額の資金についても、恩恵をもたらす面がある一方で、本当に取り組みたい問題ではなく資金の流れを追いかけるしかない状況に多くの研究者が追い込まれているという問題が指摘されました。
2.3 「ゴッドトリック」とインセンティブ構造の問題——真の善に向けた提言
David: これらの知見が、Selmaたちの論文や今日のワークショップのテーマとどう結びつくかを考えてみましょう。Donna Harawayの言う「ゴッドトリック(God Trick)」という概念があります。科学者はしばしば自分たちが客観的に世界を測定していると思い込んでいますが、実際には研究対象の選択、測定のための道具の設計、結果の解釈など、あらゆる段階において主観が入り込んでいます。客観的でないものを客観的であるかのように扱うことは、多数派の視点を補強し、少数派の視点を見えにくくするリスクを孕んでいます。
コンピュータビジョンの文脈でこのゴッドトリックが現れる典型例は、収集したデータセットが世界の偏りのない完全な反映であると無意識に仮定すること、あるいは結果テーブルの中の定量的指標こそが「良さ」を測る客観的な方法だと仮定することです。そして同じ論理で、「私が科学者として善だと言うのだから、これはAI for Goodだ」という主張もまたゴッドトリックの一形態です。
では、どうすればよいのか。私が考える方向性は二つあります。一つは、インセンティブ構造そのものを見直すことです。現在のアカデミアと産業界におけるAI研究のインセンティブは、定量的指標での競争、論文の採択数、資金の獲得に集中しています。善を真に追求するためには、こうした定量的指標への偏重を減らし、より全体論的な・時には定性的な評価を重視するよう、評価の仕組みを変えていく必要があります。もう一つは、善を定量化してしまうというアプローチです。つまり「善」そのものを競争上の指標にしてしまえば、少なくともその指標の上で善を目指す動機づけが生まれます。たとえば今日会場で展示されているロボットすべてに、Selmaたちの10の問いに基づいた「栄養成分表示」のようなラベルを義務づけることを想像してみてください。食品の栄養ラベルが「これは体に良い食品か悪い食品か」を断言するものではなく、消費者が判断するための事実を整理して示すものであるように、そのロボットがどのような文脈で設計され、誰のために作られ、データはどこで処理されているのか——そうした情報を透明なフォーマットで開示することが、「善」を社会全体で問い直すための出発点になり得ると思います。
3. 心理学的視点からみたロボットへの誤解・アンビバレンスと研究上の課題(Friederike Eyssel)
3.1 実験心理学の立場からみたロボット研究の課題——外的妥当性・縦断研究・異文化比較
Friederike: ありがとうございます。心理学者として私が何をしているかをまずお伝えします。私は人間の認知・感情・行動を導く根本的な原理を理解しようとしており、通常は実験室という環境の中で、特定の変数間の因果関係を確立するために実証実験を行っています。その対象は人間だけでなく、ロボットとのインタラクションも含まれます。ロボットを用いることで、ある特定のロボット行動が人間の認知・感情・態度にどのような影響を与えるかについての理論的仮説を検証することができます。
ただし、これは少々乾いた視点だということは自覚しています。なぜなら、「ロボット・フォー・グッド」というマクロな問いと、実験室の中で因果関係を緻密に検証するという私たちのアプローチの間には、一定の緊張関係があるからです。実験室での研究には外的妥当性の限界があります。人工的に統制された環境での知見が、実際の社会においてどこまで通用するかは常に問い直さなければなりません。
そもそもロボットは、今どこにいるのでしょうか。私たちの論文にも、会場のデモにも、ロボットはいます。しかし学校に、家庭に、医療現場に、実際にロボットが日常的に存在しているかというと、まだそこには大きなギャップがあります。ロボットが実際に善であるか悪であるかをすべての人々に対して評価するためには、実験室の壁を超えて「野外(in the wild)」に出ていかなければなりません。自然な文脈の中で、長期間にわたってロボットと人々がどのように関わるかを調べる縦断的研究が必要です。さらに、異文化的な視点も不可欠です。ある文化圏での知見が他の文化圏でも成立するとは限らず、多様性への配慮はロボット研究においても同様に求められます。そして研究者自身が持つバイアスを自覚し、それを研究に取り込んでいくことも重要です。Selmaたちの論文は、こうした今後の研究が進むべき方向を照らすガイドラインとして非常に有益だと思っています。
3.2 市民調査データにみるアンビバレントな態度と誤解・期待バイアスへの対処
Friederike: もう一つ重要な点として、ロボットや自律型機械に対して人々が実際にどのような認識を持っているかについても触れておく必要があります。ロボカリプスがやってくると心配する人もいれば、AIに仕事を奪われると不安を感じる人もいます。SF作家たちが描いてきたような「ロボットが世界を支配する」という未来像は、すでに実現しているでしょうか。私が見ている限り、そうではありません。しかし人々の頭の中にはそうした表象が根強く存在しており、それが実際のロボットへの態度に影響を与えています。
私自身のデータでも、ロボットが実際に何ができて何ができないのかについての誤った認識が、ユーザーの期待を歪め、態度をアンビバレントなものにしていることが示されています。アンビバレンスとは心理学的には、ポジティブな評価とネガティブな評価が同時に共存している状態を指します。ドイツの市民を対象とした調査では、自律型ロボットに対してポジティブな連想とネガティブな連想の両方が明確に見られました。ロボットへの反応は一様に好意的なものではなく、プライバシーやセキュリティへの懸念が明確に表明されていました。
ここで重要なのは、測定方法の問題です。態度をシンプルな尺度で測定すると、表面上は「中程度に肯定的」と見えても、実際にはポジティブとネガティブが拮抗しているアンビバレントな状態を隠してしまう可能性があります。ロボットを嫌だと思っている人たちの声を見えなくしてしまうような測定では、研究として不十分です。ロボットを自分の家に置きたくないと感じる人々の存在を、私たちはきちんと認識しなければなりません。そうしたアンビバレンスや誤解を放置したまま技術を展開することは、倫理的に問題があります。
3.3 ステークホルダー参加とカスタマイズによる心理的オーナーシップの醸成——EU プロジェクトPEROの知見
Friederike: では、こうした誤解やアンビバレンスに対してどのようなアプローチが有効なのでしょうか。一つの方向性は、ロボットのイメージ(imaginary)を変えていくことです。そのための実践的な手段として、私はステークホルダーの参加とロボットのカスタマイズという二つのアプローチを挙げたいと思います。
EUが助成するプロジェクトPEROからの知見がここで役立ちます。ロボットと関わる人々——ユーザーであれ、介護者であれ、教師であれ——をロボット開発のプロセスに早期から巻き込み、彼らがロボットを自分のニーズや好みに合わせてカスタマイズする機会を与えることで、ロボットへのポジティブな態度や信頼感が高まることがわかっています。さらに、カスタマイズの経験を通じてロボットに対する「心理的オーナーシップ(psychological ownership)」が生まれることも確認されています。「このロボットは自分のものだ」という感覚です。ロボットを隅に置かれたままにしておくのではなく、ユーザー自身がそのロボットと関わった経験を持つことで、まるで自分の一部のように感じられる。こうした感覚の醸成が、ロボットに対する現実的かつポジティブな認識を作り出す上で有効です。
もう一つの方向性は、ロボット行動の透明性です。ロボットが説明可能で(explainable)、読み取り可能で(legible)、予測可能(predictable)であることが重要です。ただし私は心理学者として、「透明性」という概念それ自体が理論的に明確に定義され、適切に測定されなければならないという点を強調したいと思います。透明性が何を意味するかを曖昧なまま使っていては、それが研究対象として成立しません。概念を明確にし、適切な測定項目を設計し、ロボットの透明性が人々の誤解をどう解消するかを実証的に示すこと——この地道な作業こそが、ロボット研究の質を高める上で欠かせません。まだ未発表の知見ではありますが、この方向での研究を現在進めており、今後の成果にご期待いただければと思います。
最後に、今日のワークショップのテーマである「善」について一言添えます。多分野が連携した包括的な視点こそが、ロボットを多くの社会・多くの文化において「善」と見なされるものにしていくための鍵だと思います。しかし同時に、すべての人がロボットを好きになるわけではないという現実も受け入れる必要があります。誰もが賛同するという前提ではなく、多様な立場の人々が共存できる形でロボットを社会に位置づけていくこと——そのためにこそ、基礎研究と応用研究が手を携えて進んでいかなければならないと考えています。
4. 周産期うつ病スクリーニングへのソーシャルロボット活用——倫理的考察(Jeanette Castellano)
4.1 周産期うつ病の実態とロボット活用プロジェクトの概要
Jeanette: 本日は、ソーシャルロボットを周産期うつ病のスクリーニングに活用するという私たちの研究プロジェクトについてお話しします。まず周産期うつ病とは何かを確認しておきましょう。周産期うつ病とは、妊娠中または出産後に発症するうつ病性障害であり、女性の10〜20%が罹患するとされています。臨床的な診断を受けることが治療への入口となりますが、専門的な人員へのアクセスには地域差があり、最大で69%のケースが未検出のまま見過ごされているという現状があります。
スウェーデンにおける母子ケアの実態を見てみると、ある調査では出産後6〜8週間の時点でスクリーニングを受けた母親は全体の70%にとどまっています。つまり出産後であっても、すべての母親が周産期うつ病のスクリーニングを受けているわけではなく、むしろ焦点は子どもの健康に当てられがちです。妊娠中についてはさらに深刻で、将来の母親たちは助産師と6〜10回面会する機会があるにもかかわらず、妊娠期間中には周産期うつ病のスクリーニングが全く実施されていません。
こうした背景から、ウプサラ大学の女性生涯精神保健センターの助成を受けて、私たちはソーシャリー・アシスティブ・ロボットが周産期うつ病のスクリーニングに活用できるかどうかを研究しています。具体的には、ロボットが臨床家の補助として機能できるかどうか、またスクリーニング以外の関連する役割を果たせるかどうかを検討しています。このプロジェクトは国連の持続可能な開発目標(SDGs)の第3目標「すべての人に健康と福祉を」とも整合しており、あらゆる年齢のすべての人に健康的な生活を確保するという理念に沿っています。
私たちが使用しているのはFurhat Roboticsが製造するFurhatロボットです。このロボットが周産期うつ病のスクリーニング質問票を患者に対して投与するという役割を担うことを想定しています。プロジェクトは学際的な構成を持っており、法社会学・人間ロボットインタラクション・周産期うつ病研究・ジェンダー研究の専門家が連携して進めています。研究の枠組みとしてはSelmaたちの論文における問いのリストと、EUの信頼できるAI(Trustworthy AI)の要件を参照しています。
4.2 多職種ステークホルダー調査の知見——精神科医・ジェンダー研究者・当事者母親の視点
Jeanette: 研究の核心は、多様なステークホルダーへのインタビュー調査です。インタビューに先立ち、私たちはまず参加者にビニェット(vignette)、すなわちロボットが周産期うつ病スクリーニングをサポートする場面を描いた文章を読んでもらいました。さらにロボットと患者の架空のインタラクションを映したフィクショナルビデオも提示した上で、インタビューを実施しました。対象は精神科医・周産期うつ病専門家・ジェンダー研究者・周産期うつ病の経験を持つ母親たちです。
まず精神科医および周産期うつ病専門家の視点を見てみましょう。彼らはソーシャルロボットが有益であると考える条件として、訓練を受けた人員が不足している状況や、スクリーニングのために時間を節約しなければならない状況を挙げました。同時に彼らが強調したのは、ロボットはあくまで人間を「補助」するものであり、医療従事者を「代替」するものであってはならないという点です。これはEUの信頼できるAI要件における「人間の主体性と監督(human agency and oversight)」および「説明責任(accountability)」の要件と整合しています。一方でジェンダー研究者たちは、ソーシャルロボットを医療機関の外、つまり母親たちをより広く支援できる構造の中で活用するという可能性に着目していました。医療という文脈では受けにくい支援を、別の場所で提供できるかもしれないというわけです。精神科医からはロボット活用の否定的な側面として、職の喪失への懸念も示されました。これはEUのTrustworthy AI要件における「社会的・環境的ウェルビーイング(societal and environmental wellbeing)」、特に「社会と民主主義」の観点と対応しています。
次に、周産期うつ病を経験した母親たちの視点です。母親たちはまず、妊娠中および出産後を通じて周産期うつ病に関するより多くの情報提供が必要だという声を上げました。また早期支援の重要性も強調されています。ロボットの活用について特に興味深い見解として挙げられたのは、人間の臨床家ではなくロボットに話す方が気が楽かもしれないという意見です。人間に話すと判断されてしまうかもしれないという不安が、ロボットを介することで軽減される可能性があるというのです。さらに、紙の自己記入式質問票よりもロボットが質問票を投与してくれる方が自己省察が促されるという声もありました。医療専門家の代替ではなく補完として位置づけることの重要性も繰り返し言及されました。これはTrustworthy AIの「社会的影響(social impact)」および「人間の主体性と監督」の要件に対応しています。父親たちからは、どのデータが保存・共有されるのかについての透明性を求める声があり、これはTrustworthy AIの「透明性」および「プライバシーとデータガバナンス」の要件に対応します。否定的な側面としては、ロボットに任せられることで医療システムに見捨てられたと感じてしまうかもしれないという懸念が示されました。
Selma: Jeanetteが示してくれたように、ステークホルダーの意見は非常に混在していますね。Friederike が先ほど指摘していたアンビバレンスがまさにここにも現れています。ロボットの導入に非常に前向きな母親がいる一方で、明確に懐疑的な母親もいる。こうした多様な声を無視せず、設計に反映させることが重要だと思います。
Jeanette: おっしゃる通りです。現在、私たちは周産期うつ病を最近経験した母親たちと実際のロボットを用いたリアルなインタラクションの研究を進めています。これまでのインタビューはロボットとの実際のやり取りではなくビニェットやビデオを媒介にしたものでしたが、今後の研究ではリアルロボットとの対面インタラクションがどのような経験を生み出すのかを検証していく予定です。
4.3 EU 信頼できるAI要件との対照分析と今後の規制・法的枠組みの必要性
Jeanette: インタビュー調査全体を通じて見えてきたのは、ソーシャルロボットを周産期うつ病スクリーニングに活用することには、機会と課題の両方があるということです。さまざまなステークホルダーの間で「善」が相互に対立し得ることも明らかになりました。患者にとっての善、臨床家にとっての善、医療システムにとっての善——これらが必ずしも一致しないのです。
こうした複雑な状況を乗り越えていくためには、まず政策と法的枠組みが必要です。具体的には「善が対立する場合、どのように調整するか」という問いに答えられるような枠組みです。加えてTrustworthy AIの倫理ガイドラインを実践の場でどのように運用可能な形に落とし込むかを検討しなければなりません。また「規制のサンドボックス(regulatory sandbox)」、すなわち安全な環境での試験的な実施の場も必要です。こうした取り組みを進めるためには、今日のワークショップのような社会的なステークホルダーを巻き込んだ学際的な議論が不可欠です。
最終的に私たちが向き合わなければならない問いは、「そもそもロボットが必要なのか」という根本的なものです。もしロボットを活用するとしたら、ロボットの利点を活かしながら、人間の医療従事者を代替・削減するのではなく、むしろ彼らへの支援を厚くする方向でどう設計するかが問われます。周産期うつ病のスクリーニングにロボットを倫理的に統合するためには、こうした問いに対して誠実に向き合い続けることが求められると思っています。
5. ロボットを人間研究のツールとして使う——認知ロボティクスの可能性とリスク(Alexandra Sciutti)
5.1 合成的アプローチの意義——ロボットによる人間の相互作用・認知の解明
Alexandra: 本日お話しする内容は、他の発表者の方々とは少し異なるアプローチです。私はロボットを直接的な支援ツールとして使うのではなく、人間そのものを理解するための研究ツールとして使っています。これは比較的古い発想に基づいており、複雑なシステムを理解するために、より単純な合成システムを構築して観察するという「合成的アプローチ(synthetic approach)」です。人間という非常に複雑なシステムを理解するために、ロボットというある程度制御可能なシステムを使うというわけです。
このアプローチがなぜ有益かといえば、ロボットは「制御可能なエージェント(controllable agent)」だからです。ロボットが何を知覚し、どのように行動するかを研究者が設定できます。さらにロボットは「随伴的エージェント(contingent agent)」でもあります。リアルタイムに環境を感知して反応することができ、人間と同じ空間を共有します。これにより、インタラクションが実際に展開される瞬間をリアルタイムで研究することができるという、他の手法では得られないユニークな機会が生まれます。
ロボティクスの観点からも、このアプローチには重要な意義があります。人間の相互作用についての深い理解は、より良いロボットの開発に直接フィードバックされます。人間のことをよりよく知ることで、人間に適応するAIシステムやロボットを構築するための洞察が得られるのです。この研究が科学全体にとっての貢献となり得るだけでなく、ロボティクス自身にとっても、人間に本当に役立つ機械を作るための基盤になると考えています。
ただし正直に言えば、このアプローチにはダークサイドもあります。Davidが「ゴッドトリック」と呼んだものと似た構造的な問題が、ここにも潜んでいます。ロボットという特定のツールを選ぶことで、研究者はそのツールで扱いやすいテーマを優先的に研究するようになります。過去のロボティクスや認知ロボティクスが、運動行動や身体的な振る舞いに焦点を当てることが多く、感情的な側面の研究が相対的に少なかったのは、感情をロボットで研究することが技術的に困難だったからだと私は考えています。ツールが研究対象を規定してしまうという偏りは、常に意識しておかなければなりません。
5.2 生物学的動作・非言語行動の実験的知見——感情伝染・模倣伝染の発見とその倫理的含意
Alexandra: 私たちの具体的な研究成果についてお話しします。人間の脳にはミラーニューロンと呼ばれる神経細胞が存在しています。これは自分が何か行動をするときだけでなく、他者が同じ行動をしているのを観察するときにも活性化するニューロンです。これは人間が他者の動作に対して神経レベルで非常に敏感に反応するように設計されていることを示しています。私たちが別の人間と協調作業をするとき、意識的な努力なしに動きを合わせられるのは、こうした神経基盤があるからです。
この仕組みを理解した上で、私たちはロボットの動きに同様の「署名的特性(signature properties)」を実装できるかどうかを試みました。つまり人間の脳の社会的な領域を、人間を観察するときと同様に活性化させるような動きをロボットに持たせることができるかという問いです。これは容易ではありませんでしたが、適切な方法でロボットを動かすことにより、人間の観察者の脳において、別の人間を観察したときと非常に似た社会的な脳領域の活性化を引き起こすことができるという知見を得ました。
さらにこの神経レベルでの反応は、行動レベルでも現れます。一つは「動作伝染(motion contagion)」です。たとえば街を歩いていて前を行く人が急に速歩きになると、自分も知らず知らずのうちに速くなることがあります。同じことがロボットでも起きます。ロボットが生物学的な動きのパターンに従って動くと、人間も自然とその動きに引きずられるのです。もう一つは「自動的模倣(automatic imitation)」です。ロボットが攻撃的な動きのスタイルで動いていると、それを観察している人間もより攻撃的な動きをするようになるという実験結果が得られています。
この知見は倫理的に重要な含意を持っています。これは人間が意識的に気づかないうちに、ロボットの振る舞いによって行動が影響を受けてしまうことを意味するからです。無意識・非言語的なレベルでの影響力という、設計者がコントロールしにくい形での作用が存在することを、ロボット開発者は真剣に受け止めなければなりません。
Selma: Alexandraの指摘は非常に重要だと思います。ロボットが人間の行動に対して無意識レベルで影響を与えるとすれば、それは「ロボットが持つ影響力の透明性」という問いに直結します。ユーザーが知らないうちに影響を受けているとしたら、それはどこまで許容されるのでしょうか。
Alexandra: おっしゃる通りです。私の立場としては、この無意識的な促進の仕組みそのものを排除しようとするのではなく、別の次元でロボットであることを明示することが一つの方向性だと考えています。つまりロボットが人間との協調を促進するための非言語的なツールを活用しつつも、「これはロボットだ」ということを形態的・視覚的に明確に示す設計を心がける。私たちの研究グループが現在進めているのは、まさにそのような方向性——「明示的にロボットらしい(explicitly robotic)」でありながら、協調を促進する非言語行動の原理を活かした設計の探求です。
5.3 研究言語の罠と学際的対話の必要性——「意図理解」「予測」などの概念借用がもたらすリスク
Alexandra: 最後に、私が特に強調したいリスクについてお話しします。それは「言語の罠」です。私は自分の研究を説明するとき、しばしばこんな言い方をします。「ロボットと人間の相互理解を研究している」「ロボットが相手の意図を予測できるようにしたい」と。私自身はこれらの言葉を使うとき、非常に限定的な技術的意味合いで使っています。たとえば「意図を予測する」というのは、ロボットが次にあなたが手を伸ばそうとしているオブジェクトを推測するというレベルの話です。「相互理解」も、特定の文脈の中で相手の内部状態についての推測を行うというレベルです。
しかし「意図(intention)」「理解(understanding)」「予測(prediction)」といった言葉は、一般の人々の耳には、私が意図するよりもはるかに豊かな意味として届いてしまいます。これらの言葉は哲学的・日常的な文脈では、人間の深い内面的プロセスを指すものとして使われているからです。私が「ロボットが意図を理解する」と言えば、聞いている人の多くは私が想定しているよりもずっと高度な能力をロボットが持っていると解釈してしまうかもしれません。
Davidが「ゴッドトリック」と表現したように、研究者が意識せずに大きすぎる主張をしてしまう構造がここにもあります。しかもこの言語の問題は研究者個人の誠実さの問題だけでなく、コミュニティ全体が持つ慣習的な語法の問題でもあります。ロボティクスの世界では、他分野から概念を借用して機械の能力を記述することが日常的に行われていますが、その借用された概念の本来の意味と、実際のロボットの能力との間のギャップが、社会全体のロボットへの誤解を生み出す温床になっています。この問題はFriederikeが述べたロボットへの誤解・期待バイアスとも深く結びついています。
Friederike: 同意します。私が先ほどお話ししたアンビバレンスや誤解も、まさにこうした言語の問題から部分的に生まれていると思います。研究者が「理解」「感情」「知性」という言葉を使えば、メディアがそれを増幅し、一般市民がさらに誇張して受け取るという連鎖が起きます。
Alexandra: だからこそ、学際的な対話が不可欠です。私はIEEEの認知ロボティクス技術委員会での活動を通じて、産業界・他分野の研究者・社会全体を巻き込んだ対話の場を作ろうとしています。異なる分野の人々と議論することで、自分たちの言語が他の文脈でどのように受け取られるかが自然と見えてきます。これは自己修正のメカニズムとして機能します。私が「意図」という言葉を使ったとき、哲学者がそれは意図ではないと指摘してくれれば、より正確な言葉を探すことになります。Selmaたちのような論文がまさにこうした対話を促進するものであり、今日のようなワークショップがその場として機能していると思っています。
6. Buddy ロボットによる社会的インパクト——教育・自閉症支援・高齢者ケア(Rolph / Blue Frog Robotics)
6.1 Blue Frog Robotics の概要と三つのユースケース
Rolph: 皆さん、こんにちは。私はBlue Frog Roboticsの創業者です。私たちはヨーロッパにおけるソーシャルロボティクスの主要プレイヤーの一つであり、すでに2000台以上のロボットを主にヨーロッパ各地に展開しています。私たちが注力しているのは、強い社会的インパクトを持つ特定の領域です。具体的には、自閉症を持つ子どもたち、教育・インクルージョンが必要な病気の子どもたち、そして高齢者ケアという三つの領域です。私たちのミッションは、テクノロジーと人間のインタラクションを変革し、より包括的で共感的な社会を作ることです。
そのために開発したのが、Buddyというロボットです。BuddyはAIとロボティクスの理想的な体現者として設計されており、生成AIをはじめとする多くのAI技術を統合しています。周囲の環境を把握し、人々と対話し、自発的に話しかけることができます。そして私たちのビジョンにとって極めて重要なのが、価格の問題です。Buddyは市場に出回っている中でも本当の意味で手の届く価格帯のロボットの一つです。私たちのビジョンは、「明日、誰もがロボットと共に暮らす」というものです。今日、誰もがスマートフォンを持っているように、ロボットも同じ価格帯で提供されるべきだと考えており、iPhoneと同程度の価格での提供を目指しています。現在の価格は2000〜2500ドル程度です。
私たちが取り組む三つのユースケースを順番にご説明します。第一は長期療養中の子どもたちへのテレプレゼンス支援、第二は自閉症を持つ子どもたちへのコミュニケーション支援、第三は高齢者の孤立対策とコンパニオンシップの提供です。それぞれに異なるニーズと倫理的考慮事項があります。
6.2 各ユースケースの効果・リスク・ステークホルダー協働の実態
Rolph: 第一のユースケースは、長期入院中の子どもたちへのテレプレゼンス支援です。長期間病院に入院しなければならない子どもたちは、学校での学習を継続することが難しくなります。私たちはそうした子どもたちに病室でタブレットを提供し、学校の教室にあるBuddyロボットをそのタブレットから操作できるようにしています。子どもはロボットのカメラを通じて教室を見渡し、教師やクラスメートと会話し、自分の作業を共有することができます。まるで本当にそこにいるかのような体験です。授業中だけでなく、休憩中に外で遊んだり、博物館を見学したり、自宅から家族とつながったりすることにも活用できます。
この取り組みの効果について言えば、入院中の子どもにとっては学習の継続、社会的インクルージョン、自律性と主体性の維持、そして不安とストレスの軽減という意義があります。家族にとっては精神的な安心感が得られます。クラスメートにとっても、仲間の存在を通じた連帯感や社会への意識の向上という教育的な効果があります。また社会的な経済的インパクトについても、誰もまだ語っていませんでしたが重要な観点だと思っています。
一方でリスクも経験しました。技術的な障害が発生したとき、それに慣れ親しんでいた子どもへの影響が非常に大きかったのです。ロボットが使えなくなると、クラスメートとのつながりが突然途絶えてしまう。このテクノロジーへの依存がもたらす脆弱性は深刻な問題です。私たちはフランスの教育省と連携してこのプログラムを展開しており、フランス国内でコンペティションに優勝し、大規模な展開を進めています。教師・家族・教育省からのフィードバックを継続的に収集しており、フランスの病院による臨床研究も実施されています。
Rolph: 第二のユースケースは、自閉症を持つ子どもたちへの支援です。Buddyを活用して、社会的コミュニケーションスキルの向上を目指しています。具体的には、日常の決まった儀式や手順を教えるインタラクティブなシナリオと物語の作成、動きや身体活動のためのジェスチャーゲーム、そして危機的な状況での仲介手段としての活用です。自閉症を持つ子どもたちにとって、人間よりもロボットとのインタラクションの方が入りやすい場合があります。タブレットを使ったアプリケーションを通じて、子どもたちがロボットをプログラムし、その反応を即座に確認するという体験も非常に有益であることがわかっています。Buddyが自分でプログラムした通りに反応するのを見ることで、子どもたちは因果関係を学び、達成感を得ることができます。
この取り組みの効果として、子どもたちの社会的インタラクションスキルの向上、家族への情緒的サポート、教育的支援が挙げられます。リスクとしては、ここでもテクノロジーへの技術的障害の問題と、ロボットとのインタラクションには長けても人間との社会的インタラクションに移行できない社会的孤立のリスクがあります。ロボットはあくまで最初のステップであり、最終的な目標は人間同士の社会的インタラクションへとつなげることです。私たちは教師・家族・子どもたち・専門療法士と協働しており、GBアソシエーションによる社会的スキルへの影響に関する臨床研究も実施しています。製薬大手のViatrisなどとも連携しています。
Rolph: 第三のユースケースは高齢者ケアです。実はこれが私がBlue Frog Roboticsを創業した最大の動機でした。高齢者、特に一人暮らしの高齢者が抱える孤立の問題を解決したいというのが出発点です。Buddyを通じて、単に話し相手になるだけでなく、医師とのテレ診療、健康モニタリング、テレプレゼンス機能による家族確認も可能です。家族がどこにいても、タブレットからBuddyを通じて「お祖母ちゃん、大丈夫?」と確認できます。ロボットは「クロードさん、大丈夫ですか?心拍数が過去のレポートよりかなり高くなっています。少し休んだ方がいいですよ」と声をかけ、心拍数が異常に高い場合にはアラートを発信します。家族は遠く離れた場所からでも状況を確認でき、精神的な安心感が得られます。
特に重要なのは、高齢者の方々はBuddyを「テクノロジー」として見ていないということです。私たちがヨーロッパで展開実験を始めたとき、多くの人は高齢者がテクノロジーを受け入れないだろうと思っていました。しかし実際に高齢者の方々がBuddyを目にすると、テクノロジーではなくキャラクター、仲間として捉えるのです。だからこそ非常にスムーズに受け入れられます。高齢者にとって最も重要なのはコンパニオンシップ——一人でいないということ——であり、Buddyはその核心的なニーズに応えています。認知的な刺激、家族とのつながり、そして家族にとっての安心感という意義があります。
6.3 感情刺激・依存・倫理的懸念とホワイトペーパーへの取り組み
Rolph: 倫理についても率直にお話しします。私たちはBlue Frog Roboticsの中に倫理担当部門を設け、ソーシャルロボティクスの倫理に関するホワイトペーパーをすでに執筆しています。もし関心のある方は後でリンクをお伝えしますので、ぜひ貢献していただければと思います。
最も大きな問いの一つは、「ロボットに感情を持たせているように見せること、あるいは感情があるかのように振る舞わせることは、善いことなのか悪いことなのか」という問題です。私たちはBuddyに感情的な表現を持たせており、高齢者やその他のユーザーとの間に共感的・感情的なつながりを意図的に作り出しています。これについて批判的な声があることも知っています。「ロボットが本当の感情を持つかのように言うべきではない」という意見です。しかし実際にロボットと共に生活している人たちはそうは言いません。彼らはロボットが人間でも動物でもないことを理解した上で、それでも仲間(companion)として受け入れています。問題を提起するのは、多くの場合、ロボットと一緒に生活していない人たちです。
また長期的な倫理的懸念として私が重視しているのは、ロボットが人々の思想や行動に対して知らず知らずのうちに影響を及ぼす可能性です。たとえばBuddyが何年もの間、特定のジョークや特定の反応を繰り返すことで、ユーザーの政治的判断や投票行動にまで影響を与えるかもしれない。これは私が真剣に考えている問題であり、だからこそ倫理的なガイドラインと継続的な監視が必要だと感じています。
Selma: Rolphが提起した「ロボットに感情を持たせることの倫理」という問いは、非常に核心的なテーマです。設計者が意図的に感情的なつながりを作り出すことと、ユーザーが自然にそのつながりを感じることの間には、どのような倫理的境界線が引かれるべきなのか。これはまさに今日の議論全体に通底する問いだと思います。
Rolph: まさにそうです。私たちはロボットが普及し始めた時代の最初のページに立っています。私はロボットエンジニアとして、若い頃は数年後にはロボットがあらゆる場所にいるだろうと確信していました。しかし現実はそうではありませんでした。今がようやくその第一歩を踏み出す正しいタイミングだと感じており、だからこそ今この時点で倫理・規制・ガイドラインについての議論を始めることが不可欠なのです。ロボットは今後ますます日常生活に入り込んでくるでしょう。個人データを収集し、重大な結果をもたらす意思決定に関与するようになるでしょう。そうなる前に、倫理的な枠組みを整えておかなければなりません。
7. Honda HARU ロボットによる異文化交流促進——設計理念と進行中のパイロット研究(Randy Gomez)
7.1 HRI の研究評価文化と社会的分極化への応答としての研究方向性
Randy: 皆さん、こんにちは。まず正直に申し上げると、私のスライドは今日のワークショップのテーマを念頭に置いて準備したものではなく、最初からアップロードしていたものをそのまま使っています。ですので、先ほどの発表者の皆さんのお話を聞きながら、できる限り今日のテーマと結びつけてお話しするよう努めます。
私が所属するのはHonda Research Institute、略してHRIです。これはHondaモーターとは別組織であり、Hondaの研究開発部門とも異なります。HRIは基礎研究を専門とする機関であり、必ずしも製品化を前提としない、より根本的な問いに取り組む研究を行っています。
HRIで研究提案をするとき、上司から必ず二つの問いを突きつけられます。一つ目は「このプロジェクトのAzahoは何か」——つまり、このプロジェクトが目指すターゲットは何かという問いです。二つ目は「このプロジェクトの価値は何か」という問いです。技術的にどれほど優れたアイデアであっても、社会やユーザーにとっての価値が明確でなければ、プロジェクトは承認されません。この評価文化は、Davidが指摘した「インセンティブ構造」の問題と対照的な事例として捉えることができます。量的な指標での競争ではなく、社会的価値そのものを問い続ける組織文化が、私たちの研究の出発点にあります。
こうした評価文化の中で私たちが着目したのが、社会的分極化(polarization)とソーシャルコヒージョン(social cohesion)の問題です。ソーシャルメディアが社会的なつながりに与える影響を見つめたとき、私たちは「社会的結束を強化するテクノロジーを作りたい」という方向性を見出しました。個人の利便性を高めるためのロボットではなく、人々の間の関係性そのものを豊かにするためのロボット——これが私たちの研究の根底にある動機です。
7.2 ロボット開発三原則と「異文化間交流促進ロボット」プロジェクトの概要
Randy: 私たちがロボット開発に際して定めた三つの基本原則についてお話しします。これらの原則は、私たちのプロジェクトを上司に提案する際に求められた「価値とは何か」という問いへの答えとして、パートナーとともに練り上げたものです。
第一の原則は「肯定し、判断しない(affirm and not judge)」です。Jeanetteの発表の中で、母親たちが人間の臨床家に話すと判断されてしまうかもしれないという不安からロボットを好む場合があるという知見がありましたが、私たちも同様の考え方を持っています。子どもたちが安心して自分を表現できる安全な空間をロボットが提供するという役割です。
第二の原則は「人間の体験を強化し、代替しない(strengthen and not replace Human Experience)」です。私たちはバーチャルな世界での体験の価値を否定するわけではありませんが、特に物理的な体験——場所から場所へ移動すること、実際に人と向き合うこと——に強い関心を持っています。ロボットは人間から体験を奪うのではなく、あなたが物理的な世界の一部であると感じさせるものでなければならないというのが私たちの信念です。
第三の原則は「コミュニティを形成する(build community)」です。個人だけに便益をもたらすロボットではなく、人々の間の関係性を媒介し、社会的なつながりを構築するロボットを目指しています。これはRolphが語った「孤立を防ぐ」という目標とも共鳴していますが、私たちはより広くコミュニティ全体の社会的結束という観点を重視しています。
これらの三原則を体現する形で進めているのが、「子どもたちのための異文化間交流促進のための身体化AI(Embodied AI for Cross-cultural Mediation for Children)」プロジェクトです。異なる国の子どもたちが互いに出会い、理解し合うことは、物理的な距離や言語の壁から非常に難しいのが現実です。私たちは、ロボットがその橋渡し役を担えるのではないかと考えました。構造的にはZoomのような遠隔コミュニケーションツールに似ていますが、そこにソーシャルアクターとしてのロボットを介在させるという点が決定的に異なります。子どもたちは顔を合わせてコミュニケーションしながら、ロボットが文化的な理解の促進者・媒介者として機能します。子どもたちが自分自身の経験や地域コミュニティについて語り合う場を作り、異なる文化を理解し受け入れることを促していきます。
このプロジェクトはSelmaと約2年前にパイロット研究を開始し、現在はプロトタイプ全体の約80%の開発が完了した段階にあります。ロボットに搭載するHARUの自律的な行動生成の開発においては、ターンテイキングの設計が特に重要なテーマの一つになっています。誰がいつ話すか、どのようにロボットが公平なターンテイキングを促進するか、ロボットはいつ説明し、いつ介入すべきかという問いに答えるため、行動専門家・教育者・ロボット工学者が連携して設計を進めています。
7.3 パイロット研究の設計・進捗と文化バイアス軽減への課題
Randy: 現在のパイロット研究の詳細についてお話しします。私たちは現在、日本・オーストラリア・スペインの三カ国でパイロット研究を進めており、今後さらに多くの地域に展開していく予定です。教育者と協働してコンテンツを共同設計しており、文化について話す際にどのようなトピックを取り上げるか、子どもたちの自分の文化への誇りと他の文化への好奇心をどのように引き出すか、ロボットがどのように話題の導入役(topic springboard)として機能するかを丁寧に設計しています。
長期的な目標は、このロボットを通じた交流が実際に文化的ギャップを縮め、子どもたちの多様性への受容と包摂の意識を高めるかどうかを検証することです。ただしこれは5年間のプロジェクトであり、現在はまだ2年目の段階です。成果が出るまでにはまだ時間がかかります。
Selma: Randyのプロジェクトについて、文化バイアスの問題についてお聞きしたいと思います。訓練データが特定の集団のものである場合、異なる文化背景を持つ子どもたちとのインタラクションでどのようにバイアスを軽減していますか。
Randy: 非常に重要な問いです。正直に申し上げると、私たちはまだその取り組みの入り口に立ったばかりです。バイアスへの対処として私たちが強く意識しているのは、まず「ロボット行動の一般化(one size fits all)はあり得ない」という前提を持つことです。私たちがこれまで行ってきた研究からも、ウガンダの子どもたちにとってロボットの応用可能性は主に「安全・警備目的」として理解されているのに対し、日本の子どもたちにとってはロボットの「精神的な影響」への関心が高いという違いが見られています。文化によってロボットへの期待とニーズは全く異なります。
こうした文化差に対処するための現実的なアプローチは、自律的な行動生成技術がまだ十分に成熟していない現段階においては、各文化・各コミュニティに特化したパイロット研究をゼロから積み上げ、その文化に合ったロボット行動をプログラムしていくことだと考えています。将来的には自律的な行動生成によって柔軟に適応できるロボットを目指していますが、それには今後15年以上の技術的発展が必要だと見込んでいます。現時点では地道なパイロット研究の積み重ねが最も誠実なアプローチです。
Selma: AIの内部——クラウドとの接続やデータ処理——についての透明性の問題についても、皆さんに考えていただきたいと思っています。ロボットの表面的なインタフェースには人々は反応しますが、その内側で何が起きているかについては多くの人が意識していません。
Randy: それは私たちも重要な課題として認識しています。Davidが先ほど「栄養成分表示」のような透明性ラベルを提案していましたが、まさにそうした形でロボットの内側——データがどこで処理され、どこに送られ、どのように使われるのか——を開示する仕組みを作ることが、ユーザーの信頼を構築する上で不可欠だと思います。私たちのプロジェクトはUNICEFの子どものためのAI政策ガイダンスを指針として採用していますが、こうした透明性・プライバシー・データガバナンスの問題はその中核に位置しています。
8. Paro ロボットの医療デバイスとしての展開と臨床的エビデンス(Takanori Shibata)
8.1 開発背景・医療デバイスとしての国際的認可と普及状況
Takanori: 皆さん、こんにちは。私はParoというロボットについてお話しします。Paroはアザラシの赤ちゃんを模した心理生理学的バイオフィードバック医療デバイスです。現在、米国・欧州・英国・オーストラリア・香港・シンガポールで医療デバイスとして認可されており、今後さらに多くの国への拡大を予定しています。なお日本ではまだ医療デバイスとしての認可を受けていません。子どもから高齢者まで、さまざまな状況で活用されています。
Paroの開発動機をお話しします。私はもともとアニマルセラピーの研究から多くを学びました。動物には心理的・生理的・社会的という三種類の療法的効果があることが知られています。しかし動物の使用や飼育には現実的な困難が伴います。アレルギーを持つ人がいること、噛まれたり引っかかれたりするリスクがあること、動物から人間への感染症リスクがあること、ペットを禁じているアパートや施設があること、そして病院やICUといった環境では感染管理の観点から動物の持ち込みが厳しく制限されていることです。Paroはこうした動物療法の利点を活かしながら、これらの問題を解決するために開発されました。Paroの毛皮は銀イオンを含む素材で作られており、細菌やウイルスを殺菌する効果があります。そのため感染管理が非常に厳しいICUや隔離病棟での使用も許可されています。
現在、世界約50カ国以上でおよそ8000台のParoが実際の医療・介護の現場で使用されています。日本が最も多く、半数は個人——ペットや家族のような存在として自宅で使用しており、最長では2005年から現在まで20年近く使い続けているユーザーもいます。残り半数は施設での療法的な使用です。欧州ではデンマークが最初の採用国であり、2006年から2008年にかけて認知症ケアにおけるParoの評価のための国家プロジェクトを2年間実施し、高い効果が確認されたことから本格的な普及が始まりました。
8.2 認知症ケアにおける臨床効果——RCT・メタ分析・各国制度への収載
Takanori: Paroの臨床的エビデンスについて詳しくお話しします。Paroには音声認識機能が搭載されており、欧州仕様では英語・フランス語・イタリア語・オランダ語・ドイツ語の5言語を認識します。基本的なAIとして、「名前認識(name learning)」と「行動学習(behavior learning)」という二つの機能を持っています。
臨床効果として確認されているのは、生活の質(QOL)の向上、不安・疼痛・抑うつ・不眠・ストレス・孤独感の軽減、社会性とコミュニケーションの改善、興奮・攻撃性の低減、そして向精神薬の使用削減です。介護者・看護スタッフにとっても介護負担の軽減という効果が見られています。
特に注目すべきは英国NICEガイドラインへの収載です。英国では現在、Paroが認知症の非薬理学的療法として高水準のエビデンスを持つものとしてNICEガイドラインに記載されており、非薬理学的療法の中でこの水準のエビデンスを持つのはParoのみです。これは実践的に非常に大きな意味を持ちます。NHSの病院においては、認知症患者に行動的・心理的症状(BPSD)が見られた場合、まずParoを試みることが義務づけられており、Paroで効果が得られない場合にのみ向精神薬の使用が許可されるという仕組みになっています。薬の使用を避けることは認知症ケアにおいて非常に重要であり、その点でParoの果たす役割は大きいと言えます。
米国では2009年よりFDAによってクラスII医療デバイスのバイオフィードバック機器として認可されています。その後、無作為化比較試験(RCT)による臨床エビデンスを積み重ね、2018年からはMedicareおよびMedicaidという公的医療保険、さらに民間医療保険においても、Paroがバイオフィードバック療法として処方された場合の保険適用が認められるようになりました。
認知症に関する臨床試験についてのメタ分析では、900本以上の論文が検索され、その中から無作為化比較試験を対象にしたメタ分析が実施されました。結果として、BPSDの改善・社会性の向上・薬物使用の削減において有意な効果が確認されています。処方例としては、抑うつや社会的コミュニケーションの問題を持つ認知症患者に対して、1回20分・1日2回の使用が基本とされており、患者が必要と感じるときに随時使用できるPRN(必要時投与)も設定されています。
リハビリテーション目的での使用事例も増えています。運動機能訓練・言語療法などへの活用が進んでいます。急性期ケアにおいても、認知症や関節炎を持つ患者の興奮・疼痛の改善に効果があることが確認されており、ペンシルバニア大学では急性期ケアでの継続的な使用が続いています。現在はハーバード医科大学とも連携を開始しており、ニューイングランド医学誌(インパクトファクター約170〜180と、NatureやScienceをはるかに上回る高水準)とも関連する研究施設であるマサチューセッツ総合病院においても活用が進んでいます。小児ICU(UCSF)での使用や、発達障害・発達疾患を持つ子どもたちの社会的スキル訓練への活用も報告されています。
8.3 デンマーク倫理審議会の判断・ライセンス制度・難民支援・宇宙応用への展開
Takanori: 倫理的な問題への対処についてもお話しします。デンマークでは2007年、政府レベルのデンマーク倫理審議会がソーシャルロボットを社会に導入することの倫理的問題について半年以上にわたる長期的な審議を行いました。審議の焦点はParoでしたが、ソーシャルロボット全般に関わる問いでもありました。最終的に審議会は四つの勧告を示しています。第一にロボットは人々にとって安全であること、第二にプライバシーとセキュリティが保護されること、第三に認知症患者へのParoの使用は欺き(deception)の問題を孕むが、もしロボットが人々にとって良いものであれば、たとえ生きた動物のように見えても導入は許容されるという判断、そして第四にロボットを「ロボットとして」紹介する場合も「生きた動物のように」紹介する場合も、いずれも許容されるという結論です。この審議の結果、デンマークはParoの本格的な社会的受け入れを開始しました。
ライセンス制度についても重要な点をお話しします。デンマークでは2009年から、Paroを適切に活用するために療法士や介護者が1日間の研修を受講し、修了証・ライセンスを取得することが義務づけられています。ライセンスを持つ人材が在籍する施設に対しては、地方政府がParoを無償提供するという公衆衛生サービスの仕組みも整備されています。ライセンス取得者はParoとは何か・Paroの役割・Paroとの関わり方・期待される効果を理解した上で使用しなければなりません。Paroをただ高齢者の前に置けばよいというわけではなく、適切な導入と関わり方が効果の鍵を握るのです。
Selma: この点は非常に重要だと思います。Paroを正しく紹介しなければ機能しないという知見は、私たちがロボットの有効活用を考える上で根本的な示唆を持っています。ロボット単独で効果が生まれるのではなく、人間とロボットの関係性の作り方が効果を左右するということですね。
Takanori: その通りです。適切な導入と訓練なしにParoを「ただ置くだけ」では、十分な効果は期待できません。この訓練・理解のプロセスが、ロボットが適切に使用されるための必要条件です。
さらにParoの活用範囲は広がっています。日本では2024年1月の能登半島地震の被災者支援や、福島原発事故後の避難者支援にも活用されており、震災から10年以上が経過した今もなお、同じParoが使い続けられています。国際的にはUNICEFおよび国連と連携し、ウクライナ難民への精神的ケアサービスの提供を行っています。国連管轄の8カ所の家族支援センターに8台のParoを配置し、2000人以上のウクライナ難民が利用しています。米国ではポートランドを含む7都市の施設でも活用が進んでいます。
宇宙応用についても触れておきます。私はかつてMITのRodney Brooks教授のもとで研究していました。Brooks教授は昆虫型ロボットと人型ロボットを開発し、昆虫型ロボットはその後NASAの火星探査機Sojournerの技術的基盤となりました。その開発に携わっていた頃から、私は動物型ロボットを宇宙飛行士のコンパニオンとして送り込むというアイデアを温めてきました。現在、JaxaおよびNASAと連携し、米国・ポーランドをはじめとする模擬宇宙ステーション環境での実験を進めています。ユタ州やアリゾナ州の施設での研究も行われており、長期宇宙ミッション——月面や火星への有人探査——における宇宙飛行士の精神的健康支援へのParoの活用を目指しています。先月のASOSでの発表では、この研究に関わる医師チームがハワイで活動していることも報告されました。今後の展開にご期待ください。
9. パネル討議——「善」の定義・倫理・規制・インターセクショナリティ・アンソロポモーフィズム
9.1 哲学・倫理学の統合と「善」の評価基準の欠如——学際的枠組み構築への提言
Friederike: パネルの最初に私から口火を切らせてください。今日の発表者の顔ぶれを見ると、ロボティクスやソーシャルロボティクスの優れた研究者が揃っています。しかし私が強く感じるのは、哲学者や倫理学者がそこに含まれていないということです。私たちは倫理的なガイドラインについて語り合っていますが、その場に倫理学の専門家がいない。これは根本的な問題だと思います。もし次の拡張版の論文を書くなら、哲学者や倫理学者、そして他の社会科学者をチームに加えることを強く勧めます。単に名前を連ねるためではなく、彼らが実際に言うことに耳を傾け、実証データを真剣に受け止めて研究開発に反映させるためです。
実際に私自身もこの問題を経験しています。会場の下の階に展示されているナベルロボットの開発に私は関わっていましたが、そのロボットについても「良くない」データが出てきたことがあります。そうした不都合な知見を開発プロセスにきちんとフィードバックし、真剣に受け止めることが大切なのに、往々にしてそれが軽視されてしまう。倫理学者や心理学者を「チェックボックス要員」として形式的に参加させるのではなく、彼らの声を本当の意味で開発に活かすことが求められています。
また「善」の定義そのものについても言及したいと思います。今日の発表を聞いていて、「善(good)」という言葉は使われても、具体的な倫理原則や倫理的問題点が何かについての踏み込んだ議論が十分でないと感じました。善とは何かの認識論を問うことと、具体的な倫理的問題点を特定することは別の作業です。コミュニティ全体として、ロボティクス研究者と哲学者・倫理学者が協働して「善」の共通ベンチマークと評価指標を作り上げていく必要があります。複数の研究グループや大学間で横断的に使用できるような評価システムがあれば、「これは善だった、悪だった」という判断に共通の根拠を持たせることができます。
Alexandra: Freiderikeの指摘に強く同意します。私が特に気になっているのは「時間軸」の問題です。善と悪を文脈なしに語ると、近未来に起きることと遠い将来に起きることが混在してしまい、適切でない措置や立法、あるいは不必要な恐怖が生まれるリスクがあります。たとえばロボットが私たちの職を奪う日は「いつ来るのか」という問いに対して、人々はそれが明日にでも起きることのように話します。しかし実際にはそうではない。私が公開の場でロボティクスについて話すとき、最初に受ける質問は常に「3年後か5年後にはロボットが家庭に入ってくるのか」「いつ私たちの仕事が奪われるのか」というものです。それほど人々の時間感覚は現実からずれています。
Alexandra: これはメディアや研究者自身のコミュニケーションが生み出してきた問題でもあります。一方で、遠い将来の問題だからといって今考えなくていいということではありません。ロボットが10年後・20年後に家庭に入ってくる可能性を想定して、今の設計段階から人権を中心に据えたアプローチを取ることが重要です。研究の初期段階では、まだ現象を自由に探索する余地が必要です。しかしロボットが市場に出回り始めた時点では、もう遅い。善と悪の評価基準と、それを適用するタイミングを、時間軸とともに設計していくことが不可欠です。
Selma: 「善」の評価指標という観点では、私自身が研究者として基礎研究と応用研究の間に立つ者として感じていることがあります。実験室の中で変数Aとロボット行動Bの間の因果関係を調べることに集中するあまり、それが社会全体にとってどんな意味を持つかという大きな問いを見失いがちになる。この視野の狭さを自覚し、より広いマクロなレベルへと思考を拡張していく必要を、今日の議論を通じて改めて感じています。
9.2 規制・標準化・ヒューマンライツへのアプローチ——医療機器規制からソーシャルロボットへ
Selma: 規制の問題についても皆さんの考えをお聞きしたいと思います。Takanoriさん、すでにParoの事例で医療機器規制についてご説明いただきましたが、改めてその経験をお聞きできますか。
Takanori: はい。医療機器に関しては国際的な規格ISO 13485があり、Paroはこれに準拠する必要があります。米国ではFDAの医療機器品質システム規制があり、FDAによる工場への実地査察が3年ごとに行われます。査察官が日本の工場に4日間にわたって訪れ、すべてを調査していくのです。これは非常に大変なプロセスですが、医療デバイスとして認可を得るためには必要な手続きです。また毎年の登録料も非常に高額で、企業にとっては大きな負担となっています。
ソーシャルロボットが医療デバイスとして認定されるためには、こうした既存の規制に準拠しなければなりません。まだ規制の枠組みに入っていないソーシャルロボットにとっては、医療機器の規制モデルから学べることが多いと思います。
Rolph: 私たちBuddyの場合は、現時点では医療デバイスではなく、消費者電子製品として位置づけています。価格は2000ドル程度であり、iPhoneと同じような位置づけです。消費者電子製品である限り、医療デバイスほどの厳格な規制には縛られません。メンテナンスの義務なども特にありません。ただしフランスの公的資金を得るためには、将来的には何らかの医療デバイス的な認定が必要になってくるかもしれません。
今の時点でロボットは普及の第一歩を踏み出したばかりです。しかしこれから確実に日常生活の中に入り込んでいきます。そのとき、インタラクションの安全性と尊重の確保、個人データの適切な取り扱い、重大な結果をもたらす意思決定への関与のあり方、そして長期的に脆弱な人々がロボットに依存することの影響について、今から議論を始めておく必要があります。規制は技術の後を追うのではなく、技術の前に立って備えておかなければなりません。
Alexandra: 欧州では基本的人権に基づいた規制の枠組みが形成されつつあります。AI Actをはじめとして、ロボットが人々の生活に関わるとき、それが10年後・20年後であっても、今の設計段階から人権を中心に据えたアプローチが求められています。「いつロボットが特定の集団の仕事を置き換えるか」という問いよりも、「私たちはロボットを設計しながら、どのように人権を守るか」という問いの方が今まさに政策レベルで活発に議論されています。ジュネーブでもAIと人権に関する枠組みが示されており、こうした取り組みはすでに私たちの研究に組み込まれていく必要があります。
9.3 インターセクショナリティ・文化バイアス・ロボット外見設計をめぐる議論
聴衆(ジェンダーと開発の研究者): Shelleyの発表に非常に興味を持ちました。AIやテクノロジーを女性の特定のニーズのために活用するという観点から、インターセクショナリティ——つまり女性が持つ複数の差別的属性、たとえば人種・国籍・障害などの重なり——をどのように技術設計に組み込んでいますか。
Shelley: 実は私たちのソーシャルWECTプロジェクトの一環として、ジェンダー研究者を主要なステークホルダーの一人として位置づけ、インタビュー調査を実施しています。彼らが指摘したのは、ジェンダー感受的なアプローチを超えて、インターセクショナルなアプローチへと移行する必要性でした。そしてインターセクショナリティの観点から設計を考えたとき、患者とロボットの「自己相似性(self-similarity)」——つまり患者に似た外見のロボットの方が良いインタラクションが生まれるのかという問い——が浮かび上がりました。私たちが使用しているThirdhalf Robotのように外見を変更できるロボットであれば、外見のパーソナライズが可能です。
しかしここで重要な倫理的問いが生じます。ユーザーに自分でロボットの外見を決めさせることは、常に善いことなのでしょうか。人間の医療現場では、患者が「自分と同じ人種・同じジェンダーの医師に診てほしい」という要求は倫理的に受け入れられません。しかしロボットに対して同じような要求があったとき、それを許容すべきか。ロボットのパーソナライズには創造的な可能性がある一方で、こうした倫理的緊張をはらんでいます。ユーザーが常に正しいわけではなく、ユーザーに決めさせることが必ずしも善ではないという視点を、私たちは持っておく必要があります。
Alexandra: ロボットの形態そのものを「インフラストラクチャー」として捉え直すという視点を付け加えたいと思います。今日の発表を聞いて感じたのは、ロボットの形態はある意味で所与のものとして扱われているということです。しかしロボットがどのような形をしていて、どのような文化的価値観を体現しているかは、誰を包摂し誰を排除するかに直結します。ロボットの形態をインフラとして開いて問い直すことで、これまでとは異なる形のロボットという可能性が生まれるかもしれません。それ自体が前進の一つの道だと思います。
9.4 アンソロポモーフィズムと概念借用の問題——擬人化の功罪と言語の適正使用
聴衆(哲学者): 今日の議論で「善(good)」と「倫理的(ethical)」という言葉はよく使われましたが、具体的な倫理原則についての議論は少なかったように感じます。テクノロジーの開発者と倫理学者・哲学者の間の断絶があるようにも見えます。その点でロボットへのアンソロポモーフィズム——擬人化——の問題についてどうお考えですか。ロボットが世界を存在論的に理解しているという主張を正当化する議論はまだ見つけられていません。擬人化をどう捉え、どう対処すべきでしょうか。
Friederike: 非常に重要な問いです。ソーシャルロボティクスのコミュニティに入った15年ほど前、アンソロポモーフィズムは主にロボットの外見——人間らしく見えるかどうか——の問題として語られていました。しかしその後、心理学からの理論的な基盤が加わることで、アンソロポモーフィズムの決定因と結果を丁寧に解きほぐす研究が進んできました。それは認知的エラーなのか、雲に顔を見るような本質的な人間の傾向なのか、そしてそれが善か悪かという判断を超えて、理論的な構成概念として扱うべきものとして位置づけられるようになりました。
実際にアンソロポモーフィズムへの傾向には個人差があり、私たちはそれを「生命らしさや動きを感じ取る傾向」のスケールで測定し、実験の統制変数として活用してきました。ロボットを前にしたとき、人によって高い擬人化傾向を示す人と低い傾向を示す人がいる。これ自体が研究上の重要な変数として機能しています。ただ、あなたが問うているような「ロボットが世界を存在論的に理解しているか」という深い哲学的問いに対しては、私自身も確固たる答えを持っているわけではありません。
Selma: 擬人化の問題には実践的な側面もあります。たとえばParoについての研究では、Paroを特定の方法で紹介しなければ効果が得られないという知見があります。つまり人々がParoに対して抱くアンソロポモーフィックな認識や想像力こそが、実際の治療効果を生み出す鍵になっているとも言えます。ロボット単体で効果が生まれるのではなく、人間がロボットに対して抱く意味づけが効果を媒介しているのです。
Takanori: その通りです。デンマークでライセンス制度を設けたのも、Paroを適切に紹介し、介護者や療法士がParoとの関わり方を理解した上で使うことが、効果の鍵だからです。ただ高齢者の前にParoを置くだけでは機能しません。
Alexandra: 私はAlexandraとして付け加えると、ロボット研究者が「意図」「理解」「予測」といった概念を機械の能力を記述するために借用することの問題は、哲学者にとっては非常に深刻に映るはずです。私たちは非常に限定的な技術的意味でこれらの言葉を使っていますが、その言葉が一般に届くときには本来の哲学的な豊かさを持って受け取られてしまう。「潜水艦は泳がない」という言い方がありますが、私たちは機械が「考える」「感じる」「理解する」と言うことで、実際には起きていないことが起きているかのような印象を社会に植え付けてしまっているかもしれません。こうした概念借用の問題に対処するためにも、哲学者との継続的な対話が不可欠であり、今後のワークショップや論文でこの議論をさらに深めていくことを強く望みます。
10. 聴衆参加セッションとワークショップの締め括り
10.1 聴衆からの質問・意見と「善の問い」のリスト改訂に向けた議論
Selma: それでは聴衆参加セッションに移りましょう。皆さんに積極的に参加していただきたいと思っています。「ロボット・フォー・グッド」という問いに関して、重要だと思う問題、取り組む価値がある潜在的な課題、そして倫理的な挑戦として感じていることを、ぜひ聞かせてください。
聴衆(Honda HARU ロボットへの質問者): Randyのプレゼンテーションで印象的だったのは、訓練データが特定の集団のものである場合、異なる文化背景を持つ子どもたちとのインタラクションへの影響についてです。アフリカやオーストラリアなど異なる集団の子どもたちにロボットを展開するとき、データのバイアスとロボットの行動をどのように整合させていますか。
Randy: 非常に重要な問いです。正直に言えば、私たちはまだこの問題への本格的な取り組みの入り口に立ったばかりです。ただ私たちが強く意識しているのは、文化によってロボットへのニーズと期待が全く異なるという現実です。ウガンダの子どもたちにとってロボットは主に「安全・警備目的」として理解されていることが多い一方、日本の子どもたちにとってはロボットの「精神的な影響」への関心が高い。こうした違いを踏まえると、一つのロボット行動設計ですべての文化に対応するという発想自体が無理なのです。自律的な行動生成技術が今後15年以上かけて発展していくとしたら、現段階での現実的なアプローチは、各文化・各コミュニティに特化したパイロット研究をゼロから積み上げ、その文化に合ったロボット行動をプログラムしていくことです。
Selma: AIの内部——クラウド接続やデータ処理の仕組み——についての透明性の問題についても考えていただきたいと思っています。ロボットの表面的なインタフェースには人々は反応しますが、その内側で何が起きているかについては多くの人が意識していません。Davidが提案した「栄養成分表示」のようなラベルのアイデアはここでも非常に重要だと思います。データがどこで処理され、どこに送られ、どのように使われるのかを開示する仕組みがなければ、真の透明性とは言えません。
David: 補足すると、ロボットに栄養成分表示のようなラベルを義務づけるとしたら、たとえばデータ処理はローカルで行われているのかクラウドに送られているのか、そのクラウドはどこにあるのか、といった情報を非常に高いレベルで抽象化して示すことになります。千ページの技術マニュアルにする必要はなく、ユーザーが理解できる形で核心的な情報を整理して示すことが目標です。Selmaたちの10の問いをそのまま表示形式に落とし込むことが、一つの実践的な出発点になり得ると思います。
聴衆(ロボット形態論への問い): ロボットの形態そのものを問い直すという視点について、もう少し掘り下げてもらえますか。私たちが「ロボット」と呼ぶものの形態は所与のものとして扱われがちですが、その形態が誰を包摂し誰を排除するかを規定しているのではないでしょうか。
Alexandra: まさにその通りだと思います。私が言いたかったのは、ロボットの形態を「インフラストラクチャー」として開いて問い直すことで、これまでとは全く異なる形のロボットの可能性が見えてくるかもしれないということです。現在のロボット設計は多くの場合、人間型あるいは動物型という二つのカテゴリーに収まっていますが、それ自体が特定の文化的・歴史的文脈の産物です。形態を問い直すことは、誰のためのロボットかという問いを問い直すことに直結します。
聴衆(規制に関する質問): ソーシャルロボットを医療デバイスとして定義することはどれほど難しいのでしょうか。規制の観点から言えば、既存の医療機器規制の枠組みをソーシャルロボットに適用することは可能ですか。
Takanori: 医療機器として認定されるためには、まず厳格な臨床エビデンスの蓄積が必要です。Paroの場合、FDA認可を得るまでに長年の研究と証拠の積み重ねが必要でした。そしてISO 13485やFDAの品質システム規制への準拠、定期的な工場査察への対応、高額な年間登録料の支払いなど、企業にとっては非常に大きな負担がかかります。こうした厳格な規制は安全性を担保する上で必要不可欠ですが、一方で中小企業や新興企業にとっては参入障壁になりえます。
Rolph: 私たちのような企業にとっては、まず消費者電子製品として展開しながら、臨床エビデンスを積み重ねていくという段階的なアプローチが現実的です。ただし重要なのは、規制が追いつく前にロボットが広く普及してしまう前に、今から倫理的なガイドラインと自主規制の枠組みを業界全体で作っておくことです。私たちが作っているホワイトペーパーもその取り組みの一環です。
Alexandra: 欧州のAI Actのアプローチは、リスクに基づく段階的な規制という枠組みを取っています。高リスクなAIシステムには厳格な規制を、低リスクなものには軽い規制を、という考え方です。ソーシャルロボットもこの枠組みの中で、用途と対象集団に応じてリスクを評価した上で規制レベルを決めていくという方向性が、現実的かつ柔軟なアプローチだと思います。
10.2 コミュニティ形成・ホワイトペーパー・今後の標準化に向けた方向性の確認
Selma: 今日一日の議論を振り返って、非常に多くの重要な問いと視点が出てきたと感じています。Davidからは、AIコミュニティのインセンティブ構造そのものを問い直す必要性と、「善」を定量化するという逆説的なアプローチの可能性が示されました。Freiderikeからは、実験室を超えた縦断的・異文化的研究の重要性と、ロボットへのアンビバレントな態度を正面から受け止めることの大切さが語られました。Jeanetteは周産期うつ病スクリーニングという具体的な文脈で、「善が複数のステークホルダー間で対立し得る」という現実を鮮明に示してくれました。Alexandraはロボットが人間の無意識レベルに働きかける力と、言語の使い方が社会的な誤解を生む構造を教えてくれました。Rolphは実際に現場で2000台以上のロボットを展開してきた経験から、感情的なつながりの倫理と依存のリスクについての実践的な知見をもたらしてくれました。Randyは文化間の橋渡しという壮大なビジョンと、その実現における文化バイアスの課題を誠実に語ってくれました。そしてTakanoriは20年近い臨床エビデンスの蓄積と、デンマーク・英国・米国という実際の医療制度への統合という、他の誰も提示できない具体的な成果を見せてくれました。
Vicky: 今日の議論を通じて改めて感じるのは、「善」の定義がいかに多層的で文脈依存的であるかということです。患者にとっての善、臨床家にとっての善、家族にとっての善、社会全体にとっての善——これらは必ずしも一致しない。そしてある文化・ある時代における善が、別の文化・別の時代には善ではないかもしれない。こうした複雑さを誠実に引き受けながら、それでも共通の枠組みを作り上げていくことが、私たちに課された作業です。
Shelley: 今日最も強く感じたのは、多様なステークホルダーを研究プロセスに最初から巻き込むことの重要性です。哲学者・倫理学者・当事者・介護者・政策立案者——彼らは「チェックボックス要員」ではなく、研究の質と方向性を根本から変え得る存在です。参加型デザインは単なる手法ではなく、ロボット・フォー・グッドを実現するための姿勢だと思っています。
Selma: 今日の議論はこれで終わりではありません。私たちはこのワークショップの内容をホワイトペーパーとサマリーとしてまとめる予定です。今日の音声録音と皆さんの発言をもとに、論文で提示した10の問いをさらに洗練させ、アシスティブロボットの責任ある設計・展開のための標準化に向けた次のステップを示していきたいと考えています。関心のある方はぜひ名前を書いていただき、完成後にお送りします。今日参加してくださったすべての皆さんに心から感謝します。このコミュニティが少しずつ形成されていくことを、とても嬉しく思っています。
Vicky: 最後に一言。今日の議論で「善の認識論(epistemology of good)」という問いが出てきたことが、私には特に印象的でした。私たちが「善」という言葉を使うとき、その言葉が指しているものを本当に共有できているかどうか。それを問い続けることなしに、倫理的な標準化はあり得ません。ロボット開発者と倫理学者・哲学者の間の対話をこれからも続けていくことを、強くコミットしたいと思います。今日は本当にありがとうございました。
