※本記事は、Simon Chesterman氏によるAI for Goodキーノート「We, the Robots? AI, regulation, and the SDGs」の内容を基に作成されています。動画の詳細情報は https://www.youtube.com/watch?v=NlRsi-IR0iQ でご覧いただけます。本記事では、講演の内容を要約・再構成しております。
登壇者のSimon Chesterman氏はシンガポール国立大学(National University of Singapore)法学部の学部長であり、IE Singaporeにおける人工知能ガバナンスのシニアディレクターを務めています。モデレーターはIEロースクール(IE Law School)学長のSoledad Atienza氏が担当しました。
なお、本記事の内容は原著作者の見解を正確に反映するよう努めていますが、要約や解釈による誤りがある可能性もありますので、正確な情報や文脈については、オリジナルの動画をご覧いただくことをお勧めいたします。また、Simon Chesterman氏が所属するシンガポール国立大学(@NUScast)およびIEロースクール(@IELawschool)のソーシャルメディアアカウントもご参照ください。
1. はじめに:セッションの背景と問題提起
1-1. 登壇者・司会紹介とAI for Goodの位置づけ
Guide Martinez Rora: 皆さん、おはようございます、こんにちは、そしてこんにちは。AI for Goodへようこそ。私はITU(国際電気通信連合)のGuide Martinez Roraと申します。ITUは情報通信技術を専門とする国連機関であり、スイスとの共同開催、そして38の国連姉妹機関とのパートナーシップのもと、AI for Goodを運営しています。このサミットの目標は、AIの実践的な応用を特定し、持続可能な開発目標(SDGs)の達成を前進させ、その解決策を世界規模に拡大することにあります。本日は「We, the robots――人工知能、規制、そしてSDGs」というテーマでセッションを開催できることを大変嬉しく思います。これはAI for Goodのプログラムトラックの一環であり、国連のSDGs達成におけるロボティクスの役割について議論するものです。本日のモデレーターを務めるSoledadをご紹介します。彼女はIEロースクールの学長です。Soledad、どうぞよろしくお願いします。
Soledad: Guideさん、ご紹介いただきありがとうございます。このロボット・AI・規制に関する刺激的なイベントに参加できることを大変光栄に思います。本日のスピーカーをご紹介します。Simon Chestermanはシンガポール国立大学(NUS)の学長であり、学長教授職(Provost Chair Professor)を務めるとともに、IE Singaporeにおける人工知能ガバナンスのシニアディレクターであり、世界のロースクール連合の共同議長でもあります。Simonさん、ようこそ。発言の機会をお渡しする前に、私から少しだけ背景をお話しさせてください。社会はグローバル化への適応を経て、今まさにデジタル社会への移行期にあります。私たちは皆、このグローバル社会の一員であるという感覚を共有しています。そのような状況のなかで、弁護士・裁判官・法律専門家・規制当局がデジタル社会においていかなる役割を担うべきかが問われています。法律家は社会の設計者として、テクノロジー・ロボティクス・AIの利用によって生み出される新たな状況に対し、法的な観点のみならず、道徳的・倫理的な観点からも解決策を提示する責任を負っています。それではSimonさん、どうぞ。
1-2. 法律家から見たAI規制の役割――設計者か安全網か
Simon Chesterman: Soledadさん、そしてGuideさん、このセッションを企画いただきありがとうございます。ご参加の皆さんにも感謝申し上げます。私はロースクールの学長ですから、法律家に肩入れしたいところですが、AIの分野に踏み込んで気づいたことがあります。それは、法律家はAIが提起する多くの問題のうち、一つの視点しか持っていないということです。おそらく聴衆の方々にとっては当然のことかもしれませんが、実はこれが非常に重要な気づきでした。ですから、今日お聞きの方が法律家でなくても心配は無用です。難解な法律用語は極力使いません。私が取り組もうとしているのは、Soledadさんが提起した課題、すなわち「AIの多くの恩恵をもたらしつつ、SDGsの達成を助け、同時にリスクを軽減するために、法がどのような役割を果たせるか」という問いに答えることです。
理想的には、法はその役割を担うべきものです。「設計者」という言葉が適切かもしれませんし、「消防士」あるいは「安全網」という表現の方が正確かもしれません。いずれにせよ、法はできる限り多くの人々にとっての公共の利益を確保しながら、リスクを軽減するメカニズムであるべきです。ただし、後ほど詳しく述べますが、AIの文脈においてこの課題に対処するための方法は、実はかなり具体的かつ精緻なものがあります。本日は私の著書『We, the Robots?』の内容をもとに、AIの利益を享受しながらリスクを軽減するために法がいかにあるべきかという規制上の挑戦をテーマに、お話を進めてまいります。
2. AIの歴史的展開と課題の源泉
2-1. 1956年ダートマス会議:楽観主義・多様性の欠如・AIへの恐怖
Simon Chesterman: まず少し歴史的な背景をお話しします。1956年に撮影されたダートマス大学での会議の写真はご覧になった方も多いかと思います。この会議こそ「人工知能(Artificial Intelligence)」という言葉が生まれた場所です。振り返ってみると、この写真は二つの意味で非常に示唆的です。
一つ目は、当時の関係者が抱いていた途方もない野心と、時に非合理とも言える楽観主義です。この会議の参加者たちはロックフェラー財団から助成金を獲得しましたが、その根拠となった短い論文には、「夏の2ヶ月間、十分な資金さえあればAIの多くの問題を解決できる」という趣旨のことが書かれていました。もちろん1956年にAIの問題が解決されることはありませんでした。そしてこの期待と現実のギャップは、その後も長年にわたってAI分野を悩ませ続けることになります。
二つ目に見て取れるのは、驚くほどの多様性の欠如です。写真に写っているのはほぼ全員が白人男性でした。これはAIにとって長年の問題となってきました。AIに携わる人材の偏りが、AIが学習するデータの偏りに直結するからです。意識的であれ無意識であれ、AIにおけるバイアスの問題は、今もAIを悩ませている根深い課題のひとつです。
そしてAIを苦しめてきた三つ目の問題が、恐怖・懸念・誤解です。その象徴的な存在が、1956年から約10年後に世に出たStanley Kubrick監督の映画『2001年宇宙の旅』です。同年、Arthur C. Clarkeによる同名小説も出版されました。この作品は、AIをめぐる実存的な不安を鮮明に描き出しました。劇中のコンピューターが、自らのミッションは乗組員の命よりも重要だと主張する場面は、まさにAIへの恐怖を凝縮した表現として広く知られています。
新しい技術に対して人々が懸念を示すこと自体は珍しいことではありません。しかしAIにおいて際立っているのは、最もその危険性を声高に訴えているのが、AIについて最もよく知っている人々であるという点です。Elon Musk、Bill Gates、そして故Stephen Hawkingといった人物が、AIが人類にとって計り知れない危険をもたらし得ると警告してきました。AIが人々の助けになる可能性は非常にリアルである一方、人々を傷つける可能性もまた現実のものとして存在しています。
2-2. Sophia市民権付与とEUの法人格論議――理論から現実へ
Simon Chesterman: こうした議論が長らく理論の域を出なかったのは事実ですが、ここ数年で状況は大きく変わりました。以前のAI for Goodグローバルサミット、おそらく2017年のことだったと思いますが、そこで披露されたSophiaという存在を覚えていらっしゃる方も多いでしょう。Sophiaはサウジアラビアの「市民権」を与えられたロボットです。もっとも「市民権」という言葉はかなり慎重に扱うべきであり、そこには興味深い議論の余地があります。
同じ2017年、欧州議会がAIシステムに法的人格(legal personality)を付与することを検討すべきとの報告書を公表しました。このような動きが現実味を帯びてきたのは、AIがもたらす可能性――最適化、効率の向上、資源のより効果的かつ効率的な配分――が、SDGsのような大きな目標の達成に向けて非常に大きな可能性を持っていることが明らかになってきたからです。しかし同時に、AIに伴う潜在的な害への懸念もまた消えることなく続いています。
2-3. AIの定義:狭義AI・機械学習・ロボティクスの関係と応用例
Simon Chesterman: それでは、私たちが実際に何について話しているのかを整理しておきたいと思います。技術的な詳細には深入りしませんが、私が「人工知能」という言葉を使う際には、通常であれば人間が行う認知的な機能を機械が担うことを指しています。また本日の議論で焦点を当てるのは、汎用AIではなく狭義のAI、つまり特定のタスクに特化したAIです。ロボット意識やロボットの権利については、もし関心があればQ&Aで触れることができますが、本発表のメインテーマではありません。
この10年ほどでAIが飛躍的な進歩を遂げた主な要因のひとつが、機械学習(Machine Learning)です。機械学習とは、コンピューターシステムが追加の人間の入力なしに自らの能力を向上させる、すなわち自律的に能力を高めていく仕組みです。そしてロボティクスとは、こうした技術やアルゴリズムが工学的なプロセスを通じて現実世界と相互作用する手段のことです。
これらを組み合わせると、さまざまな応用が生まれます。AIと機械学習を組み合わせれば、2016年に世界チャンピオンの囲碁棋士Lee Sedolを破ったAlphaGoのようなシステムが生まれます。AIとロボティクスを組み合わせれば、自動運転のオートパイロットシステムが実現します。そしてロボティクスと機械学習を組み合わせれば、自宅の中を自律的に走り回りながら掃除機がけをするRoombaのような製品が登場します。こうした組み合わせの多様性が、AIが従来の法的枠組みに突きつける挑戦の複雑さをも示しています。
3. 従来の法的枠組みに対するAIの三大挑戦
3-1. スピード――2010年フラッシュクラッシュと高頻度取引の教訓
Simon Chesterman: AIが従来の規制の枠組みに対して突きつける主要な課題として、私は三つを挙げたいと思います。まず最初の課題は「スピード」です。これはAIに特有の問題というわけではなく、多くのコンピューターシステムが人間よりも速く、より効率的に動作するという性質から来るものです。しかしそれでもなお、規制上の深刻な挑戦をもたらします。
その典型的な事例が、2010年のフラッシュクラッシュ(Flash Crash)です。2008〜09年の世界金融危機の後、2010年にニューヨーク証券取引所は史上最大の下落を記録しました。わずか30分という短時間で約1兆ドル、およそ1,000ポイントを失い、その後の15分でほぼすべてを回復するという事態が起きたのです。当時、誰もその原因がわかりませんでした。後に判明したのは、これが高頻度取引アルゴリズム(high-frequency trading algorithms)によるものだったということです。
この問題の本質はスピードにあります。たとえば私とSoledadさんが何かを売買しようとすれば、合意に至るまでにある程度の時間がかかります。ところが二つのコンピュータープログラムであれば、1秒間に1万回もの取引を実行することができます。これが制御不能な連鎖を引き起こしたのです。人間のスケールで取引が行われている限り、何か問題の兆しがあれば証券規制のルールが発動し、取引を減速させ、対応する時間的余裕が生まれます。しかし高頻度取引アルゴリズムが明らかにしたのは、そのような人間の時間軸を前提とした規制の仕組みでは対応できないということです。必要なのは、問題が制御不能になる前にプロセスを強制的に中断させる「サーキットブレーカー」のような新しい仕組みでした。
この「スピード」という現象は、人間の速度を前提として設計された規制の枠組みが、コンピューターによって加速された処理に対して無力になることを示しています。そして興味深いことに、この問題はAI自身が規制の一翼を担う可能性を示唆してもいます。人間の官僚が単純に動作を減速させることが現実的でなくなるほど加速された処理を、人間の代わりにAIが監視・介入するという方向性です。
3-2. 自律性――自動運転車の事故責任と「自律レベル0〜5」の危険地帯
Simon Chesterman: 二つ目の課題は「自律性(autonomy)」です。これはAIにとってより固有の問題であり、AIシステムが追加の人間の入力なしに独自の判断を下す能力を指します。表面上は規制上の大きな課題を提起するように見えます。たとえば、自動運転車に誰も乗っていない状態で事故が起きた場合、誰が責任を負うのでしょうか。その車を責めるべきでしょうか。
技術としては確かに新しいものですが、法的な難問としてはそれほど目新しいものではありません。たとえば私が不注意によってSoledadさんの車に衝突した場合、彼女は私を訴えることができます。しかし私が路上に駐車していた車が爆発してSoledadさんを傷つけた場合、彼女はその車のメーカーを訴える可能性があります。これがまさに自動運転車において起きようとしていることです。責任の所在がドライバーからメーカーへとシフトしていくということです。
この問題を考えるうえで非常に参考になるのが、自動車技術者協会(Society of Automotive Engineers)が定めた自律性のレベル分類です。レベル0から5まであり、レベル0では人間がすべてを操作します。レベル1ではクルーズコントロールのような補助機能が加わります。レベル2では車線維持アシストが追加されます。レベル3ではハンドルから手を離せますが、いつでも即座にハンドルを握れる状態でいなければなりません。レベル4ではほぼ仮眠をとることができ、レベル5ではそもそもハンドル自体が存在しない可能性があります。
ここで重要なのは、メーカーも心理学者も認識しているように、最も危険なレベルが実はレベル3だということです。「ハンドルから手を離してよいが、すぐに握れる状態でいなければならない」と言われた場合、人間はそれが非常に苦手であることがわかっています。手を離した途端に意識が散漫になってしまうのです。そしてこれはまさに現実に起きた事故で実証されました。2018年にアリゾナ州で、自動運転車が歩行者に衝突した史上初の死亡事故が発生しました。Uberの車両に搭乗していたドライバーは、いつでもハンドルを握れる状態でいなければならなかったにもかかわらず、実際にはリアリティ番組の歌オーディション番組をストリーミング視聴していたのです。
自律性はたしかに問題を提起しますが、製造物責任(product liability)の法理を適用できる限り、民事上の法的問題としては実はそれほど複雑ではありません。問題が複雑になるのは刑事法の文脈においてです。私が赤信号を無視して走れば、責任を負うのは私です。しかし自動運転車が赤信号を無視した場合、誰が刑事責任を負うのか。この問いはさらに根本的な疑問を呼び起こします。そもそも私たちはなぜ刑事法を持つのか、そしてなぜロボットを起訴しようなどと考えるのかという問いです。
3-3. 不透明性(オパシティ)――自然的オパシティとAI発明者訴訟
Simon Chesterman: 三つ目の課題は「不透明性(opacity)」です。これはAIに最も固有の問題であり、三つの中では最も近年になって顕在化してきたものです。不透明性とは、内部の仕組みを理解することが困難であるという状態を指します。
不透明性そのものは決して新しいことではありません。企業が自社の処理を秘密に保つことは古くから行われてきました。たとえば製薬成分の秘密保持やマクドナルドの「秘伝のソース」、あるいはコンピュータープログラムの営業秘密といったものがそれにあたります。法律はこれらに対して裁判所命令や召喚状によって情報開示を強制する手段を持っており、特段新しい問題ではありません。また、専門家でなければ理解できない複雑な事柄があること自体も珍しくなく、裁判所は長らく専門家証人(expert witness)に依拠してきました。裁判官はロケット工学者でなくてもロケット墜落事故の責任を判断できます。
問題は、AIにおいて「自然的な不透明性(natural opacity)」と呼ぶべき現象が生まれたことです。これはディープラーニングに代表されるコンピューター処理が、文字通り人間には理解不可能なレベルに達しているという状態です。数十億にのぼる変数が絡み合い、一定の精度を達成するためにあまりにも複雑な処理が行われているため、人間がそれを説明することは原理的に不可能なのです。しかも、もし人間が理解できる形にしようとすれば複雑さを減らすしかなく、そうすると精度が下がるというトレードオフが生じます。
この問題は特に創造的なプロセスが絡む場面で顕著になります。その典型的な事例が、学者のRyan Abbottが提起した一連の訴訟です。彼はAIシステムを特許申請における「発明者」として記載すべきだという主張を展開しました。EU、アメリカ、イギリスでそれぞれ訴訟が起こされましたが、最近まですべてにおいて認められませんでした。ただし、この話には後日談があります。発表の最後にあらためて触れますが、オーストラリアと南アフリカでは異なる判断が下されました。
Soledad: Simonさん、自律性の問題についてもう少し伺いたいのですが、こうした三つの挑戦に対して、法はこれまでどのように応答しようとしてきたのでしょうか。
Simon Chesterman: まさにそこが次の核心となる問いです。実はAIの歴史のほとんどの期間、私たちはある一人の人物の考え方からあまり先に進むことができていませんでした。その人物については、もし対面でのセッションであれば会場の方々に名前を当てていただくところですが、それはIsaac Asimovです。次のセクションでその話に移りたいと思います。
4. 法はAIにどう応答してきたか:原則・ガイドラインの乱立と限界
4-1. アシモフの「ロボット三原則」の功と罪
Simon Chesterman: AIに対して法がどのように応答してきたかを振り返ると、実に長い期間にわたって私たちはほとんど一人の人物の思考から先へ進むことができていませんでした。その人物とはIsaac Asimovです。彼は私が子どもの頃に大好きだったSF作家ですが、立法者としての評価は作家としての評価とはかなり異なります。Asimovは「ロボット三原則」で広く知られています。第一条はロボットは人間を傷つけてはならないこと、第二条は人間の命令に従うこと、第三条は自己の存在を守ることです。そして1942年のこの原則の提唱から、おおよそ今の10年の中頃にいたるまで、実に70年近くにわたって私たちはこの枠組みからほとんど前進できませんでした。
ここで重要なのは、Asimovの真の遺産についての誤解です。多くの人が彼の遺産を「ロボット三原則を生み出した立法者」として記憶していますが、実際にはそれは正確ではありません。彼の真の遺産はストーリーテラーとしてのものです。もし彼の三原則がうまく機能するという物語を書いていたとしたら、それはひどく退屈なものになっていたでしょう。実際に彼の作品が面白いのは、まさにその三原則がうまく機能しないという物語だからです。ロボットたちが矛盾に直面し、特定の状況にその原則を当てはめることができず、葛藤を抱える様子こそが彼の物語の核心でした。つまりAsimov自身が、原則だけでは不十分であることを作品を通じて示していたのです。
4-2. 2016〜2018年の原則乱立――問題の二重の誤解
Simon Chesterman: にもかかわらず、2010年代の中頃になって私たちがようやく何らかの立法的枠組みや指針が必要だと気づいたとき、起きたのはまさにAsimovの失敗の繰り返しでした。新しい原則・ガイドライン・フレームワーク・倫理規則のリストを作ろうとする動きが一斉に始まったのです。なぜこの時期、とりわけ2016年から2018年にかけてこれほど多くの動きがあったのかというと、二つの要因が重なったからだと思います。ひとつは機械学習の急速な進展によってAI技術が大きく広がったこと、もうひとつはデータと機械学習アルゴリズムの悪用が現実世界に及ぼす影響が非常に生々しく示されたことです。アルゴリズムが特定の車の走り方を変えるだけでなく、選挙の行方さえも左右し得るという認識が広がりました。2018年にはケンブリッジ・アナリティカ(Cambridge Analytica)のスキャンダルが表面化し、まさにその同じ半年間にIBM・Microsoft・Facebookがそれぞれ独自のAI倫理原則を採択しました。
しかし私がこの原則乱立の動きに抱える問題意識は、それがAIの本当の課題を「二重に」誤解しているという点にあります。一方では、問題を必要以上に難しいものとして誤解しています。なぜなら、既存の原則を一から作り直す必要はないからです。車輪の再発明をする必要はないのです。多くの原則はすでに存在しており、それを適用するだけでよい。本当の課題は原則そのものではなく、その適用にあります。もう一方では、問題を必要以上に簡単なものとして誤解してもいます。原則さえ定めれば、それを適用することはさほど難しくないと多くの人が思い込んでいましたが、実際はまったく逆です。ルールはすでにほとんど揃っています。問題はまさにその適用の部分にあるのです。
4-3. 六つの共通原則の評価と、透明性・人間制御が特別な理由
Simon Chesterman: こうした無数のガイドラインを横断的に見ると、驚くほど共通した原則が浮かび上がります。整理すると、ほぼ六つの原則に収斂します。人間による制御(human control)、透明性(transparency)、安全性(safety)、説明責任(accountability)、非差別(non-discrimination)、そしてプライバシー(privacy)です。私はこれらのどれにも異論はありません。どれも望ましいものです。
ただ私が問いたいのは、これらは本当に必要な「新しい」ルールなのかということです。既存の法律で十分に対応できないかを検討してみましょう。安全性とは基本的に、AIシステムにも製造物責任(product liability)が適用されるべきだということを言い換えたにすぎません。説明責任とは、民事法・刑事法がAIにも適用されるべきだという基本的な考え方です。AIシステムを通じてできることは、人間が直接行うこととの整合性が保たれるべきです。私が詐欺を働いてはならないなら、私が利用するAIシステムも私の代わりに詐欺を働いてはなりません。非差別についても同様です。私が差別してはならないなら、私が依拠するAIシステムも差別してはなりません。私たちは共に人権原則に拘束されるべきです。プライバシーについても、データ保護法をAIに適用すればよいという話です。
Soledad: なるほど、では人間制御と透明性については少し性格が異なるとおっしゃっていましたね。その点をもう少し詳しく教えていただけますか。
Simon Chesterman: おっしゃる通りです。人間制御と透明性の二つは、他の原則とは少し性格が異なると私は考えています。人間制御とは、単にAIシステムが私たちの利益になるべきだということを言っているだけではなく、私たちが引き続きAIシステムに対して責任を持ち続けるべきだということ、AIシステムが人間の自由を補完するものであって、置き換えるものであってはならないという考え方を指しています。
透明性は不透明性(opacity)の裏返しです。他の原則を実際に適用するためには、少なくとも一部のAIシステムについては、その仕組みを理解できる必要があります。ただし「すべての」AIシステムについて理解できる必要はありません。私たちの生活の多くの領域において、プロセスの細部をすべて理解しなくても問題は生じません。その最もわかりやすい例が医療技術です。臨床試験でその有効性が示されていれば、分子レベルでその仕組みを理解していなくても医療プロセスを利用することは十分に正当化されます。
しかし、ある種の判断においてはまったく事情が異なります。たとえば、子どもの親権についての裁判官の判断、誰かを刑務所に送るかどうかの決定、あるいは国民が行政上の給付を受けられるかどうかを決める政府関係者の判断などです。こうした場面では、その決定の背後にある推論プロセスを理解できることが不可欠です。したがって、透明性と人間制御の二つは、AIをめぐる規制のあり方について何らかの修正や工夫が必要な領域である可能性があります。既存の法的枠組みをそのまま当てはめるだけでは足りない部分が、ここにあると言えるでしょう。
5. 規制の目的・時機・地域別アプローチ
5-1. なぜ規制するのか――市場の失敗、社会的価値、イノベーション抑制のトレードオフ
Simon Chesterman: AIの規制を考えるうえで、私は「何を規制するか」よりも先に「なぜ規制するのか」を問うべきだと思っています。私たちが規制を行う理由はさまざまありますが、大きく分けると二つの軸があります。
一つ目は市場の失敗(market failure)への対処です。たとえば自動運転車の場合、歩行者を不必要な危険にさらし、メーカーを不必要に保護するような状況は避けなければなりません。「歩行者は自動運転車にはねられないよう気をつければよい、メーカーに責任はない」という世界は非常に危険です。規制の目的の多くはこうした市場の失敗を是正し、市場が最適に、効率的に機能するようにすることにあります。
二つ目は、効率性だけでは正当化できない社会的価値・政策の維持です。たとえ人種や性別による差別がある領域でコスト削減や効率化につながるとしても、差別は誤りであるがゆえに容認されるべきではありません。効率的であっても、時間やコストを節約できるとしても、それが不適切であれば規制によって歯止めをかける必要があります。これが規制のもう一つの重要な理由です。
しかしながら、規制には重大な危険も伴います。多くの国がAIを厳格に規制することに慎重な理由のひとつが、イノベーションを制約し、競争上の優位性を失うことへの恐れです。シンガポールでの具体例をお話しします。シンガポールでは刑法の見直しを行いましたが、その結論として、AIシステムや開発者に刑事責任を課すことがイノベーションを不必要に制約し、そのイノベーションを他の場所に追いやることになるなら、そのような責任を課すべきではないと判断しました。これは現実的な懸念です。しかしその一方で、イノベーションを制約することにあまりにも消極的になれば、リスクを容認することにもなりかねません。これが規制をめぐる根本的なジレンマです。
5-2. いつ規制すべきか――コリンリッジのジレンマとサンドボックス戦略
Simon Chesterman: 「いつ規制すべきか」という問いに答えるうえで、私が思い起こすのはDavid Collingridgeが約40年前に著した書物です。そこで提起されたのが、いわゆる「コリンリッジのジレンマ(Collingridge dilemma)」です。その本質的な指摘は非常に示唆に富んでいます。技術の発展の初期段階においては、規制しようとすれば確かに規制することはできます。しかし何を規制すべきかがまだよくわからず、イノベーションを不必要に遅らせてしまうことを懸念せざるを得ません。一方、その技術がもたらすイノベーションの結果とそれが生み出す危険性が見えてくるまで待ってしまうと、そのときには規制することが非常に難しくなっている可能性があります。
この典型例がソーシャルメディアです。2004年にFacebookが立ち上げられた当時、私たちが今日知っていることをあの時点で知っていたなら、ソーシャルメディア企業の規制のあり方を変えていたかもしれません。しかし私たちはそうしませんでした。そして今やその状況を巻き戻すことは非常に困難になっています。世界各地でいくつかの試みはなされていますが、容易ではありません。
この「手遅れになってしまう」リスクへの対応策として、国際環境法の分野でよく知られている「予防原則(precautionary principle)」という考え方があります。科学的証拠が不明確であっても、リスクへの防衛策を講じることを怠るべきではないという原則です。また、別のアプローチとして「慎重な不作為(masterly inactivity)」という考え方もあります。これは単に何もしないということではなく、状況を監視し、関与し、サンドボックス(sandbox)を設けるという手法です。サンドボックスとは、ある程度の監督のもとで実験的な試みを行うことができる環境のことであり、とりわけフィンテック(金融テクノロジー)の分野でその実践が広がっています。
Soledad: 規制の「需要側」と「供給側」という視点についても言及されていましたね。
Simon Chesterman: おっしゃる通りで、もうひとつ指摘しておきたいのは、規制に関する議論が「供給側」、つまり規制の作り手の側に過度に焦点を当てがちだという点です。本来は規制によって何を達成しようとしているのか、何をもたらそうとしているのかという「需要側」の問いから出発すべきです。この点については次のセクションで詳しくお話しします。
5-3. 米国・EU・中国の規制アプローチ比較
Simon Chesterman: 規制に対する姿勢という観点から見ると、米国・EU・中国という三つの地域がまったく異なるアプローチをとっています。
米国は長年にわたりAI開発の最前線に立ってきました。その根本にあるのは市場主導型アプローチ(market-driven approach)です。このアプローチはAI分野で非常に大きな成果を上げており、世界で最も影響力を持つAI企業の多くが米国に集中していることがその証左です。
EUはこれとは対照的に、権利基盤型アプローチ(rights-based approach)を採用しています。1990年代のデータ保護指令、その後のGDPR(一般データ保護規則)といった蓄積を土台として、EUは2021年4月にAIに関する規制草案を公表しました。個人の権利保護を中心に据えた規制の方向性は、市場の論理を優先する米国とは明確に異なるものです。
中国はつい最近まで三番目の独自のアプローチをとっていました。それは主権重視(sovereignty-focused)の規制観です。中国は2017年に国家AI戦略を策定しましたが、そこでは将来のある時点、おそらく2025年頃には規制を整備するとしながら、当面の規制の焦点はデータの国内保存(data localization)の確保とサイバー主権・国家安全保障の観点に置かれていました。中国国内で生成・利用されるデータは中国国内に置かれ、中国のルールに従うという考え方です。ただし、この発表の時点では、個人情報保護法(Personal Information Protection Act)が数日後に施行される予定であり、中国もデータ保護の方向へと一歩踏み出しつつありました。
Soledad: この三者三様のアプローチを踏まえると、グローバルな規制の統一に向けた課題は非常に大きそうですね。その問題については後ほど改めて伺いたいと思います。
6. 何を規制すべきか・誰が規制すべきか
6-1. 三つのバケツ――リスク管理・レッドライン・プロセスの正統性
Simon Chesterman: 規制によって何を達成しようとするのかという「需要側」の問いに立ち返ると、私は目的を大きく三つの領域に分けて考えています。
一つ目は「リスク管理」です。自動運転車を例にとれば、私たちが求めているのは端的に言って安全性です。これはかなり功利主義的な関心事であり、できるだけ多くの人にとっての最大利益を実現するという発想と親和性があります。そしてこの考え方こそが、SDGs達成を支える思考のあり方とも重なります。各国・各法域がこれらの効率性を活用しながらリスクを軽減できれば、最大多数の最大幸福を実現できます。それは望ましいことです。
二つ目は「レッドライン」、すなわち絶対に越えてはならない一線を引くことです。私がその代表例として挙げたいのが、致死的自律型兵器(lethal autonomous weapons)の問題です。これは国連システムの中でも別の文脈で議論されてきたテーマですが、私はAIシステムが戦場において人間の生死に関わる判断を下すことについて、明確な一線を引く強い根拠があると考えています。その理由は、AIによる判断が人間の判断より劣るからではありません。そうした判断が道徳的な主体によってなされるものではなく、また責任を問われ得る主体によってなされるものでもないからです。誰かが結果に対して責任を負える状態でなければ、いかに正確な判断であっても、社会的に正当化することはできません。
三つ目は「プロセスの正統性(process legitimacy)」です。これは、ある種の機能をAIシステムに外注すべきではないという考え方であり、それはちょうど民間主体に外注すべきでない機能があるのと同じ理由によるものです。私が特に念頭に置いているのは公共部門における意思決定であり、その最もわかりやすい例が裁判官の判断です。裁判官の決定が正統性を持つのは、その裁判官が優秀だからというだけではありません。もちろん優秀であることは望ましいのですが、本質的な理由は、裁判官が説明責任を伴う政治的な階層構造の中に位置しているからです。
この点を雄弁に表現したのが、かつての米国連邦最高裁判事Oliver Wendell Holmesの言葉です。彼は「米国最高裁判所が最終的である(final)のは、無謬(infallible)だからではない。無謬であるのは、最終的だからだ」と述べました。つまり、最終的な決定が下される必要があり、その決定の正統性は、決定者の優秀さから来るのではなく、その決定者が説明責任を持つ政治的な階層に組み込まれているという事実から来るのです。そしてその判断が気に入らなければ、将来的に異なる人物を選ぶことができる。そのような構造があってこそ、決定は正統性を持ちます。こうした構造をAIシステムに求めることはできません。だからこそ、ある種の判断はAIに外注してはならないのです。
6-2. 国際ガバナンスの模索――IAEAモデルとグローバルAIパートナーシップの限界
Soledad: では、誰が規制を担うべきかという問いについてはいかがでしょうか。AIの特性を踏まえると、国家レベルの規制だけでは不十分に思えますが。
Simon Chesterman: 「誰が規制すべきか」については、詳細に立ち入る時間はありませんが、いくつかの可能性が考えられます。ITUやICANN(インターネット・コーポレーション・フォー・アサインド・ネームズ・アンド・ナンバーズ)のような既存の国際機関が担う可能性、あるいは気候変動との類比から考えることもできます。しかし私自身が提案したいのは、IAEA(国際原子力機関)のモデルを参照した、いわば「国際AI機関(International Artificial Intelligence Agency)」のような構想です。
なぜIAEAが参考になるかというと、1950年代の原子力技術とAIの間には非常に興味深い類似点があるからです。当時も今と同様に、巨大な利益をもたらす可能性と、巨大なリスクをもたらす可能性の両方を持つ技術が登場しました。IAEAの中心にある「グランドバーゲン(大取引)」は、核エネルギー・核医学・放射線農業といった形で核技術の恩恵を広く分配する代わりに、その技術を受け取る国々がその技術を兵器化しないという約束を取り交わすというものでした。完璧にはほど遠い仕組みではありますが、広島・長崎以降、核兵器が実戦で使用されたことは一度もなく、核兵器を保有するに至った国はごく少数にとどまっています。1940〜50年代の活動家たちがこの事実を知ったとしたら、おそらく驚きを隠せないでしょう。
ただし、現実のグローバルガバナンスの動きには深刻な問題があります。AIに関するグローバルパートナーシップ(Global Partnership on AI)という枠組みは存在しており、米国も参加しています。しかし米国がこれに参加したのは、中国を排除することが明確だったからこそだと私は見ています。そして、米国と中国という二大プレーヤーが同じテーブルについていない議論は、実質的な意味を持ちません。
Soledad: たしかに、冷戦期の米ソ対立の方が現在の米中対立よりも激烈だったにもかかわらず、当時はIAEAという枠組みが成立したという事実は、希望の根拠にもなり得ますね。
Simon Chesterman: まさにその通りです。かつて米ソ間の超大国対立は、現在の米中関係よりもはるかに強烈で危険なものでした。それでも何らかの合意に達することができた。このことは、現在においても全く不可能ではないことを示唆しています。ただし私の現状認識としては、世界はいま分断されつつあります。真にグローバルな規制の枠組みは不可欠ですが、現実には規制の主たる担い手は国家であり続けるでしょう。少なくとも、ある程度の国際的な調和(harmonization)が必要です。それがなければ、最も規制の緩い場所に向かって技術と資本が流出するという「底辺への競争(race to the bottom)」が起きかねません。
自主規制(self-regulation)の限界についても触れておきます。企業は基本的に利益を上げるために存在しています。Milton Friedmanが「企業の仕事は企業活動をすることだ」と言ったように、営利が基本的な動機です。この状況は変わりつつあります。故John Ruggyがビジネスと人権の問題に生涯をかけて取り組み、ESG(環境・社会・ガバナンス)への関心も高まり、企業が利益だけでなく三重の底線(triple bottom line)に責任を負うという認識も広がっています。しかし、私がこの研究に取り組むきっかけとなったのは、技術者たちとの対話でした。彼らは言うのです。「コンピュータープログラマーの仕事は小さな問題を解くことだ。自分たちの解決策が現実世界に与える影響を俯瞰して見ることではない」と。だからこそ、自主規制だけでは不十分であり、複数のレベルの規制が必要なのです。
政府・国家はその意味で最も重要なアクターです。強制力を持ち、法律を制定し、罰金を科し、必要とあれば刑務所に送ることのできる唯一の主体だからです。しかし技術は国家のように領域的に区切られていません。国家が規制の枠組みを設けても、それは通常その国の内側にしか適用されません。この非対称性こそが、グローバルなAIガバナンスの根本的な難しさです。興味深い動きとしては、EUがデータ保護の分野で域外的な影響力を発揮してきた実績があります。EUにほとんど拠点を持たない企業でも、GDPRの原則をグローバルに適用するケースが生まれています。米国のFDA(食品医薬品局)も同様に世界的な影響力を持っています。EUの中にはAIの規制についても同様の波及効果を狙っている人々がいますが、それだけでは全体的な解決策にはならないと私は考えています。
7. AIとSDGs・司法アクセス・法学教育
7-1. SDGs達成へのAIの貢献可能性――資源分配、教育、功利的最適化
Soledad: 聴衆からの質問にも移りたいと思います。AIが国連のSDGs達成にどのように貢献できるとお考えですか。あるいは少なくとも、その目標に近づくためにどのような役割を果たせるでしょうか。
Simon Chesterman: SDGsが抱える問題を大きく分けると、資源へのアクセスと資源の分配という二つの軸があります。そのどちらにおいても、AIはより大きな効率性をもたらす可能性を持っています。情報や資源へのアクセスを最大化し、それをより効果的かつ正当な形で分配することが期待できます。
教育の分野は特に有望です。私たちは皆、遠隔地での教育ツールが機能することを学んできましたが、同時にインタラクティブなシステムを通じてスケールを持って展開できることも明らかになっています。少し古い事例ですが、Khan Academy(カーン・アカデミー)はその代表例です。堅固な教育システムが整っていない環境に暮らす人々に対して、技術を活用して教育機会を大幅に引き上げることに大きく貢献してきました。ただしここには依然として一定の閾値が存在します。インターネット接続が必要であり、コンピューターも必要です。しかし、コンピューティングのコストが下がり続け、コンピューティングリソースへのアクセスが広がるにつれて、AIがこうした形で世界の資源をより効果的に分配し、問題をより的確に予測できるようになることを、私は慎重ながらも楽観的に期待しています。
また、人類の多くの苦しみの原因は、必ずしも邪悪な人間が悪事を働くことではなく、むしろ自分の行動の結果を認識していない無知な人間が日々の営みを続けることにある場合も多くあります。AIシステムはその冷徹な合理性によって、そうした功利主義的な計算――最大多数の最大幸福をどう実現するか――において人間を補完できます。これはAIシステムが非常に得意とする領域です。こうした点において、AIがSDGsの達成に向けて貢献できるという比較的大きな希望を私は持っています。
7-2. 法曹へのAI応用――Do Not Pay・eBayのODRと司法アクセスのリープフロッグ
Soledad: AIと法律専門職・司法行政との関係についてもお聞きしたいと思います。ここにはむしろ司法行政や法律専門職を改善する機会があるとお考えですか、それとも脅威でしょうか。AIはどのように判断の補助に使えますか。法的意見の形成にどう役立てられますか。
Simon Chesterman: IEロースクールがリーガルテクノロジーの分野で取り組んできた仕事をまずお讃えしたいと思います。私自身の視点から、まず「約束」についてお話しし、次に「脅威」についても触れます。
約束とはすなわち、司法アクセス(access to justice)の拡大です。私はロースクールを経営し、弁護士を育成しています。私の卒業生たちは重要なサービスを提供しながら十分な報酬を得ています。しかし率直に言えば、その多くは本来無料であるべきサービスです。遺言書を作成すること、不動産を購入すること、基本的な取引を行うこと――これらは難しいものであってはならないはずです。多くの法律業務、特に取引関連の業務は反復的であり、自動化できるものも少なくありません。リーガルテクノロジーがこうした取引コストを下げることで司法アクセスを高められるなら、それは大きな恩恵となります。
紛争の分野でも具体的な事例があります。それほど高度なAIシステムというわけではありませんが、よく知られた事例として「Do Not Pay」チャットボットがあります。これは駐車違反の罰金を免れる方法を人々に順序立てて案内するという、構造化された仕組みです。現在はさまざまな政府との紛争にも拡張されています。弁護士が行う仕事の多くは、実のところ体系化された原則を一連の質問に適用するというものであり、これは自動化できます。
さらに興味深いのは、SDGsとの関係においてです。私はリーガルテクノロジーによって、通信技術で見られたような飛躍的な進歩が実現できないかと考えています。多くの途上国が、精巧な電話網を整備するという段階を飛び越えて(リープフロッグして)、一気にモバイルフォンを導入したように、自動化された取引や紛争解決の仕組みがあれば、法の支配の伝統を積み上げ、裁判官を育成するという過程を経ずとも、より直接的に司法アクセスを実現できる法域があるかもしれません。
Soledad: 一方で、AIが司法行政において担えない領域、危険な領域というのはどこでしょうか。
Simon Chesterman: 危険は、紛争が複雑になり、政治的な色彩を帯びるほど大きくなります。AIの多く、特に機械学習は本質的に非常に洗練された統計処理です。回帰分析によって関連性を見つけ出し、予測を行います。これは厳密には未来についての予測ではなく、過去の活動に基づいて「過去がどう現在に至ったか」を予測するものです。天気予報のような場面では非常に有効ですが、複雑で真に困難な紛争をAIシステムに委ねるとすれば、それは極端に保守的な判断しか下せないものになってしまいます。
弁護士が必要とされ続ける理由のひとつは、法律が変化し続けるからです。法律は複雑であり、実際に法廷に持ち込まれる多くの紛争は、一方が正しく他方が愚かだから争われるのではありません。双方に優秀な弁護士がいて、それぞれが異なる結論に達し、第三者による最終的な判断が必要だから争われるのです。そして時にはさらなる上訴が必要になります。そのような判断をAIシステムに委ねることはできないと私は思います。先ほど申し上げた「プロセスの正統性」の問題に立ち返ると、判断の正統性はその正確さから来るのではなく、判断を下した人物の属性から来るのです。司法とは外注できないものであり、人間による監督を維持し続けることが不可欠です。
Soledad: 私もその点については同意します。AIと機械学習が司法行政にもたらす利益と危険は両方ありますが、総じて言えば、司法行政をより効率的にし、管理の場ではなくすべての人にとってよりアクセスしやすいものにする機会があると思います。
7-3. 法学教育の課題――「テクノロジーの法」と「法のテクノロジー」
Soledad: 最後に、法学教育についてお伺いします。法科大学院は全体としてこの分野で十分な取り組みができていると思いますか。AIと法に関する教育・研究において、法律家・将来の規制当局・裁判官を育成するという観点から、法学コミュニティはどのような役割を果たすべきだとお考えですか。
Simon Chesterman: これはSoledadさんと私が非常に精力的に取り組んできたテーマであり、IEロースクールの同僚たちはこの分野における模範的な存在です。シンガポールでも、そして世界中でも、私たちは法学教育において二つのことを同時に実現しようとしています。それが「テクノロジーの法(law of technology)」と「法のテクノロジー(technology of law)」という二つの軸です。
「テクノロジーの法」とは、こうした新しい存在・エンティティをどのように規制するかということです。自動運転車をめぐる法的枠組み、新しい医療技術に関するルール、自動化されたプロセスを通じた契約の締結、分散台帳技術(distributed ledger technology)の扱いといったものがその対象です。これは法律だけの問題ではなく、保険の仕組みなども含まれます。この方向性においては、何をすべきかは比較的明確です。
「法のテクノロジー」とは、法律実務そのものがどのように変化しているかという問いです。これはすでに触れた司法アクセスの問題に戻ってきます。弁護士の報酬体系を例に挙げると、驚くべきことに多くの法域において弁護士は長らく、成果ではなく投入した時間に基づいて報酬を得てきました。つまりアウトプットではなくインプットに対して対価が支払われてきたのです。これほどまでに保護された産業は他にほとんどありません。多くの先進国ではこのモデルが市場圧力によって変わりつつありますが、これは変わるべきことです。特に司法アクセスの観点からは望ましい変化であり、精巧な法の支配の構造を持たない国々における紛争解決のあり方を変えていく可能性を秘めています。ピアツーピア型の紛争解決の技術は、こうした文脈において大きな可能性を提供します。
具体例として、eBayというオンラインマーケットプレイスは、年間数千万件もの紛争を人間の関与なしに解決しています。弁護士を雇うことが難しい国・地域において、オンラインのプラットフォームを通じて紛争を解決し、その後の人生を歩んでいけるとしたら、それは誰にとっても良いことです。裁判所での何年もの係争を待つことなく、あるいは地域の権力者のような代替的なプロセスに頼ることなく、紛争を解決できる仕組みです。
法科大学院はまだやるべきことが多くあります。しかしその影響が法科大学院の壁を越え、より広い人々への司法アクセスを確保するための力となることを私は期待しています。
Soledad: 私も同感です。テクノロジーの法と法のテクノロジーという両方の軸において大きな必要性がある一方で、法科大学院にとっては研究を行い、これらの問題を解決しなければならない将来の人材を育成し、卒業生をより有能かつ就職力のある人材にし、機械学習・ロボティクス・AIのより確かな規制を実現するための巨大な機会でもあると思います。
8. AI応用の個別領域:倫理・医療・民主主義
8-1. 法対倫理の緊張――CSR批判とAI開発者ヒポクラテス宣言の可能性と限界
Soledad: 次の質問は聴衆から寄せられたものです。法的枠組みでは対応できない倫理的な問題をどのように扱うべきか、という問いです。AIに対して法的コンプライアンスと倫理的コンプライアンスという二つの体系が必要なのでしょうか。
Simon Chesterman: 以前の私はこの問いに対してかなり懐疑的でした。なぜなら、「倫理」を持ち出すことは企業の社会的責任(CSR)の議論と酷似しているからです。20年前のCSRを振り返ってみると、その多くは実質的にはマーケティングだったという議論には、かなり強い説得力があると思います。CSRがマーケティング部門に置かれていた企業がどれほどあったか、皆さんもご存知のはずです。
法学教授として特に「倫理」という言葉が使われるとき、私が懸念するのは、それが実質的に「私たちは自分が言ったことに拘束されたくない、ただ正しいことをしようとしているだけだ、うまくいかなければ次回はもっと頑張る」という意味になりかねないということです。この種の曖昧さには、一定の規制においては一貫して適用される明確な原則の方が望ましいという私の信念からすると、深刻なリスクがあります。
ではどのような場面で法律ではなく倫理を語るべきでしょうか。善良な人間であること、良い目的のために行動することについては、確かに倫理の出番です。私たち全員がそうあるべきだとは思いますが、いかなる状況において法律を適用すべきかは別の問いです。
一つ可能性があるとすれば、異なる専門分野からの借用です。医学の世界では「AI開発者のヒポクラテスの誓い」のような概念が議論されています。医師は多くの法域で「まず害をなすなかれ(first do no harm)」を誓います。こうした倫理的原則はAI開発者にも適用できる領域かもしれません。しかし、やはり私の懐疑的な法律家としての視点からすると、義務として課されることなく「こうします」と人々が言うだけのことに対しては、依然として疑問が残ります。端的に言えば、倫理を語る人々が美徳を誇示しながら、それに反した場合の説明責任を回避しようとしているように見えるリスクがあります。倫理は法律の代替にはなり得ず、あくまでも補完的な役割を担うものだと私は考えています。
8-2. AIと医療――診断・手術の便益、インフォームドコンセント問題、偽薬実験の示唆
Soledad: 次に聴衆から届いた質問です。AIを健康・診断・手術に応用することについて、どのような問題や課題があるとお考えですか。
Simon Chesterman: 医療はAIの便益とリスクの両面を考えるうえで最良の事例領域のひとつです。まず診断について言えば、あなたのレントゲン写真を診てもらうとして、これまでに数百枚のレントゲン写真を見てきた医師と、数百万枚のレントゲン写真を学習したAIシステム、どちらを選びますか。正直に言えば、おそらく両方を望むはずです。医師とAIシステムが協力して作業することが理想です。情報を処理し、関連性を見出し、パターンを探すという能力においては、人間もかなり優秀ですがAIは卓越しています。
一方でリスクの側面を見ると、医療倫理と医療法の根本的な基盤は「医師と患者の関係」と「患者の自律性」に置かれています。AIシステムはこの両方の領域に困難をもたらします。まず「医師と患者の関係」については、その前提として医師が何が起きているかを理解していることが必要ですが、先ほど述べた「不透明性(opacity)」の問題から、医師がそれを理解できない場合があります。次に「患者の自律性」、つまりインフォームドコンセント(informed consent)については、患者がリスクを理解していなければ、真の意味でのインフォームドコンセントを与えたことにはなりません。AIシステムの判断の根拠が不透明であれば、患者は何に同意しているかを理解できないことになります。
Soledad: ではAIが医師の役割を代替することへの懸念についてはいかがでしょうか。
Simon Chesterman: 個人的には、医療結果が改善される限りにおいて、医師が理解していないテクノロジーに頼ることに道徳的な問題はないと考えています。実際、私たちはすでにそれを行っています。より極端な例を挙げれば、精神医学において電気けいれん療法(electroconvulsive therapy)がうつ病の治療に用いられることがありますが、なぜ効果があるのかはわかっていません。しかし効果があるので使われており、深いレベルでその仕組みを理解していなくても適用されています。AI医療についても同様の状況が生じてくると思われます。
ただし医師の職業にとって何を意味するかは大きな課題です。そして医師との関係に頼ることを前提とされている患者にとっても同様です。医師の職が安泰だと私が思う理由は、医師と患者の関係における対人的なつながりそのものが、患者の健康に影響を与えるという独立した文献が存在しているからです。プラセボ(偽薬)試験は誰もがご存知でしょうが、非常に示唆に富む実験があります。ある試験では、プラセボ群と実薬群を比較しますが、さらに第三の群として「プラセボを投与されていると告げられた上でプラセボを服用した人々」を設けたものがあります。興味深いことに、この第三の群においても、まったく医師と接触しなかった群よりも良好な結果が得られました。プラセボだと知らされていたにもかかわらず、自分のことを気にかけてくれる誰かと関わっているという感覚が、患者の健康に影響を及ぼしたのです。医療の専門職と法律の専門職のあいだには、ロボティクスやAIがいずれの分野においても有益に機能し得るという並行関係が見えます。しかし私は、それらが医者を受診すること、あるいは弁護士と話すことの代替になるとは思っていません。
8-3. AIと民主主義・権威主義――選挙操作・顔認証・監視技術のリスクと対抗策
Soledad: 聴衆からの別の質問です。ロボティクスとAIが民主主義にどのように貢献できるか、また独裁的な体制や全体主義の台頭に対してどのようなリスクがあるかについてお聞きしたいと思います。
Simon Chesterman: 独裁と呼ぶつもりはありませんが、私のスライドの中にDonald Trumpの画像を使いました――彼を独裁者と呼ぶためではなく、アルゴリズムがあなたのアイデンティティだけでなく選挙にまで影響を及ぼし得るという危険性を示すためです。情報を収集する能力と人々を操作する能力は、民主主義にとっての主要な脅威となっています。
情報収集という観点から言えば、EUがリアルタイムの生体認証監視(real-time biometric surveillance)に一線を引こうとしている理由がここにあります。あなたが建物に入った瞬間に、あなたの知らないうちに顔認証によって識別されるような技術は不気味です。特に感情分析(sentiment analysis)については、たとえば私の顔を解析して私が注意を払っているかどうかを判定するような技術は、教育者の立場からすれば、居眠りしている学生を把握できるという意味では魅力的に映りますが、同時に非常に不気味でもあります。
顔認証の監視について示唆的なのは、最初にそれを禁止した法域がシリコンバレーの隣に位置するサンフランシスコ市だったということです。これはテクノロジーに無知な人々が懸念を示したのではありません。テクノロジーが何をできるかを正確に理解している洗練された人々が、「それでも我々はこれを望まない」と判断したのです。これは民主主義にとってのひとつのリスクです。
その裏返しとして、独裁体制が高度な監視技術を用いて自国民を監視し、潜在的な反体制派を識別し、沈黙させていることも見てきました。AIのツールは民主主義を掘り崩すためにも、独裁体制を強化するためにも機能し得ます。私たちの課題は、その方向性を逆転させることです。AIを使って世界中の人々をつなぎ、政治的スペクトラムの両端における過激主義の魅力を減らし、協力と連帯を通じて人間の本性の善い面を引き出すことができるでしょうか。それが私たちの目指すべき方向性だと思います。
9. まとめ:急変する法的地平と今後の展望
9-1. EUドラフト規制への批判、豪州・南アフリカのAI発明者判決
Simon Chesterman: AI規制の分野は目まぐるしい速さで変化し続けています。本発表の中でEUが2021年4月に公表したAI規制草案に触れましたが、その草案が公表されてほどなく、コンサルタントたちは「これはEUからの投資を追い出すだけだ」と主張し始めました。これはEU内部で現在も進行中の論争です。規制が厳しすぎれば競争上の優位性を損なうという懸念と、規制が緩すぎればリスクを容認してしまうという懸念のあいだで、どこに線を引くかという問いに、いまだ決定的な答えは出ていません。
もう一つ、本発表の冒頭で触れたAI発明者訴訟の後日談をお伝えしたいと思います。学者のRyan Abbottが提起した一連の訴訟については、EU・アメリカ・イギリスでいずれも認められなかったとお話ししました。しかし私の母国であるオーストラリアでは、数ヶ月前に異なる判断が下されました。さらに同じ週に、南アフリカでも同様の判断が示されました。AIシステムが特許法の目的においての「発明者」として認められ得るという、非常に興味深い判断です。これらの判断は、法的地平がいかに急速に変化しているかを如実に示しています。
こうした事例はすべて、私たちに議論への参加を促す挑戦状です。AIをめぐる法と規制の問いは、理論の域を遥かに超え、いま現実の法廷と立法府で具体的な決着を迫られています。
9-2. 著書紹介と議論の総括
Simon Chesterman: 最後に、私の著書『We, the Robots?』について少しだけ触れさせてください。本日お話しした内容、すなわちAIが従来の法的枠組みに突きつける三大挑戦(スピード・自律性・不透明性)、原則やガイドラインの乱立とその限界、規制の目的・時機・担い手をめぐる問い、そして個別領域における応用と課題を、より体系的に論じたものです。この本の内容が今日の議論への「挑発」となり、皆さんのさらなる思考の糧となれば幸いです。
本日の議論全体を振り返ると、AIが私たちにもたらす可能性と脅威は表裏一体であり、どちらか一方だけを見ていては不十分だということが改めて浮かび上がります。AIはSDGsの達成に向けて資源配分の効率化や教育機会の拡大に貢献できます。司法アクセスを広げ、医療の精度を高める可能性も持っています。しかし同時に、選挙を操作し、監視体制を強化し、民主主義を掘り崩す道具にもなり得ます。法はその両面と向き合い、利益を引き出しながらリスクを抑える「安全網」として機能しなければなりません。
Soledad: Simonさん、本日は非常に包括的で示唆に富んだお話をいただきありがとうございました。聴衆からも大変熱心なフィードバックが届いています。すべての質問にお答えすることはできませんでしたが、残った質問はまとめてSimonさんにお送りします。
Simon Chesterman: Soledadさん、そして皆さん、ご参加とご質問に心より感謝申し上げます。お答えできなかった質問については、記録として受け取れるよう手配してもらいます。どうもありがとうございました。
Guide Martinez Rora: Simon さん、Soledadさん、そしてご参加の皆さん、本当にありがとうございました。AIと機械学習、ロボティクスシステムが国際的なレベルでいかに規制されるべきかについて、非常に多くの洞察を得られた議論でした。本セッションはここで終了となりますが、次週火曜日には「水中海洋ロボットの可能性を解放する」と題したセッション、また11月30日には「ロボットが災害被災地で命を救う方法」を探るセッションが予定されています。改めて、パネリスト・参加者・パートナー・スポンサー、そして共催国スイスの皆さんに感謝申し上げます。ありがとうございました。
