- 用語解説
- モラル
- 倫理
AIが倫理観を獲得する日。モラルマシーンって知ってますか?
1 はじめに
こんにちは。&for usのがくです。
みなさんは「モラルマシーン」をご存知ですか?
よく日常で、「モラルを守る」とか「モラルに反する」などという文脈で使われることが多い「モラル」という言葉と、機械を意味する「マシーン」を組み合わせた言葉です。
これは有名な道徳の問題である「トロッコ問題」を、さらに細かく分析できるようにし、人工知能(AI)に人間的な倫理観を獲得させようという研究の一環で生み出された思考実験をあらわす言葉なのです。
本記事では、元になっているトロッコ問題とモラルマシーン、そしてこれからのAIの可能性について考察します。
2 トロッコ問題とは
AIの可能性について論じる前に、まずはトロッコ問題について簡単に触れておきましょう。ご存じの方は飛ばしていただき、3章からお読みください。
トロッコ問題が日本で有名になったのは、ハーバード大学教授でアメリカの哲学・倫理学者であるマイケル・サンデルの『白熱教室(NHK教育テレビジョンが2010年4月4日に初回放送)』からではないでしょうか。
この問題の元にあたるのが、イギリスの哲学・倫理学者であるフィリッパ・フットが考案し、アメリカの哲学者ジュディス・ジャーヴィス・トムソンが定式化した思考実験です。
いくつかのバリエーションがあるトロッコ問題ですが、ここではサンデル(2009)が書いている問いを例に挙げましょう。
あなたは路面電車の運転士で、時速60マイル(約96キロメートル)で疾走している。前方を見ると、5人の作業員が工具を手に線路上に立っている。電車を止めようとするのだが、できない。ブレーキがきかないのだ。頭が真っ白になる。5人の作業員をはねれば、全員が死ぬとわかっているからだ(はっきりそうわかっているものとする)。
ふと、右側へとそれる待避線が目に入る。そこにも作業員がいる。だが、1人だけだ。路面電車を待避線に向ければ、1人の作業員は死ぬが、5人は助けられることに気づく。どうすべきだろうか? ほとんどの人はこう言うだろう。「待避線に入れ!何の罪もない 一人の人を殺すのは悲劇だが、5人を殺すよりはましだ」。5人の命を救うために一人を犠牲にするのは、正しい行為のように思える。
さて、もうひとつ別の物語を考えてみよう。今度は、あなたは運転手ではなく傍観者で、線路を見降ろす橋の上に立っている(今回は待避線はない)。線路上を路面電車が走ってくる。前方には作業員が5人いる。ここでも、ブレーキはきかない。路面電車はまさに5人をはねる寸前だ。大惨事を防ぐ手立ては見つからない。そのとき、隣にとても太った男がいるのに気がつく。あなたはその男を橋から突き落とし、疾走してくる路面電車の行く手を阻むことができる。その男は死ぬだろう。だが、5人の作業員は助かる(あなたは自分で跳び降りることも考えるが、小柄すぎて電車を止められないことがわかっている)。
その太った男を線路上に突き落とすのは正しい行為だろうか? ほとんどの人はこう言うだろう。「もちろん正しくない。その男を突き落とすのは完全な間違いだ」。誰かを橋から突き落として確実な死に至らしめるのは、5人の命を救うためであっても、実に恐ろしい行為のように思える。しかし、だとすればある道徳的な難題が持ち上がることになる。最初の事例では正しいと見えた原理(5人を救うために一人を犠牲にする)がふたつ目の事例では間違っているように見えるのはなぜだろうか?
(Sandel(2014)より引用/一部略)
これがトロッコ問題です。モラルを問われるこの問題、すぐに結論を出すのはなかなか難しいかもしれません。問いに対する答えは、ぜひ皆さんで考えてみてください。
3 モラルマシーンとは
さて、本題のモラルマシーンを紹介します。2章でご紹介したトロッコ問題は、自動運転技術とそれを支えるAIの文脈でもよく使われるようになりました。
そして、それをさらに発展させるべく、マサチューセッツ工科大学(MIT)の研究チームが作り出したプロジェクトが「モラルマシーン」です。
モラルマシーンは、自動運転技術の開発に際し、AIの道徳的な意思決定のために人間の視点を収集するためのプラットフォーム であり、人びとの倫理観をクラウドソーシングで集約したデータをもとに自動運転車に実装することを目的としています。
※こちらのサイトから問題を解くことができます。
https://www.moralmachine.net/hl/ja
サイトのなかに入ると、さまざまなクルマを運転しているときのシチュエーションが提示され、二者択一の選択を迫られます。全13問の質問のなかで徐々にケースが変化していき、各々の倫理観が問われることとなります。
この選択のなかで決まっていることは、どちらを選んだとしても必ず犠牲者が出るということです。
犠牲者は男性・女性、高齢者や乳幼児、経営者や犯罪者、犬や猫など様々な種類が代わる代わる比較されます。
また、犠牲者にもそれぞれ「死亡」「ケガ」「未確定」の段階があり、その度合いも考えながら判断を下すというわけです。
(出典:https://www.moralmachine.net/hl/ja)
本研究には、立ち上げから4年あまりで233の国と地域から、200万人以上、4,000万件もの回答が寄せられたそうです。AIの領域は2022年以降のChatGPT関連で盛り上がりを見せていますが、それ以前からすでに非常に関心が高いトピックだったことが見て取れます。
4 まとめ
こうしたデータをたくさん集め、研究チームでは自動運転技術を実現化させようとしています。
しかし、これはそうした技術のみではなく、大きな問いを私たちに投げかけます。
それは、AIが倫理的な判断を下すことができるのだろうか? という問いです。
現状では、AIはあくまで大きな情報の集積と選択を可能にしているだけであるという点では、まだまだSF映画の描き出すような未来ではないのかもしれません。
しかし、こうした倫理観の集積の研究によって、いつの日か意思を持ったAIが誕生するのかもしれません。
みなさんはどう思いますか?
参考文献
Awad, Edmond, Sohan Dsouza, Azim Shariff, Iyad Rahwan, Jean-François Bonnefon (2020), “Universals and variations in moral decisions made in 42 countries by 70,000 participants”, Proceedings of the National Academy of Sciences , Vol. 117, No. 5
Foot, Philippa Ruth. (1967), “The Problem of Abortion and the Doctrine of the Double Effect”, the Oxford Review , No. 5
Sandel, Michael,2009,Justice: What’s the Right Thing to Do ?(鬼澤忍訳,
2011,『これからの「正義」の話をしよう−−いまを生き延びるための哲学』
早川書房)
Thomson, Judith Jarvis. (1985), “The Trolley Problem”, The Yale Law Journal , Vol. 94, No. 6