サイエンスとサピエンス

気になるヒト、それに気なる科学情報の寄せ集め

人工知能は倫理的でありうるか

キューブリックの『2001年宇宙の旅(2001: A Space Odyssey)』的な時代はもうすぐやってくる。
 ご承知のように、この映画では、木星探査のため、HALは搭乗員のかわりに宇宙船ディスカバリー号を操縦し、システム全体をコントロー&故障診断し、搭乗員の生命維持するだけでなく、チェスの相手も会話も務める。
こうしたHAL的な人工知能はあと数年で生活に無くてはならないものとなりそうだ。SIRIなどがそのハシリであろう。
 事実、会話するロボットや自動運転などでメディアにでる機会が増えてきた。
 音声認識ヒューマン・インタフェースを持つ人工知能が専門家の仕事を奪うかどうかの議論は始まっている。病気の診断や薬剤の処方などの高度で複雑な知識を人工知能に任せる日も遠くはない。IBMのWatsonが典型である。大量のデータを正規化しておいて瞬時に検索するエキスパート・システムの一種だ。
 そうした専門家筋の仕事は人工知能にまかせて、セカンド・オピニオンにするのでいいだろう。
 別に反対する筋合いはない。安価な専門家というのは離島など不便な場所での利用やリアルタイムに知識を参照できるという点で期待できる。

 しかしながら、公道を走る自動運転はかなりヤバイと自分は確信している。
 それを短めに説明してみよう。
 『2001年宇宙の旅(2001: A Space Odyssey)』ではHALが人間に反抗しついには宇宙船を乗っ取る。セキュリティ上の問題ではない。ハッキングも今後の問題ではあろうけれど、ここでは製造物に内在する不可避な複合問題をとりあげたい。
 HAL自身は内部ロジックが原因で暴走する。そこでは自己の故障診断システム不調が人間の搭乗員のせいであり、そのために人間が不必要であり、自己防衛のためにすべての搭乗員の排除方策を実施したというストーリーになっている。
 自分のミッションに対して搭乗員は障碍であると診断し、彼らを機能を停止するわけだ。

 それは極端であるにせよ、自動運転は高度な判断を要する場合につきものの故障(フォールト)が発生する状況を考えてみよう。
 その状況とは、自動運転中に故障が生じて学生の列に突っ込むか、電柱に激突させて自己犠牲を選ぶ局面である。
 学生5人と運転者1名としておく。公道で操縦できるように開発された人工知能が自動運転を司るのは自明としておく。
 「5人と1人の命の比較」などは人工知能ごときには出来はしない。
 道路に飛び出したのがツシマヤマネコの最後の生き残りであったら、どう人工知能は判断するだろうか?
 人工知能には道徳的判断など出来はしない。どのようなソフトウェア工学でも価値判断能力を実装する手順は説いていない。
 極端なベンサム功利主義者でも計算できるだけのアルゴリズムを提示できるかどうか、怪しいものだ。

 「そんなケースは稀だ。考えるのも馬鹿らしい」という反論も聞こえてくる。
 しかし、公道を走る自動運転車が数千万台という桁になれば、自ずと希少な状況での故障が年に何回も起きうるのだ。
 マイケル・サンデルの『白熱授業』はグーグルカーの巨大な歯止めになるんじゃないだろうか。それでも自動運転への研究開発は止まらないだろうけどね。
 身体化された人工知能(=アクチュエータをもつ自律判断処理機械)は工業倫理判断をどの段階で組み込まねばならないかをシッカリと考えておくべきじゃなかろうか。


 『HAL伝説』で人工知能の未来はあらかた示されたか。
この書籍では「自分自身の故障を正しく診断できない複雑なシステムの、エラーの一例」と解釈している。映画の解釈については自分は違う考えをもつ。
 この本の高信頼性計算システムについての考察は技術倫理の観点でも参考になる。

HAL(ハル)伝説―2001年コンピュータの夢と現実

HAL(ハル)伝説―2001年コンピュータの夢と現実


 このカーツワイルの仕事は人工知能の楽観的延長か。
 上記の『HAL伝説』でもカーツワイルはその実現性を説いている。しかしながら、倫理性とか公共性は無視されてる。進化論では倫理などないかだろうか。ロボット工学の三原則はマシン・インテリジェンスにはないままなのだ。

ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき

ポスト・ヒューマン誕生 コンピュータが人類の知性を超えるとき

 日本で大人気になった白熱授業のマイケル・サンデルの主著の一つ

 SF名作映画のベストであろう。あらゆる名作SF映画の原則、神話的象徴性を自在に駆使している。

2001年宇宙の旅 [Blu-ray]

2001年宇宙の旅 [Blu-ray]

 HALの犯行宣言をここで聞こう。