前回、AIの思考過程を辿るのが、最近のAI研究の一つのトピックになっているらしいということを書いた。思考過程を辿ると言っても、もちろんオンタイムで思考を追跡するという意味ではない。たとえば、医療の分野で言うと、AIにCTなどの画像診断をやらせるというのが最近の話題になっているが、その場合、まず最初にAIを訓練する。例えば、がん患者と健康な人のCT画像のデータを(大量に)AIに与え、癌かどうかを判断させる。判断基準はAIに任せ、人間の側はその判断が合っているか間違っているかだけを教える。そうすると、AIが色々な判断基準を試し、正答率の高い判定方法を自分で見つけ出していく。かなりの正確さで診断できるようになるらしいが、問題は、どういう基準で判定しているかが人間の側にわからないことだ。最近は、それを解決するために、AIの思考過程を探る、いわばAI心理学が盛んになって来ているそうだ。
AI心理学というのは、私が勝手に作った言葉だが、自分で書いて、アイザック・アシモフの小説に出てくるロボット心理学者のことを思い出した。さっそくAmazonで検索し、久しぶりに短編集「われはロボット」を読んでみた。高校生の頃読んだはずだが、ほとんど内容を覚えていなくて、とても新鮮だった。そして、最後の一編「災厄のとき」では、まさにコンピュータの思考過程がわからない、ということがテーマになっていた!
以下、ネタバレになるので、これからこの小説を読みたいという方は、1段落読み飛ばしてください。
★ ★ ★ ★
政策決定をするロボット(というか、コンピュータ)がおかしな指示をし始めたというのが、この作品の始まりだ。ご存じない方のために少し解説しておくと、アシモフのロボットもの作品の多くでは、世界の統治は「マシン」と呼ばれる数台の巨大コンピュータの判断に委ねられている。そのマシンたちが、最近明らかに間違った指示を出しているのではないかという疑惑が生じ、ロボット心理学者スーザン・キャルビン博士に相談が持ち込まれる。相談者によると、最近マシンが出した指示で、いくつかのトラブルが起きた。それについてマシンに質問すると、「本件は解明を許さない」という答えが返って来たというのだ。アシモフの有名なロボット三原則の第2条は、ロボットは人間の指示に従わなければならないとしている。なのに、人間の質問に答えないとはどういうことか? そこからキャルビン博士の謎解きが始まり、結局、質問に答えることが人間の安全を脅かすから、マシンは答えないのだ、ということになる。ロボット三原則の第1条(ロボットは人間に危害を加えてはならない。またその危険を看過することにより人間に危害を及ぼしてもならない)が第2条に優先するのだ。それを聞いた質問者は驚き嘆く。人類の主体性はどうなるのだ、と。
★ ★ ★ ★
コンピュータの判断に無条件に従って良いのか。極めて今日的なテーマだが、この短編集が出版されたのはなんと1950年なのだ。21世紀に入り、やっと時代がアシモフ先生に追いついた、ということか。
(by みやち)
☆ ☆ ☆ ☆
※ホテル暴風雨にはたくさんの連載があります。小説・エッセイ・マンガ・映画評など。ぜひ一度ご覧ください。<連載のご案内> <公式 Twitter>