AlphaGo

3連敗して、肩の力が抜けたか分からないが、セドル氏が勝った。
近所の温泉でyoutubetwitterを眺めていたのだが、途中から相撲も始まって追いかけるのが大変だった。twitterで、AlphaGoを検索して見てると、ハングルだけじゃなく、中国語やキリル文字や、アラビア文字なんかが、流れてきて世界的に関心の高さがよくわかる。読めない文字が多いが、日本語圏、英語圏ではセドル氏を応援するコメントが多く、なんだか、平和的でいい。


AlphaGo側は終盤の指し手が、随分と残念な指し手だったらしい。人だって、投了の寸前は一発逆転を狙ったリスクの高い打ち方になるとは思うが、ここには課題があるように思った。
今後人工知能として、産業で利用しようと思った時、例えば、自動運転の車で自動車事故なんかで運転者(?利用者か)が死にかけているときの動きはどうあるべきなのだろう。
リスクが高いが、利用者が助かるかもしれない、しかし、道路上の他の人を巻き込むかもしれないという選択肢と、利用者が確実に死ぬが他を巻き添えにしない選択肢があるとき、人工知能にどちらを選ばせるのが「正しい」ことにするのか。
犠牲者が少ない後者(というのは利用者が死ぬプラン)を選ぶのが、正しいようには思うがさて、そう選ばさせるようにプログラミングはできるだろうか。いや、学習させることができるだろうか。そうした時に、運転席に座った人が死ぬことを選択するプログラム搭載の車が売れるようになるだろうか?
つまり、人の思う「正しい」と人工知能に求められる「正しい」は違ってくるんじゃないかと。フェイルセーフやフェイルソフトやフールプルーフとは別の概念が必要になってくるんじゃないかと思ったりもした。
と、頼まれもしないのに、いろいろ勝手に余計な思いを巡らせてみた。
(最近、カズオ・イシグロの「私を離さないで(ドラマ)」にハマっているのでこういうネタに入ってしまった)


何で、こういうことを考えるに至ったかをメモしておく。
AlphaGoがなかなか投了しなかったからだ。4時過ぎの時点で既に形勢が悪そうだったようだが、粘りに粘って勝負が決したのは5時40頃だった。かなり「諦めなかった」ことになる。