2016年9月10日土曜日

断想―人工知能と正義に関する実験

人工知能で動作するロボットに「感情」を与えることが可能かどうか。この点が大きな問題になっているそうだ。

もちろん、現時点では疑似感情、感情をもっているかのように機能する、そのくらいは可能だということは色々な報告から把握している(つもりだ)。

とすれば、将来は感情機能を有したロボットと、感情機能をオフにしたロボットと、二つの異なった仕様のロボットに同じデータを与えて、何らかの司法判断を出させてみる。

この二つの司法ロボットが下す判決が大きく違う点に対して、生きた人間がどちらの判決が<正義>により適っているのかを判断する。

その結果、人間が持っている正義の観念は、ロジック、つまり純粋理性から生まれるものか、単なる感情に由来するものか、それとも(二つのロボットが同じ判決を常に出すのであれば)、過去に蓄積された経験、いうなれば「伝統」とか「慣習」が正義として意識されるものなのか。

人工知能が進化することでこんな実験も可能になるだろう。

0 件のコメント: