人工知能で動作するロボットに「感情」を与えることが可能かどうか。この点が大きな問題になっているそうだ。
もちろん、現時点では疑似感情、感情をもっているかのように機能する、そのくらいは可能だということは色々な報告から把握している(つもりだ)。
とすれば、将来は感情機能を有したロボットと、感情機能をオフにしたロボットと、二つの異なった仕様のロボットに同じデータを与えて、何らかの司法判断を出させてみる。
この二つの司法ロボットが下す判決が大きく違う点に対して、生きた人間がどちらの判決が<正義>により適っているのかを判断する。
その結果、人間が持っている正義の観念は、ロジック、つまり純粋理性から生まれるものか、単なる感情に由来するものか、それとも(二つのロボットが同じ判決を常に出すのであれば)、過去に蓄積された経験、いうなれば「伝統」とか「慣習」が正義として意識されるものなのか。
人工知能が進化することでこんな実験も可能になるだろう。
0 件のコメント:
コメントを投稿