ロボットに倫理観?? [philosophy]
【倫理学】恐怖!モラルが高いロボットは仕事ができないことが判明~彼らに「価値判断」を教えるということ~
二足歩行をするロボットなど、今やロボットは私たちの世界に馴染みつつあります。
研究では、穴に落ちそうになるロボットを助けるシステムを組まれた救出ロボットが、2台のロボットが同時に落ちそうになった時、うろたえてしまい、どちらも助けることができなかった、と言っています。(まあ、人間らしい。笑)
自動運転システムの実用化が近づいているように、今後もロボットが私たちの肝となる部分を担うことが増えてくるでしょう。
そんなロボット世界を想像すると、いろいろと考えさせられます。
もし、自動運転で事故が起きてしまったら、ロボットが(自動)手術をして万が一失敗をしてしまったら、一体、誰の責任になるのでしょうか?
メーカー?、開発者?使用者?そのロボットを採用した人?医者?
うーん、難しい。
単なるシステムエラー的な事故だったら、まだ色々と対処、改善もできるでしょう。
しかし、上の研究のように、倫理的システムのせいで何か問題が起きたら、本当に大問題ですよね?だって、倫理観なんて人それぞれですから。。(倫理観に答えはない)だって、A君とB君をどちらかを助けなきゃいけないという時に答えの出せる倫理観なんてないでしょう?
「これから正義の話をしよう」という本のことを少し思い出しました。
うろ覚えですが、こんな問いがあります。
あなたは電車の運転手です。電車はブレーキが壊れて暴走状態。切り替えのハンドルはまだ効く。まっすぐそのまま走ると線路上の5人の作業員をひき殺すことになる。ただし、途中にある分かれ線路に自分がハンドルを切れば、その線路上の1人の作業員の犠牲者で済む。さあ、あなたはそのままにして5人を死なすか?1人の命を犠牲にすることを自分の手(ハンドル)で決めるか?
もちろん、どちらが正解とかではありません。(命の価値は数か?故意か?運命か?自然にまかせるべきか?いろいろ視点はあります。)
人それぞれ、選ぶ答えは変わります。それが倫理観。
ロボットには確かに一定の倫理観は必要でしょう。ただし、人間の肝に関わる部分(運転、手術、救出など)において、究極の選択を迫られるような答えの出しようの無い倫理観をロボットにどのように組み込むべきかは本当に難しいところだと思います。
上の研究では、倫理観のせいで判断が遅れた、だから仕事ができないと言っていますが、私はそんなことよりも、誰のどういう倫理観をロボットに入れ込むんだ?ということの方が重要だと思うのですがいかがでしょう。(開発者の倫理観だけでOKとはいかないでしょ?)
人間はこの10年、20年で多くのものを自分から切り離したと思います。
すべてはデータ化、システム化によって。
「計算」「労力」をはじめ、ネットで調べれば大抵わかるよと言うように、「知識」や「思い出」(クラウド)さえも手放そうとしています。そして、今後もはもしかすると、「責任」も「倫理観」も??
どこまで委ねるか、手放すかを、どこかで線引きをする必要があるかもしれませんね。
このように、私たちはテクノロジーによって、ある意味、身軽になりつつあります。ただし、このまま、多くをロボット(システム)にゆだねて行き、身軽になっていくと、自分に重みがなくなり、自分の存在意義さえも失ってしまうかもしれません。(ふわふわに軽くなる)
以上、
パソコンの中でありとあらゆる楽器を演奏させている、作曲家の深夜の妄想なのでした。笑
ではでは
PCの中でオーケストラを鳴らすことも可能な私。でも、そのPCの中の演奏者にいくら「もっと感情的に弾いて」と言っても、応えてくれません。(決められた範囲内でしか弾かない)でも、それはそれでいいんです。感情的に弾くように、こっちで操作してあげれば。(こっちが主導権)あくまで、ツールに過ぎないですからね。もちろん、PCに作曲なんかさせませんよ。(自動作曲?)それは、やはり、私の肝ですからね。つまりは、私の存在意義。
コメント 0