環境・サイエンス・ITニュースへのコメントだよ!

殺人ロボットの開発は来てるところまで来ている。もはや制御不能(米研究)
おもしろ雑貨をお探しの方はここをクリックしてね!

0_e4


 イーロン・マスク氏やスティーブン・ホーキング博士が人工知能が人類と敵対する危険性について懸念していることは有名だ。



 現実に米国防総省はロボット兵器開発の予算として180億ドル(1兆9,600万円)を計上しており、ヒューマン・ライツ・ウォッチをはじめとする非営利団体は、その開発を食い止めるために活動を行なっている。



 様々な兵器が戦争で利用され続けてきたが、その用途を選ぶのは人間であった。しかし、今やその選択権を手放し、生殺与奪の決定を機械に委ねてしまう可能性が現実のものとなっている。



 今後殺人ロボットの開発を禁じてもすでに手遅れであり、一時的な解決にしかならないと話すのがニューヨーク州立大学バッファロー校のテロ・カルッピ助教である。

 「私たちは”殺人ロボット”という用語をより小さな文化的技法に解体しなければなりません」と話す彼は、自動化、人工知能、システムの失敗に関する専門家だ。



 「機械学習、パターン認識、予測モデルの歴史やこれらが着想される方法に立ち戻って調べる必要があります」と主張するカルッピ氏は、「自動化システム構築の原理やイデオロギーは何か?」と問いかける。



 「人類はロボットよりも優れた意思決定を行えるのか? もしそうでないのなら、人間とロボットを分けるものは何か? ロボットとは何か、ロボットは何をするものなのかを定義するなら、現在の文化や社会で暮らす人間に対してロボットが意味することも定義しなければなりません」



 「これまで人類は戦場で引き金を引く代理人を利用してきましたが、この代理人がロボットになった場合は一体どうなるのでしょうか? それは非常に複雑なことであり、私たちには特定の決定が特定の状況で下された理由を突き止めることすらできません」



12_e1


 彼は機械に倫理感をプログラムすることが鍵になると主張する。



 だがソフトウェアや倫理システムが特定のルールに則って機能するとはどういうことだろうか? また入力される倫理感は誰のものを採用すればいいのだろうか? 例えば、無人自動車は交通法規に従って、走行、停止、右左折といった行動をとるだろう。



 だが自動兵器ならば敵と味方の区別を行わねばならない。そして、さらに重要なことに、例えば敵が降伏したようなケースで、敵であっても攻撃してはならないこともある。あるいは兵士と民間人、人間と機械、生存者と死者の区別も必要であり、これをロボット任せにすることはできない。



10_e1


 カルッピ氏は殺人ロボットについて二つの要素を解きほぐす必要があると話す。つまり何が技術的に可能であるかではなく、技術の発展を推進するイデオロギー的、文化的、政治的な動機について焦点を当てるべきだというのだ。



 この発言は、レヴァーヒューム未来知能センター(Leverhulme Centre for the Future of Intelligence)の設立を記念するケンブリッジの講演でなされたものだ。



 ホーキング博士は人工知能の発達によってそれ自身が意思を持ち、人類と敵対するようになる可能性についてかねてから懸念を表明している。 



3_e2
 

 それは強力な自動兵器や少数が多数を支配する手段の先触れとなるかもしれない。だが、こうしたリスクを避けるための研究が十分に行われれば、病気や貧困を根絶するという人類の悲願を実現する助けになるかもしれない。



 火の利用や農業から宇宙の理解まで、文明による偉大な業績はすべて人間の知能の賜物である。その業績という意味では、それを成し遂げる主体が生物学的な脳であれ、コンピューターであれ、大きな違いはない。



 現在、人口知能は急激に発展しており、莫大な投資が行われている。その潜在的な恩恵は計り知れず、これまで工業化によって自然界が受けたダメージを修復してくれる可能性もある。

 

 ホーキング博士は人工知能の登場が人類の文明史上最大の出来事であるかもしれないと語っている。それが人類にとって福音となるのか、災厄となるのか、それはまだ分からない。




☆俺が生きている間に、現実化しそうじゃ!

おもしろ雑貨をお探しの方はここをクリックしてね!
スポンサーサイト
Copyright © mirojoan's Blog. all rights reserved.