地球にとって人間がいないほうが最適だというのは前から言われていることです。AIがそういう考えを持つことはあり得ることですが、人間を排除する方向にいくかというと、どうでしょうか。AI自体は人間がつくるものなので「ロボット三原則」のようなものをプログラムしておけば、基本的にやらないでしょう

しかしプログラムの暴走はあるかもしれません。AIに限らずコンピュータプログラムもごく希に暴走はしますし、あらゆるプログラムにバグはあると言われています。AIの場合、システムがそんなに複雑でなくても、人間が見てよくわからない動きをするんですね、書いた人自身が見ても。そういう意味では扱いにくい、バグを見つけにくいというのはあると思います。ここでも、AIの挙動を可視化する技術が重要になるでしょう。

ただ、基本的にテクノロジー自体は中立なんです。悪意も善意も持っていない、使う人間によって良い方向にも悪い方向にもいく、原子力もそうですよね。そういうテクノロジーの研究開発自体に制限を加えるというやり方は、なかなか問題が多いのではないかと感じます。もちろん使い方は規制したほうが良いと思います

人間の倫理感や、法律に頼らざると得ないということですね。

そうです。それしかないと思います。AI自体は倫理も何もない、人間に書かれたプログラムを実行しているだけなので、人間次第。それはあらゆるテクノロジーも一緒です。と山田 誠二 氏は言っている