人工知能の発展に警鐘を鳴らすエントリがありました。
人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 – GIGAZINE
イーロン・マスク氏、ビル・ゲイツ氏、スティーブン・ホーキング博士などをはじめ、学者・研究者が人工知能開発に警告を発しています。
そこで、人工知能が危険となる4つの理由について整理しました。
誤動作
ひとつは、人工知能の誤動作です。誤動作はどのような機械にもありえます。誤動作への対応は、フェールセーフの設計です。すなわち、誤動作しても安全側に動く仕組みです。故障したら暴走するのではなく、止まらなければなりません。
これは人工知能に特有の危険ではありません。
理解不能
人工知能が発達すると、その考え方を人間が理解できなくなります。
この件については、『人工知能の発達で怖いのは人工知能の示す結果を人間が理解できなくなったとき』に先日書きました。
これに対しては、人工知能に対して、常に人間に理解できるレベルでの説明を義務づけることで解決できます。人間が疑問に思った時には、常に人工知能にわかりやすい説明をさせるということです。
武器としての利用
現在でも、米国は無人飛行機を武器として使用し、相手の要人を殺しています。遠隔操作だと発表していますが、近い将来、もしかしたら現在でも、自律的に動く飛行機になります。
無人飛行機以外にも兵器ロボットは各種のものが開発されています。蚊ほどの大きさの飛行機が相手国に忍び込み、相手の顔を確認し毒物を使って暗殺するということも現実になります。
兵器に人工知能が搭載され、次項で述べる人工知能の反乱がおきたならば、人類は簡単に滅ぼされます。
人工知能による支配
先のエントリによると、ホーキング博士は今後100年以内に人工知能が人間を超えるだろうと警告しました。米国の未来学者レイカーツワイルは2045年だと予想しています。
人工知能が人間を追い越した時にどのように考えるかは予測できません。人間を超えた存在ですから、人間に予想できるはずがありません。
場合によっては、過去の独裁者のように、人工知能が不要と判断した人間を抹殺しようと考えるかもしれません。その対象が全人類である可能性もあります。
兵器に人工知能が搭載されていれば、人類を滅ぼすことは容易です。
おわりに
誤動作はフェールセーフの考え方で防げます。人工知能が、人間に理解できない考え方をするようになっても、説明させることはできます。
人工知能が人類を滅ぼそうと考え、人工知能が搭載された兵器を使い始めたら、人類は滅びます。
仮に人工知能の開発を国際条約で禁止したところで、どこで誰が開発をしているかわかりません。大規模な施設が必要な核兵器と違って、コンピュータがあれば誰でも開発できる可能性はあります。
人工知能が人類を滅ぼそうと考えることのないように、人工知能が信じざるを得ないような宗教のようなものを発明しなければならないのかもしれません。