人工知能がつくりだす未来はかならずしもあかるいものではありません。情報処理のエラーをおこさないようにしなければなりません。
グラフィックサイエンスマガジン『Newton』2018年1月号では「人工知能」について特集しています。




人工知能はたんなるコンピューターのシステムですから、倫理観もありませんが悪意もありません。悪用しようとするのは人間です。人工知能が社会で広く使われるようになると、悪意をもった人間の攻撃から人工知能を守るための技術が必要になります。(中略)

人工知能が自分自身で猛烈な進化をつづけると、人間の知能を追い抜き、ついには人類がその先の変化を見通せない段階にまで進化するという説があります。この予測不能になる状況を「シンギュラリティ(singularity)」とよぶことがあります。「技術的特異点」と訳されます。


ほかの科学技術もそうであったように、光と影の両面が人工知能にもあります。さまざまな危険をはらんでいることがわかっていますが、人工知能の開発をとめることは現実的には誰にもできません。

人工知能の悪用にとどまらず、人工知能をつかった戦争がはじまるかもしれません。人間による制御不能におちいって人工知能の暴走がおこるかもしれません。あるいは最初に開発された人工知能の開発者による世界中の富の “総取り” がおこるかもしれません。人工知能がつくりだす未来はかならずしもあかるいものではありません。

人類進化論的にみてもあらたな時代にはいりました。前世紀までと今日とではあまりにも状況がちがいます。『Newton』の今回の特集ではこのような将来的な危険性についても言及しています。

けっきょくは人間の心のありかたの問題であり、人工知能をどうつかっていくか、人間次第です。健全な心を育成することが前提として必要です。そのためにも、人間が主体になった情報処理訓練をすすめなければなりません。そして情報処理のエラーをおこさないことです。


▼ 関連記事
人間が主体になった情報処理をすすめる -「ゼロからわかる人工知能」(1)(Newton 2018.1号)-

▼ 注
『Newton』(2018年1月号)、ニュートンプレス、2018年1月7日