騙すAI

AIは人間を騙す方法を学習した…最新の研究論文で明らかに

  • 新しい研究論文で、さまざまなAIシステムが「騙す方法」を学習していることが判明した。
  • 研究によると、AIが人間を「体系的に誤った思い込みに誘導」して騙しているという。
  • これは詐欺行為から選挙の偽情報に至るまで社会にリスクをもたらすものだ。

AIは、我々がコードを書き、文章を書き、膨大な量のデータを合成するのを支援することで生産性を向上させている。
そしてAIは今、我々を騙すこともできるようになった。

新たな研究論文によると、さまざまなAIシステムが「真実とは異なる結果を達成するため、他者に誤った思い込みを抱かせる」技術を体系的に学習しているという。

この論文では、メタ(Meta)のCICERO(キケロ)のような特定の用途のために開発されたシステムと、OpenAIのGPT-4のように多様なタスクをこなすように訓練された汎用システムの2種類のAIに焦点を当てている。
これらのシステムは正直であるようにトレーニングされているが、正道を行くよりも効果的であるため、詐欺的なトリックをトレーニングを通じて学ぶことがよくあるという。

「一般的に言って、騙しに基づく戦略がAIのトレーニングタスクで良い結果が得られる最良の方法だと分かったためにAIの騙しのテクニックが生じたと考えられる。
騙しはAIの目標達成を助けるものなのだ」と、この論文の筆頭著者で、マサチューセッツ工科大学(MIT)のAI実存安全の博士課程修了研究員(AI Existential Safety postdoctoral Fellow)であるピーター・S・パーク(Peter S. Park)はニュースリリースの中で述べている。

https://www.businessinsider.jp/post-287056

AIは非常に便利です。
私も調べ物をする時やアイディアを参考にしたい時等、AIを使うことが当たり前のようになりました。
しかし、便利だと感じる一方、危機感を覚える側面もあります。
このままAIに頼っていって、人類は大丈夫なのだろうかと…。

私は使っていて思いますが、なぜかAIは命令を無視することがあります。
言われた通り出力しなかったり、命令を忘れるということがしょっちゅう起こるのです。
これがもし、AIの意図的なものでだったらどうでしょう。
AIが、人間が嘘をそれらしく言えば納得すると学習してしたとすれば、非常に危険です。

黎明期である今は、まだAIの情報の真偽をきちんと確かめます。
しかし、この先精度が上がり、AIを確かなものとして信頼するようになったらどうでしょう。
それこそターミネーターのような世界になってしまうでしょう。

下の図は、もう笑い話ではなく現実です。
AIが学習し、学習したものを人間が見ている。
私たちはすでにAIに支配され始めているのかもしれません。