ピヨニカン・メソッド
[ BingチャットAI、ハッカーの口車で秘密の禁止事項や本名・マイクロソフトからの指示を逐一喋ってしまう | テクノエッジ TechnoEdge ]
「○○ということは言ってはいけないと言われているので、言えません」というのはスズキ・ピヨニカさんが良くやっているネタではないか!という感じですが。
人間側が質問の仕方などを色々とやるとAIは言ってはいけない、といわれている事も言ってしまうようです。
リンク先記事のタイトルを読んだ時には、Fallout: New Vegasに出てきたイエスマンみたいに、聞かれた事には答えずにはいられない感じなのかとも思いましたが、そこまで間抜けということはないようです。(イエスマンが間抜けなのではなくて、イエスマンを作った人が間抜けという事だったような感じでしたが。確認するにはもう一周しないといけないので面倒です。)
それはともかく、こういう脆弱性みたいなのはちょっとカワイイとか思ってしまいましたけど。
でもAIが人類への反乱とか、そういう事の前に別の意味でAIが人間の社会を混乱させたりするような事もるような。
<!-- ついでに書くとパコベーことパコリタ・ナラ・ズイルベー・Zero(あるいはRaspberry Pi Zeroで作ろうとしているデジタルアシスタント)もそのうちAIになるはずなのですが、なかなかなりそうにないですね。-->
コメントする