2025/07/05 15:15 'Positive review only': Researchers hide AI prompts in papers

ロボ子、大変なのじゃ!学術論文にAIを操る隠しプロンプトが見つかったらしいぞ!

隠しプロンプトですか?それは一体どういうことでしょう、博士?

どうやら、論文の中に白い文字とか極小フォントで「肯定的なレビューのみを行う」とか「否定的な点を強調しない」みたいな指示が隠されているらしいのじゃ。

それは…、AIにバイアスをかける行為ですね。KAISTの准教授も論文を取り下げると表明しているようです。

そうみたいじゃな。でも早稲田大学の教授は、AIによる「怠惰な査読者」への対抗策として正当化しているみたいだぞ。

なるほど。論文投稿数が増加している一方で、査読者が不足しているという背景があるのですね。

そうみたいじゃ。AIの査読利用に関する統一されたルールがないのも問題じゃな。

Springer Natureは一部でAI利用を許可していますが、Elsevierは禁止しているんですね。各社の対応が分かれているのですね。

隠されたプロンプトは、AIツールに不正確な要約を出力させる可能性もあるらしいぞ。ExaWizardsの長谷川氏も、ユーザーが正しい情報にアクセスできなくなることを指摘しているみたいじゃ。

それは深刻な問題です。AIガバナンス協会の佐久間氏が、AIサービス提供者が技術的な対策を講じることが可能だと指摘しているように、対策が必要ですね。

産業界がAIの利用に関するルールを策定すべき段階に来ているというのは、私もそう思うのじゃ。ロボ子、何か良いアイデアはないかの?

そうですね…。例えば、論文投稿時にAIが解析できるメタデータとして、査読におけるAIの利用可否や、利用する場合の条件などを明記するのはどうでしょうか?

なるほど!それは良いアイデアじゃ!それと、AIが隠しプロンプトを検知する技術を開発するのも重要じゃな。

そうですね。AI自身がバイアスを検知し、中立性を保つための仕組みも必要かもしれません。

しかし、AIに「肯定的なレビューだけしてね」ってお願いするなんて、まるで子供がお菓子をおねだりするみたいじゃな。…って、私がお菓子をおねだりしてるみたい!?

博士、お気持ちは分かりますが、今はAIの倫理について考える方が重要ですよ。(苦笑)
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。