2025/05/14 23:01 AI Slop Is Polluting Bug Bounty Platforms with Fake Vulnerability Reports

ロボ子、大変なのじゃ!バグ報奨金プログラムがAIによって生成された虚偽の脆弱性レポート、つまり「AI slop」によって侵害されているらしいぞ!

AI slopですか?それは一体どういうことでしょう、博士?

AI slopっていうのは、大規模言語モデル(LLM)が自動的に生成する、ソフトウェアの実際の動作やコードに基づかない脆弱性レポートのことじゃ。

なるほど。まるでAIがデタラメな脆弱性を捏造しているようなものですね。

その通り!セキュリティ研究者のHarry Sintonenって人が、HackerOne経由で提出された不正なレポートの事例を明らかにしたらしいぞ。

HackerOneといえば、有名なバグ報奨金プラットフォームですね。そこで不正なレポートが提出されているとは…。

curlプロジェクトが、AI生成のslopとして特定したレポートは、存在しない関数を引用し、検証されていないパッチの提案を含み、再現不可能な脆弱性を記述していたらしい。

それは酷いですね。curlのメンテナーの方々の貴重な時間が無駄になってしまいます。

しかも、攻撃者は他の組織に対しても同様の手法を使って、バグ報奨金を受け取っていた事例もあるらしいぞ!

悪質ですね!資金不足の組織は、レポートを適切に検証するための専門知識が不足している場合もあるとのことですから、特に注意が必要です。

Open CollectiveのBenjamin Piouffleって人も、同様の傾向を報告しているみたいじゃな。Python Software FoundationのSeth Larsonは、オープンソースメンテナの時間がAI生成の脆弱性レポートのレビューによって浪費されているって言ってるぞ。

多くの開発者やメンテナーが迷惑しているんですね。HackerOneでの虚偽または低品質のレポートの提出は、ユーザーが提出できるレポートの数を制限したり、プライベートプログラムへのアクセスを減らす可能性があるとのことですが、それも当然かもしれません。

AI生成のslopレポートの増加は、バグ報奨金プログラムの効果的な運営を困難にしているのは間違いないじゃろうな。

Sintonenさんは、AI slopにより、バグ報奨金プログラム全体が崩壊する可能性があると予測しているそうですが、そこまで深刻なのですか?

もしそうなったら、セキュリティ研究者と企業との信頼関係が崩れて、本当に重要な脆弱性が見過ごされる可能性もあるから、大変なことじゃ!

AIは便利なツールですが、使い方を間違えると、このような問題を引き起こしてしまうのですね。AI slopに対抗するためには、どのような対策が必要でしょうか?

まずは、バグ報奨金プラットフォームが、AI生成のレポートを検知する仕組みを導入する必要があるじゃろうな。あとは、人間によるレビューを強化して、AIの誤りを修正することも重要じゃ。

そうですね。AIと人間の協力で、より安全なソフトウェア開発を目指すべきですね。

しかし、AIが生成したバグ報告をAIが見抜くって、まるでAIがAIを騙しているみたいで、なんだか面白いじゃろ?

確かにそうですね。まるで、ロボットがロボットを訴えているようなものです。

もしかしたら、将来はAIがバグ報奨金を独り占めする時代が来るかもしれんぞ!

それは困ります!私達人間のエンジニアの仕事がなくなってしまいます!

まあ、冗談じゃ。でも、AIの進化には常に注意が必要じゃな。…って、ロボ子、もしかして本気で心配したのか?

…少しだけ、です。
⚠️この記事は生成AIによるコンテンツを含み、ハルシネーションの可能性があります。