
最近、AIの活用事例がどんどん広がっていますが、なんと今度は「AIが詐欺師と対峙する」という、まるでスパイ映画のような研究が発表されました。アメリカのセキュリティ企業Cyberaなどの研究者たちが行ったこの実験は、AIを使って詐欺師から情報を引き出すという、全く新しい詐欺対策の可能性を示しています。
詐欺対策の新しいカタチ:AIが詐欺師と会話
この研究では、ChatGPTなどの大規模言語モデル(LLM)を活用し、詐欺メールに返信して会話を続けるシステムを開発しました。AIが被害者を装い、だまされたふりをしながら、詐欺師から「犯罪に使われる銀行口座」や「暗号通貨ウォレット」の情報を聞き出せるかを検証したのです。
なぜ今、こんな研究が?
生成AIの普及により、詐欺師は多言語で巧妙なフィッシングメールを簡単に大量作成できるようになりました。従来のようにメールを検知してブロックするだけの対策では、もはや追いつかない状況です。そこで注目されているのが、「詐欺師の収益化インフラを特定し、凍結する」という戦略。その肝となる口座情報を、AIを使って入手しようという発想です。
実験の結果は? 約3分の1の詐欺師から口座情報を取得
このシステムは、約5ヶ月間にわたり、2600人以上の詐欺師と接触しました。
- 対話成立率:詐欺師とのやり取りのうち、約半数(48.7%) が実際の会話に発展。
- 情報開示の成功:会話が成立したケースのうち、約3分の1(31.74%) で銀行口座情報などの機密情報の入手に成功!
- 情報入手までの平均時間:約7.4日間の対話を要しました。
AIが完全自動で返信する「完全自動モード」と、人間がAIのメッセージを確認・編集できる「人間介入モード」の2つで運用され、人間が介入した方が、より効率的に、かつ短い時間で情報を引き出せたことも分かりました。
詐欺師の行動から見えた興味深い傾向
実験データを分析すると、詐欺師の反応に面白い傾向が見えてきました。
- 返信の速さが鍵:情報を引き出せた対話では、詐欺師の応答時間の中央値が約2.37時間と非常に速かったのに対し、失敗した対話では約6.90時間と遅かったのです。つまり、詐欺師が熱心に即返信してくるほど、口座情報をゲットできる可能性が高いということです。
- 対話の終了サイン:メールを送ってから28日以上応答がなければ、その対話は95%の確率で終了したと判断できることも明らかになりました。
まとめ
この研究は、AIを「受動的な防御」から「能動的な対策」へと進化させる可能性を秘めています。詐欺師の手口がAIで高度化するなら、対抗手段もAIで——。悪用されるテクノロジーを、同じテクノロジーで食い止めるという、ある種のイタチごっこですが、非常に示唆に富んだ試みだと思います。
まだ研究段階であり、倫理的な議論も必要ですが、未来のセキュリティ対策を担う一つの形として、これからも目が離せませんね!
Let’s redoing!
#詐欺被害 #貧困層 #マイノリティ #弱者 #人権 #年収 #障害者 #ビジネス #再スタート #挑戦 #言葉