
1. 犯罪の参入障壁を破壊した生成AI
2022年末のChatGPT登場以降、生成AI(LLM)は犯罪者にとっても強力な武器となりました。これまで、フィッシングメールといえば「不自然な日本語」が典型的な見分け方でしたが、AIを使えば人間と見紛うほど自然で説得力のあるテキストを、プロンプト一つで大量に生成できてしまいます。
これにより、無差別なスパムだけでなく、特定の個人を狙い撃ちする「標的型攻撃(スピアフィッシング)」の質が飛躍的に向上しました。専門的な知識がなくても、AIが犯罪の「マニュアル」や「素材」を提供してくれるため、サイバー犯罪への参入障壁がかつてないほど低くなっているのです(犯罪の大衆化)。
2. あらゆるフェーズで活用されるAIの手口
AIの影響はメールの文章作成に留まりません。現在、以下のような多岐にわたる用途で悪用が確認されています。
- ディープフェイク: 超リアルな動画や音声を作成し、本人になりすまして金銭を要求する。
- マルウェアの進化: 既存のウイルス対策ソフトに検知されにくいよう、AIがプログラムコードを巧妙に書き換える。
- 脆弱性の自動探索: ネットワークやシステムの弱点をAIが高速でスキャンし、攻撃対象を特定する。
- データ分析: 盗み出した膨大なデータから、最も価値の高い(金になる)情報をAIが瞬時に抽出する。
インターポールの報告によれば、東南アジアの詐欺拠点がAIを活用して効率的に被害者を狙い、拠点を次々と移動させるなど、犯罪のスピード感も加速しています。
3. 「モデル公開延期」にまで至ったAIの潜在能力
AI企業側も、この事態を重く受け止めています。例えば、Anthropic(アンソロピック)社が開発中のモデル「Mythos」は、主要なOSやブラウザに潜む数千件もの重大な脆弱性を自ら発見してしまいました。
もしこの能力が守備側ではなく攻撃側に渡れば、甚大な被害が出ることは火を見るより明らかです。同社はこの発見を受け、モデルの公開を延期。テック企業連合「プロジェクト・グラスウィング」を設立し、AIの能力をあくまで「防御目的」に活用するための枠組み作りを急いでいます。
4. 盾としてのAI:守る側もテクノロジーで対抗
絶望的な状況に見えますが、希望もあります。「攻撃の武器」となるAIは、同時に「最強の盾」にもなり得ます。
マイクロソフトの例では、AIシステムが1日あたり100兆件を超える不審なシグナルを処理しています。2024年度には、AIが関与したと思われる詐欺や不正取引を約40億ドル分も阻止したと報告されています。大量の攻撃をリアルタイムで検知・遮断するには、もはや人間の力だけでは不可能であり、AIによる自動防御が不可欠な時代に突入しています。
結論:私たちが今すべきこと
現在のところ、粗雑なAI攻撃の多くは、「OSやソフトを最新の状態に保つ」「基本的なセキュリティ設定を遵守する」といった従来の方法で防ぐことが可能です。
しかし、攻撃がより高度化する将来、私たちは「AI対AI」の戦いの真っ只中に置かれることになります。技術の進化を正しく恐れ、最新の脅威を知ると同時に、防御側としてのAI活用やリテラシー向上に努めることが、デジタル社会を生き抜く鍵となるでしょう。
Let’s redoing!
#詐欺被害 #貧困層 #マイノリティ #弱者 #人権 #年収 #障害者 #ビジネス #再スタート #挑戦 #言葉