サイバーセキュリティの専門家は、ハッカーが大規模言語モデル(LLM)を活用して洗練されたフィッシング攻撃を作成していると警告している。これらのAIツールは、その場でフィッシングページを生成することを可能にし、詐欺をより動的で検知しにくくする可能性がある。この傾向は、デジタルセキュリティにおける進化する脅威を強調している。
TechRadarが2026年1月26日に公開した最近の記事では、ハッカーが大規模言語モデル(LLM)を用いて高度なフィッシング技術を開発していることが注目されている。記事のタイトルは「ハッカーがLLMを使用して次世代のフィッシング攻撃を構築している - 注意すべき点はこれだ」で、これらのAIシステムがリアルタイムでフィッシング活動を自動化・カスタマイズできる可能性を探っている。記述では重要な質問が投げかけられている:「フィッシングページがその場で生成されたらどうなるか?」。これは静的なフィッシングサイトから動的に作成されるものへの移行を示唆しており、ユーザー入力やコンテキストに適応することで効果を高める可能性がある。利用可能な抜粋では具体的な例や防御策は詳述されていないが、記事はこうした新興脅威に対する警戒を促すことを目的としている。LLMがよりアクセスしやすくなるにつれ、サイバーセキュリティ対策はAI支援攻撃に対抗して進化する必要があり、ユーザー意識と強固な検知ツールの重要性が強調されている。