みなさん、こんにちは! 日々の業務でChatGPTやPerplexityなどの「生成AI」や「AI検索」を活用していますか? 「ググる」よりも手っ取り早く、要約された答えが返ってくるので、一度使うと手放せなくなりますよね。私も毎日お世話になっています。
ですが、そんな便利なAI検索に「致命的な落とし穴」が見つかったというニュースをご存知でしょうか? なんと、AIがもっともらしく教えてくれた企業の「公式サポート窓口」の電話番号が、実は詐欺グループ直通の番号だった……という事例が急増しているのです。
「まさか、AIがそこまで堂々と嘘をつくなんて」と思うかもしれませんが、これは単なるAIのミス(ハルシネーション)にとどまらず、悪意ある攻撃者が意図的に仕組んだ新しいサイバー攻撃でもあります。
今回は、IT企業に勤めるみなさんに向けて、この新しい脅威「LLM電話番号汚染(ポイズニング)」の仕組みと、自分自身そして自社のブランドを守るために私たちが取るべき「改善策」について、分かりやすく解説していきます。
- 1. 衝撃の事実:「LLM電話番号汚染」とは何か?
- 2. なぜAIは騙されるのか? そのメカニズムを理解する
- 3. IT企業勤務者が直面する2つのリスク
- 4. 今すぐできる「改善」アクションプラン
- まとめ:AIは「相棒」だが、ハンドルを握るのは人間
1. 衝撃の事実:「LLM電話番号汚染」とは何か?
まず、何が起きているのかを整理しましょう。
最近のセキュリティ調査(Aura Labsなど)によると、航空会社や銀行などの大手企業のサポート番号をAI検索で調べた際、AIが提示した電話番号にかけると、詐欺師の偽コールセンターに繋がるという事例が確認されました。
これを「LLM電話番号汚染(LLM Phone Number Poisoning)」と呼びます。
なぜ「汚染」と呼ばれるのか?
これは、AIが勝手に数字を間違えた(ハルシネーション)だけではありません。攻撃者が「AIが参照しそうな場所」に、意図的に偽の情報をばら撒いているのです。
- 攻撃者が、実在する企業の「偽のサポートページ」や「偽の連絡先情報」を含んだWebサイトを大量に作成し、SEO(検索エンジン最適化)を悪用して検索上位に表示させます。
- ユーザーがAI検索(ChatGPT SearchやGoogle AI Overviewなど)で「〇〇航空 問い合わせ 電話」と質問します。
- AIは、ネット上の情報をリアルタイムで検索(RAG:検索拡張生成)し、上位にある(攻撃者が用意した)偽サイトの情報を「正しい情報」として拾い上げます。
- AIが「〇〇航空の連絡先はこちらです:0120-XXX-XXX」と、自信満々に偽の番号を回答します。
- ユーザーがその番号にかけると、個人情報を聞き出されたり、送金を指示されたりする詐欺被害に遭います。
つまり、「AIが情報を学習・参照する水源(Web上の情報)」そのものが、攻撃者によって毒(偽情報)で汚染されている状態なのです。
ここがポイント! 従来のような「怪しいリンクをクリックさせる」フィッシング詐欺とは異なり、「普段信頼しているAIが直接答えを教えてくれる」という体験の中に罠があるため、ITリテラシーが高い人でも騙されるリスクがあります。
2. なぜAIは騙されるのか? そのメカニズムを理解する
IT業界に身を置く私たちなら、「なぜAIは公式サイトと偽サイトを見分けられないのか?」と疑問に思うはずです。ここには、現在の生成AI技術の根本的な仕組みが関係しています。
「確率」で言葉を紡ぐAIの弱点
生成AIは、基本的に「次にくる確率が高い言葉」をつなげて文章を作っています。これに加えて、最近のAI検索はRAG(Retrieval-Augmented Generation)という技術を使っています。これは、AIが外部の検索エンジンの結果を参照して回答を作る仕組みです。
しかし、ここには以下の弱点があります。
- 情報の「真偽」を判断できない: AIは「どのサイトが検索上位にあるか」「どの文章が質問への回答として自然か」は判断できますが、その電話番号が本当にその企業のオフィスに繋がっているか(真実性)までは検証できません。
- SEOポイズニングへの脆弱性: 攻撃者は「SEOポイズニング」という手法を使い、検索エンジンのアルゴリズムをハックして偽サイトを上位に表示させます。AIが参照する検索エンジン自体が汚染されていれば、AIも必然的に誤った回答を生成してしまいます。
AIは「情報のまとめ役」であって「査読者」ではない
今のAIは、優秀な「要約係」ですが、情報の裏取りをする「ジャーナリスト」や「監査役」ではありません。ネット上に「A社の電話番号は090-XXXX」という情報が(偽サイトによって)溢れていれば、AIはそれを「有力な情報」として処理してしまうのです。
3. IT企業勤務者が直面する2つのリスク
「自分は騙されないから大丈夫」と思っていませんか? この問題は、個人の詐欺被害だけでなく、企業活動そのものに大きな影響を与える可能性があります。
リスク①:業務上のセキュリティ事故(サプライチェーン攻撃の入り口)
業務で「取引先のサポート窓口」や「利用しているSaaSの緊急連絡先」をAIで急いで調べたとします。もしそこで偽の番号にかけ、社内システムのIDやパスワードを伝えてしまったら……? それは個人のミスではなく、全社的な情報漏洩事故に直結します。AI検索の結果を過信することは、企業のセキュリティホールになり得るのです。
リスク②:自社のブランド毀損(なりすまし被害)
こちらがより深刻かもしれません。「あなたの会社の偽の電話番号」をAIが拡散し始めたらどうしますか? 顧客がAIで御社を検索し、偽の番号にかけて詐欺に遭った場合、「AIが悪かった」では済みません。「なぜ対策していなかったのか」「公式サイトが分かりにくいからだ」と、ブランドの信頼失墜につながります。
実際に、Googleマップ上の店舗情報が書き換えられる攻撃が過去に流行しましたが、これからは「AI上の自社情報が汚染される」時代への備えが必要です。
4. 今すぐできる「改善」アクションプラン
では、私たちはどうすればいいのでしょうか? 「AIを使うな」というのは現実的ではありません。AIと賢く付き合い、リスクを回避するための具体的な改善策を3つ紹介します。
【個人・業務レベル】AIの回答に対する「ゼロトラスト」を徹底する
AIが提示した「連絡先」「URL」「振込先」などの重要情報(クリティカルな情報)については、必ず一次情報を確認する習慣をつけましょう。
- 情報源(ソース)をクリックする: 最近のAI検索(PerplexityやChatGPT Searchなど)は、回答の根拠となったWebサイトのリンクを表示します。必ずリンク先が「公式サイトのドメイン」であるか確認してください。
- 公式サイトから再検索する: 電話をかける前に、必ずその企業の公式サイト(ブックマークや公式ドメイン経由)にアクセスし、そこに記載されている番号と一致するかを目視確認します。
【企業・Web担当レベル】自社サイトのSEOと構造化データを「改善」する
自社が「汚染」の被害者にならないために、AIに対して「こちらが本物の情報です」と明確に伝える技術的な対策が必要です。
- 構造化データ(Schema.org)の実装: WebサイトのHTMLに、検索エンジン向けのメタデータ(構造化データ)を正しく記述しましょう。特に
OrganizationやContactPointのスキーマを使って、公式の電話番号をマークアップします。これにより、AIが「これが正解データだ」と認識しやすくなります。 - Googleビジネスプロフィールの管理: Googleマップやナレッジパネルの情報はAIの参照元になりやすいです。常に最新かつ正確な状態に保ち、オーナー確認を済ませておきましょう。
【組織レベル】「AIエゴサーチ」で定期モニタリング
自社の情報がAIにどう扱われているか、定期的にチェックするフローを業務に組み込みましょう。
- AI検索で自社を検索: ChatGPT、Gemini、Perplexityなどで「(自社名) 問い合わせ先」「(自社名) サポート電話番号」と検索し、正しい情報が出力されるか確認します。
- 誤情報の修正リクエスト: もし誤った情報が表示された場合、各AIサービスのフィードバック機能から修正を報告するか、参照元となっている悪質なサイトをGoogleに「スパム報告」することで、汚染源を断つ努力が必要です。
まとめ:AIは「相棒」だが、ハンドルを握るのは人間
AI技術は日々進化していますが、攻撃者の手口もまた進化しています。「LLM電話番号汚染」は、私たちがAIを信頼しきっている心の隙を突く攻撃です。
しかし、恐れる必要はありません。 「AIの回答はあくまで下書き・参考情報である」という原則を忘れず、重要なアクションの前には必ず「人間の目による確認」を挟むこと。そして、ITのプロとして自社の情報を正しくAIに伝えるためのWebサイトの改善を行うこと。
この2つを徹底することで、私たちはAIの利便性を享受しながら、安全に業務を進めることができます。