- 投稿日:2025/07/21
- 更新日:2025/09/29

近年、AI技術の進歩により、音声や顔を本物そっくりに再現できる「ディープフェイク」や「生成AI」が一般にも使われるようになってきました。
その便利さの裏で、悪用されるケースも急増しています。
特に目立つのが、「有名人になりすました詐欺」です。
実際に起きている事例
■ ケース1:YouTube広告で「学長さんが絶賛!」と紹介される高額商材
・AIで再現した有名人の映像や音声を使い、本物のような広告を作成。
・実際には本人と無関係の詐欺的な商材を販売。
・返金や問い合わせができず被害が拡大。
■ ケース2:SNSでのDM詐欺
・有名人のアイコン・名前で「個人的に連絡を取りたい」と接近。
・実際には詐欺師が運営しており、最終的には情報搾取や架空請求へ発展。
どうして信じてしまうのか?
・有名人の影響力とAIのリアルな再現性が合わさることで「本物」と信じてしまう。
・「公式」「限定」「特別なご案内」など、心理を突く巧妙な文言。
・スマホで短時間に情報を見るため、細部まで確認せず信用してしまう傾向。
被害に遭わないための予防策
✅ 情報の発信元を必ず確認する
「〇〇公式」や「認証マーク」などの確認はもちろん、複数のSNSやWeb検索で裏取りを。
✅ 本人の発言と照らし合わせる
有名人の公式X(旧Twitter)やインスタなどで、その内容が発信されているか確認。
✅ 怪しい広告はスルーする
「今だけ」「期間限定」「本人からのお願い」など、感情に訴える言葉には注意。
✅ お金を支払う前に一呼吸
信頼できる家族や友人に一度相談するクセをつけるだけで被害はかなり防げます。
万が一、詐欺にあってしまったら?
・支払いを止める(クレジット会社、決済サービスに即連絡)
・証拠を保存(スクリーンショット、DM履歴など)
・消費生活センターや警察に相談
まとめ:AIの進化に騙されないために
AIの進化は素晴らしいですが、私たちが「騙されない力」を持つことが何より大切です。
これからますますリアルになるAI技術に対抗するには、冷静な判断力と正しい情報リテラシーが必要不可欠です。