インフルエンサーの声をAIで模倣
Q:「AI音声詐欺」ってなに?
A:AIを使って他人の声を模倣した「ニセの音声」を使って実行される詐欺。
おすすめの関連記事
ジャンプ+に「次にくるマンガ」たちが集合しまくって前週比240%増
「音声クローン詐欺」とも。
詐欺師はターゲットの家族や身近な人物の音声を何らかの手段で入手し、その声色をAIに学習させる。そしてAI音声を使ってターゲットの家族などになりすまして電話連絡し、さまざまな理由をでっちあげて金銭を要求する。
さらには、企業の経理担当者に対して上役(経営責任者や財務責任者)になりすました詐欺師が支払いを求める事案も発生している。
加えてここ数年は、SNSを舞台にしたAI音声詐欺も発生している。
有名インフルエンサーの声を入手してAIに学習させ、詐欺師が販売する商品(たとえば有名ブランドのコピー品など)について、あたかもそのインフルエンサーがオススメしているようなナレーションを作成してSNSに投稿する。
そしてその投稿が、詐欺師が作成した販売ページにユーザーを誘導するきっかけにもなってしまう。すでに問題となっている「SNS型投資詐欺」の亜種とも言える手口で、要注意と言える。
週刊アスキーの最新情報を購読しよう