ディープフェイクの氾濫防げ テック企業が対策ツール開発に力
このニュースをシェア
【6月6日 AFP】テック企業は、ディープフェイクの脅威に備えた対策に力を入れている。人工知能(AI)の進歩により、リアルな音声や映像を使った詐欺が以前よりも容易に作成可能となり、その被害が後を絶たない。
デビー・ボドキンさんは、93歳の母親にかかってきた電話についてAFPに語った。生成AIによってボドキンさん本人そっくりに作られた声が、「ママ、私。事故に遭ったの」と話したという。どこにいるのかと尋ねると、AIによる成りすましの声は病院名を名乗った。
幸いにも電話を受けたのは孫娘で、仕事中のボドキンさんにすぐ連絡を取り、無事を確認できた。
「こうした詐欺の電話はこれが初めてではなく、ほぼ毎日のようにかかってくる」とボドキンさんは語る。
ディープフェイクを利用した詐欺電話は、架空の緊急事態を装い、治療費などの送金を要求するのが一般的だ。
ディープフェイクは著名人になりすましたSNSでの偽情報拡散のほか、犯罪組織によっても悪用されている。香港警察は今年、多国籍企業の社員が「同僚のAIアバター」とのビデオ会議に騙され、2億香港ドル(約37億円)をだまし取られたと明らかにした。
スタートアップ企業iBoomによると、最近の調査で提示された写真や動画をディープフェイクだと見抜けた米英の参加者は、わずか0.1%にとどまったという。
声紋認証サービスを手がける米ピンドロップ・セキュリティーのCEO、ビジェイ・バラサブラマニヤン氏は、「10年前には合成音声を作れるAIツールは1つしかなかったが、今では数百ある」とし、生成AIは「ゲームチェンジャー」だと指摘。「以前は誰かの声を再現するのに20時間分の音声が必要だったが、今は5秒で可能になっている」とAFPに語った。