この記事では、スマートフォンの音声通話を加速度センサーから盗聴する技術についての研究を紹介します。米ペンシルバニア州立大の研究グループが実証実験をもとにリスクを警告しています。

セキュリティの穴をつくAIの悪用事例
AIが普及するにつれ、AIを悪用したハッキング等の脅威が現実のものになりつつあります。この新しいリスクを知り、対策を考えていく必要があります。記事の前段として、AIの悪用事例を挙げます。
事例1 ChatGPTを用いたマルウェア生成
最近世間を賑わせているChatGPTですが、ハッカー達による悪用が水面下で進んでいるようです。
2022年12月、ハッカー達のネット上の溜まり場に、ChatGPT – Benefits of Malware(マルウェアにおける利点)というスレッドが立ち上がりました。このスレッドでは、ChatGPTを用いてマルウェアを再現する実験がおこなわれています。
実験のうちいくつかでは、ChatGPTによるコード生成が成功し、マルウェアとして機能するプログラムが出来ています。
事例2 ディープフェイクによる政治経済撹乱
AIの得意技である「画像生成」「音声合成」を悪用する「ディープフェイク」は、いくつかの事件を起こしています。
例えば、マレーシアの政治家のプライベートを撮影したとするディープフェイク動画が公開され、汚職疑惑での調査が要求されました。その結果、政権が不安定化しました。
また、イギリスのとあるエネルギー会社は、CEOの声を真似たディープフェイク音声に騙され、約20万ポンド(約2700万円)が犯罪者の口座に送金されてしまいました。
オリジナル記事の新着はSNSから