等你等到春红褪在去年热播的电视剧《猎罪图鉴》中,有一集讲述了利用AI换脸技术进行诈骗的故事,犯罪分子利用AI改变外貌和声音,扮做受害者儿子索要了25万美元。
不久前,福州市某科技公司法人代表郭先生就遭遇了AI换脸的骗局。据包头市公安局电信网络犯罪侦查局公布的信息表示,郭先生的好友通过微信视频联系到他,两人在短暂聊天后,好友以投标需要保证金为由,要借用郭先生的公司账户走账,郭先生基于视频聊天信任的前提下,向对方账户打了430万。转账后,郭先生发消息给好友声称事情已办妥,好友却说没有这回事,他才意识到遇到了“高端”骗局。
郭先生称:“他当时是给我打了视频的,我在视频中确认了面孔和声音,所以才放松了戒备。”
无独有偶,5月22日,安徽安庆的何先生也遇到了AI换脸诈骗。这次金额达到132万,且整个诈骗过程时间更短,只有9秒钟。同样也是视频电话,同样利用了AI换脸和拟声技术。
据光明日报报道,专家提示,“AI假脸”的纹理特征存在破绽。例如,伪造后的视频人物的眼睛或牙齿轮廓细节容易不一致;两只眼睛瞳孔的颜色不一样或瞳孔中心反射的细节不一样;或是很多伪造视频由于视频分辨率低于原始视频分辨率,伪造出来视频的牙齿边缘过于整齐等。
另外,“AI假脸”有可能不符合正常人的生理特征,比如,一个健康成年人一般间隔2-10秒眨一次眼,每次眨眼用时0.1-0.4秒,而在伪造视频中,人的眨眼频率可能不符合上述规律。
最后,由于人嘴部的运动是最为频繁且快速的,因此AI软件无法真实准确地渲染连续动作。因此,“AI假脸”的嘴部特征有可能辨别出真假。此外,伪造后的视频会造成一定的视频抖动,导致视频出现帧间不一致情况。
但以上这些细节,我们往往很难去注意和观察到。所以在日常中,最重要的是要具有防范意识,尤其是涉及到钱财的事情。另外,我们需要加强对人工智能技术的了解和认识,并向身边的亲人朋友普及相关的技术和案例,只有了解了这种技术的本质和特点,才能更好地预防和避免被骗。
除了加强风险意识,许多金融机构已有相关的落地举措与相关技术应用去打击AI换脸。例如利用活体防伪、中介识别等技术避免人脸识别的自身缺陷,有效识别照片、视频、面具、仿真模型等,特别是本事件中出现的换脸、变声欺诈行为。
总之,面对AI换脸这一新型诈骗手段,需要我们不断加强对其的认识和防范。只有这样,才能更好地保护我们的财产和安全。在未来的发展中,我们还需要不断探索和发展新的技术手段和方法来预防和打击AI诈骗,从而保障人民的安全和利益。
|