IT Home在2月19日报道说,随着Deepfake技术的持续发展,人们对虚假信息,欺诈和身份盗窃的担忧正在增加。一项新的研究表明,人们对AI工具的认识极低,很难有效地识别出伪造的内容。
根据一项新的iProov研究,大多数人很难区分深度锻造内容与真实内容。该研究邀请了来自英国和美国的2,000名参与者向他们展示一系列真实和AI生成的图像和视频。结果表明,只有0.1%的参与者(即两个人)能够准确区分真实内容和深入的虚假内容。
研究还发现,老年人更容易受到人工智能产生的错误内容的影响。 55至64岁的人中,约有30%的人以前从未听说过65岁以上的人。尽管年轻的参与者对发现深色假货的能力更有信心,但他们在测试中的实际表现并不比其他年龄段更好。
该研究发现,与图像相比,深层虚假视频比图像更难识别,而正确识别虚假视频的可能性要比识别伪造的图像要低36%。
IT Home注意到,社交媒体平台被认为是深层伪造内容的主要通信渠道。近一半的参与者(49%)认为,包括Facebook和Instagram在内的meta平台是最常见的深层伪造来源,而47%的人指向Tiktok。
即使人们怀疑某事是深入伪造的,大多数人也不会采取行动。只有20%的受访者表示,如果他们在网上遇到了深入的锻造内容,他们会举报。
随着深度伪造技术变得越来越现实,伊普鲁夫认为,仅人类的看法就无法再可靠地识别出深层伪造的内容,并且需要采用具有实时检测的生物识别安全解决方案,以应对日益现实的深层伪造威胁。