研究引入了检测深度赝品的新方法

2024-02-28 14:21:33深情的哈密瓜

《国际特设和普适计算杂志》上发表的研究提出了一种新方法来应对 Deepfake 技术带来的挑战,该技术生成与真实镜头非常相似的受操纵媒体内容。

研究引入了检测深度赝品的新方法

该新颖方法结合了 miniXception 和长短期记忆 (LSTM) 模型,可以更有效地分析可疑内容,识别 Deepfake 图像,准确率超过 99%。

虽然虚假和欺诈性视频和图像已经存在了很多年,但“深度伪造”一词更常见的是指使用人工智能和深度学习技术创建的经过操纵的视频或图像。这些技术允许用户用其他内容叠加或替换图像或视频的原始内容。

通常,视频中的人脸和声音可能是伪造的。这种深度伪造可能会被用于娱乐目的,就像许多应用程序的情况一样,这些应用程序允许日常用户创建以他们的朋友和家人甚至名人为特色的“有趣”内容。

然而,深度造假的更阴险的使用已经引起了广泛的关注,因为它有可能欺骗观众,常常导致人们对错误信息、侵犯隐私以及操纵公共和政治话语的担忧。

此类视频对民主构成了重大威胁,选民和消费者等可能会接触到看似合法的政治内容,但这些内容是带有恶意的虚假宣传。在政治紧张局势和脆弱性加剧之际,识别深度造假内容比以往任何时候都更加重要。迫切需要强大的检测方法以及对其存在和潜在后果的认识。

到目前为止,深度伪造检测一直受到准确率低和跨不同数据集泛化困难的阻碍。河南解放军战略支援部队信息工程大学的刘勇、赵旭和程若思,浙江实验室的孙天宁,中国浙江大学的王宗辉,以及科罗拉多州博尔德市科罗拉多大学博尔德分校的史宝兰,美国提出了一种模型,可以提高早期方法的准确性。

该团队进行了跨数据集训练和测试,采用迁移学习方法来提高模型跨各种数据集的泛化能力。他们在训练期间使用焦点损失来平衡样本并进一步增强泛化能力。

他们的测试证明了这种方法的前景,在 FaceSwap 数据集上显示检测准确率为 99.05%。这比以前的方法(例如 CNN-GRU)更好,并且需要更少的参数来实现这种成功水平。

推荐阅读

阅读排行