AGi – 大型语言模型(LLM)在以下方面表现较差: 深度伪造的识别 布法罗大学与奥尔巴尼大学和香港中文大学合作开展的一项研究显示,人工智能的识别率可能比最先进的检测算法高,但其自然语言处理功能实际上可能会在未来提高其效率,该研究于上周在 IEEE/CVF 计算机视觉与模式识别会议上发表。大多数人认为人工智能与 ChatGPT 和深度伪造。人工智能生成的文本和图像占据了社交媒体信息流和网站的大部分,并经常被用来传播不可靠和误导性的信息。在这项研究中,研究人员要求法学硕士(包括 OpenAI 的 ChatGPT 和谷歌的 Gemini)识别人脸的深度伪造。“法学硕士与现有检测方法的不同之处在于,它们能够以人类可以理解的方式解释他们的发现,例如识别错误的阴影或一对不匹配的耳环,”布法罗大学工程与应用科学学院计算机科学与工程系研究生、这项研究的主要作者 Siwei Lyu 说。
“LLM 并非为深度伪造检测而设计或训练的,但它们的语义知识使它们非常适合此目的,因此我们期待看到更多针对此应用的努力,”Lyu 继续说道。最新版本的 ChatGPT 和其他 LLM 还可以分析图像。这些多模态 LLM 使用带有标题的大型照片数据库来查找单词和图像之间的关系。“人类也会这样做:无论是停车标志还是病毒式模因,我们都在不断地为图像分配语义描述,”UB 媒体取证实验室科学家、该研究的第一作者 Shan Jai 说。“这样, 图像成为他们的语言“Jai 继续说道。 媒体取证实验室团队决定测试具有视觉的 GPT-4、GPT-4V 和 Gemini 1.0 能否区分真实面孔和 AI 生成的面孔。科学家向他们提供了数千张真实面孔和深度伪造面孔的图像,并要求他们识别任何操纵或合成伪影的迹象。ChatGPT 在检测潜伏扩散生成的图像中的合成伪影时准确率为 79.5%,在检测 StyleGAN 生成的图像中的合成伪影时准确率为 77.2%。
“这些结果与之前的 deepfake 检测方法相当,因此在及时和充分的指导下,ChatGPT 可以相当出色地检测 AI 生成的图像,”同时也是 UB 信息完整性中心联席主任的 Lyu 说道。ChatGPT 还能用通俗易懂的语言解释其决策。当给出一张 AI 生成的戴眼镜男子照片时,该模型正确地检测到“图像左侧的头发有点模糊”和“人物与背景之间的过渡有点突然,缺乏深度”。Lyu 说道:“现有的 deepfake 检测模型会告诉我们图像是真是假的概率,但很少告诉我们它们得出这个结论的原因。”
“而且——Lyu 补充道——即使我们分析了模型背后的机制,也会有一些我们根本无法理解的特征。”“与此同时,ChatGPT 产生的一切都是人类可以理解的,”Lyu 强调道。这是因为 ChatGPT 的分析仅基于语义知识。虽然传统的深度伪造检测算法通过对大量标记为真实或虚假的图像进行训练来区分真实与虚假,但 LLM 的自然语言能力让它们对现实有了一种常识性的理解,包括人脸的典型对称性和真实照片的外观。“一旦 ChatGPT 的视觉组件理解了图像是人脸,语言组件就可以推断出脸通常有两只眼睛,等等。 语言成分在视觉和语言概念之间提供了更深层次的联系“,Lyu 指出。该研究声称,ChatGPT 的语义知识和自然语言处理功能使用户和开发人员都更容易使用 deepfake 工具。“通常,我们会将检测 deepfake 的见解转化为编程语言;现在,所有这些知识都存在于一个模型中,你只需要使用自然语言来表达它,”Lyu 指出。“ChatGPT 的表现远低于最新的 deepfake 检测算法,后者的准确率在 90 到 30 之间,”Lyu 说。部分原因是 LLM 无法捕捉信号级别的统计差异,这些差异是人眼看不见的,但检测算法经常使用这些差异来定位人工智能生成的图像。”ChatGPT 仅关注语义级异常“,Lyu 解释道。“这样一来,ChatGPT 结果的语义直观性对于深度伪造检测来说可能是一把双刃剑,”Lyu 补充道。而其他法学硕士可能不太擅长解释他们的分析。
虽然 Gemini 在检测合成伪影方面的表现与 ChatGPT 一样好,但它的支持证据往往毫无意义,例如指出不存在的痣。另一个缺点是法学硕士通常拒绝分析图像。当直接问到一张照片是否由人工智能生成时,ChatGPT 通常会回答:“抱歉,我无法回答这个问题。”该模型被编程为在未达到一定置信水平时不做出反应“,Lyu 评论道。“我们知道 ChatGPT 具有与深度伪造检测相关的信息,但同样,需要人工操作员来刺激其知识库的这一部分,”Lyu 指出。“快速工程是有效的,但效率不高,因此下一步是降低一个级别并针对此特定任务微调 LLM,”Lyu 总结道。
1719658469
#ChatGpt #如何识别 #Deepfake
2024-06-28 12:58:51