Hacker News 中文摘要

RSS订阅

光中隐藏秘密代码可防伪视频 -- Hiding secret codes in light protects against fake videos

文章摘要

康奈尔大学的研究团队开发了一种通过在视频中隐藏“水印”光线来检测视频是否被篡改的技术。该技术利用几乎不可见的光线波动在重要事件和地点(如采访、新闻发布会或联合国总部)中嵌入信息,这些波动对人类不可察觉,但会在特殊照明下被记录为隐藏水印。每个光源都有独特的代码,可用于检测视频中的水印,从而识别恶意编辑。该技术将有助于打击虚假信息。

文章总结

标题:利用光隐藏秘密代码,防止假视频传播 | 康奈尔纪事

康奈尔大学的研究团队开发了一种新方法,通过在视频中“水印”光线来检测视频是否被篡改或伪造。这种技术的关键在于将信息隐藏在重要事件和场所(如采访、新闻发布会甚至联合国总部等建筑)的光线波动中。这些波动对人眼几乎不可见,但会在任何使用特殊光源拍摄的视频中留下隐藏的水印。这些光源可以嵌入计算机屏幕、摄影灯和内置照明设备中,每个光源都带有独特的秘密代码,用于验证视频中的水印,从而揭示恶意编辑行为。

该研究由计算机科学研究生Peter Michael领导,他将于2025年8月10日在温哥华的SIGGRAPH 2025会议上展示这项名为“噪声编码照明用于法医和光度视频”的研究。

随着生成式人工智能和社交媒体的发展,误导性视频的传播速度比以往更快。康奈尔大学计算机科学助理教授Abe Davis表示:“过去视频被视为真相的来源,但现在这一假设不再成立。如今,几乎可以制作任何内容的视频,这虽然有趣,但也带来了问题,因为辨别真伪变得越来越难。”

此前,研究人员曾尝试通过直接对数字视频文件添加水印来应对这一问题,但这些方法依赖于特定的摄像机或AI模型,难以在现实中广泛实施。新方法通过将代码嵌入光线中,确保任何真实拍摄的视频都包含秘密水印,无论拍摄者是谁。

研究团队展示了如何通过软件对可编程光源(如计算机屏幕和某些室内照明)进行编码,甚至可以通过附加邮票大小的计算机芯片对旧式灯具进行编码。这些芯片根据秘密代码调节光线亮度。

水印中隐藏的信息包括低分辨率的时间戳版本视频,称为“代码视频”。当视频被篡改时,被修改的部分会与代码视频中的内容产生矛盾,从而揭示篡改位置。如果使用AI生成假视频,代码视频则会显示为随机变化。

研究团队还成功在同一场景中使用多达三个独立代码,使伪造变得更加困难。此外,该方法在户外环境和不同肤色人群中也能有效工作。

尽管这项技术为打击虚假信息提供了新工具,但Davis和Michael警告,这是一场持续的“军备竞赛”,对手会不断开发新的欺骗手段。

该研究得到了美国国防科学与工程研究生奖学金和先锋人工智能中心的部分支持。

评论总结

评论主要围绕视频真实性验证技术展开,观点多样,既有支持也有质疑。以下是总结:

支持观点: 1. 技术潜力:部分评论认为该技术在某些关键场景下具有应用价值,尤其是在防止伪造视频方面。 - "While it does not seem enough to guarantee authenticity, this scheme does seem like it would prevent creating a video from scratch pretending to be taken at a protected location without having express knowledge of the key or the flickering at that moment in time." (评论5) - "If this is the only info that's encoded, then that might not be an entirely bad idea." (评论6)

  1. 技术创新:有评论提到类似的技术(如电力频率分析)已被用于视频真实性验证,认为该技术有其合理性。
    • "Reminds me of the 'mains hum' technique that was used to identify videos. Can also be done with light." (评论14)

质疑观点: 1. 技术局限性:许多评论认为该技术无法彻底解决视频伪造问题,且容易被绕过。 - "Without having read into this deeper, it sounds like someone could take an original video which has this code embedded as small fluctuations in luminance over time and edit it or produce a new video, simply applying the same luminance changes to the edited areas/generated video, no?" (评论4) - "Opponents aren’t going to have difficulty relighting. Relighting is a thing Hollywood does routinely, and it’s only getting easier." (评论7)

  1. 实际应用难度:评论指出该技术过于复杂,普通用户难以操作,且依赖第三方工具或权威机构的验证,存在信任问题。

    • "If it’s not directly human-verifiable, people have to rely on 3rd party tools or official/media statements to verify content legitimacy." (评论11)
    • "Viewers aren’t forensic experts. They aren’t going to engage with this algorithm or do some complex exercise to verify the private key of the algorithm prior to running some app on the video, they are just going to watch it." (评论7)
  2. 社会影响:部分评论认为该技术可能被滥用,赋予某些实体过多权力,甚至可能加剧信息操控。

    • "So, if the technical end of this really works, whoever controls the venue and its records can control what videos (real or fake) are considered 'real'." (评论13)
    • "It might be useful for entities like Meta and Google, which could use it to warn of fake content. However, in practice that amounts to giving those entities more power over our perceptions and the realities we build upon them." (评论11)

其他观点: 1. 替代方案:有评论提出更简单的解决方案,如多角度拍摄或使用复杂背景来增加伪造难度。 - "A more accessible thing that protects against fake videos, at least in the short term, is multiple cameras and a complicated background." (评论8)

  1. 社会认知:部分评论认为,即使技术可行,公众对事实的认知和接受度仍是主要障碍。
    • "People disagree on facts and reality and ignore contradictions or proof to the contrary." (评论10)

总结:该技术在某些特定场景下可能有用,但其复杂性和局限性使其难以成为解决视频伪造问题的通用方案。同时,公众对技术的接受度和信任问题也是重要挑战。