演讲人:贺笛 [北京大学]
时间:12:00-13:00, Dec 16, 2025 (Tue)
地点:FIT 1-312
内容:
随着大规模视觉生成模型的迅速扩展,内容来源可追溯性与模型滥用检测成为影响生成式 AI 健康发展的关键问题。模型级水印通过在生成过程中内嵌可识别信号,为判断图像是否由特定模型生成提供了必要的技术基础。然而,传统学习式水印依赖黑箱神经网络,其检测结果缺乏严格的可靠性保证,难以量化错误率。相比之下,具备统计可证性的水印方法能够以显式的置信度与 p-value 给出判定,从而在安全、责任认定与合规场景中提供可审计、可解释的依据。此外,当前生成生态呈现出 diffusion、GAN、autoregressive 等多种异构范式,因而亟需一种能够在不同模型架构与采样方式下均保持稳定可检测性的跨范式通用水印机制。构建兼具统计可证性与跨范式通用性的视觉模型水印体系,将成为未来可信生成内容基础设施的关键环节。
个人简介:
贺笛,智源学者,北京大学智能学院助理教授。主要从事机器学习模型、算法与理论方向的研究工作,已发表ICML、NeurIPS、ICLR等重要期刊/会议论文50余篇,谷歌引用数超过10000。所设计的模型、算法多次被DeepMind、OpenAI、微软、Meta等国际顶尖研究机构使用。获得机器学习顶级国际会议ICLR 2023杰出论文奖和ICLR 2024杰出论文奖提名。