皮盼资讯网移动版

皮盼资讯网 > 国际新闻 >

AI生成合成内容将有“专属水印”,能遏制“换脸”诈骗吗?(2)

“这种双重保障机制将确保标识要求不仅有依据,还有技术执行路径,具备可操作性,确保规定真正落地,而不只是停留在表面要求上。”郑志峰向记者解释。


此举能防范日益突出的AI诈骗吗?

《标识方法》这一强制性国家标准拟明确各类AI生成合成内容的具体标识方式。其中,视频内容的显式标识应采用文字提示。

具体而言,应同时包含人工智能要素——含“人工智能”或“AI”,表明使用人工智能技术;包含生成合成要素——含“生成”和/或“合成”,表明内容制作方式为生成和/或合成。

▲视频内容显式标识示例。图源《标识方法》

音频内容的显式标识应采用语音标识或音频节奏标识。语音标识应同时包含人工智能要素——含“人工智能”或“AI”,表明使用人工智能技术;包含生成合成要素——含“生成”和/或“合成”,表明内容制作方式为生成和/或合成。

音频节奏标识应为“短长 短短”的节奏。《标识方法》注释称,“短长 短短”节奏为“AI”的摩斯码表示。

▲音频内容显式标识示例。图源《标识方法》

以“AI换脸”诈骗为例,肖飒分析,根据《办法》和《标识方法》要求,潜在受害人应该能够在视频中看到显著标识,提示该视频是AI生成合成内容。

具体来说:视频中可能会有明显的文字提示,如“本视频为合成内容”,或者视频角落处有明显的标识符号,如“人工智能生成合成”;标识应当放置在视频的显眼位置,如角标、横幅等,以便用户一眼就能注意到;标识的颜色和字型应当足够醒目,以便与视频背景区分开;如果视频支持交互功能,在用户尝试播放或下载视频时,系统可能会弹出提示框,告知用户该视频是AI生产合成的。

“从效果来看,可以预测,《办法》和《标识方法》的实施有助于提高AI生成合成内容的透明度,降低老百姓遭AI诈骗的风险。”肖飒告诉记者。

郑志峰认为,标识可以起到区分人机界限的作用,同时具有警示功能,提醒用户慎重对待AI生成合成内容,避免上当受骗。“当然,标识的作用也是有局限性的,无法应对所有的问题。例如,AI生成合成内容是否侵犯他人的著作权、人格权,并非标识可以解决的。”

━━━━━

专家建议:明确未履行标识义务的责任规则,特别是民事侵权责任

《办法》第13条拟规定,未对AI生成合成内容作出标识造成严重后果的,由网信等有关主管部门按照有关法律、行政法规、部门规章的规定予以处罚。

郑志峰指出,《办法》拟作出的责任追究规定较为笼统,责任机制不够完善,没有明确未履行标识义务的责任规则,特别是民事侵权责任。

“《办法》仅规定‘未对生成合成内容进行标识造成严重后果的’依法进行处罚。但对第10条所涉及的使用者的行为,未规定惩罚措施。”肖飒指出,有的使用者恶意滥用AI生成合成内容,通过不正当标识手段损害他人合法权益、散布虚假信息,建议补充处罚措施或列明可供援引的其他法律规范。

此外,郑志峰提出,标识适用于AI生成合成内容,对于人机协作生成合成的内容是否适用并不明确。例如,AI生成一首唐诗,用户对内容作了很小的修改,是否需要标识并不清楚。

总的来说,内容标识是防范生成式人工智能应用风险的重要一步,有助于提高透明度,帮助用户识别AI生成合成内容。

“但这只是多层次防控体系的一部分。”肖飒认为,要想真正规避风险,还应细化法律法规,建立行业自律标准,如明确界定法律责任,特别是版权、隐私保护等问题;推动行业自律,建立统一的技术标准和伦理准则,引导企业合理合法使用AI技术。

在郑志峰看来,当前我国人工智能立法呈现明显的场景化特征,如关注自动驾驶、人脸识别、生成式人工智能、深度合成等具体场景,且立法的级别不够高。

“随着我国人工智能产业的发展,人工智能立法储备的丰富,制定一部《人工智能法》的契机已经成熟。相较于分散的部门规章,《人工智能法》可以系统明确人工智能各方权利、义务、责任,建立起覆盖人工智能全生命周期的、统一的监管规则,避免场景化立法存在的重复立法和监管盲区问题,具有更强的适应性。”郑志峰认为。

(责任编辑:admin)