首页 > 资讯 >

人工智能造假行骗:能治吗?

发布时间:2024-10-12 15:05:45来源:
  眼见不一定为实,有图未必有真相。随着AI技术不断发展,AI合成,已经不仅限于换脸,或生成音频这么简单,而是可以将人脸、声音、手势动作等多种元素深度合成,甚至可以实现使用合成的人物进行实时视频通话。

  而与此同时,AI合成的技术门槛也越来越低,使得普通人也可以轻松学会。如何去防范利用AI深度伪造技术的新型诈?又该如何通过治理让AI技术能更好向善?《新闻1+1》关注:人工智能造假行:能治吗?

  人工智能造假行,责任如何划分?

  对外经贸大学数字经济与法律创新研究中心主任 许可:在深度伪造技术发展、使用过程中,有非常多的主体发挥作用。有技术的研发者、分发者、使用者。利用技术实施诈的人,当然是第一责任人,但在整个生态中,技术的研发者、软件的分发平台以及传播相关信息的人也可能发挥着一定的作用,如何形成一种治理的合力?这里面可能要区分两种不同的责任:

  一种责任是行为人的责任,比如说利用人工智能去诈的人。

  另一种责任是平台责任,平台一端连着用户,一端连着提供人工智能技术的人,这要求平台发挥管理两边的责任。一旦发现违法违规行为,平台就应该采取积极措施,去制止无论是信息内容的发布者还是软件的提供者,从而实现整个平台治理的安全稳定。

  法律如何应对人工智能造假行?

  对外经贸大学数字经济与法律创新研究中心主任 许可:人工智能的发展其实刚刚开始,用在违法违规、刑事犯罪方面也不久,我国的法律也及时进行了应对。法律出台之后,需要做的是进一步实施和落地。这些新制度的出台,目前还仍在建规立制的阶段,通过各方的合力,既要依托于监管部门,不断将法规的细则落实到每一个主体身上,也要通过社会的综合治理,实现个人要知道、主张自己的权益,企业要知道、践行自己的责任和义务。还需要一个循序渐进、逐渐完善的过程。

  AI生成合成内容将有“专属水印”

  9月,国家网信办起草了《人工智能生成合成内容标识办法(征求意见稿)》,这能遏制“换脸”诈吗?

  对外经贸大学数字经济与法律创新研究中心主任 许可:在大量AI深度伪造技术的诈中,最大的问题是被的人以为视频是真的。《人工智能生成合成内容标识办法(征求意见稿)》要求,通过人工智能生成的视频、音频、图片都必须加以明确的标识。这样,看到的人能够知道这是AI生成的内容。这种通过信息披露实现的治理,在我们现在来看是非常有效的措施。

  老年人如何防范“AI换脸”诈?

  对外经贸大学数字经济与法律创新研究中心主任 许可:这是一个素质素养提升的工作,因为信息鸿沟、技术鸿沟,很多老年人根本就不知道世界上还有这么一种技术,能把假的变成真的。

  让老年人提升认识,需要包括媒体、教育机构、科研院所共同普及这方面的知识,告诉他们信息的真假是需要认真甄别的。另一方面,老年人获取信息的来源除了社会,很多是来自于家人。孩子们应该多和自己的父母、长辈沟通,告诉他们这些诈案例,让他们产生警惕。通过社会和家庭的共同作用,让老年人提升认识。

(责编: admin)

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。