中国法学会副会长王利明:条件成熟时有必要针对人工智能特别立法

最新信息

中国法学会副会长王利明:条件成熟时有必要针对人工智能特别立法
2023-07-06 21:15:00
人工智能狂飙,百模大战正酣。一段时间以来,AI技术取得突破性进展,值得注意的是,随之而来的侵权问题也给法律应对带来了新的挑战。7月6日,2023全球数字经济大会知识产权与数字经济发展专题论坛在京举行。中国法学会副会长、中国人民大学一级教授王利明在论坛上表示,生成式人工智能目前所造成的侵权,还没有完全超出《民法典》和《个人信息保护法》的相关规定,现行法律规则仍然可以作为处理和解决纠纷的依据。
  他同时指出,在未来条件成熟时,有必要通过特别立法进行有效应对,从而更好地预防生成式人工智能带来的各种侵权风险,有效保障民事组织的合法权益,促进人工智能产业的发展
  生成式AI可能侵害何种权利?
  “人工智能侵权具有特殊性。”王利明表示。首先,人工智能侵权不同于一般的产品侵权。生成式人工智能不会对用户的生命权、身体权或者健康权造成严重损害,也不会给用户造成重大财产损失,因此与传统侵权法中的产品责任不同。
  其次,人工智能侵权也不完全等同于传统的网络侵权。生成式人工智能产生的虚假信息需要借助于用户或者其他主体的传播才有可能影响社会公众。生成式人工智能产生的内容并不直接地具备公开性,其内容主要是向特定的用户提供的,只要用户不进行广泛传播,那么生成式人工智能生成的内容不会发生扩散,因此不会产生大规模的侵权现象。
  但王利明同时指出,生成式人工智能可能会生成虚假信息,若造成大面积传播,不仅会侵害受害人的人格权等权利,还可能引发严重的社会问题。
  如何界定侵权主体?
  王利明还谈到了侵权责任主体的复杂性与多元性。服务提供者可能大量收集了网络上的公开信息用于训练,这些公开信息中可能既有隐私信息,也有个人信息,还可能涉及商业秘密。用户在使用生成式人工智能的产品时,也可能采取故意引诱等方式使生成式人工智能产生虚假信息并且对虚假信息进行传播。此外,服务提供者开发的生成式人工智能可能本身具有缺陷,用户利用这些缺陷生产具有侵权性质的文字或者图片。
  “必须要区分不同场景,来明确不同的主体责任。”王利明说。
  他认为,服务提供者的责任有积极作为侵权与不作为侵权的区分。服务提供者通过积极作为的方式实施侵权,例如,服务提供者在训练生成式人工智能时故意利用了他人的个人信息。服务提供者通过不作为的方式实施侵权,例如未采取合理措施,导致系统出现漏洞或者被黑客攻击,发生数据泄露;再如,在运行中发现、用户举报的不符合要求的生成内容时,未在合理期限内采取内容过滤、模型优化训练等措施。“前一种的责任应当是比较重的。”
  他还表示,有研究指出,从问答系统开发者的角度,可以利用信息检索系统提供外部知识、有意识地提高模型的召回能力、在处理复杂问题前识别其复杂性并对其进行分解,从而在一定程度上可以避免出现幻觉现象。但如果服务提供者对此完全放任不管,可能会导致损害的进一步扩大。
  在用户责任方面,王利明指出两种典型形态:一是用户利用生成式人工智能来生成虚假信息。如果用户在与生成式人工智能交流中,采取故意诱导的方式(如有意增加某一单词出现的频率、调整该单词在句子中的位置或者给出与该单词具有关联性的单词),或者故意指责某人存在性骚扰等行为,要求生成式人工智能生成图片或引导生成式人工智能生成其想要的答案,甚至误导其生成虚假信息,这些行为本身表明用户是具有过错的。
  二是用户利用生成式AI制作虚假信息,随后用户又将该虚假信息进行广泛传播。这种情况下,由于生成式人工智能的服务提供者没有实施侵权行为,该生成式人工智能只是作为被用户不当利用的工具,因此该服务提供者无需承担侵权责任,用户应当承担全部的侵权责任。
  王利明还表示,生成式人工智能的运营商与网络服务提供者存在一定的差异,网络服务提供者的责任仅限于在网络空间中为用户提供访问、复制或者传播信息的服务时产生的,但是生成式人工智能并不一定要在网络空间中运行。
  “生成式人工智能产生的侵权信息,是向用户个人提供的,而非向不特定公众提供的,因此不同于用户在网络空间中传播的侵权信息,但在生成式人工智能提供之后,用户利用其所生成的信息在网络空间中进行散播,此时,用户也是利用网络服务进行侵权,因此与《民法典》第1194条的规定具有相似之处,从而引发了是否适用网络侵权的避风港规则的问题。”王利明说。
  如何认定侵权责任?
  对于“如何承担责任”的问题,王利明认为,归责原则主要适用过错责任原则。在服务提供者大规模采集个人信息的情况下,应当根据《民法典》和《个人信息保护法》的规定,承担过错推定责任。而对于其他的侵权行为,则应当采取过错责任。“在用户和服务提供者均有过错的情况下,可以利用过错进行分担,也有利于准确地认定各方主体的责任。”
  在生成式人工智能产品的固有缺陷致人损害的情形下,应采取何种归责原则?
  “固有缺陷是指生成式人工智能在现有技术无法完全解决的问题。关键要看其在技术上是否尽到了最大的努力,从而督促服务提供者努力采取技术措施改进现有技术。”王利明说。
  他补充道,不能将生成式人工智能等同于一般的产品,也不能适用产品责任的归责原则。生成式人工智能的固有缺陷可能会导致各种风险,但仍然可以采取各种方式来降低这种风险。依照鼓励创新的价值取向,适用过错责任原则更有利于人工智能技术的创新和发展。
  王利明认为,应当对生成式人工智能虚假信息侵权适用“通知规则”,利用生成式人工智能实施侵权与利用网络实施侵权在性质上具有类似性,Al产品出现虚假信息,并不是服务提供者所能完全避免和控制的。
  如何禁止深度合成技术侵害他人合法权益?王利明指出,应当要求服务提供者在训练时尽量避免大规模收集人脸、语音等个人敏感信息,要求采取技术措施添加不影响用户使用的标识。“由于这些义务属于法定义务,如果违反这些义务造成损害,就有可能构成侵权。”
  谈到个人信息和隐私的安全保障问题,王利明表示,为了防止大规模侵权,要重视风险的预防和防范,要求服务提供者在训练时应当尽量保证数据的质量,要求服务提供者应该采取必要措施,保障数据安全。
  “个人认为,生成式人工智能目前所造成的侵权,还没有完全超出《民法典》和《个人信息保护法》的相关规定,现行法律规则仍然可以作为处理和解决纠纷的依据。当然,在未来条件成熟时,有必要通过特别立法进行有效应对,从而更好地预防生成式人工智能带来的各种侵权风险,有效保障民事组织的合法权益,促进人工智能产业的发展。”王利明说。
(文章来源:21世纪经济报道)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

中国法学会副会长王利明:条件成熟时有必要针对人工智能特别立法

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml