首页 >经济 > 正文

人工智能时代:拥抱未来并警惕挑战

2023-04-26 10:15:36来源:检察日报-数字检察

张凌寒 中国政法大学数据法治研究院教授、博士生导师

翁音韵 上海市人民检察院第四检察部三级高级检察官


(资料图片仅供参考)

编者按:人工智能是新一轮科技革命和产业变革的重要驱动力量,自其步入大众视野后,深刻影响并惠及人们生活的方方面面,但同时也产生前所未有的挑战。如何确保人们的隐私和个人信息安全?新技术会引发哪些法律风险?对科技犯罪应该如何治理?带着这些问题,本刊邀请专家学者和检察官进行深入探讨,以期更好地理解科技、防范风险和应对挑战。

记者:随着ChatGPT的出现,公众在欣喜于科技带来便捷的同时,也发现人工智能技术在运用中不可避免地会对伦理、法律等方面带来挑战。请举例说明。

张凌寒:以Deepfake、ChatGPT、元宇宙等为代表的深度合成技术与应用场景展现了强大的能量和可能性,但其带来效率和便利的同时,也带来了伴生风险。深度合成的技术与应用,不仅不能化解算法治理一直致力解决的算法黑箱、算法歧视等传统问题,而且由于其技术特点,还会给我们带来更多的治理挑战。其一,深度合成改变了信息生成方式,会带来潜在的安全问题。其二,深度合成的发展对现有数据、算法、算力分而治之的治理体系提出严峻挑战,网络安全、个人信息、数据保护、数据跨境流动的制度都需要作出相应调整。其三,深度合成会强化技术垄断和技术竞争,不仅使数据共享共用愈加难以实现,而且会加深国家、地区、人群间的数字鸿沟。

翁音韵:近期人工智能生成内容的相关技术大火,其所带来的商业价值和应用前景备受关注,但其可能关联的风险也迅速呈现,值得警惕。以ChatGPT等大模型的运用为例,首先,大模型的数据被反复训练打散和整合,数据源的所有权和保护权就可能会被架空。其次,若用户在大模型中输入问题请求时,可能会无意或有意输入含有个人信息、金融、商业秘密等在内的各种信息,则可能导致相关数据泄露。最后,大模型训练使用的数据源可能存在不合法、不合规、虚假甚至是完全错误的内容,生成的内容会引发相关的法律风险,甚至可能被用于犯罪,如用于生成犯罪脚本、虚假信息的网络“钓鱼”和欺诈活动,以及生成恶意代码等行为,可能会对用户设备和数据造成损害。

记者:数据是人工智能产业发展的核心生产要素,人工智能引发的诸多问题也主要来自于数据,如何看待人工智能广泛应用背景下的数据合规问题?

张凌寒:传统人工智能背景下的数据合规,合规主体聚焦于平台,即深度合成服务提供者。在生成式人工智能广泛应用与发展背景下,上游的深度合成技术支持者与下游的深度合成服务使用者的数据合规也应当受到重视,既要加强深度合成技术支持者的数据合规体系建设,确保训练数据合规;又要重视深度合成服务使用者的数据合规体系建设,确保输入数据合规。此外,在用户与生成式人工智能明文互动的情况下,如何通过技术加强对用户行为的合法性约束,是下一步技术开发和制度设计应认真对待的问题。

翁音韵:在我看来,一方面,要鼓励和支持相关企业建立企业自身数据合规体系,督促企业加强对数据的管理和监控,规范企业数据获取、存储、传输、处理等行为,确保数据安全和合规。另一方面,监管部门要帮助企业划定数据合规相关基线,对照法律政策和业务特点,及时掌握市场变化和监管政策,明确需要遵守的合规义务,引导企业制定合规方案。考虑到可行性,可以对各类数据分级分类逐步落实合规措施,如对个人隐私数据优先采取更为严格的保护措施,保证重要数据的安全和合规。

记者:恶意滥用人工智能技术对技术的生存与发展造成巨大阻碍,整治滥用人工智能乱象,需多方施策。对于科技犯罪应该如何治理?如何形成合力,让全社会都参与到对此类人工智能黑科技的治理与抵制中?

张凌寒:人工智能技术的发展与应用,极大降低了专业知识与特定技能的获取门槛。ChatGPT类的生成式人工智能具备了无代码编程能力,降低了攻击代码编写的技术门槛,可能会导致更多的网络安全攻击发生。人工智能时代的科技犯罪治理更加强调多方协同,需由国家把握顶层设计,加快出台与非法利用人工智能技术相关的禁止性规定,严厉打击利用人工智能技术实施的违法犯罪行为;以平台为治理枢纽,积极履行自身安全管理义务,主动承担对上游技术支持者和下游服务使用者的管理责任;重视行业协会组织在人工智能技术犯罪治理中的作用,激励行业协会充分发挥其在人工智能技术领域的专业优势,主动参与到科技犯罪侦查活动中;动员公民个人积极参与到网络犯罪、数据犯罪防控过程中,健全违法犯罪活动举报奖励机制,拓宽犯罪发现与线索追查渠道。

翁音韵:首先,应当在法律政策层面明确对违法犯罪行为的惩治要求和标准,对人工智能滥用行为进行打击要实现有法可依。其次,应当加强对人工智能技术的监管,对人工智能技术进行安全审核和评估,对滥用人工智能技术及时进行监测,有效遏制滥用人工智能的行为。再次,还应该加强对人工智能安全技术的研究,提高人工智能技术的智能化和安全性,及时发现和防范安全风险,从技术层面对抗人工智能技术滥用。最后,通过宣传教育,加强社会公众对滥用人工智能问题的认知和理解,引导社会公众增强自我保护意识,正确使用人工智能技术,形成对抗滥用人工智能的社会共识和合力。

记者:人工智能法律挑战的背后是机器智能对现有以人类智能为中心的法律秩序的挑战。新技术引发的冲击是否意味着法律真空的出现?是否需要在人工智能立法层面予以跟进?

张凌寒:面对深度合成中的生成式人工智能等具有一定通用性质的新型人工智能技术,应及时调整治理方案,抢抓规则制定权,推动我国在该领域的本土化制度建设和制度引领。应以ChatGPT为代表的生成式人工智能发展为契机,推动深度合成治理成为人工智能治理的专门领域。从长远来看,加强深度合成治理专门立法是必然趋势。在对深度合成治理作出专门性制度探索的基础上,推进人工智能基础性立法,解决人工智能领域的通用问题。一是算法、算力与数据的规则制度必须在人工智能治理的框架下统筹协调。二是法律层面上的统筹,将我国现行的有关数据、算法和人工智能问题的探索,统一纳入未来人工智能的基础性立法当中。

翁音韵:新技术的出现可能会出现更细分领域的法律无法第一时间跟进对其规范的问题,但法律是分层级、分类型的,并不意味着新技术的出现,就一定会出现法律真空。如近期国家互联网信息办公室起草的《生成式人工智能服务管理办法(征求意见稿)》,就是要进一步促进生成式人工智能技术的健康发展和规范应用。当然,如果在当前法律体系逐步完善的前提下,对于确实触犯刑法的人工智能技术使用行为,在现有刑事法律体系通过扩大解释仍不能解决其法律适用问题时,个人认为,有必要通过刑事立法予以规制。

记者:目前,我国网络安全的保障主要依靠技术升级和相关的法律法规等。在人工智能技术应用如此普遍的情况下,普通民众应该如何做好自我保护和有效防范?

张凌寒:一方面,应当提升自身甄别信息真伪的能力。以ChatGPT为代表的生成式人工智能基于海量数据生成合并结果,可达到从无到有、以假乱真的效果。这就要求用户既要对通过生成式人工智能互动获取的信息进行人工甄别和交叉验证,又要有意识地分辨社交媒体平台上所发布新闻信息的真实性,有效甄别虚假新闻,理性参与舆论表达。另一方面,应当提升个人信息、隐私安全的防护意识。人工智能技术的训练数据主要来源于互联网,其中可能包括个人隐私数据,而此前ChatGPT-2就发生过隐私泄露的问题。因此,用户在使用生成式人工智能等具有一定通用性质的新式人工智能技术时,要不断提升安全防护意识,避免个人信息或隐私泄露。

翁音韵:一方面,普通民众应对人工智能技术下所产生的如图片、视频等产物的真实性不断加强信息甄别意识及能力。在面对人工智能换脸等相关技术运用下的图片等信息时,一定要注重甄别信息内容的来源渠道以及它的客观性、真实性和准确性,切记不盲从、不盲信、不盲转发一些所谓的小道消息或营销号等自媒体消息。另一方面,普通民众应当对人工智能技术所产生的技术风险有所防范,尤其要注意涉及个人生物识别的信息安全。对于涉及人脸识别、人声识别、指纹、瞳孔等生物识别信息时,需要充分了解信息的采集、使用与存储流程以及信息采集目的的必要性和使用情况,谨慎使用生物识别信息。如果发现可能存在泄露个人生物识别信息隐患,或者已经发现具有泄露生物识别信息的,应及时向有关监管部门反映和举报。

[版面见习编辑:高航] [责任编辑:刘蕊] 责任编辑:

标签:

免责声明

头条新闻