网站无障碍 关怀版 无障碍客户端 @isc.org.cn

当前位置

首页> 新闻动态> 协会动态

蓝海沙龙|第269期:“生成式人工智能领域下的个人信息侵害风险及应对策略”研讨会在京召开

2024年03月26日 17:39

3月22日,中国互联网协会召开第269期蓝海沙龙——“生成式人工智能领域下的个人信息侵害风险及应对策略”研讨会。中国政法大学副校长、数据法治研究院院长时建中,中国科学院信息工程研究所正高级工程师戴娇,中国社科院法学所研究员、科技与法研究中心主任杨延超,北京邮电大学电子工程学院教授吴帆,中国移动研究院博士袁博,中国信息通信研究院互联网法律研究中心高级工程师赵淑钰,华为云EI解决方案专家张瑞锋,360集团法务部资深律师王乐,阿里巴巴集团公共事务总监肖尧,淘天集团政府事务总监铁木尔夫等专家参加了会议。会议由中国互联网协会副秘书长裴玮主持。


upfile

  

裴玮表示,生成式人工智能为教育、娱乐、医疗保健和科学研究等多个领域提供了变革潜力,激发起前所未有的关注度和创造力浪潮。但在具有广阔应用前景与发展未来的同时,生成式人工智能也对既有的个人信息保护体系形成了巨大冲击与威胁。生成式人工智能通常需要大量数据进行训练,随着生成式人工智能的广泛使用,个人数据的收集、存储和处理将变得非常普遍。在未形成有效的数据管理和个人信息保护机制的情况下,生成式人工智能服务将缺乏透明性和可控性,个人信息保护的落地需要更加细化的技术、机制与规则设计。本次研讨会结合人工智能的具体落地应用案例,重点关注生成式人工智能时代如何提升个人信息保护技术手段的有效性,讨论如何健全监管空缺与补充机制、平衡安全与发展等问题,旨在为政府部门的监管和治理提供思路和建议,更好地推动生成式人工智能行业的建设和健康发展。


upfile


张瑞表示,华为云大模型分为三层,包括L0基础大模型,L1行业大模型及L2场景模型。其中基础大模型当前包括NLP大模型、CV大模型、多模态大模型、预测大模型和科学计算大模型5种。华为云大模型在各个行业的应用已有很多案例,如政务、医疗、金融、司法、矿山、轨道、电力、气象行业等。政务大模型功能主要包括城市感知、协同办公、政策咨询、城市治理。金融大模型功能主要包括金融政策梳理、跨模态内容理解与多任务理解、代码的智能生成及软件的交互集成。医疗大模型则主要通过医疗报告的生成与解读服务推动医疗领域疑难问题的解决。


王乐表示,360的大模型包括360智脑大模型、元大模型、多模态大模型和360安全大模型,目前智脑大模型和元大模型已经通过备案向公众开放。生成式人工智能领域个人信息保护的风险主要有三个方面,一是训练数据过程中的误抓取的风险;二是信息流转过程中的信息泄露风险;三是AI作为新业态,在发展速度较快的同时,企业可能会轻视信息安全的风险。结合我国AI发展现状,建议更多去鼓励行业发展,采取轻事前重事后、轻过程重结果的监管策略。建议企业强化自身的安全建设,对个人信息做分类,分级的管理。尤其敏感信息强化监管,严防泄露,同时建立规范的信息管理及处理流程,确保信息的处理及使用合法合规,且符合与用户的约定。企业要强化和监管部门的对话,对新业态新模式以及潜在的风险及时报备,积极听取监管部门的意见与建议,在监管部门的指导下,个人信息保护工作能落到实处。在信息收集及内部处理使用阶段,以企业的自律为主,个人信息分享、转让以及涉及任何形式的流出时,应按照规定对信息接收方做安全能力评估,一旦造成信息泄露可以从严处理,如造成了比较严重的安全事故,可酌情加重处理。


肖尧表示,阿里巴巴自研了通义千、通义万两款基础大模型,相继开源了1.8B、7B、14B、72B参数大模型。并推出通义听、通义法睿、通义灵码等8类垂类大模型,推动大模型在千行百业落地。同时,阿里还推出一站式大模型应用开发平台“百炼”,大幅降低大模型应用开发门槛,让广大企业能够根据自己的业务需求快速“炼”出专属模型。对于AIGC领域下的个人信息保护问题,肖尧表示阿里巴巴对此高度重视,严格根据法律要求和行业规范对AIGC全生命周期中的各关键节点采取了针对性合规措施。建议探索AIGC数据治理的规则,由政企学社媒多方联合,综合考虑治理价值的平衡性、治理主体的平衡性、治理手段的灵活性,开展敏捷治理。要以确定性的规则来满足人工智能对个人信息处理的需求,在保护个人信息的同时能够激发数据价值。此外,还需要通过行业标准、国家标准明确公开领域个人信息作为训练语料时的合法性的基础。


铁木尔夫表示,生成式人工智能监管的目的是促发展,对于大型公司与小型垂类公司可以考虑采取分级分类和分阶段的方式细化监管。同时,可以将协会作为平台构建一套沙自律的监管平台或自律平台,使大模型的运行公开、透明化。让监管部门能够有效了解到整个模型的个人信息保护情况,既提升了行业的自律,也能够做好事前监管工作。


赵淑钰表示,生成式人工智能在发展过存在着一定的个人信息风险。一方面,大规模数据汇集、多样的数据来源等特性会加大个人信息滥用、泄露风险。另一方面,生成式人工智能对现有立法中“知情-同意”原则、删除权、更正权等也构成挑战。建议对生成式人工智能实施审慎监管,可明确大模型应用红线,以个案导向、问题导向解决生成式人工智能应用发展中的突出问题,出台权威指引、标准,逐步构建完善生成式人工智能规则体系。


袁博表示,中国移动的天大模型平台宗旨是借助移动海量的客户以及网络运营,依托泛在的网络和智能算力使人工智能像水电一样为大众所使用。目前已经发布了139亿参数的九天众基座大模型,在研的行业大模型三大类包括客服大模型、政务大模型、网络大模型。在大模型的使用上,建议在技术层面上充分保障用户和行业数据安全的同时,监管部门还要明确哪些数据、行业具有涉及国家机密信息不能对外渗透,做好安全措施。


吴帆表示,从法律法规的角度看,目前国内生成式人工智能监管较为宽松,政府主要以约谈、督促的方式展开监管,总体秉持保护企业、保护技术发展的立场。从技术发展角度看,国内生成式人工智能的发展将在行业应有所侧重并会取得一定优势,这将与个人隐私数据、行业隐私数据甚至是国家安全数据紧密联系在一起,无法进行脱钩。在技术快速发展的当下,建议从标准和政策制定层面去做快速的引导、迭代和推进,使监管体系与技术发展速度相匹配。同时,在使用境外服务的过程中,政府可加强对关键数据、国家安全数据的分级分类统筹管理,确保国家数据安全。


杨延超表示,生成式人工智能领域下个人信息保护最大的风险是使用过程中的聊天记录所形成的完整的用户画像,使用者的意思意图会被完整确地表达出来,个人信息保护的重点应当是对大模型使用过程中聊天记录的管理与治理,要明确好聊天记录是否需要定期删除、是否能用于训练等问题。政府需要考虑如何实现有效监管,如充分落实数据删除权等,确保个人信息不被泄露或滥用。


戴娇表示,人工智能监管政策要服务于整个国家的发展,生成式人工智能的管理尺度应当与它的不同发展阶段以及发展诉求相匹配。在坚持包容审慎鼓励发展原则的基础上,一方面可以通过发展个人信息保护技术推动生成式人工智能的治理,另一方面可以加强事前、事后的管理,事前阶段对涉及侵权或违法的信息进行处理,使生成式人工智能无法对该类信息进行操控或修改,事后阶段通过设置方便事后追溯的标识等推动监管。同时,建议自上而下构建一套框架性的监管体系,配合现行规范体系推动监管的落地。


时建中表示,生成式人工智能的监管要充分考虑发展与安全、促进与规范、国内与国际、研发与运用、政府与市场等因素的关系,明确侧重点。同时,站在全球视角,针对我国数据、算法、算力等人工智能不同要素的情况,精准施策。当前生成式人工智能缺乏高质量的训练数据,公共数据流通也存在障碍。随着生成式人工智能算法的先进程度与复杂度日益提高,算法黑箱的问题也日益凸显,而算力的不断发展也在冲击各类数据加密手段。建议以促进发展为目标,在实践中分场景展开监管。对于预训练阶段个人信息的使用可采取宽容的态度,对于实际应用场景则做严格把控。同时,注重发挥法律规范的倒逼作用,在明确主体责任与对象的基础上,推动企业以先进技术实现对用户个人信息的保护。


会议认为,我国生成式人工智能在政务、医疗、金融等领域已展开广泛的应用,但需注意到其与产业前沿之间的技术差距。个人信息的保护要以促进发展为目标,做好各类监管场景的区分。建议政府以自上而下的形式构建一套生成式人工智能的治理框架,加快该领域下标准与政策的制定进程,使其与生成式人工智能技术的发展需要相匹配。同时,不断创新隐私保护技术,以技术手段解决好生成式人工智能领域下的个人信息保护问题,实现我国新质生产力的发展与飞跃。


2011-2019 Copyrights reserved 京ICP备05006316号 版权所有:中国互联网协会
技术支持:北京圣明慧力科技有限公司