人工智能风险治理有了新突破。
近日,美国拜登政府于白宫召集美国七家AI头部公司并获得了七家人工智能头部企业的自愿性承诺,确保人工智能技术的安全性、有保障性和可信任性。
自以ChatGPT为代表的生成式人工智能快速发展以来,关于生成式人工智能的风险管控成为各方关注焦点。即便是此前被认为重视产业发展的美国,也对当前阶段的人工智能发展中的安全问题给予足够关切,AI七巨头自愿承诺,代表着美国向发展负责任的人工智能迈出了关键一步。
承诺影响的或许不止美国,新闻稿显示,在国内推进这一承诺的同时,美国政府还将与盟友和合作伙伴合作,建立一个强有力的国际框架来管理人工智能的开发和使用。
保护模型权重 开发AI标识系统“正在开发此新兴技术的公司有责任确保他们的产品是安全的。为了充分发挥人工智能技术的潜力,拜登-哈里斯政府鼓励人工智能行业制定并遵守最高行业标准,以确保创新不会以牺牲美国人民的权利和安全为代价。”刊登于美国白宫网站的新闻稿显示。
齐聚白宫的七家AI公司分别为亚马逊、Anthropic、谷歌、Inflection AI、Meta、微软和OpenAI。
其中,Anthropic被认为是OpenAI强有力的竞争对手,由OpenAI前研究副总裁Dario Amodei等人在2021年创建,今年7月推出了新版人工智能聊天机器人Claude 2,公司目前估值为41亿美元。Inflection AI是一家成立于2022年的年轻公司,今年5月推出名为Pi的个人AI助理,6月底完成一笔价值13亿美元的融资,是当前人工智能热潮中规模最大的一笔融资之一。
承诺书主要强调了未来人工智能发展的三个原则:安全,保障和可信任。具体来看,七家人工智能公司作出的承诺涵盖多个领域。
安全方面,在向公众推出产品之前,公司确保产品是安全的。
公司承诺在人工智能系统发布前进行内部和外部的安全测试。这些测试部分由独立专家进行,防范重要的人工智能风险源及其对社会造成的进一步不利影响。
公司还将强化同业界、政府机构、民间和学术界的信息交流和技术合作,分享关于应对人工智能风险的信息。
保障方面,承诺构建安全第一的系统。
公司将投资建立网络安全和内部威胁保护措施,以保护专有的和未发布的人工智能模型权重;公司还会委托第三方寻找并报告他们人工智能系统中的漏洞。因为即使在人工智能系统发布后,相关问题仍然可能存在,而强大的报告机制则让这些问题能够被快速找到并修复。
可信方面,公司将采取多种方式赢得公众信任。
公司会公开报告模型或系统的能力、局限性以及适宜和不适宜使用的场景,并讨论其社会风险和安全风险,如对公平性和偏见的影响;此外,还将优先研究人工智能系统可能带来的社会风险,包括如何避免有害的偏见和歧视、如何保护隐私等。
7家公司还承诺将开发强大技术机制,如水印系统,确保用户知道内容为人工智能生成。这一行动使人工智能的创造力得以蓬勃发展,减少欺诈和欺骗风险。
“现阶段,AI标识具有一定的可操作性。图片、视频类信息内容采用水印等技术进行处理较为简单,但是对于文字类信息内容而言,生成阶段对纯文本内容进行标识较为困难,需要技术公司与平台方进行合作。”北京航空航天大学法学院副教授赵精武向21世纪经济报道记者介绍道。
美国人工智能七巨头的自愿承诺只是人工智能发展的第一步。白宫官网显示,未来还有更多的工作正在进行中。政府将继续采取行政措施,推动两党立法,帮助美国在负责任地创新和保护方面走在前列。
作为美国人工智能产业的“领头羊”,七家人工智能公司所作承诺影响深远。有观点认为,承诺书多为原则性内容,未设置时间表;且因为自愿承诺,不具有强制执行力。
“七家公司所作出的自律承诺虽然仅仅是道德伦理层面的承诺,但在未来立法或者监管实践中可以借由企业社会责任制度确保七家的实际履行。”此外,赵精武指出,从承诺内容来看,“安全、可靠和可信”将会成为未来全球人工智能领域的行业标准。技术企业也不再能以纯粹的技术风险为由规避承担人工智能产品、服务的侵权责任。
美国国内监管动态频频 企业违法或面临算法罚没承诺书的达成只是美国AI治理的一步。近段时间以来,美国政府对于人工智能保持密切关注,调查动作频频。如7月中旬,据媒体报道,美国联邦贸易委员会或将对OpenAI公司展开全面调查。
FTC向OpenAI发出了一份长达20页的文件,其中详细列举了OpenAI需要解释的问题以及提交的书面证据。具体来看,调查文件中对OpenAI提出了多项质询,包括个人信息的监控、收集、使用和保留的举措;如何保护用户的隐私、防止针对系统的提示语注入攻击;如何评估和解决风险等。
针对模型训练,FTC要求公司提供训练模型的迭代和修改过程;训练中使用的问答样例以及如何评估问答的质量;详细描述公司在向公众发布新的大型语言模型产品(或产品新版本) 前评估风险和安全性所遵循的政策和程序。
生成式人工智能产品生成虚假内容、知识产权侵权等问题一直是新一波人工智能浪潮下关注的焦点之一,而问题的产生可能同用以训练的数据有所关联。
训练数据方面,FTC要求OpenAI解释数据的来源、获取方式以及公司如何识别、评估、审查和选择模型数据源等。此外,调查文件中要求公司详细描述如何识别、评估和测试大型语言模型生成内容包含真实个人信息;如何判断包含对真实个人的虚假、误导或诋毁性陈述;采取了何种措施降低以上风险等。
除了对关键性问题作出说明解释,OpenAI还被要求提供从2017年至今与大型语言模型及其产品相关的合同协议、风险声明、测试文件等。
“FTC的问询以泄露信息为开端,无助于建立信任,这令人失望。”对于此次调查,OpenAI首席执行官Sam Altman发推文表示。不过他也声明,公司将配合FTC的工作。
早前,在今年2月,为应对人工智能技术在内的高新技术广泛应用将带来市场变革,FTC成立了技术办公室,旨在加强机构的内部能力,以调查和减轻对新兴技术可能对消费者和市场的带来的伤害。
官网显示,为了使该机构能够更好地应对当前和未来的技术威胁,OT将通过建立一支在数据安全、人工智能、机器学习和人机交互设计等一系列专业领域拥有深厚专业知识的技术专家团队。这支团队将由该机构的首席技术官领导,并与联邦贸易委员会其他部门合作以满足跨学科的需求。
具体而言,OT的职责包括加强和支持执法调查和行动、与 FTC 工作人员和委员会合作提供专业知识、报告等、与公众和外部利益相关者交流以确定关键趋势和最佳实践。
监管动态不断,在美人工智能企业可能面临怎样的风险?
对外经济贸易大学数字经济与法律创新研究中心执行主任张欣指出,FTC调查结果若属实,OpenAI可能面临罚款甚至是“算法罚没”(algorithm destruction)的风险。
“算法罚没是FTC近期的有力执法武器之一。”张欣向南方财经全媒体记者解释道,若FTC判断相关产品存在风险,可能会要求涉事公司删除数据,并删去基于数据训练而成的AI模型和算法。
“美国近来的监管调查举措渐多,事实上反映了当下美国和国际对生成式人工智能以及具有通用潜能人工智能的监管趋势。”张欣介绍道,美国政府层面,白宫成立了生成式人工智能工作组开始征求意见和布局立法准备。目光转向国际社会,联合国秘书长古特雷斯在今年以来已经不止一次建议成立国际AI监管机构。
提出“负责任创新”,抢占国际技术话语高地人工智能成为全球新一轮竞争的焦点。此番竞争中,人工智能风险监管已经成为当前政策治理中不可或缺的考量因素。相关实践看来,各国在治理措施中表现出了一定共识:AI需要监管,但同时鼓励创新。
“共识主要表现为人工智能技术的研发者和使用者应当以合理合法的方式应用该技术,并且欧盟、中国也共同采取了科技伦理审查等类似制度作为衡量人工智能技术应用合理性的柔性标准。”赵精武说道。
具体监管方面,表现出了差异。美国、欧盟等暂时尚未对人工智能技术研发企业作出直接的禁止性规定,其中欧盟倾向于从人工智能整体行业提出鼓励性或倡议性的监管要求。而中国的AI监管模式则是以具体的技术应用场景为导向,在人工智能监管领域先后出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等。
此次,美国人工智能发展风险管控的着眼点不只在国内。根据白宫新闻稿内容,“随着我们在国内推进这一议程,政府将与盟友和合作伙伴合作,建立一个强有力的国际框架来管理人工智能的开发和使用。”
据介绍,美国政府已经就自愿承诺与澳大利亚、巴西、加拿大、智利、法国、德国、印度、以色列、意大利、日本、肯尼亚、墨西哥、荷兰、新西兰、尼日利亚、菲律宾、新加坡、韩国、阿联酋和英国进行了磋商。同时,希望美国在日后能够填补日本在七国集团广岛进程中的领导地位、英国在主办人工智能安全峰会方面的领导地位和印度作为人工智能全球伙伴关系主席的领导地位。
赵精武提示,从“盟友和合伙”等表述就可以看出,美国更希望以领导者的身份主导人工智能技术国际规则制定,加之美国境内的七家技术公司本身就具备国际领先的人工智能技术,美国所谓的AI全球规则实际上也从技术发展角度对其他国家的人工智能应用提出限制性要求。
此外,此次新闻稿重申美国关于人工智能发展的态度:人工智能要“负责任创新。”记者不完全梳理发现,美国之前的相关人工智能发展策略和监管文件大多围绕“负责任创新”而进行。
2022年6月,美国国防部发布《美国国防部负责任的人工智能战略和实施路径》;2022年10月,美国白宫发布的《人工智能权利法案蓝图》,提出负责任地使用人工智能(AI) 路线图;2023年《人工智能风险管理框架》发布,表示AI RMF 的目标是为设计、开发、部署或使用 AI 系统的组织提供资源,以帮助管理 AI 的诸多风险促进人工智能系统值得信赖和负责任地开发和使用。
赵精武提示,一方面,无论是对美国,还是对于其他国家而言,任由人工智能技术应用野蛮生长,并不会对产业有任何积极作用,反而会因为滥用技术风险导致社会经济不稳定。另一方面,“负责任创新”另一重目的是为了提前抢占人工智能技术国际标准的制定权和话语权,通过美国自行设置的“负责任创新”标准,对他国及其技术企业实施看似合理正当的内政干涉和业务活动打压。