1/0
周伯文:探索人工智能45°平衡律
东方网2024-07-04 23:06:11

7月4日,2024世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)在上海开幕。上海人工智能实验室主任、首席科学家,清华大学惠妍讲席教授,衔远科技创始人周伯文在WAIC 2024全体会议上发表演讲。以下为演讲全文。

尊敬的各位领导,各位嘉宾,大家上午好,非常荣幸在WAIC大会上、在上海,与大家分享人工智能安全的前沿技术话题,我想提出一个技术主张:探索人工智能45°平衡律——Towards AI-45°Law。

当前,以大模型为代表的生成式人工智能快速发展,但随着能力的不断提升,模型自身及其应用也带来了一系列潜在风险的顾虑。

从公众对AI风险的关注程度来看,首先是数据泄露、滥用、隐私及版权相关的内容风险;其次是恶意使用带来伪造、虚假信息等相关的使用风险;当然也诱发了偏见歧视等伦理相关问题;此外还有人担心:人工智能是否会对就业结构等社会系统性问题带来挑战。在一系列关于人工智能的科幻电影中,甚至出现了AI失控、人类丧失自主权等设定。

这些由AI带来的风险已初露端倪,但更多的是潜在风险,防范这些风险需要各界共同努力,需要科学社区做出更多贡献。

去年5月,国际上数百名AI科学家和公众人物共同签署了一份公开信《Statement of AI Risk》,表达了对AI风险的担忧,并呼吁,应该像对待流行病和核战争等其他大规模的风险一样,把防范人工智能带来的风险作为全球优先事项。

出现对这些风险担忧,根本原因是我们目前的AI发展是失衡的。

先让我们来看一下目前的AI发展趋势:

在Transformer为代表的基础模型架构下,加以(大数据-大参数量与大计算)的尺度定律(Scaling Law),目前AI性能呈指数级增长。

与此形成对比的是,在AI安全维度典型的技术,如:红队测试、安全标识、安全护栏与评估测量等,呈现零散化、碎片化,且后置性的特性。

最近的一些对齐技术兼顾了性能和安全性。比如:监督式微调SFT、人类反馈的强化学习RLHF等技术,RLAIF、SuperAlignment等。这些方法帮助将人类的偏好传递给AI,助推涌现出了ChatGPT、GPT-4等令人兴奋的AI系统,以及我们上海AI实验室的书生Intern大模型等等。虽然瞄准的是安全和性能同时提升,但这些方法在实际使用中往往还是性能优先。

所以总体上,我们在AI模型安全能力方面的提升,还远远落后于性能的提升,这种失衡导致AI的发展是跛脚的,我们称之为Crippled AI。

不均衡的背后是二者投入上的巨大差异。如果对比一下,从研究是否体系化,以及人才密集度、商业驱动力、算力的投入度等方面来看,安全方面的投入是远远落后于AI能力的。

李强总理刚才提出“智能向善”。AI要确保可控,统筹发展与安全。毫无疑问地,我们要避免这样的Crippled AI发展,我们应该追求的是:TrustWorthy AGI,可信的AI,可信的通用人工智能。

实现安全与性能共同增长的“AI-45°平衡律”

可信AGI需要能够兼顾安全与性能,我们需要找到AI安全优先,但又能保证AI性能长期发展的技术体系。我们把这样一种技术思想体系叫做“AI-45°平衡律”(AI-45° Law)。

AI-45°平衡律是指从长期的角度来看,我们要大体上沿着45度安全与性能平衡发展,平衡是指短期可以有波动,但不能长期低于45°(如同现在),也不能长期高于45度(这将阻碍发展与产业应用)。这个技术思想体系要求强技术驱动、全流程优化、多主体参与以及敏捷治理。

实现AI-45°平衡律也许有多种技术路径。我们上海AI实验室最近在探索一条以因果为核心的路径,我们把它取名为:可信AGI的“因果之梯”,致敬因果推理领域的先驱——图灵奖得主Judea Pearl。

可信AGI的“因果之梯”将可信AGI的发展分为三个递进阶段:泛对齐、可干预、能反思。

“泛对齐”主要包含当前最前沿的人类偏好对齐技术。但需要注意的是,这些安全对齐技术仅依赖统计相关性而忽视真正的因果关系,可能导致错误推理和潜在危险。一个典型的例子是巴甫洛夫的狗:当狗仅仅基于铃声和食物的统计相关性形成条件反射时,它可能在任何听到铃声的场合都触发行为分泌唾液。

“可干预”主要包含通过对AI系统进行干预,探究其因果机制的安全技术,例如人在回路、机械可解释性,以及我们提出的对抗演练等,它以通过提高可解释性和泛化性来提升安全性,同时也能提升AI能力。

“能反思”则要求AI系统不仅追求高效执行任务,还能审视自身行为的影响和潜在风险,从而在追求性能的同时,确保安全和道德边界不被突破。这个阶段的技术,包括基于价值的训练、因果可解释性、反事实推理等。

目前,AI安全和性能技术发展主要停留第一阶段,部分在尝试第二阶段,但要真正实现AI的安全与性能平衡,我们必须完善第二阶段并勇于攀登第三阶段。沿着可信AGI的“因果之梯”拾级而上,我们相信可以构建真正可信AGI,实现人工智能的安全与卓越性能的完美平衡。

最终,像安全可控的核聚变技术为全人类带来清洁、丰富的能源一样,我们希望通过深入理解AI的内在机理和因果过程,从而安全且有效地开发和使用这项革命性技术。

也正如可控核聚变对全人类都是共同利益一样,我们坚信AI的安全也是全球性的公共福祉,陈吉宁书记刚刚在发布的《人工智能全球治理上海宣言》中提到“要推动各国加强交流和对话”,我们愿与大家一起携手推进AI-45°平衡律的发展,共享AI安全技术、加强全球AI安全人才交流与合作,平衡AI安全与能力的投入,共同构建开放、安全的通用人工智能创新生态和人才发展环境。

谢谢大家!

关于上海人工智能实验室

上海人工智能实验室是我国人工智能领域的新型科研机构,开展战略性、原创性、前瞻性的科学研究与技术攻关,突破人工智能的重要基础理论和关键核心技术,打造“突破型、引领型、平台型”一体化的大型综合性研究基地,支撑我国人工智能产业实现跨越式发展,目标建成国际一流的人工智能实验室,成为享誉全球的人工智能原创理论和技术的策源地。

选稿:顾天骄
知识产权、免责声明以及媒体合作联系
继续了解
知识产权声明

【知识产权声明】

除本司(指上海东方网股份有限公司)另行声明外,本司网页及客户端产品(以下简称“本网”),包括但不限于东方新闻、翱翔、东方头条等,所涉及的任何资料(包括但不限于文字、图标、图片、照片、音频、视频、图表、色彩组合、版面设计、商标、商号、域名等)的知识产权均属本司和资料提供者所有。未经本司书面许可,任何人不得复制、转载、摘编、修改、链接、镜像或以其他任何方式非法使用东方网的上述内容。对于有上述行为者,本司将保留追究其法律责任的权利。

东方网、东方新闻、翱翔,以上均为本司享有权利之合法商标,未经本司书面授权,任何单位或个人不得使用上述商标,或将上述商标用作网站、媒体名称等。

【免责声明】

1、凡本网注明来源“东方网”或“东方新闻”或带有东方网LOGO、水印的所有内容,包括但不限于文字、图片、音频视频,版权均属本司所有,任何媒体、网站或其他任何形式的法律实体和个人未经本司书面授权均不得转载、链接或以其他方式复制传播。与我司签订有关协议或已经获得本司书面授权许可的媒体、网站或其他任何形式的法律实体和个人,应在授权范围内使用,且必须注明来源“东方网”。其目的在于传递更多信息,并不意味着本司赞同其观点或认可其内容的真实性。如果其他媒体、网站或其他任何形式的法律实体和个人使用,必须保留本司注明的“稿件来源”,并自负全部法律责任。如擅自篡改为“稿件来源:东方网”,本司将依法追究责任。

2、擅自使用东方网名义转载不规范来源的信息、版权不明的资讯,或盗用东方网名义发布信息,设立媒体账号等,本司将依法追究其法律责任。

3、鉴于本网发布主体、发布稿件来源广泛,数量较多,如因作者联系方式不详或其他原因未能及时与著作权拥有者取得联系,或著作权人发现本网转载了其拥有著作权的作品时,请主动来函、来电与本司联系,或与本司授权的中国文字著作权协会联系,提供相关证明材料,我方将及时处理。
中国文字著作权协会联系方式:
联系人:赵洪波 唐亚静
地 址:北京西城区珠市口西大街120号太丰惠中大厦1027-1036室
联系电话:010-65978917
邮 箱:wenzhuxie@126.com

4、本网所有声明以及其修改权、更新权及最终解释权均属本司所有。

【媒体合作】

本司为尊重保护著作权,鼓励有益于社会主义精神文明、物质文明建设的作品的创作和传播,促进互联网良性发展,本着平等互惠、资源共享的原则,诚邀各类媒体、网站、单位、个人与本网建立友好的合作关系。
媒体合作、内容转载请联系
联系人:杨老师
联系电话:021-22899781