DeepMind首席执行官呼吁放缓AI发展(二)
在DeepMind伦敦总部大厅的远处墙壁上有一个玻璃柜,里面放着一块涂着黑色涂鸦的大正方形木头,还有该公司最初12年的其他纪念品。这是DeepMind第一次重大行动的纪念品。在谷歌收购后不久,该公司就给自己设定了一个挑战,即设计一种算法,能够在中国古老的棋类游戏围棋中击败世界上最好的棋手。国际象棋很久以前就已经被野蛮的计算机程序征服了,但围棋要复杂得多,最好的人工智能算法仍然无法与顶级人类玩家匹敌。
DeepMind以破解Breakout的方式解决了这个问题。它建立了一个程序,在通过观察人类的游戏来学习游戏规则后,它实际上会与自己进行数百万次的游戏。通过强化学习,算法将自我更新,减少使其更有可能输掉游戏的决策的“权重”,增加使其更有可能赢下游戏的“权重”。在2016年3月在韩国举行的一场比赛中,名为alphago的算法与世界顶级围棋选手之一李世石(Lee Sedol)进行了对决。AlphaGo以四比一的成绩击败了他。输掉比赛的李世石用一支黑色马克笔在下棋的棋盘背面草草地签了名。哈萨比斯代表AlphaGo签署了协议,DeepMind保留了AlphaGo的棋盘作为战利品。预测者在十年内都没有预料到这一里程碑会被通过。这证明了哈萨比斯对谷歌的宣传是正确的:他认为推动人工智能前沿的最好方法是专注于游戏环境中的强化学习。如果你想了解更多关于人工智能的相关内容,可以阅读以下这些文章:
非结构化数据在人工智能领域的应用
人工智能AI将如何塑造元宇宙Metaverse?
数据科学和人工智能岗位有何差别?
给你讲个恐怖故事,你可别哭啊:被2065年的强人工智能控制的你的一天
但就在DeepMind攀登新高度的时候,事情开始变得复杂起来。2015年,DeepMind最早的两位投资者,亿万富翁彼得·蒂尔(Peter Thiel)和埃隆·马斯克(Elon Musk),通过资助竞争对手的初创公司OpenAI,象征性地拒绝了DeepMind。该实验室随后从微软获得了10亿美元的资金,也相信AGI的可能性,但它对如何实现这一目标的理念非常不同。它对游戏不那么感兴趣。它的大部分研究重点不是强化学习,而是无监督学习,这是一种不同的技术,涉及从互联网上抽取的大量数据,并将其注入神经网络。随着计算机越来越强大,数据越来越丰富,这些技术似乎在能力上取得了巨大进步。
虽然DeepMind、谷歌和其他人工智能实验室一直在闭门进行类似的研究,但OpenAI更愿意让公众使用其工具。2022年底它推出了DALL·E 2,它可以生成几乎任何可以想象到的搜索词的图像,以及聊天机器人ChatGPT。由于这两种工具都是根据从互联网上抓取的数据进行训练的,它们受到结构性偏见和不准确性的困扰。DALL·E 2可能会将“律师”描绘为年长的白人男性,将“空乘人员”描绘为年轻美丽的女性,而ChatGPT则倾向于自信地断言虚假信息。2021年DeepMind的一篇研究论文称,如果落入坏人之手,ChatGPT及其前身GPT-3等语言生成工具可能会加剧虚假信息的传播,为政府审查或监视提供便利,并在客观性的幌子下延续有害的刻板印象。(OpenAI承认,它的应用程序有局限性,包括偏见,但表示它正在努力尽量减少这些局限性,其使命是建立安全的AGI,以造福人类。)
但是,尽管哈萨比斯呼吁人工智能竞赛放缓,但DeepMind似乎也不能幸免于竞争压力。2022年初,该公司发布了一份更快引擎的蓝图。这项名为Chinchilla的研究表明,该行业许多最尖端的模型都没有得到有效的训练,并解释了它们如何在相同的计算能力水平下提供更多的功能。
哈萨比斯说,DeepMind的内部道德委员会讨论了公布这项研究是否不道德,因为它可能会允许不那么谨慎的公司在没有牢固护栏的情况下发布更强大的技术。他们决定无论如何都要出版这本书的原因之一是因为“我们不是唯一知道”这种现象的人。他说,DeepMind还在考虑在2023年的某个时候发布自己的聊天机器人Sparrow,以进行“私人测试”。(延迟是为了让DeepMind致力于ChatGPT缺乏的基于强化学习的功能,比如引用其来源。哈萨比斯说:“在这方面保持谨慎是正确的。”)但他承认,该公司可能很快就需要改变其算法。
他说:“我们正在进入一个时代,我们必须开始考虑那些白吃白喝的人,或者那些只阅读但没有为信息库做出贡献的人。”“这也包括民族国家。”他拒绝透露他的意思 -“很明显,你可能会想到谁”- 但他认为,人工智能行业公开发布其发现的文化可能很快就需要结束。
哈萨比斯希望世界将DeepMind视为安全和道德人工智能研究的标准制定者,在一个充满专注于速度的领域以身作则。DeepMind已经发布了《红线》(red lines),反对不道德地使用其技术,包括监视和武器。但DeepMind和Alphabet都没有公开分享DeepMind拥有什么法律权力来阻止其母公司,一个涉足五角大楼合同的监控帝国,通过DeepMind构建的人工智能实现这些目标。据《华尔街日报》报道,2021年,Alphabet结束了与DeepMind长达数年的谈判,该谈判讨论该子公司建立独立的法律结构,以防止其人工智能被单一的企业实体控制。
哈萨比斯并不否认DeepMind的这些尝试,但他淡化了任何他担心当前结构不安全的暗示。当被要求证实或否认传言中作为谷歌收购的一部分而成立的独立道德委员会是否真的存在时,他说他不能,因为这“都是机密”。但他补充说,自收购以来,DeepMind的道德结构“进化”到了“我们现在的结构”。
哈萨比斯说,DeepMind和谷歌都致力于公共道德框架,并从一开始就在他们的工具中建立安全性。DeepMind有自己的内部道德委员会、机构审查委员会(IRC),由公司所有领域的代表组成,由其首席运营官Lila Ibrahim担任主席。易卜拉欣说,IRC定期开会,任何分歧都会升级到DeepMind的执行领导人那里,让他们做出最终决定。“我们的运营非常自由,”她说。“我们有一个单独的审查程序:我们有自己的内部道德审查委员会;我们在最佳实践和学习方面进行合作。”当被问及如果DeepMind的领导团队不同意谷歌的意见,或者如果它的“红线”被跨越会发生什么时,易卜拉欣只说:“我们还没有遇到这个问题。”
哈萨比斯现在最喜欢的游戏之一是一款名为《Polytopia》的策略游戏。其目标是通过逐步的技术进步,将一个小村庄发展成为一个主宰世界的帝国。例如,捕鱼打开了航海的大门,最终导致你的船只的海军发射大炮并穿越海洋。在游戏的最后,如果你巧妙地引导你的技术进步,你将坐在一个闪闪发光、复杂的帝国之上,而你的敌人将死在你的脚下。(哈萨比斯说,埃隆·马斯克(Elon Musk)也是他的粉丝。两人最后一次交谈是在几个月前,Polytopia是他们谈话的主要话题。哈萨比斯说道:“我们都非常喜欢这款游戏。”)
虽然哈萨比斯的世界观更加微妙和谨慎,但很容易看出为什么游戏的精神与他产生共鸣。他似乎仍然认为技术进步本质上对人类有利,在资本主义制度下,预测和减轻人工智能的风险是可能的。他说:“科学和技术的进步是文明的驱动力。”
哈萨比斯认为,如果AGI的财富到来,应该重新分配。“我认为,我们需要确保让尽可能多的人受益,理想情况下是让全人类受益。”他喜欢“全民基本收入”(universal basic income)和“全民基本服务”(universal basic services)的理念,前者让每个公民每月从政府获得津贴,后者让国家为交通或住房等基本生活标准买单。他说,一个由AGI驱动的未来应该比今天的世界在经济上更平等,但没有解释该系统将如何运作。“如果你在一个极端富足的世界里,那么这种不平等的空间应该更小,可能发生的方式也应该更少。因此,如果AGI愿景得以实现,这就是它的积极后果之一。”
其他人则不那么乐观,认为这种乌托邦式的未来会成为现实,因为过去几十年科技行业的增长恰逢财富不平等的大幅加剧。“大公司,包括拥有DeepMind的大公司,必须确保它们为股东带来最大价值;没有真正专注于解决气候危机,除非从中获得利润;当公司的整个目标是积累更多的财富并将其分配给股东时,他们肯定对重新分配财富不感兴趣,播客技术不会拯救我们的”主持人巴黎·马克思(Paris Marx)说。
“没有认识到这些事情,实际上是没有充分考虑到该技术的潜在影响。”根据透明监督机构Open Secrets的数据,谷歌、亚马逊和梅塔是2022年花费最多资金游说美国议员的20家公司之一。马克思说:“我们缺乏的不是解决气候危机的技术,也不是重新分配财富的技术。”“我们缺乏的是政治意愿。而且很难看出,仅仅是创造一种新技术就能创造出政治意愿,让社会进行更多的结构性变革。”
回到DeepMind的螺旋楼梯,一名员工解释说,DNA雕塑的设计是旋转的,但今天马达坏了。仔细观察发现,螺旋的一些阶梯是歪斜的。在楼梯底部,一个木制的凳子上有一个告示,在这个巨大的人类隐喻前面。“请不要碰,”上面写着。“它非常脆弱,很容易损坏。”
感谢阅读。你还可以订阅我们的YouTube频道,观看大量大数据行业相关公开课:https://www.youtube.com/channel/UCa8NLpvi70mHVsW4J_x9OeQ;在LinkedIn上关注我们,扩展你的人际网络!https://www.linkedin.com/company/dataapplab/
Mariah Espada和Solcyre Burga报道
原文作者:BILLY PERRIGO
翻译作者:马薏菲
美工编辑:过儿
校对审稿:Chuang
原文链接:https://time.com/6246119/demis-hassabis-deepmind-interview/