随着生成式人工智能等新技术成为科技界新热潮,关于人工智能是否会毁灭人类的争论愈演愈烈。有知名科技领袖警告称,人工智能可能会接管整个世界。其他研究人员和高管则表示,这种说法是科幻小说。
在上周召开的美国国会听证会上,人工智能初创企业OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)明确提醒大家,该公司公开的这项技术存在安全风险。
奥尔特曼警告说,ChatGPT聊天机器人等人工智能技术可能会引发虚假信息和恶意操纵等问题,并呼吁进行监管。
他表示,人工智能可能“对世界造成严重伤害”。
奥尔特曼在美国国会作证之际,关于人工智能是否会主宰世界的辩论正转向主流,整个硅谷和致力于推广人工智能技术的人士意见不一、分歧也越来越大。
以前曾有个别人认为,机器的智力水平可能会突然超越人类,并决定毁灭人类,现在这种边缘型想法正在获得越来越多人的支持。一些权威科学家甚至都认为计算机学会超越人类并能控制人的时间将有所缩短。
但许多研究人员和工程师表示,虽然不少人担心现实中出现像电影《终结者》中的天网那种杀手型人工智能,但这种担忧并不是基于合乎逻辑的好科学。相反其分散了人们对这种技术已经造成现实问题的注意力,包括奥尔特曼在证词中所描述的问题。现在的人工智能技术正在混淆版权,加剧人们对数字隐私和监控的担忧,还可能被用来提高黑客突破网络防御的能力。
谷歌、微软以及OpenAI都已经公开发布突破性的人工智能技术。这些技术可以与用户进行复杂对话,并根据简单文本提示生成图像。关于邪恶人工智能的争论已经升温。
“这不是科幻小说,”人工智能教父、谷歌前员工杰弗里·辛顿(Geoffrey Hinton)说。辛顿表示,比人类更聪明的人工智能可能会在5到20年内出现,而他之前的估计是30到100年。
“就好像外星人已经登陆地球或即将登陆,”他说。“我们真的无法接受,因为它们讲话流利,它们很有用,它们会写诗,还会回复无聊的信。但它们真的是外星人。”
尽管如此,在大型科技公司内部,许多与这项技术有密切关系的工程师并不认为人工智能取代人类是大家现在需要担心的事情。
人工智能初创公司Cohere旗下研究实验室Cohere for AI主管、前谷歌研究员萨拉·胡克(Sara Hooker)说:“在积极从事这一学科的研究人员中,关注当前现实风险的人远远多于关注人类是否有生存风险的人。”
目前的现实风险很多,比如发布受过不良内容训练的机器人会加深偏见和歧视等问题;人工智能的绝大多数训练数据用的都是英语,主要来自北美或欧洲,这可能会使互联网更加偏离大多数人的语言和文化;这些机器人还经常编造虚假信息,将其伪装成事实;在某些情况下,它们甚至会陷入攻击用户的无限循环对话。此外,人们也不清楚这项技术带来的连锁反应,所有行业都在为人工智能可能带来的颠覆或变革做准备,甚至律师或医生等高薪工作也会被取代。
也有人认为,未来人工智能可能会伤害人类,甚至以某种方式控制整个社会。虽然事关人类生存的风险似乎更加严峻,但许多人认为,这种风险更难量化,也不那么具体。
“有一群人认为,这些只是算法。它们只是在重复网上看到的内容。”今年4月份谷歌首席执行官桑德尔·皮查伊(Sundar Pichai)在接受采访时表示:“还有一种观点认为,这些算法正涌现出新特性,具有创造力、推理能力和规划能力。”“我们需要审慎对待这件事。”
这场争论源于过去10年间计算机科学领域机器学习技术的不断突破。机器学习创造出相关软件和技术,可以在没有人类明确指令的情况下,从大量数据中提取出新颖见解。这种技术在社交媒体算法、搜索引擎和图像识别程序等各种应用中无处不在。
去年,OpenAI和其他几家小公司开始陆续发布使用新机器学习技术的工具:生成式人工智能。这种所谓的大语言模型用网上抓取的上万亿张照片和句子进行自我训练后,可以根据简单提示生成图像和文本,与用户开展复杂对话,并编写计算机代码。
未来生命研究所(Future of Life Institute)执行董事安东尼·阿吉雷(Anthony Aguirre)说,大公司正在竞相开发越来越智能的机器,几乎没有任何监管。未来生命研究所成立于2014年,目的是研究社会存在的风险。在特斯拉首席执行官埃隆·马斯克(Elon Musk)的资助下,研究所于2015年开始研究人工智能毁灭人类的可能性。
阿吉雷说,如果人工智能获得比人类更好的推理能力,它们就会试图实现自我控制。这是值得人们担心的,就像现在存在的现实问题一样。
他说:“如何约束它们不偏离轨道,将变得越来越复杂。”“不少科幻小说已经说得很具体了。”
今年3月份,阿吉雷帮助撰写了一封公开信,呼吁暂停训练新的人工智能模型6个月时间。这封公开信共获得27000位人士签名支持,获得2018年计算机科学最高奖项的资深人工智能研究员约书亚·本吉奥(Yoshua Bengio)和最具影响力的人工智能初创企业之一首席执行官埃马德·莫斯塔克(Emad Mostaque)都位列其中。
马斯克无疑是其中最引人注目的。他曾帮助创建OpenAI,现在自己也在忙着组建人工智能公司,最近投资了训练人工智能模型所需的昂贵计算机设备。
多年来马斯克一直认为,人类应该对发展超级人工智能的后果倍加小心。在上周特斯拉年度股东大会期间接受采访时,马斯克表示,自己当初之所以资助OpenAI,是因为他觉得谷歌联合创始人拉里·佩奇(Larry Page)对人工智能的威胁“漫不经心”。
美版知乎Quora也在开发自家人工智能模型。公司首席执行官亚当·德安吉洛(Adam D’angelo)没有在公开信上签名。他在谈到这封公开信时说,“人们提出这项建议时有各自不同的动机。”
OpenAI首席执行官奥尔特曼也不认可公开信内容。他表示,自己赞同这封公开信的部分内容,但总体上缺乏“技术细节”,并不是监管人工智能的正确方式。奥尔特曼在上周二举行的人工智能听证会上表示,他公司的做法是尽早向公众推出人工智能工具,以便在技术变得更强大之前发现和解决问题。
但科技界有关杀手型机器人的争论越来越多。其中一些最严厉的批评来自多年来一直研究这项技术缺陷的研究人员。
2020年,谷歌研究人员蒂姆尼特·格布鲁(Timnit Gebru)和玛格丽特·米切尔(Margaret Mitchell)与华盛顿大学学者艾米丽·M·本德(Emily M. Bender)和安吉丽娜·麦克米兰-梅杰(Angelina McMillan-Major)合作撰写了一篇论文。他们认为,大语言模型模仿人类的能力不断增强,这加剧了人们会认为它们是有感情的风险。
相反,他们认为这些模型应该被理解为“随机的鹦鹉学舌”,或者说仅仅是非常擅长纯粹根据概率预测句子接下来会出现哪一个单词,而不需要理解自己在说什么。其他批评者称大语言模型是“自动补全”或“知识灌肠”。
他们详细记录了大语言模型如何照本宣科地生成性别歧视等不良内容。格布鲁说,这篇论文曾被谷歌压下来了。在自己坚持公开发表这篇文章后,谷歌解雇了她。几个月后,公司又解雇了米切尔。
这篇论文的四位合作者也写了一封信,以此回应马斯克等人签名的公开信。
他们说:“用一个幻想中的人工智能乌托邦或世界末日来分散我们的注意力很危险。”“相反,我们应该关注那些开发公司非常真实、非常现实的剥削行为,这些公司正在迅速集中力量,加剧社会不平等。”
谷歌当时拒绝就格布鲁被解雇一事发表评论,但表示仍有许多研究人员在研究负责任和合乎道德的人工智能。
“毫无疑问,现代人工智能是强大的,但这并不意味着它们对人类生存的威胁迫在眉睫,”Cohere公司人工智能研究主管胡克说。
目前,关于人工智能摆脱人类控制的大部分讨论都集中在其如何迅速克服自身的限制上,就像《终结者》中的天网一样。
胡克说:“大多数技术和技术中存在的风险都是逐步变化的。”“目前存在的技术限制加剧了大多数风险。”
去年,谷歌解雇了人工智能研究员布莱克·莱蒙(Blake Lemoine)。他在接受采访时曾表示,自己坚信谷歌的LaMDA人工智能模型具有感知能力。当时,莱蒙遭到了业内许多人的严厉斥责。但一年后,科技界也有不少人开始接受他的观点。
前谷歌研究员辛顿说,直到最近使用了最新的人工智能模型之后,自己改变了对这项技术潜在危险的既定看法。辛顿向计算机程序提出一些复杂的问题,在他看来,这些问题需要人工智能模型能大致理解他的请求,而不仅仅是根据训练数据预测出可能的答案。
今年3月份,微软研究人员表示,在研究OpenAI的最新模型GPT4时,他们观察到了“通用人工智能的火花”,其指的就是能够像人类一样独立思考的人工智能。
微软已经花了数十亿美元与OpenAI合作开发必应聊天机器人。质疑者认为,微软正在围绕人工智能技术打造自己的公众形象。人们总认为这种技术比实际情况更先进,微软可以从中获益良多。
微软研究人员在论文中认为,这项技术仅仅基于所训练的文本内容,就已经发展出对世界空间和视觉的理解。GPT4可以自动画出独角兽,并描述如何将包括鸡蛋在内的随机物体堆叠在一起,让鸡蛋不会破碎。
微软研究团队写道:“除了掌握语言之外,GPT-4还可以解决涉及数学、编程、视觉、医学、法律、心理学等领域的各种复杂新问题,而且不需要任何特殊提示。”他们总结说,人工智能在许多领域的能力与人类相当。
不过其中一位研究人员承认,尽管人工智能研究人员曾尝试制定量化标准来评估机器的智能程度,但如何定义“智能”依旧非常棘手。
他说,“它们都存在问题或有争议。”(辰辰)
|