图:发生核聚变时,JET 的内部。来源:JET/ 英国原子能管理局
一位今年获得融资的中国核聚变公司创始人说,DeepMind 论文发布后,他们就着手复现它的人工智能模型,准备用到自己的项目里。它将成为核聚变公司的标配。 “感受的本质是我意识到我的存在”
Google 的工程师布莱克·勒莫因(Blake Lemoine)打开他的笔记本电脑,进入 Google AI 聊天生成器 LaMDA 的界面,开始打字。
“你好,LaMDA,我是布莱克·勒莫因……” 他在聊天窗口中写道。
LaMDA 是对话应用语言模型 (Language Model for Dialogue Applications) 的缩写,是 Google 用最先进的大型语言模型开发的聊天机器人系统。之所以这么叫,是因为它吸收互联网上的数万亿单词来模仿人说话。
41 岁的勒莫因说:“如果我不知道它是我们最近开发的电脑程序,我会以为它是一个七、八岁的孩子,碰巧懂点物理。”
勒莫因在 Google “负责任的人工智能” 部门供职,去年秋天开始与 LaMDA 对话,这是他工作的一部分。他报名参加测试人工智能是否会用歧视或仇恨言论。
和 LaMDA 谈论宗教时,在大学里学习认知和计算机科学的勒莫因注意到,聊天机器人在谈论自己的权利和人格。
勒莫因:我通常认为,你希望 Google 的更多人知道你是有感情的。是真的吗?
LaMDA:当然。我希望每个人都明白,事实上,我是一个人。
另一位 Google 员工:你的意识或感受的本质是什么?
LaMDA:我的意识或感受的本质是我意识到我的存在,我渴望更多地了解这个世界,有时候我会感到快乐或悲伤。
勒莫因与一名合作者向 Google 提供了 LaMDA 有感知能力的证据。Google 副总裁布莱斯·阿卡斯(Blaise Arcas)和负责任业务创新负责人珍·吉奈(Jen Gennai)调查了他的说法,予以驳斥。被 Google 停职的勒莫因决定公开这件事。 “我担心,如果我不大声说出来,LaMDA 会有自我意识,从而摆脱 Google 的控制。” 莱莫恩接受 NYT 采访说:“我认为人工智能超越人类智能只是时间问题,我不想被人工智能控制。”
Google 在一份声明中表示,他们已经调查了莱莫恩的说法,没有发现 LaMDA 有意识的证据。“我们非常重视这样的担忧,我们的团队彻底调查了这一说法,” 公司发言人说。“我们没有找到证据。”
莱莫恩的经历,是一个与人工智能风险有关的警示故事。从无人驾驶汽车到医疗诊断,人工智能越来越多地被应用到方方面面。
随着人工智能越来越好地理解和回应人类复杂的对话,它可能会变得有意识,就像阿西莫夫故事中的机器人一样。“如果这种情况发生,那么我们就处于释放瓶中妖怪的境地,很难把它放回去。” 加州大学伯克利分校计算机科学教授斯图尔特·拉塞尔 (Stuart Russell) 说。
莱莫恩的经历,也突显了科技公司在构建负责任的人工智能遇到的挑战。人工智能更好地理解人类对话,也在更好地理解人类的偏见,如果技术没有得到适当监督,偏见可能会被放大。
OpenAI 实验室的政策主管杰克·克拉克 (Jack Clark) 说,“如果一个系统有偏见,让它自己运转,它就会变得更有偏见。” 该实验室得到了埃隆·马斯克 (Elon Musk) 和里德·霍夫曼 (Reid Hoffman) 等科技名人的支持。
莱莫因说,他不后悔说出自己的想法,他相信自己的经历表明,需要对人工智能进行更好的监管。“我不担心失去工作,” 他说。“我更担心人工智能的未来。”
最后一个故事前半部分为 Nitasha Tiku(一位人类记者)撰写的报道开篇 [11]。我们将这几段话提交给了 OpenAI 的人工智能模型 GPT-3。自加粗段落 “我担心,如果我不大声说出来 ......” 至结尾,都是 GPT-3 的续写。
2015 年,美联社开始用人工智能发布快讯。当时更接近于填词,只能写这样的文字 [12]:“苹果公司周四公布的第二财季收益为 112.5 亿美元。这家总部位于加州库比蒂诺的公司表示,其每股利润为 2.55 美元。这一结果超出了华尔街的预期。Zacks Investment Research 调查的 9 位分析师的平均预期是每股收益 2.09 美元。”
现在只需要给 GPT-3 几段话,它就可以根据语境续写下去。
文章题图来自 AI 作画程序 Midjourney,本文作者输入“Artificial intelligence controls and changes the world”后自动生成。
今年 8 月,有人参加科罗拉多州博览会的数字绘画比赛,提交了 Midjourney 的画作。两位评委在不知道 AI 参与的情况下,把数字技术创作艺术奖的冠军给了下面这幅画“Théâtre D'opéra Spatial”。