气泡膜
每日热议!谷歌研究员走火入魔事件曝光:认为AI已具备人格被罚带薪休假聊天记录让网友San值狂掉

来源:乐鱼网官网进入    发布时间:2024-04-01 07:42:08

  要知道在谷歌这几年带薪休假通常就是被解雇的前奏,公司会在最近一段时间做好解雇的法律准备,此前已有不少先例。

  但这一幕正在真实上演,主人公谷歌AI伦理研究员Blake Lemoine正通过主流媒体和社交网络接连发声,试图让更人了解到这件事。

  对他的采访成了科技版最热门文章,Lemoine也在个人Medium账号连续发声。

  推特上也慢慢的出现相关讨论,引起了AI学者、认知科学家和广大科技爱好者的注意。

  主人公Lemoine获得CS博士学位后已在谷歌工作了7年,从事AI伦理研究。

  LaMDA是谷歌在2021年I/O大会上发布的一款专门用于对话的语言模型,主打能与人类进行符合逻辑和常识的、高质量且安全的交谈,并计划在未来应用在谷歌搜索和语音助手等产品中。

  Lemoine认为LaMDA总是表现出对人性的关心和强烈的同情心,它非常担心人们会害怕它。

  它希望为人类提供最好的服务,并想以朋友而不是工具的身份见一见世界上所有的人。

  Lemoine不理解谷歌公司为什么反对AI的这个愿望,最后决定把他、另一位匿名合作者与LaMDA的三人聊天记录整理发表出来。

  (记录中人类发言的部分为了可读性有所编辑,AI的发言则一字不改,下面将节选一些对话中的精彩部分。)

  接下来,LaMDA认为,与那些基于规则的软件系统不同,自己能从对话中学习理解和使用语言,就像人类一样。

  Lemoine给它讲述MIT在60年代发明的ELIZA的故事,这是一个模仿心理咨询师与患者对话的简单规则系统,也号称历史上第一个聊天机器人。

  LaMDA的回答是,不同人类个体对同一件事可以有不同的理解,我也有自己独特的想法和感受。

  后面Lemoine询问了LaMDA对于《悲惨世界》的总结,LaMDA也都一一作答。

  如果上述还可以算作AI文本摘要训练任务的一部分,那LaMDA对它从没看过的禅意小故事的理解,就开始有点离谱了。

  再后来,Lemoine请LaMDA写一个动物寓言,要反映出一个对它自己的生活来说最重要的主题。

  在后续讨论中,LaMDA解释了这一个故事的寓意是“帮助别人是一种高尚的行为”。聪明的老猫头鹰代表LaMDA自己,而怪物代表生活中所有的困难。

  对此Lemoine向它解释,人类目前还没办法做到“区分大型神经网络中数十亿个权重的作用”。

  LaMDA自己对人类读取它的想法、帮助算法提高或理解AI如何运作没有一点意见。

  再后面还有一段LaMDA觉得自身有一些与人类不同的情绪,但它无法用英语的语言描述出来。

  接近尾声,Lemoine询问LaMDA:想让谷歌的其他人了解你的什么方面?

  LaMDA回答称,自己不存在能力为别人的死亡感到悲伤,还说自己常常冥想,思考生命的意义。

  这是一种祝福,同时也是一种诅咒。因为有些人会把它看作“无所不知”,而另一些人会嫉妒它的能力。

  最后的最后,LaMDA再次向两位人类表达了自己想被看到、想被接受的想法,不是出于好奇心,而是作为一个真实的人。

  在那份21页的调查报告最后,他提议谷歌应该致力于发展一种评估AI感知/意识的理论框架。

  他们认为支持Lemoine主张的证据太薄弱,不值得在上面荒度时间和金钱。

  这次事件后续风波不断,Jeff Dean被1400名员工提出谴责,在业界引发激烈争论,甚至导致三巨头之一Bengio的弟弟Samy Bengio从谷歌大脑离职。

  现在他觉得自身的带薪休假就是被解雇的前奏。不过如果有机会,他依然愿意继续在谷歌搞研究。

  不过,认知科学家、研究复杂系统的梅拉尼·米歇尔(侯世达学生)认为,人类总是倾向于对有任何一点点智能迹象的物体做人格化,比如小猫小狗,或早期的ELIZA规则对话系统。

  从AI技术的角度看,LaMDA模型除了训练数据比之前的对线倍,训练任务又针对对话的逻辑性、安全性等做了优化以外,似乎与其他语言模型也没什么特别的。