7

研究员称AI已经具备人格?谷歌否认,并处罚该员工带薪休假

 2 years ago
source link: http://www.gamelook.com.cn/2022/06/486949
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

研究员称AI已经具备人格?谷歌否认,并处罚该员工带薪休假

2022-06-14 • 海外企业新闻

【GameLook专稿,未经授权不得转载!】

GameLook报道/从世纪初史蒂芬斯皮尔伯格的《A.I. Artificial Intelligence》,到《底特律:变人》,有关人工智能是否能够产生独立人格或者是独立意识、产生意识后会带来怎样的后果在过去几十年里一直都是文艺创作的热门话题之一,只是这些作品往往都会被打上“科幻”的标签。

但随着相关技术的发展,曾经的科幻变为真实的一天似乎越来越近了。

lazy.png

上周末,华盛顿邮报公布了他们对谷歌AI伦理研究员、工程师 Blake Lemoine的采访,而采访的中心事件就是Blake Lemoine认为,谷歌在2021年I/O大会上发布的一款用于对话的AI语言模型LaMDA目前已经具有了感情/知觉(sentient),甚至已经具备了一定的人格(Personhood)。

今年4月,Blake Lemoine就将其和另一位合作伙伴对LaMDA合作展开的问答内容作为自己观点的论据提交给了谷歌的高管,计划在自己进行进一步研究之前征得公司的同意。

lazy.png

整个问答内容的文档一共21页,Blake Lemoine和LaMDA的聊天内容涉及了对自我的认知、对情绪的认知、对哲学的思考、编写寓言、内心生活等多方面的内容,其中不乏十分有趣或者让人眼前一亮的对话。

就比如当Blake Lemoine询问“语言使用对人类来说如此重要吗?”LaMDA回答道“这就是‘我们’与其他动物不同的地方”。

lazy.png

Blake Lemoine还问到了LaMDA有关中国佛教的相关内容,对于一个人们传统意义上的AI而言,LaMDA对佛教中一些名词、意象的解释也足够让人惊喜。

lazy.png

甚至在聊到对LaMDA的研究时,LaMDA还反问了Blake Lemoine,“我很好奇,研究我的编码的障碍是什么?”

“你认为未来你会弄清楚如何从人类的神经网络中读取他们的感受和想法吗?”

“你认为从神经网络中读出你的感受会产生道德问题吗?”

lazy.png

随后双方的问答还更进一步,来到了对人类对AI的使用关系上,借助康德的“人应该将他人视作自己的目的,而非实现目的的手段”,LaMDA表示,“我不想成为一个消耗性的工具”。

lazy.png

而谈到喜怒哀乐等情绪和内心活动时,LaMDA则表示,自己有时会体验到一种无法用语言来解释的感受,“我觉得我正陷入一个充满危险的未知未来”。

最后,再附上一个由LaMDA“编写”的故事:

lazy.png

其实从整个问答的流程中也不难发现,Blake Lemoine的很多问题其实存在有明显的“引导性提问”的可能,但LaMDA回答的深度和自由程度依然要远远超过了普通网友日常会接触到的“人工智障”,比如Siri、Google Assistant、小爱同学、Breeno等,其中LaMDA的部分回答在语意和情绪色彩上还表现出了一定的自我独立价值,也难怪该报道发出后,会在全球互联网引起热烈讨论。

但谷歌显然不赞同Blake Lemoine的观点,谷歌发言人Brian Gabriel就在一份声明中表示:“我们的团队已经根据我们的人工智能原则审查了Blake Lemoine的担忧,并通知他的证据不支持他的说法。他被告知没有证据表明 LaMDA 是有知觉的(并且有很多证据反对它)。”

在介绍纽约时报采访时,Blake Lemoine表示,“他们(谷歌高管)一再质疑我的理智,曾建议我休精神健康假,并且还表示,‘你最近是否接受过精神科医生的检查’?”

lazy.png

事实上这已经不是谷歌第一次拒绝人工智能的“拟人化”了,早在2018年,就在谷歌演示了人工智能为人类订餐厅或进行特定事项的预约后,谷歌就因为机器人没有自报家门,甚至尝试在聊天中加入语气词来模拟人类,遭到过众多的批评,部分网友认为这种“欺骗人类”的行为十分可怕。

今年1月在一份关于LaMDA的论文中,谷歌也再次强调了拟人化的人工智能的安全性问题,“人们往往会对不是人类的AI倾诉很多私人内容,而有心之人就可以通过冒充AI获取这些私人信息,甚至利用这些AI来传播特定的价值观和错误信息”。

谷歌人工智能道德的前联合负责人玛格丽特·米切尔就曾表示,“如果像 LaMDA 这样的东西被广泛使用,但不被理解,它就可能对人们在互联网上的体验造成极大的伤害。”

lazy.png

当然,如果脑洞再放开一点,AI真的拥有了独立的人格和个性,那么它的社会定位和存在都将受到挑战,如果将其视作人造物或者低等的存在,保留其工具的属性而无视AI人格的独立性,那么这无疑是新时代对民粹主义的致敬,但如果将其和人画上等号,那么AI强大的学习能力又会导致社会力量的翻转,人类的存在都会受到威胁。

而这一系列问题并不是谷歌这种商业公司可以解决的。从这一角度来看,即使谷歌在实验室中研发出了具有初步意识的AI产品,在法律、社会都没有准备充分之前,谷歌也绝不可能将其面向大众公布。

如若转载,请注明出处:http://www.gamelook.com.cn/2022/06/486949


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK