4

如果 AI 能读懂你的感受,会出现怎样的结果?(下)

 2 years ago
source link: https://www.36kr.com/p/1824781648758537
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

如果 AI 能读懂你的感受,会出现怎样的结果?(下)

神译局·2022-07-27 02:07
人工智能最终可能会造就我们的第二天性。

神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。

编者按:信息技术的发展,让我们日常的通讯变得更加便捷高效。然而,随着人工智能等有关领域的发展,技术能够实现的,远不止为我们传递信息。这篇文章来自编译,作者在文中通过四个案例,具体分享了人工智能读懂人类感受后的变化与思考。由于篇幅关系,文章已拆分为上下两篇。此为下篇。

v2_fa085924724b4178a37d88317136ada2_img_webp

图片来源:JULIA JOHNSON

亲密关系的 X 射线检查

传感器和算法可以理解人机交互的复杂性这一说法,实际上并不新鲜。对于关系心理学家约翰·戈特曼(John Gottman)而言,爱情一直是一个数字游戏。自上个世纪 70 年代以来,他就一直在尝试量化并分析亲密关系的神秘变化。

上个世纪 80 年代,戈特曼在华盛顿大学(University of Washington)建立了一个研究中心,这个研究中心也被熟知为“爱情实验室”,并主要针对夫妻展开研究。1996 年,戈特曼和他的妻子茱丽·戈特曼(Julie Gottman)在戈特曼研究所(The Gottman Institute)联合创建了一个类似的实验室——西雅图爱情实验室,该实验室目前仍在运营之中。

借用浪漫喜剧来表达,爱情实验室就好像喜剧电影《当哈利遇到莎莉》(When Harry Met Sally)开场片头和喜剧电影《拜见岳父大人》(Meet the Parents)中主演罗伯特·德尼罗(Robert De Niro)用测谎仪来测试他未来的女婿这两个场景拼接在一起的产物。

一对一对的夫妻陆续进入爱情实验室,然后戈特曼会让他们描述彼此的亲密关系,包括在一起的过往经历和某件冲突事件。与此同时,有多部设备在实时监测他们的脉搏、出汗情况、语气以及其表现出来的烦躁程度。在背后的监测室里,训练有素的工作人员会对研究对象的面部表情编码。借此,他们希望可以收集与夫妻日常互动方式及情感表达有关的数据信息。

通过这项研究,戈特曼提出了“戈特曼研究法”——一种专门适用于亲密关系咨询的方法。据戈特曼发现,消极互动与积极互动的比例应该保持在 1:5;如果一方希望博得另一方关注,只要有三分之一的情况下另一方没有做出回应的,结果就等同于“灾难”;翻白眼与婚姻不幸有着密切联系。

“亲密关系也并没有那么复杂。”戈特曼说。

戈特曼夫妇也在尝试探索人工智能领域。2018 年,他们成立了一家初创公司 Affective Software,并推出了一个有助于评估和引导亲密关系的在线平台。

这一切都始于一次线下的交流。许多年前,茱丽·戈特曼在接女儿放学的时候,在学校门口遇到了在微软公司工作的资深员工拉斐尔·利西萨(Rafael Lisitsa)。自那以后,她们就成了很好的朋友。

如今,利西萨是 Affective Software 公司的联合创始人兼首席执行官,她正在研发一个虚拟版本的爱情实验室,让夫妻可以通过计算机、iPhone 或平板电脑上的摄像头就能对彼此亲密关系进行“X 射线”检查。同样,在此过程中,面部表情、语气和心率都将受到监测。

这项进步也可以看作是情感分析或情感计算领域的发展与进步,只不过最初的爱情实验室依靠的是屏幕与设备,然后需要经过训练有素的工作人员通过监测显示器并针对各种信息正确编码。

戈特曼坚信,人为因素始终都能发挥有效作用。“真正能做到谨慎周到地对情绪编码的人并不多。”他说,“他们必须具备音乐天赋,并且必须有一定的戏剧经验……难以想象一台机器能满足所有这些要求。”

并不是所有人都相信机器能做到这一点。在情感分析人工智能这一领域就没有达成一致。该领域在很大程度上建立在“人们的情绪表达具有普遍性”这一设想的基础之上,这一理念最早于上个世纪 60 至 70 年代由美国心理学家保罗·埃克曼(Paul Ekman)根据其研究发现提出。埃克曼还创建了一套面部表情编码系统,这套系统为戈特曼的研究工作提供了参考依据,同时还构成了许多情感计算软件的基础。

包括美国东北大学(Northeastern University)心理学家丽莎·费尔德曼·巴雷特(Lisa Feldman Barrett)在内的一些研究人员都在质疑通过面部表情来检测情绪的可靠性。虽然一些面部识别软件已经在广泛使用,但同时也出现了一些种族偏见的案例。据一项针对两个主流项目的对比研究,从黑人面孔监测到的负面情绪就比白人面孔的多。

戈特曼表示,虚拟爱情实验室的开发与训练都是基于所有皮肤类型的面部数据集的,这套互动编码系统已经在非裔美国人和亚裔美国人等群体中进行了测试。

“不可否认的是,文化差异的确会影响人们表达或掩盖情绪的方式。”他说,“我们已经在澳大利亚、英国、韩国和土耳其等国展开了测试,结果表明,我们研发并改进的这套特定情感系统确实有效。至于这套系统是否在所有的文化中都能体现出有效性,我们还无法确定。”

戈特曼补充说,爱情实验室实际上是通过社交编码系统来运作的。它关注的不是某个时刻的特定情绪,而是对话主题、语气、肢体语言和表情等因素,并且会分析彼此互动的整体质量。

戈特曼说,结合所有因素,你就可以更加可靠地分析出某种情绪类别,比如愤怒、悲伤、厌恶或者蔑视等。当一对夫妇参与研究时,他们首先会受邀填写一份非常详细的问卷,然后再录制两段长达十分钟的对话,其中一则对话是关于对过去一周的讨论,另一则关注的是过去的某个冲突事件。

在上传视频后,夫妇两人将根据其在对话中不同阶段的情绪状态打分,1 分表示非常消极,10 分则表示非常积极。随后,应用程序就会结合监测到的提示展开分析,并提供消极与积极互动的比例、信任指标以及可怕的“启示录中的四骑士”(Four Horsemen of the Apocalypse)——批评、防御、蔑视和防守。值得一提的是,整个过程最好在心理治疗师的见证下完成。

自新冠疫情大流行开始以来,越来越多的心理治疗和精神健康服务都是通过视频通话的方式完成的。据麦肯锡咨询公司(Mckinsey)的分析师透露,自疫情暴发以来,虚拟护理和数字健康领域的风险投资已经增加了两倍,Woebot 等心理健康聊天机器人也逐渐发展成为一种主流。像 Lasting 等亲密关系咨询应用已经采用了戈特曼研究法,通过推送提示通知的方式,提醒用户多向其伴侣表达爱意。

你可能会觉得这只会让人们变得懒惰,但戈特曼夫妇却认为,这本身就是一个教育过程,为我们提供的这些工具最终会造就我们的第二天性。其团队已经在考虑研发一个可以独立于心理治疗师使用的简单应用版本。

戈特曼夫妇了解到,许多夫妇都沉溺于智能手机的使用。从中,他们得到一个启发,并认为技术也可以为大众心理咨询开辟新的途径。“人们越来越习惯于把技术当作是一种语言,”戈特曼说,“并把技术当作是以各种方式改善生活的一种工具。”

你可以随时随地写邮件,但邮件并不一定是你写的

v2_b97254dd44c8483aa08b32e7eb47ec2b_img_webp

图片来源:JULIA JOHNSON

这项技术已经无处不在。它甚至可能会在你没有留意的情况下影响你的人际关系。例如,Gmail 的“智能回复”(Smart Reply)功能可以预测并为你回复邮件提供建议,“智能撰写”(Smart Compose)功能则可以为你撰写整封邮件。前一项功能最早于 2015 年在移动客户端推出,后一项功能则是在 2018 年推出的。这两项功能都是基于神经网络的。

康奈尔大学(Cornell University)博士研究生杰斯·霍恩斯坦(Jess Hohenstein)最早体验智能回复功能是在 2016 年。当时,谷歌推出了一款智能通讯应用 Google Allo(该应用已于 2019 年下线),该产品的主要亮点在于一个可以自动推送常用回答方式的人工智能助手。但霍恩斯坦却觉得非常可怕,“我不想让算法来影响我的沟通方式,但我认为这一定有效果。”

2019 年,霍恩斯坦通过多项研究发现,人工智能的确在改变人与人之间互动和联系的方式。

其中,在一项使用 Google Allo 的研究中,113 名大学生被要求与一位搭档一起完成一项任务。具体任务中,有的小组只允许一名成员使用智能回复功能,有的小组则要求两名成员都要使用智能回复功能,剩余小组中的两位成员则均不能使用智能回复功能。随后,所有参与者均需要问答一个问题,即在实验过程中的对话中,该项任务的成功或失败在多大程度上取决于另一位搭档(或人工智能)。另外一项研究主要研究的是语言效果与影响,即人们对于积极或消极的“智能回复”采取了怎样的应对方式。

霍恩斯坦发现,在使用智能回复功能的情况下,人们的用语总体呈现出更加积极的一面,选择积极言语建议的情况要多过于使用消极言语建议的情况。此外,参与者还发现,很多时候,他们本意是想要表达不同意,但智能回复却为他们提供的是同意的建议。其直接结果体现为沟通更快捷、更顺畅,而霍恩斯坦还留意到,人们在沟通过程中对彼此的印象与感觉也更好了。

霍恩斯坦认为,在职业关系中,这可能反而会适得其反。由于我们都可能会受到暗示的影响,所以这项技术可能会阻止我们向他人提出挑战,或者全盘否定对方。为了让我们的沟通更加高效,人工智能可能还会让我们无法表达自己的真实感受,减少向沟通对象表达“我喜欢这一点!”或者“听起来很不错!”等反馈。在职场中,对于本来就不善于公开表达想法的人来说,这只会进一步遏制其表达的意愿。

通过前文提到的第一项研究,霍恩斯坦发现,人们总是会将积极的成果归功于自身。一旦出现问题,他们就认定是人工智能的错。这样做以后,虽然算法可以有效地保护人际关系,同时也为我们自己的失败提供了一个庇护场所,但它更是引发我们思考一个更深层次的透明度问题:到底要不要向对方告知,人工智能在协助做出回应呢?当你在使用智能回复功能时,对方最开始可能会对你有较深刻的良好印象。但是,如果对方知道是人工智能在协助你回复消息,他们可能就会感到不适。

这个问题就引出一个使用类似技术时的矛盾来,即感知和现实并不一致。“人们可能会因此感到不适,但与此同时,它又能改善你与沟通对象的人际交往。”霍恩斯坦说,“这一点就有悖于直觉。”

斯坦福大学传播学教授汉考克在其研究报告中,强调了这些工具“可能对社会产生的广泛影响”,同时简单地提及了一项研究议程,以应对在我们眼皮底下发生的技术革命。

人工智能中介通信可以改变我们的沟通方式,减少偏见,当然也可能会加剧偏见。它可能会引发我们的思考,真正跟我们沟通的到底是谁?它甚至可以改变我们的自我认知。

“如果人工智能把某个人的消息改得更为积极、更有趣,或者展现出更加外向的一面,那发件人的自我认知是否会转为更加积极、更有趣或者更加外向呢?”汉考克写道。如果人工智能在很大程度上能掌控我们的人际关系,那我们真正剩下的还有什么呢?

译者:俊一

本文来自翻译, 如若转载请注明出处。


Recommend

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK