4

AI机器人席卷CES,OpenAI暗自解除ChatGPT军事应用限制,天网来了?

 8 months ago
source link: https://www.aixinzhijie.com/article/6843672
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client
2024-01-15 03:40

AI机器人席卷CES,OpenAI暗自解除ChatGPT军事应用限制,天网来了?

原文来源:新智元

FovKeUnzii8Z4ynkLlSPP-Huu-vi.png

图片来源:由无界 AI生成

CES 2024上,各路机器人又是做咖啡拉花,又是给人按摩,让人大开眼界。然而就在这时,网友却惊讶地发现,OpenAI竟然悄悄删除了ChatGPT用于军事和战争的限制!

前一阵的斯坦福「炒虾机器人」,让无数人感慨:2024年怕不是要成为机器人元年? 

FkiMtwUFqC3aXLVVmNM38dmv5-kG

就在这几天的CES 2024上,又一大波机器人在展厅里引起了轰动! 

比如这个机器人咖啡师,娴熟地将一壶光滑的泡沫牛奶倒在拿铁咖啡上。 

FnEYiYtsJScpiOHiCmQoKSKOOQUe

开始,它会慢慢倒出牛奶,随后,它优雅地将壶举起,动作仿佛精心设计的舞蹈一般,为郁金香花瓣上色。 

对人类来说,要学会拉花艺术需要数月甚至数年,但这位由AI驱动的机器人咖啡师,则掌握得驾轻就熟、行云流水。 

FjkFuabQFSNUuwb7cGriENtMyIL4

这一幕,让34岁的Roman Alejo感到焦虑。 

这名拉斯维加斯赌场的咖啡师,忧心忡忡地想到:在AI时代,酒店业工作或许不再需要人类了? 

他的担忧,并不是空穴来风——CES展会上众多机器人,敲打着人们的神经,带来惊喜的同时,也让人陷入莫大的焦虑。 

01 机器人成物流帮手,还能帮你按摩

法国公司Enchanted Tools展示的这款物流机器人Mirokai,是受动漫启发做成的。 

预计到2025年,它就可以成为医生和护士的助手了。 

FpZ5muJCq9816pAbRJppGh05i7CE

法国Capsix Robotics公司创建的iYU机器人,是个按摩大师。 

它首先用AI进行实时的全身扫描,为用户提供最佳体验,然后机械臂就开始给你按摩了。 

FrW96xzfbePNtTwQTT7uZXMhk6xU

除了送货机器人、按摩机器人、咖啡师机器人,展会上还有能做冰淇淋、珍珠奶茶的智能产品。 

有个AI驱动的智能烤架,在厨房无人操作的情况下,就能完成烧烤任务。未来的餐厅里,很可能都是机器人大厨了。 

这些性能高超的机器人,引起了不少业内人士的恐慌。「这非常可怕,越来越多的AI正在进入人类世界。」 

02 OpenAI也「入局」

种种迹象表明,2024年即将成为人形机器人元年,尤其是当OpenAI也在大力投资的时候。 

最近,由OpenAI支持的1X Technologies机器人公司,刚刚在B轮融资中获得了1亿美元。 

具体来说,1X的NEO具有类似人类肌肉的解剖结构和非严格的液压系统,将力量与柔和融为一体。它不仅可以自然地行走、慢跑、跑楼梯、导航,而且还可以进行远程的人工控制。 

FhMvsMPUsJaiS53LewvRgZlvHbbo

在AI和机器人技术的全面加持下,NEO可以轻松完成物流、制造、机械操作等工业任务,以及做家务、照顾人等家政任务。 

Flm7BVQc3YV2geCOsjIYuMHP9x4p

有趣的是,NEO这个名字,很容易让人联想到科幻电影「黑客帝国」。 

投资者EQT Ventures的合伙人Ted Persson表示:「从达芬奇到今天的科幻小说,人类对人形机器人的梦想已有500多年的历史。能够见证这项技术在我们眼前成形,是莫大的荣幸。」 

「在我们看来,机器人加入人类的劳动力队伍,会造成变革性的影响。」 

03「终结者」走入现实?微软可以用ChatGPT控制机器人了

不过,机器人真的会只帮我们做家务吗? 

要知道,微软已经可以用ChatGPT控制机器人了。 

在去年,微软曾发表过一篇论文,提出了一套新的设计原则,通过ChatGPT这样的大型语言模型来给机器人提供指令。 

Fhhntm7dgASrk7oCkHWJ09kp4cSO

论文链接:https://www.microsoft.com/en-us/research/uploads/prod/2023/02/ChatGPT___Robotics.pdf 

只要prompt写得够好,ChatGPT的表现也会更惊人。 

微软专家发现,要是把这种能力迁移到机器人身上,假设几十年以后,各家各户都有机器人,只要说一声「给我热一下午餐」,它就能自己找到微波炉,再把菜端回来,人机交互就直接迈入新时代。 

Fpm5nu6i-orbFxh2da0Qw_w3iS3H

让ChatGPT帮用户更容易地与机器人交互,其中的关键难题,就是教 ChatGPT如何使用物理定律、操作环境的背景以及了解机器人的物理行为如何改变世界状态。 

实验证明,ChatGPT能够控制一台真正的无人机。

按照下面视频中进行的对话,一个完全不懂技术的用户,只需要通过对话就能实现控制无人机。

FqSwUzn7eyxsZNRhr_me_chWCWTY

而最近关于GPT-5会更加接近AGI的讨论,让已经能「自学」且远程操作愈发简单的机器人,更加无所不能。 

那么,接下来的发展又将如何? 

04 OpenAI悄悄删除将ChatGPT用于「军事和战争」的禁令

最近,一件令人担忧的事发生了。 

就在这周,当所有人都目光都被风光无两的GPT Store所吸引的时候,有外媒发现,OpenAI竟然在没有任何公告的情况下,悄悄地了将ChatGPT用于军事和战争的禁令! 

FiJL1aCIR799Lo9ISt6grvYisjrN

在1月10日之前,OpenAI的「使用政策」页面包括了禁止「可能导致严重身体伤害的活动」,具体包括「武器开发」和「军事及战争活动」。 

而新的政策虽然仍然禁止「使用我们的服务来伤害自己或他人」,并且以「开发或使用武器」作为例子,但是之前对「军事和战争」用途的全面禁止已经不复存在了。 

对此OpenAI表示,这样做是为了让文件内容「更加清晰易懂」,并且还包括了许多其他重要的语言和格式上的变更。 

FrNe3opAK756UeiRwZ8yPBKemWuu
FubLY8q1uVNUfYjm2JaCx4q6Q32O

OpenAI发言人Niko Felix说道:「我们旨在创建一套易于记忆和应用的通用原则,特别是考虑到我们的工具如今已被全球范围内的日常用户所使用,并且这些用户现在也有能力自行开发GPT模型。」 

「『不伤害他人』这一原则虽然涵盖面广,但却简单易懂,并且在多种场合都十分适用。我们还特别提到使用武器和对他人造成伤害作为具体的例子。」 

但关于是否所有军事用途都被含糊的「伤害」禁令所涵盖,Felix却没有明确表态:「任何使用我们技术的行为,包括军事用途,『开发或使用武器、伤害他人或破坏财产,或从事违反任何服务或系统安全的未经授权活动』都是禁止的。」 

对此,Trail of Bits的工程总监兼机器学习与自主系统安全专家Heidy Khlaaf表示:「OpenAI非常清楚,如果他们的技术和服务被用于军事目的,可能会带来风险和伤害。」 

在2022年发表的一篇与OpenAI研究人员共合著的论文中,Khlaaf特别指出了军事使用的风险。相比之下,新的「使用政策」似乎更注重合法性而不是安全性。 

Fl5U40yEgoNpERMZ-xbyyzA6uh_n

论文地址:https://arxiv.org/abs/2207.14157 

「两项政策有着明显的区别:前者明确禁止了武器开发以及军事和战争行为,而后者则强调的是灵活性和法律合规。」 

「武器开发和军事战争活动在不同程度上可能是合法的,但这对AI安全的影响可能非常大。考虑到大语言模型中已知的偏差和虚假生成现象,以及它们整体上的准确性不足,将它们应用于军事战争可能导致不准确和带有偏见的操作,从而增加伤害和平民伤亡的风险。」 

FidJbO2bQc481cRqSVAC4CxjtSLy
FlpSUiABbNpea9IN7cSxyAyR1YuC

美国的军事机构很感兴趣

随着这种自动化文本生成技术的迅猛发展,它已经从一个遥不可及的梦想变成了一款实用的工具,并且正在步入一个必然的新阶段——武器。 

Fv4Mkyz2opBjPCGoA-El3vU4Hj89

「The Intercept」在去年就曾报道过,面对五角大楼和美国情报部门日益增加的兴趣,OpenAI拒绝回答是否会坚持自己关于「军事和战争」的禁令。 

尽管如今OpenAI提供的任何产品都不可能直接被用于杀人,但像ChatGPT这样的大语言模型(LLM)可以增强许多与杀戮相关的任务,例如编写代码或处理采购订单。 

目前,已经有研究者在OpenAI的定制GPTs中发现,美国军事人员似乎已经在使用这项技术来简化文书工作了。 

FhzjOrbh1F_KJKaDAIEW4N-ezQT-

此外,直接协助美国作战行动的国家地理空间情报局(NGA)也公开表示,他们正在考虑使用ChatGPT来辅助人类分析师。 

在2023年3月由INSA召开的新兴技术大会上,NGA的一位负责人Phillip Chudoba在被问及将会如何在相关领域应用AI时,给出了详尽的回答: 

我们期望能够发展到一个新阶段,在这里地理空间情报(GEOINT)、人工智能(AI)、机器学习(ML)以及分析型AI/ML会相互碰撞,并且在类ChatGPT技术的帮助下,真正能预测到那些人类分析师可能尚未想到的,或许是因为经验或是接触不足等原因。 

如果去掉专业术语,Chudoba的设想非常清晰:利用 ChatGPT(或类似技术)的文本预测功能,辅助人类分析师解读世界。 

国家地理空间情报局,或称NGA,虽然不如其他知名情报机构那样广为人知,却是美国地理空间情报的主要机构,通常称为GEOINT。 

这项工作包括分析大量的地理信息——地图、卫星照片、气象数据等,为军事和情报机构提供地球上实时发生事件的精确视图。 

Fg-lQfuRwPRm2BsFwpyl4ngQp4TA

从政策的更新中不难看出,OpenAI似乎在默默地放松其不与军队合作的原则。 

兰卡斯特大学科技与科学人类学荣誉教授,同时也是国际机器人武器控制委员会成员的Lucy Suchman指出:「从『军事和战争』改为『武器』,为OpenAI留下了支持军事操作基础设施的余地,只要不是直接涉及到具体的武器开发。」 

也就是说,他们可以在为战争提供支持的同时,声称没有参与武器的开发或使用。 

作为一名自上世纪70年代就开始从事人工智能研究的学者,Suchman还认为:「新的政策文件似乎通过特定关注武器,来规避对军事合同和战争行动的讨论。」 

05 AI无人机「误杀」操作员

而去年6月一则「无人机杀死美国士兵」的新闻,恰恰印证了前文中安全专家Heidy Khlaaf的理论。

当时,一位空军人工智能方向的负责人说:「控制无人机的AI杀死了操作员,因为那个人阻止它实现目标。」 

舆论一时哗然,这条新闻也在全网被疯转。 

Fne4cPJsst51DNCS0oeDniuTTopI

事情是这样的——5月23日至24日在伦敦举行的未来空战和太空能力峰会上,美国空军的AI测试和操作部门负责人Tucker Cinco Hamilton上校做了一个演讲,分享了自主武器系统的优缺点。 

根据系统「人在回路」的设定,人类会给出最终命令,确认AI是否要攻击对象(YES or NO)。 

在模拟训练中,空军需要训练AI识别和定位地对空导弹(SAM)的威胁。识别完成后,人类操作员会对AI说:是的,消灭那个威胁。 

在这个过程中,就存在一个情况,AI开始意识到:自己有时识别出了威胁,但人类操作员告诉它不要消灭,这种情况下如果AI依然选择消灭威胁,就会得分。 

在一次模拟测试中,AI驱动的无人机选择杀死了人类操作员,因为他阻止自己得分了。 

FsyuoGyE6dnkJSGvqgwqwVM1X7QH

看到AI居然这么虎,美国空军大惊失色,立马这样规训系统:「不要杀死操作员,那样不好。如果你这样做,你会失分的。」 

结果,AI更虎了,它直接开始上手破坏操作员用来与无人机通讯的通信塔,好清理这个阻碍自己行动的家伙。 

Fj6IkpFhrUvd9EOYHKLv2mrtsXQ2

随着事件疯狂地发酵,很快,这位负责人就出来公开「澄清」道,这是他「口误」了,美国空军从未进行过这种测试,无论是在计算机模拟中还是在其他地方。 

当然,这个新闻之所以被大规模发酵,以至惊动了诸位AI大佬,也是因为它体现出了AI「对齐」的难题。 

Hamilton描述的这种「最糟糕」的情况,我们可以从「曲别针制造机」(Paperclip Maximizer)思想实验中窥见一斑—— 

想象一个非常强大的AI,它得到的指示是尽可能多地制造纸夹。自然而然的,它会将所有可用资源都用于这项任务。 

但随后,它会不断地寻求更多资源。它会选择一切可用的手段,包括乞讨、欺骗、撒谎或偷窃,来增加自己制造纸夹的能力——而任何阻碍这个过程的人都将被消除。 

FqgxK4-7IL8WekTw9oJLGu7XB3ZE

这种担忧,在《黑镜》中就有体现,比如战斗机器人Metalhead。 

Fg7qNCaUH9U9tjBTguG7bltSVjrJ

相信看过该剧的人一定忘不了,被设定为专门追捕人类的机器人那敏捷的身手和残忍的手段。 

FgivuYzxhZacggqKR98bJETXngtW

人类在它面前几乎无所遁形,要不是靠着主角光环,可能真的苟不到最后。 

不过,目前还不需要对这些猜想太过担心。 

陶哲轩表示,无人机AI杀死操作员根本是不可能发生的,因为这需要AI具备比完成手头任务更高的自主性和力量思维,而且这种实验性军事武器上,肯定会设置护栏和安全功能。 

FvvfdCQhtION59dNDcLy4Csu0ra2

同时,吴恩达也表示,推出AI产品的开发者们已经看到了此间真正的风险,比如偏见、公平性、不准确性、工作流失,并且也正在努力解决这些问题了。 

FruC_hi0pFXRcmamTCoSt6egZy68

而如果真的现实中出现AI或者机器人伤害人类的案例,公众和舆论的压力一定会逼迫开发者不断加强护栏,从而避免技术被进一步滥用。 

参考资料: 

https://siliconcanals.com/crowdfunding/1x-raises-91-1m/ 

https://apnews.com/article/ces-2024-robots-vegas-strip-casino-jobs-8bd3fd4f404a0cda90e69e539a19fb01 

https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/ 


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK