9

打开潘多拉魔盒?谷歌正研发“人类最强大模型”,高管确认其将具备“自我规划”能力

 1 year ago
source link: https://awtmt.com/articles/3691911
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

打开潘多拉魔盒?谷歌正研发“人类最强大模型”,高管确认其将具备“自我规划”能力

赵颖 发表于 2023年06月27日 01:48
摘要:AI“高风险功能”或将被谷歌开启,Gemini模型将具备规划、解决问题的能力以及文本分析能力,像人类一样感知世界和解决问题。

当AI能像人类一样感知世界和解决问题,人类和AI的界限还存在吗?

潘多拉魔盒已经打开,AI正朝着更高级的智能形态进化。据Wired周一报道,谷歌DeepMind的联合创始人兼CEO Demis Hassabis者接受采访时表示,谷歌正在使用AlphaGo的技术制造名为“Gemini”的人工智能系统,该系统将比ChatGPT的模型更强大。

Gemini与GPT-4性质相似,是一个处理文本的大语言模型,目前Gemini仍在开发中,这个过程将需要数月时间。Hassabis指出:

团队将把GPT-4的技术与AlphaGo中使用的技术结合起来,旨在赋予该模型新的能力,如规划或解决问题的能力以及文本分析能力。

在高层次上,你可以认为Gemini是将AlphaGo系统的一些优势与大模型的惊人语言能力相结合。

AI更高级形态=AlphaGo+大模型

人们普遍认为,像人类和动物那样从物理世界的中学习经验,对于人工智能的发展非常重要。一些人工智能专家认为,语言模型通过文本间接地学习是其发展主要的限制。

而AlphaGo的优势可以解决这一点,2016年,DeepMind设计的AI系统AlphaGo以4比1的比分击败了世界围棋冠军李世石,是史上首个战胜围棋世界冠军的机器人。

AlphaGo基于DeepMind开创的强化学习技术,该技术通过让AlphaGo反复尝试并接受表现的反馈,学会处理需要选择采取何种行动的棘手问题。同时,AlphaGo使用了蒙特卡洛树搜索技术方法来探索和记忆棋盘上的可能行为。

语言模型的下一步飞跃可能是在计算机上执行更多任务,此前文章提到Gemini的最大优势在于其多模态能力,不仅能够理解和生成文本、代码,还能够看懂和生成图像。相比之下,ChatGPT只是一个纯文本模型,只能理解和生成文本。

此外,制作和ChatGPT类似能力的语言模型的一个重要的步骤是使用人类反馈强化学习来完善其性能,DeepMind在强化学习方面的深厚经验可赋予Gemini新的能力。

值得一提的是,为了加强AI研究,谷歌在4月将以前独立的人工智能研究实验室Google Brain和DeepMind合并为一个名为Google DeepMind的新部门。Hassabis表示,新的团队汇集对最近的人工智能进展具有关键作用的力量。

2014年,DeepMind展示了使用强化学习掌握简单游戏的成果后被谷歌收购,在接下来的几年里,DeepMind展示了该技术是如何做那些曾经看起来只有人类才有的事情的,AlphaGo在2016年击败围棋冠军李世石,当时许多人工智能专家都惊呆了,他们曾认为机器要想熟练掌握如此复杂的游戏还需要几十年。

未来将更具风险?

近期,AI模型的发展之快,令许多专家开始担心,该技术是否会被恶意使用或变得难以控制。一些业内人士甚至呼吁暂停开发更强大的算法,以避免造成安全威胁。

Gemini的能力令外界感到惊讶,同时也感到害怕,AI“高风险功能”或将被谷歌开启。

AI Explained发现,“计划”这一能力被谷歌当做Gemini的卖点,但被OpenAI视为一种安全风险。

对此,Hassabis认为:

AI具有非凡的潜在好处,例如在健康或气候等领域的科学发现,需要继续发展这项技术。

此外,强制暂停是不切实际的,因为这几乎是不可能执行的。如果做得正确,AI将是对人类最有利的技术,我们必须大胆地、勇敢地去追求这些。

然而,这并不意味着Hassabis主张人工智能的发展要一哄而上。在ChatGPT出现之前,DeepMind就一直在探索人工智能的潜在风险,该公司的联合创始人之一Shane Legg多年来一直在公司内部领导一个“人工智能安全”小组。Hassabis上个月与其他高知名度的行业专家一起签署了一份声明,警告说未来AI带来的风险可能与流行病和核战争相当。

Hassabis指出,目前最大的挑战之一是确定能力更强的人工智能风险是什么,其认为该领域需要进行更多的研究,加紧进行评估测试等工作,来确定新的人工智能模型的能力和可控性如何。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK