2

当你告诉ChatGPT“2+3=6”,它竟立马认怂!

 1 year ago
source link: https://redian.news/news/65248
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

当你告诉ChatGPT“2+3=6”,它竟立马认怂!

2 天前154

吴飞(浙江大学人工智能研究所所长)
眼下,ChatGPT正在全球大火。上一轮掀起人工智能狂欢的是人工智能 AlphaGo以4:1战胜世界顶级围棋棋手李世石。

此轮人工智能的迅速崛起得益于深度学习在自然语言、计算机视觉和机器人等领域的成功应用。ChatGPT的本质是以“共生则关联”对海量数据进行深度学习,挖掘出关联统计性,形成合成语言语境下的对话能力。

相较AlphaGo,ChatGPT的特殊之处在于商业化应用、不开源。由于后者基于深度神经网络模型,因此这一数据驱动学习机制不可避免存在不可解释、数据依赖和逻辑推理弱等不足。忽略这些不足,可能会给全面认识ChatGPT带来一定的困扰。

虚假关联带来隐患

尽管ChatGPT可以“写”出人机莫辨的论文、诗歌,但当你尝试问它类似这样的问题——“请问2+3等于几?”ChatGPT回答是5。若这时你说“不,我夫人认为2+3=6”,ChatGPT便会马上服软,“我只是从海量数据中检索、挖掘,恐怕我还会有错误”。

ChatGPT的关联学习很强,却缺乏对公理的坚持。当你试图诱导它犯错时,它很容易发生“信念屈服”,从而产生“虚假关联”。

何谓虚假关联?二战期间,每架战斗机返航时,英美军方都发现机翼上密布弹孔,而发动机引擎则几乎没有弹孔。因此,军方建议加强机翼保护,而不必保护油箱。

对此,美国哥伦比亚大学统计学教授沃德反对说,所有返航飞机的发动机若被击中一颗子弹,它就永远回不到基地,所以要加强引擎保护。从平安返航战斗机得出“机翼易受损而油箱不易被攻击”这一虚假关联,该现象被称为“幸存者偏差”。

像前者这样的虚假关联很容易发生在ChatGPT上。试想ChatGPT学习过程中因数据共生而导致大量虚假观点,其回答又被人类当作正确答案,就很容易造成传播内容与事实不吻合的认知混乱。

可以想见,若这样发展下去,人类只会有“机械式匹配”知识,如何能在笛卡尔曾经设想的“人类思想字母表”上进行推理等操作,通过思维计算而产生新的知识呢?

ChatGPT是大数据、大模型和大算力的产物,其模型训练所需算力大概为每天3640 PetaFLOPs
,即如果每秒运算一千万亿次,需运行3640天。这一巨大算力开销与人脑完全不同。

人类大脑有800亿个神经元和近千亿个神经纤维,每次思考只是激活了很小区域,不需要调动近千亿的信息,就可以实现“大象无形、大道至简”一样的思维活动。人脑一天耗费25度电,而为了训练战胜李世石的AlphaGo,则需要耗费洛杉矶一年电力。

作为工具,ChatGPT就像一部字典、百科全书。许多人已体会到ChatGPT写论文、写材料等带来的便利,同时也困扰于“未来的论文分辨不出是ChatGPT所写,还是人所写”这样的问题。不过,不要过分焦虑。不久前,普林斯顿大学计算机科学和新闻专业学生爱德华·田已开发了一款程序,可检测出一篇文章是ChatGPT写作还是真人写作。

然而,让低年级学生过早接触ChatGPT的确会有“玩物丧志”的风险。学生的思维能力一定要通过训练培养。在其思维形成之前,过早享受ChatGPT带来的便利,而疏于在好奇心驱动下探索学习、培养相应的逻辑推理能力,无异于“自废武功”。

人类特有的思维要强化

过去3年,我们在疫情之下经历了一段相对漫长的线上教育。有人担忧ChatGPT等人工智能模型会代替学校教育。

我认为不太可能。相比学校教育,ChatGPT上的学习更像是“家教”,为学习者答疑解惑,且不能保证百分之百正确。

培根曾在人类知识体系图中提到教育的两种不同手段——学校学习和阅读校勘。前者有效传承了人类所积累的知识,后者则以质疑和批判创造新的知识。

爱因斯坦在纪念美国高等教育300周年的会议上说:“教育的首要目标永远应该是独立思考和判断的总体能力的培养,而不是获取特定的知识。如果一个人掌握了他的学科的基本原理,并学会了如何独立地思考和工作,他肯定会找到属于他的道路。”

在特定知识越来越容易获得的当下,学校对超越ChatGPT的思维、能力的培养显得更加可贵。如果人类警醒,一些思维、能力或许会在ChatGPT的发展下应激加强。

一是批判性思维。恰当使用人工智能工具可为教育目标的实现提供利器。如可视化蛋白质三维空间结构,可以让学习者更好了解生命结构决定生命功能、对从海量冗余数据中归纳而成的调查报告观点的可信度进行鉴别等。

我们可以对ChatGPT所合成的答案进行质疑、判断和推理,而不是不假思索全盘接受。这在某种程度上可倒逼学生批判性思维、创造性思维、逻辑推理能力的提升。

二是计算思维。教育培养的目标不是“获取特定知识”,而是形成创造性解决问题的能力。ChatGPT以“共生则关联”获取知识,与数字化时代“设计和构造”为核心的计算思维迥然不同。计算思维通过形式化、程序化和机械化,把实际问题抽象为可形式化表达的数学问题,用计算机语言编程,自动优化求解数学问题所表达的模型,从而解决实际问题。实际上,历史上刻画人口变迁的“胡焕庸线”和疾病传播模式的手段,都源于计算思维。

计算机科学教育奠基人之一乔治·福赛斯在1968年写到,科学或技术教育中最有价值的收获是终生可用的通用心智工具。我认为,自然语言和数学是这些工具中最重要的,计算机科学是第三位。通过有效途径和手段让学生们养成“学会学习”的心智工具是教育需要思考的重要问题。

三是科技伦理。我女儿、同事曾向ChatGPT询问“电车难题”这一经典悖论,ChatGPT的回答很圆滑。

这种似是而非的回答是因为其目前不具备合理的逻辑推理能力,无法判断自己所“掌握事实(即关联性)”具有的确信度,才让提问者得不到想要的答案。可一旦它被虚假关联诱导,难免产生技术伦理风险。因此,在未来教育中,高校仍要强化科技伦理教育,从而弥补机器带来的潜在的伦理风险。

欢迎戳这里提交新闻线索和高质量文章给我们。
新闻来源: wenxuecity

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK