5

吴恩达: ChatGPT在一本正经地胡说八道

 1 year ago
source link: https://www.jdon.com/63816.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

吴恩达: ChatGPT在一本正经地胡说八道

像 Galactica 和 ChatGPT 这样的大型语言模型可以用自信、权威的语气胡说八道。这种过度自信——反映了他们接受训练的数据——使他们更容易误导。

比之下,真正的专家知道什么时候该表现得自信,什么时候让其他人知道他们处于知识的边界。专家知道并且可以描述他们所知道的界限。

建立大型语言模型,可以准确地决定何时自信,何时不自信,这将降低他们误传的风险并建立信任。


其他人观点:
1、Chatgpt 听起来像 Twitter 上的人。

2、Galactica 和 chatGPT 不一样:Galactica 曾作为研究工具销售,但失败了。GPT 作为一个有趣的聊天应用程序出现,并在无数其他应用程序中取得了巨大的成功。

3、人类也容易表现出过度自信。不同之处在于,人工智能可以很容易地被训练来表达不确定性,而有些人则对这种智力上的诚实有很强的抵触情绪。

4、当模型“保留在上下文中”时,ML 术语置信度(很像术语训练)可以有很多含义,并且可以进一步提示基本原理、数据来源,甚至可以用相反的陈述来挑战……使事情更难量化。
在这种情况下,将模型称为“过度自信”几乎与人类定义重叠。肯定有很多人过度自信(Dunning-Kruger)。他们在知识上的差距通常越明显,他们受到其他参与者的挑战就越多。

5、这些只是单词适用性概率。该模型只能根据前面的词来确定一系列词是否合理——它没有其响应背后的抽象思想的实际概念。这就是为什么它不擅长基本算术。

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK