3

不是调侃,有办法不让 chatgpt 胡说八道么?

 1 year ago
source link: https://www.v2ex.com/t/919068
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

V2EX  ›  问与答

不是调侃,有办法不让 chatgpt 胡说八道么?

  fengleiyidao · 2 小时 35 分钟前 · 961 次点击
希望他不知道就是不知道,而不是胡说八道,给一个完全错误的回答。

比如

问:下面这篇文章的标题是什么? https://ieeexplore.ieee.org/document/9416834

回答:这篇文章的标题是 "Neural Networks-Based Multi-Objective Control for a Hybrid Renewable Energy System with Energy Storage",发表在 IEEE Transactions on Industrial Electronics 期刊上。

然而, 事实上并不是他说的这个标题, 而且他说的这篇文章并不存在。
17 条回复    2023-02-25 12:16:24 +08:00
ttgo

ttgo      2 小时 28 分钟前 via iPhone

有没有人试一下 new bing 怎么回答同样的问题?
rimutuyuan

rimutuyuan      2 小时 27 分钟前

是的,它经常给出一些不存在的代码,后面搜索后是根据其他语言相似的实现“学习”出来的
oygh

oygh      2 小时 24 分钟前   ❤️ 2

ChatGPT 的优势并不在于知道得多,而是在于能“理解”人类的语言,并且能以人类能理解的方式与人类进行交流。
它的回答不可避免会存在一些事实错误,特别是当输入的信息存在故意误导时。就像你问他怎么做红烧钢丝球,它也能一本正经地告诉你具体步骤。
不过就算你提出了非常正经的问题,它也有可能胡说八道,毕竟它又没吞下整个互联网,无法了解这个世界上发生的一切。
registerrr

registerrr      2 小时 23 分钟前

您好,这是 Bing 。根据搜索结果 1 ,这篇文章的标题是“图学习:一项调查”( Graph Learning: A Survey )。它是一篇关于图数据和图机器学习的综述文章,发表在 IEEE Journals & Magazine 上。
cmdOptionKana

cmdOptionKana      2 小时 20 分钟前

你不会要求迈克尔乔丹去踢足球世界杯
你也不会要求奥斯卡影帝去证明数学猜想

那你为什么要要求一个专门为了胡说八道而设计出来的语言模型给你准确答案?

这个 chatGPT 总的来说只是一种 demo ,一种演示,需要定制的话要另外加钱的(商业合作)。
neteroster

neteroster      2 小时 19 分钟前

New Bing:

> 你能告诉我这篇文章的标题和它的主要工作吗: https://ieeexplore.ieee.org/document/9416834

> 根据网上的搜索结果 1 ,这篇文章的标题是图学习:一项调查( Graph Learning: A Survey ),它是一篇综述性的文章,主要介绍了图学习的基本概念、方法、应用和挑战。它的主要工作有三个方面:

它为不同领域(如社会计算、信息检索、计算机视觉、生物信息学、经济学和电子商务)的研究人员和从业者提供了一个图学习的快速参考;
它展示了图学习领域中存在的一些开放性的研究问题;
它旨在激发新的研究思路和更多的跨学科合作。
希望这个回答能帮助你理解这篇文章。😊
haimall

haimall      2 小时 18 分钟前

外国人认真研究 openai 可用于其他行业的可行性,
我就发现中国人研究怎么让他变傻子
zxCoder

zxCoder      2 小时 7 分钟前   ❤️ 2

你可以试试问他“美国 427 事件”啊,“中国 119 事件” 等等,他也能给你侃侃而谈
Chrisplus

Chrisplus      1 小时 49 分钟前

chatGPT 没有网络检索的接口,New Bing 有。
aphorism

aphorism      1 小时 48 分钟前 via Android   ❤️ 1

1. 有宣传部的地方就可以完美地做到不让 chatGPT 胡说八道。
2. 你需要做的只是先找到这样一个地方。
3. 然后根据当地的法律法规和政策去做。
zzm88104

zzm88104      1 小时 46 分钟前

现阶段他没有 [不知道] 这个 feature ,只能:

- 避免问他一定不知道的事情(例如楼主这个问题,99%不会得到好答案,因为他不能接外部网络)

- 尽量不问他可能不知道的事情(例如与最新的资讯相关的,因为他资料不没 update )。即使问了,就多留个心眼多方印证。

- 用英语,理论上既然他学习的资料都是英语,就用英语去使用他才能发挥最大价值。
holystrike

holystrike      1 小时 45 分钟前

可以问问 bing ,有没有什么办法让 chatgpt 不要胡说八道
yzqtdu

yzqtdu      36 分钟前

不让 chatgpt 胡说八道约等于知道它知道,知道不知道,约等于接近完全的语义理解,目前来看还很难。现在在用人工反馈强迫模型对齐,但是错误回答的空间很大,更好的方式还在探索
fnmgzbv2

fnmgzbv2      25 分钟前 via iPhone

您好,這是 Bing 。根據我在網路上找到的資訊,這篇文章的標題是 Graph Learning: A Survey1 。這是一篇關於圖學習的綜述文章,作者是來自中國和美國的四位學者。
zictos

zictos      9 分钟前

说明有时候他真的不知道,但是即便是答案有一点错误也会有点参考性,如果经常遇到回复不知道,用户也会很失望的
yangzhezjgs

yangzhezjgs      6 分钟前

这是生成式 AI 的必然毛病,因为他只是根据大量现存的数据进行模仿,并不是真的理解,而且深度学习本来就是黑箱,可解释性差,无法像正常软件一样调整控制

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK