不是调侃,有办法不让 chatgpt 胡说八道么?
source link: https://www.v2ex.com/t/919068
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
比如
问:下面这篇文章的标题是什么? https://ieeexplore.ieee.org/document/9416834
回答:这篇文章的标题是 "Neural Networks-Based Multi-Objective Control for a Hybrid Renewable Energy System with Energy Storage",发表在 IEEE Transactions on Industrial Electronics 期刊上。
然而, 事实上并不是他说的这个标题, 而且他说的这篇文章并不存在。
ttgo 2 小时 28 分钟前 via iPhone 有没有人试一下 new bing 怎么回答同样的问题?
|
rimutuyuan 2 小时 27 分钟前 是的,它经常给出一些不存在的代码,后面搜索后是根据其他语言相似的实现“学习”出来的
|
oygh 2 小时 24 分钟前 2 ChatGPT 的优势并不在于知道得多,而是在于能“理解”人类的语言,并且能以人类能理解的方式与人类进行交流。
它的回答不可避免会存在一些事实错误,特别是当输入的信息存在故意误导时。就像你问他怎么做红烧钢丝球,它也能一本正经地告诉你具体步骤。 不过就算你提出了非常正经的问题,它也有可能胡说八道,毕竟它又没吞下整个互联网,无法了解这个世界上发生的一切。 |
registerrr 2 小时 23 分钟前 您好,这是 Bing 。根据搜索结果 1 ,这篇文章的标题是“图学习:一项调查”( Graph Learning: A Survey )。它是一篇关于图数据和图机器学习的综述文章,发表在 IEEE Journals & Magazine 上。
|
cmdOptionKana 2 小时 20 分钟前 你不会要求迈克尔乔丹去踢足球世界杯
你也不会要求奥斯卡影帝去证明数学猜想 那你为什么要要求一个专门为了胡说八道而设计出来的语言模型给你准确答案? 这个 chatGPT 总的来说只是一种 demo ,一种演示,需要定制的话要另外加钱的(商业合作)。 |
neteroster 2 小时 19 分钟前 New Bing:
> 你能告诉我这篇文章的标题和它的主要工作吗: https://ieeexplore.ieee.org/document/9416834 > 根据网上的搜索结果 1 ,这篇文章的标题是图学习:一项调查( Graph Learning: A Survey ),它是一篇综述性的文章,主要介绍了图学习的基本概念、方法、应用和挑战。它的主要工作有三个方面: 它为不同领域(如社会计算、信息检索、计算机视觉、生物信息学、经济学和电子商务)的研究人员和从业者提供了一个图学习的快速参考; 它展示了图学习领域中存在的一些开放性的研究问题; 它旨在激发新的研究思路和更多的跨学科合作。 希望这个回答能帮助你理解这篇文章。😊 |
haimall 2 小时 18 分钟前 外国人认真研究 openai 可用于其他行业的可行性,
我就发现中国人研究怎么让他变傻子 |
zxCoder 2 小时 7 分钟前 2 你可以试试问他“美国 427 事件”啊,“中国 119 事件” 等等,他也能给你侃侃而谈
|
Chrisplus 1 小时 49 分钟前 chatGPT 没有网络检索的接口,New Bing 有。
|
aphorism 1 小时 48 分钟前 via Android 1 1. 有宣传部的地方就可以完美地做到不让 chatGPT 胡说八道。
2. 你需要做的只是先找到这样一个地方。 3. 然后根据当地的法律法规和政策去做。 |
zzm88104 1 小时 46 分钟前 现阶段他没有 [不知道] 这个 feature ,只能:
- 避免问他一定不知道的事情(例如楼主这个问题,99%不会得到好答案,因为他不能接外部网络) - 尽量不问他可能不知道的事情(例如与最新的资讯相关的,因为他资料不没 update )。即使问了,就多留个心眼多方印证。 - 用英语,理论上既然他学习的资料都是英语,就用英语去使用他才能发挥最大价值。 |
holystrike 1 小时 45 分钟前 可以问问 bing ,有没有什么办法让 chatgpt 不要胡说八道
|
yzqtdu 36 分钟前 不让 chatgpt 胡说八道约等于知道它知道,知道不知道,约等于接近完全的语义理解,目前来看还很难。现在在用人工反馈强迫模型对齐,但是错误回答的空间很大,更好的方式还在探索
|
fnmgzbv2 25 分钟前 via iPhone 您好,這是 Bing 。根據我在網路上找到的資訊,這篇文章的標題是 Graph Learning: A Survey1 。這是一篇關於圖學習的綜述文章,作者是來自中國和美國的四位學者。
|
zictos 9 分钟前 说明有时候他真的不知道,但是即便是答案有一点错误也会有点参考性,如果经常遇到回复不知道,用户也会很失望的
|
yangzhezjgs 6 分钟前 这是生成式 AI 的必然毛病,因为他只是根据大量现存的数据进行模仿,并不是真的理解,而且深度学习本来就是黑箱,可解释性差,无法像正常软件一样调整控制
|
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK