为啥我总有一种被 AI 忽悠的感觉?
source link: https://www.v2ex.com/t/923140
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
chonger 11 小时 17 分钟前 一样的,很多错误回答,再少在中国历史上,比如我问:是赵匡胤的弟弟赵光义毒死他的吗?
答:历史学家对于赵匡胤和赵光义之间的兄弟关系和赵光义是否毒死赵匡胤的争议有不同的观点和证据。 根据《资治通鉴》等史书的记载,赵匡胤在太祖即位后被封为晋王,赵光义被封为魏王,两人在太祖晚年时出现了矛盾。一些历史学家认为赵光义可能与他的部下一起策划了一场政变,试图篡位夺权,但失败了,赵光义被赐死。然而,这些学者并没有直接的证据表明赵光义参与了政变。 至于赵光义是否毒死赵匡胤,历史上没有确凿的证据证明这一点,这个传言可能是后人的臆想或流言。 因此,对于赵匡胤和赵光义之间的争议和他们之间的关系,历史学家仍然持有不同的观点。 |
chonger 11 小时 10 分钟前 据说 4.0 要出来了,到时再看看吧
|
SenLief 10 小时 19 分钟前 这玩意只在代码和翻译这类有用。
|
ruxuan1306 10 小时 11 分钟前 2 @tool2d 本质是个用大量文字训练出的接龙机器人,就像那种啥都能和你侃两句大爷,没啥言之有物的深度思考,但适合写空洞但形式化的东西。
|
churchmice 10 小时 0 分钟前 这东西我觉得用途就只能是 RPG,问点正儿八经的东西真真假假夹杂在一起,不看好他的发展
RPG 的话现在搞瑟瑟越来越难了 |
tgich 8 小时 40 分钟前 这玩意适合给建议
|
Ayahuasec 8 小时 23 分钟前 1 你应该问集成了 ChatGPT 的 New Bing ,会结合搜索结果给出答复,比直接用 ChatGPT 准确很多。毕竟 ChatGPT 是一个语言模型,只管输出的结果是不是通顺的,要输出准确结果还是要结合一个资料库。
|
ispinfx 8 小时 21 分钟前 via iPhone 本质上和 n 年前的闲聊机器人没什么区别
|
vinsa 8 小时 19 分钟前 用错了吧,他是语言模型,不是百科全书。
语言模型+领域知识,才是你这个测试想要达到的理想效果。 |
LZSZ 8 小时 18 分钟前 bing 问这些准一些
|
DTCPSS 8 小时 10 分钟前 Bing 会给出参考文献,稍微好点
|
hanqian 7 小时 55 分钟前 via iPhone 还是得结合搜索引擎啊。它只是根据语料在那做概率计算,你问他这种事实性问题,还是得让现有的人类知识兜底
|
Ayahuasec 7 小时 31 分钟前 @billgong 确实,我感觉它还是在用回复语言文本问题的方式回复数学问题。我比较期待 GPT4 所谓的多模态模型,看下是否在数学和逻辑方面有改善。不过现在的消息好像说 GPT4 的多模态是指图形声音视频方面的。
|
zhoujinjing09 4 小时 6 分钟前 chatgpt 不是用来回答事实性问题的,用法不对
|
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK