7

讲个笑话——以后做梦,要求内容应当真实准确,采取措施防止生成虚假信息。

 1 year ago
source link: https://www.v2ex.com/t/931819
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

V2EX  ›  程序员

讲个笑话——以后做梦,要求内容应当真实准确,采取措施防止生成虚假信息。

  imaxwell · 6 小时 4 分钟前 · 5221 次点击

《生成式人工智能服务管理办法(征求意见稿)》 (四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。

102 条回复    2023-04-12 16:05:20 +08:00
dqzcwxb

dqzcwxb      6 小时 3 分钟前   ❤️ 18

所以你认为虚假信息是你需要的?
idealhs

idealhs      6 小时 1 分钟前   ❤️ 3

@dqzcwxb 是的,我就是想要点虚假的,不可以吗
dqzcwxb

dqzcwxb      6 小时 0 分钟前   ❤️ 2

@idealhs #2 《生成式人工智能服务管理办法(征求意见稿)》 这里有个 征求意见稿 几个字,说明你可以去提交你需要的内容,比如你喜欢假的
ljrdxs

ljrdxs      5 小时 59 分钟前   ❤️ 5

@dqzcwxb 你知道生成式 AI 是什么吗?你以为开发者能控制这个?
SoviaPhilo

SoviaPhilo      5 小时 57 分钟前

按照生成式 AI 的概率算法的玩法, 它的生成内容的真实准确性基本上就是 假阳性和假阴性的取舍
追求真实准确,意味着宁可不输出也不能有未经核实过的内容

最后结果就是干脆就不输出了
idealhs

idealhs      5 小时 56 分钟前   ❤️ 38

@dqzcwxb 装什么外宾还去提意见,咋不上天。
faker.js 可以有用,AI 就必须真实准确,呵呵。
AManOnShelf

AManOnShelf      5 小时 55 分钟前

立个 flag:LLM 会产生虚假信息是包括 openAI 在内的所有公司都解决不了的问题。
上一个遇到类似问题的是基于 CNN 的自动驾驶算法。五六年过去了,大部分公司都放弃了 L5 级自动驾驶的研发,基于 LLM 的 AI 们也逃不过这一结局。
shnehna

shnehna      5 小时 53 分钟前

怎么说呢,其实虚假信息也是真实的虚假信息,所以这也算真实准确的。
aptupdate

aptupdate      5 小时 53 分钟前

@dqzcwxb
@idealhs
咱也别杠啊说正经的,无论是互联网还是 AI 包括现实生活都会有虚假信息。
我所需要的信息肯定是经过筛选和判断的。
这一段可笑的地方是“采取措施”,采取什么措施?加大人工审核力度吗?
当然这个办法里还有其他很多不可理解的地方。
dqzcwxb

dqzcwxb      5 小时 52 分钟前   ❤️ 5

@ljrdxs #4 生成式 AI 生成什么不可控,但是输出内容是可控的
chatgpt 不也屏蔽了一大堆敏感内容,所以 chatgpt 都已经做到了的事情为什么你会觉得"非常"有难度?
dqzcwxb

dqzcwxb      5 小时 52 分钟前

@idealhs #6 那你就这样继续原地 TP 啥也不做呗
vrocker2048

vrocker2048      5 小时 51 分钟前

控制模型生成的内容比训练模型本身还难
idealhs

idealhs      5 小时 50 分钟前   ❤️ 1

@dqzcwxb 那你继续装外宾生活在幻想世界
PalenessIb

PalenessIb      5 小时 48 分钟前   ❤️ 9

没啥好评论的,国家整体是大进步了,但只要一牵扯到意识形态,“有关部门”一些人的脑袋还停留在上世纪,动辄整出些类似“美国禁酒令”令人啼笑皆非的蠢事来。
ljrdxs

ljrdxs      5 小时 47 分钟前

@dqzcwxb 一、屏蔽内容,都是建立在用户发现、闹大基础上。按这法规,早就把 chatgpt 罚到完蛋了!
二、现在 chatgpt 生成的内容绝对准确?照样有数不清的“虚假信息”,只是用户还没发现,或者发现了但不闹大。比如问他文学作品里的内容,多少错误?按这法规,不照样把 chatgpt 罚到完蛋?

还“已经做到”,呵呵呵。
imaxwell

imaxwell      5 小时 47 分钟前   ❤️ 1

@dqzcwxb 你对小说全文要求真实准确吗?
libook

libook      5 小时 46 分钟前   ❤️ 20

https://www.ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale
> If you decide to make or offer a product like that, take all reasonable precautions before it hits the market.

漂亮国限制这种行为就是自由先进,中国做一样的事情就是笑话。
yolee599

yolee599      5 小时 44 分钟前

那还要 AI 干嘛?把搜索引擎做好就可以了啊
gaolycn

gaolycn      5 小时 43 分钟前 via Android

@imaxwell 从需求上是不是应该提供真实信息,从技术上是不是要尽量避免虚假信息?
管理办法上肯定要做正向引导,法律是不是也是?
haha512

haha512      5 小时 43 分钟前   ❤️ 9

重点不在这,百度上、各平台上,甚至各种官方通告 虚假信息还少吗,他们真不知道吗?
重点是“AI 要有党性,将政治,符合社会主义核心价值观”
gaolycn

gaolycn      5 小时 41 分钟前 via Android

"采取措施防止生成虚假信息",这句话一点问题也没有,即使不要求,这个也是必然及已经在做的。
dqzcwxb

dqzcwxb      5 小时 39 分钟前

@imaxwell #16 历史纪实和历史小说你分不清吗?史记和三国演义你放一起比?
imaxwell

imaxwell      5 小时 39 分钟前   ❤️ 1

认同 @ljrdxs 的观点, AIGC 即便训练的时候所有的材料都是真实的,也不代表不会生成不真实的信息,因为生成什么东西就是个概率问题,生成了之后,辨别真假也没那么简单,要不然也不会有“时间是检验真理的标准”的大讨论了。这个要求,真正要落实,只有一个办法,人工审核,审核员担责。
ScepterZ

ScepterZ      5 小时 37 分钟前

就这么一写而已,又不会按照这个执行,这东西还能比法律更严吗
imaxwell

imaxwell      5 小时 36 分钟前

@dqzcwxb 史记,高祖斩白蛇,你信?
dqzcwxb

dqzcwxb      5 小时 34 分钟前

@imaxwell #25 什么?地球上曾经有恐龙?我不信,除非让我见到活的
assiadamo

assiadamo      5 小时 33 分钟前

国内基本上就蹭个热度,不会真去做的
人工智能企业,大多是人工
yvescheung

yvescheung      5 小时 31 分钟前   ❤️ 40

@dqzcwxb #3
UjU4LGt.jpg

7uQkPT5.jpg

lIYXoOh.jpg
imaxwell

imaxwell      5 小时 30 分钟前

@dqzcwxb 你这个例子举得有问题没发现,史记是史书,不是小说,佐证不了你的论点。
SoviaPhilo

SoviaPhilo      5 小时 29 分钟前

某种意义上来说, 大力监管 AIGC 模型实际上是有利于创造就业的

毕竟 OpenAI 可是花十美元的时薪找黑叔叔帮忙处理训练数据。
大陆完全可以按十软的钱雇佣待就业的青年, 甚至顺便还解决了就业问题。

然后不提供就业的就不给备案, 闭环了妥妥的
dcsite

dcsite      5 小时 29 分钟前   ❤️ 1

@dqzcwxb

1 、GPT 做到了屏蔽虚假内容了吗?
2 、GTP 做到了符合美国资本主义核心价值观了吗?
3 、AI 是什么意思你知道吗?人工智能不能有虚假信息?
4 、提交征求意见有用吗?程序不透明,就是浪费时间
AbysmalSorrow

AbysmalSorrow      5 小时 29 分钟前 via Android   ❤️ 6

以后 AI 要用刁语录训练,保证无虚假信息,同时为世界 AI 发展指明方向
cedoo22

cedoo22      5 小时 28 分钟前   ❤️ 1

AI 实名制, 解决不了技术问题就解决人。
imaxwell

imaxwell      5 小时 28 分钟前

@imaxwell 时间=实践,v2 貌似发了不能改。
atuocn

atuocn      5 小时 28 分钟前

这条没什么好喷的。作为实验研究项目你随便搞。但 AI 生成内容已经开始进入社会服务面,虚假内容生成影响面太大。生成内容很快会占领社交平台、自媒体、软文、甚至新闻。你不会希望浏览的信息充斥着 AP 生成的真假莫辨的内容吧。尤其是一本正经的胡说八道,如果你对这个领域不是专家,也许真会蒙骗。人类的谣言都会久传成真,基因生成的虚假内容又反复生成呢。现在充斥着垃圾信息网络已经在拉低智商了,还要引入一个强力灌水机器吗。
decade1024

decade1024      5 小时 23 分钟前   ❤️ 2

@dqzcwxb "《生成式人工智能服务管理办法(征求意见稿)》 这里有个 征求意见稿 几个字,说明你可以去提交你需要的内容,比如你喜欢假的"。
《说明你可以去提交你需要的内容》???你这个笑话要比楼主说的笑话好笑得多得多了,真把自己当公民了吗?
xxmaqzas

xxmaqzas      5 小时 22 分钟前   ❤️ 1

以后 AI 入党,发展 AI 党员
Bad0Guy

Bad0Guy      5 小时 21 分钟前   ❤️ 1

@dqzcwxb 征求意见稿的意思是,我要这么做了,只是提前通知你一下,不论你反对与否我最终都会继续执行我的文件,你能拿我怎么样?
zapper

zapper      5 小时 18 分钟前

做美国梦才会有虚假信息,中国人就做中国梦(狗头
yfwo

yfwo      5 小时 16 分钟前   ❤️ 3

@dcsite

GPT 花大力气( GPT4 花了 6 个月的时间,GPT3.5 花的时间更多,否则 chatGPT 能更早出来)做到了符合美国标准的政治正确——这就是美国核心价值观。
mazyi

mazyi      5 小时 15 分钟前

@atuocn 虚假的内容是需要监管,但是需要一个更加好的办法,而非现在办法里的一句话。这句话既没有给出明确清晰的定义,什么样的信息是虚假信息、也没有给出清晰的需要采取的行动,是完全不能出现,还是提醒可能是虚假的,还是用概率来标明虚假的可能性、同时也没有讲如果出现了这样的情况,会有什么样的后果,是处罚,还是关闭,还是其他。总的来说,这就是一个占坑的
elonmask

elonmask      5 小时 15 分钟前

@libook AI 姓党,得会写马列主义。喂给你这种。
yxcoder

yxcoder      5 小时 11 分钟前

很奇怪,为啥发布个《管理办法》,这么多人高潮了,我寻思这 “真实准确” 难道不是应该的吗?有人告诉你要吃饭,你非说要自由要去吃屎?
yfwo

yfwo      5 小时 10 分钟前   ❤️ 1

@dcsite 想让 GPT4/3.5 讲美国政治不正确的观点是很难的,即便你绕的 GPT 逻辑混乱之后,也很难让它说一句事实正确但政治不正确的话。

说明 GPT 真的可以贯彻美国核心价值观。

感觉这也是 openAI 目前非常领先的领域。
dcsite

dcsite      5 小时 7 分钟前   ❤️ 3

@yfwo

麻烦您给我大概讲一下「美国核心价值观」,我从未听过,更未接触过这个领域,愿闻其详。
xumng123

xumng123      5 小时 3 分钟前 via iPhone

要客观,不要说真假,本身真假难辨,谁来决定真假?
leedarmau

leedarmau      5 小时 3 分钟前   ❤️ 11

@dqzcwxb 因为秦国不能说的内容经常变啊,我都不用说远的,就说封控,一夜之间立场大反转,你告诉我怎么让 AI 跟随总路线一起摇摆?

再说远一点的,当时还在称赞江胡、胡 X 权力交接开创了好的先例,同样的文本现在还能输出? AI 再称赞一个试试?

再远一点,历史课本上对袁项城的评价都是负面的,AI 也会学到这一点。现在呢?秦国社交平台上你都不能用袁项城当昵称了。

就这种朝令夕改、浑身 G 点、万物皆可乳化的地方,你说“有什么难度”?
persistz

persistz      5 小时 3 分钟前   ❤️ 4

作为 AI 从业者,不觉得这一条很过分啊,为什么都对这条意见这么大...
redvoilin

redvoilin      5 小时 1 分钟前

@dqzcwxb 搞清楚什么是 AI ?你和别人交流,你能保证从别人那里获取的信息都是真实准确的吗,凭什么 AI 就必须真实的,没有自己的判断吗
zqlcrow

zqlcrow      4 小时 58 分钟前   ❤️ 5

谁能保证真实准确呢?谁来定义真实准确呢?
最终的意思其实是:内容应当听我的。

1 、比如鸿蒙与 Android 无关,真实准确了吗?
2 、比如一些抗日战役,几次更改数据,真实准确了吗?
3 、比如共产主义一定会实现,真实准确吗?


世界不是非黑即白,世间的事情,也不像应试教育,有个标准答案。
很多东西,本身就是模糊的,比如 3 ,本身就只是观点。
idealhs

idealhs      4 小时 56 分钟前   ❤️ 1

@libook 这篇文章讨论了使用人工智能来制造或传播欺骗的问题,并提出了一些解决方案。由于使用人工智能的工具可以快速而廉价地生成逼真但假的内容,并将其传播给大群体或针对某些社区或个体,它们已经成为一个新的威胁。然而,尽管一些这样的 AI 工具具有益处,但欺诈者也可以使用它们来造成广泛的伤害。文章呼吁企业应该考虑使用这些工具的道德问题,并注意合理预见可能被用于欺诈或造成其他损害的方式。在这些工具上市前,企业应该采取合理预防措施,对减轻风险负责。文章还提醒广告商要避免用深度伪造或聊天机器人来误导消费者。虽然文章重点是欺诈和欺骗,但这些新的 AI 工具也存在其他问题,例如可能导致儿童、青少年和其他易受此类工具影响的群体遭受潜在伤害。


不是一个东西也能贴出来比?还是得是国内的劲大
yfwo

yfwo      4 小时 55 分钟前   ❤️ 1

@dcsite 就是政治正确那一套:

你不做 AI 吧?搜搜为什么 CSAIL 的 Tiny Images 为什么下架,Yann Lecun 为什么退出 twitter 。

只要处理不好这些政治正确,保证 chatGPT 上线三天就能下架。
zqlcrow

zqlcrow      4 小时 54 分钟前   ❤️ 12

所谓的禁止谣言,带来了什么?
没有带来真相,带来了强权。


有一次印象很深。
某人指责京东 xxx ,京东说没有。
微博:认定这是谣言。


----------------

老爷升堂,堂下草民状告何人?

草民:小人有冤,告赵举人欺男霸女。
老爷转头:赵举人,有这回事吗?
赵举人:没有的事。

老爷:大胆刁民,诬告赵举人,打 30 大板!


----------------


可喜可贺。
真相大白。
zqlcrow

zqlcrow      4 小时 52 分钟前   ❤️ 3

@zqlcrow

补充一下:

堂外众人:这刁民太坏,竟然诬告赵举人。幸好大老爷英明神武。
Hellert

Hellert      4 小时 48 分钟前 via Android

AI 里面成立党支部就解决了
alfa

alfa      4 小时 35 分钟前

@dqzcwxb 不是我需要的,是他们需要的。
hex2en

hex2en      4 小时 33 分钟前

@dqzcwxb #10 装什么呢? GPT-4 就能保证生成的内容都是真实的?
id80108900

id80108900      4 小时 32 分钟前

总有低屄看不懂中文。
楼主开头就讲了『笑话』,
梦境不是『假』的,难道还是真的?
纯属偷换概念,故意找茬(引战)。
该拉黑就拉黑,别浪费时间。
alne

alne      4 小时 31 分钟前

@mazyi #41 点进链接,提下意见
jellybool

jellybool      4 小时 29 分钟前

@yvescheung 这种东西你反过来看就行。
estk

estk      4 小时 18 分钟前 via iPhone

NoOneNoBody

NoOneNoBody      4 小时 17 分钟前

某 AI: @dqzcwxb 说得对

那么,这个生成算虚假还是真实?如何判断?谁来判断?

还是那句话,聊天性质的话,每个人每句话都是真话?问答性质的话,好像也不是每个答案都是真实准确的,就连人民日报也发过假消息啊

4046 年也不能杜绝 AI 说假话,因为“真善美”的标准是随着时代发展的,4046 也有 4046 的假话
debuggerx

debuggerx      4 小时 7 分钟前   ❤️ 2

如果不能保证准确性,那么这个生成式 AI 就只能作为“玩具”,可问题是很多人不把 AI 当玩具,或者在信息传递的过程中逐渐以假乱真,这是很大的问题,尤其是现阶段生成式 AI 的最大追求就是“不保证准确性,但尽量表达得像真的”——其实这是很可怕的事情,甚至可以轻易摧毁现有的互联网,乃至影响到人类的社会生活。

比如你觉得用 AI 就是图一乐,或者你可以分辨 AI 给出的内容是不是准确的。但是,一旦有人直接把 AI 生成的内容用于正式途径发布,或者有人直接让 AI 伪装成真人去输出内容,后面接收到这些信息的人在不知道信息是 AI 创作的前提下做出了错误的判断,所造成的后果应该由谁来承担?

所以个人非常认同这一条。

整个管理办法在我看来确实不咋样,但是这一条,以及后面的:
[第十九条 提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。]
确实相当有必要。

本以为 AI 可以提高生产力,可以解放真人,结果最后变成信息都产生自 AI ,真人却要疲于分辨信息的正确性准确性,这是不是很讽刺?
seanhuai

seanhuai      4 小时 0 分钟前   ❤️ 1

征求意见中不去提意见,指斥别人是外宾,不知自己是外犬。
brader

brader      3 小时 56 分钟前

特色啊,以后国内的 AI ,是不是得先接受九年义务教育
EscYezi

EscYezi      3 小时 56 分钟前 via Android

防止生成虚假信息,如果能做到的话那不就是百分之百准确的 AI 了,这有点太理想化了。
我只能想到“不说话就不会说错话”
kop1989smurf

kop1989smurf      3 小时 56 分钟前

@libook #17 解释这个没有意义。他们只在乎情绪,这种标题下的事实与逻辑没人关心的。
不要浪费时间。
NSAtools

NSAtools      3 小时 54 分钟前

国内大模型都要加上“思想钢印”
RageBubble

RageBubble      3 小时 51 分钟前

对俺来说其实无所谓,反正俺不会用国内的 AI 。俺也不期待国内以后能拆掉那伟大的墙,毕竟俺又不是第一天当中国人。
twl007

twl007      3 小时 49 分钟前 via iPhone

为啥这么多外宾?
mwVYYA6

mwVYYA6      3 小时 48 分钟前 via Android

@RageBubble 你的语气很随想(手动狗头)
nosmile

nosmile      3 小时 47 分钟前   ❤️ 1

祝愿楼主宝贵的时间,能够被用到更健康的方面。
EscYezi

EscYezi      3 小时 46 分钟前 via Android

防止 AI 生成的虚假信息被滥用还比较现实一点,使用者至少有自己分辨是否真实的责任吧
Nerv

Nerv      3 小时 46 分钟前   ❤️ 1

重要的是准确与否的标准是他们定的
vain

vain      3 小时 40 分钟前

@libook #17
请区分程序正义和结果正义。

即使最终得到的结果类似,但程序不正义的一方永远缺乏道德力量去指责程序正义的一方。
imaxwell

imaxwell      3 小时 25 分钟前 via Android

做梦是日有所思,夜有所梦,若干天的沉淀和输入,自动不可控地输出梦境内容; aigc 也是长时间大量输入各种语料文本和图像,人工训练和反馈,然后让其自动根据提示来生成内容,生成内容相关但不可控。说做梦一定是假的人,真的注意到这个类比的内涵了吗?
NoOneNoBody

NoOneNoBody      3 小时 24 分钟前

刚好看到隔壁有一帖
https://www.v2ex.com/t/931829

这个发梗 AI 应用此条,该不该直接判定其生成的内容大部分都不是“真实准确”的?
chenyu0532

chenyu0532      3 小时 12 分钟前

个人觉得这个管理办法没毛病,
muchengxue

muchengxue      3 小时 2 分钟前

@dcsite 肤色平等,不用考虑历史真相,随意演。
timethinker

timethinker      2 小时 48 分钟前

如果一个 AI 知道什么话该说,什么话不该说,那么这个 AI 到底是什么来头?他怎么提前知道哪些东西不该说的?
NoOneNoBody

NoOneNoBody      2 小时 37 分钟前

从条文看,AI 小说、AI 辅助创作电影、AI 作曲作词、AI 虚拟偶像等等好像都符合“生成式人工智能”的定义 ……

有些场合是很好的,例如有人用 deepfake 换脸,把无关的普通人脸换到 porn 影像上,应该阻止
但涵盖面太大,变成“万有(罪)定律”就值得斟酌了
Biluesgakki

Biluesgakki      2 小时 33 分钟前

不过确实不用担心 1.国内不会出 chatGPT 这种 ai 2.以后肯定得继续翻墙用国外的 ai
国内的 ai 随便烂,反正我又不用 。
reayyu

reayyu      2 小时 27 分钟前 via Android

外行领导内行 见怪不怪了
l2d

l2d      2 小时 15 分钟前   ❤️ 2

------------ 
 报刊(整个新闻业都属于这一范围)的编辑应当由完全正派可靠的人担任。检查令首先指出“学术才能”是这种完全正派可靠的品格的保证。至于书报检查官究竟能不能具有对各种各样学术才能作出判断的学术才能,检查令对这一点没有提出丝毫怀疑。既然在普鲁士有这么一批 zf 所熟悉的万能天才(每个城市里至少有一个书报检查官),那么,这批博学多才的人物为什么不以作者的身分出现呢?要是这些因人数众多、更因博学多才而显得声势浩大的官员们一旦崛起,用自己的声势去压倒那些仅仅用某一种体裁写作、而且连用这种体裁写作的才能也未经官方验证的可怜作者们,那么,这就会比用书报检查更快地消灭报刊中的一切混乱现象。这些老谋深算的、像罗马的鹅一样只要嘎嘎叫几声就可以挽救卡皮托利诺山的人们,为什么一声也不响呢?这些人实在太克制了。他们在学术界无声无臭,但是 zf 了解他们。
  可是,假如这些人真正是一些哪一个国家也找不出来的人才(因为任何国家都没有见过完全由万能的天才和博学的才子组成的整个阶级),那么,挑选这些人才的人所具有的天才又该比他们高出多少啊!为了证明在学术界无声无臭的官员们的确有万能的学术才能,这些挑选者又该具有多么神秘的法术啊!我们在这种博学多才的官僚的阶梯上登得越高,接触到的人物也就越令人惊奇。一个拥有一批完善的报刊作为支柱的国家,是不是值得把这些人才变成一批有缺点的报刊的看守人呢?使一种完善的东西沦为对付不完善的东西的工具,这样做是不是适当呢?
  你们所任命的这种书报检查官的人数越多,新闻出版界改进的机会就越少。你们把自己军队中身强力壮的汉子抽调出来,使他们成为不健康者的医生。
-------------
——《评普鲁士的书报检查令》马克思
frankies

frankies      2 小时 9 分钟前 via Android

好家伙,让虚假信息防止自己生成虚假信息是吧?
那么请问如何定义虚假信息?
sharpy

sharpy      2 小时 8 分钟前

如果我们自己的 ai 能发展起来,说明我们已经解决这个问题,我们的技术遥遥领先。
如果我们自己的 ai 发展不起来,那么掌握符合美国核心价值观的诸如 ChatGPT 之类的 ai 工具可能会是一个比较亮眼的求职能力,那我赢了。
总之,这只是一个大赢,还是中赢,还是小赢的问题。
zhchyu999

zhchyu999      2 小时 6 分钟前

欧洲绅士们禁止使用 ChatGPT 怎么看
这一条有什么错误么,有什么好笑的么
讲个笑话,有些人喜欢将当下的政策无限放大,并自以为可笑的把自己当一个笑话
yummysakko

yummysakko      1 小时 51 分钟前

跟真不真有关系吗?关键是别说出不利于朝廷的话
ericwoflskin

ericwoflskin      1 小时 41 分钟前   ❤️ 7

这帖简直就是个大型装外宾表演现场,五毛们各种装傻充愣,从各种角度洗地,说不过还阴阳怪气的怼你。
这玩意不就是 AI 版的言论审查吗,什么叫虚假信息,谁来定义,不就是对他们不利的信息嘛,装什么装。
popguy

popguy      1 小时 33 分钟前

提问:百度百科上有虚假信息吗?
retrocode

retrocode      1 小时 31 分钟前

魔怔人真多, 晦气
zhoushengyue

zhoushengyue      1 小时 29 分钟前

你别说,我之前( GPT 1.0 之前,还多次在梦境里体验过那种一个个字蹦出来的梦,就是梦到我在读稿子,然后满稿纸的字看不清楚,但是一读起来就一个个字看清了,完全就是 GPT 的形式
xgfan

xgfan      1 小时 29 分钟前

虚假信息这个只是个幌子。
核心还是要“备案”那一套。
azui999

azui999      1 小时 15 分钟前

那么.什么是真实呢.
i386

i386      1 小时 13 分钟前

纯技术问题:LLM 怎么自证符合社会主义价值观?
hahiru

hahiru      56 分钟前

这属于形式条款。既你可以不遵守,一般没事也不会追究。但是一旦有事秋后算账的时候必须得有白纸黑字往里放。
insmoin

insmoin      51 分钟前

最后 AI 变成打太极的高手, 知道答案也不给你答案
starqoq

starqoq      49 分钟前

《早该管管了》
《失去监管的 AI 必将走向歧途》
《红色价值观入脑入心走进 AI ,论坚持社会主义价值观在 AICG 中的重要性》
yankebupt

yankebupt      48 分钟前

这条也许确实很过分,对于 LLM 来说,但是……

"
"熊猫吃短信"( PandaOCR )是一款中文光学字符识别( OCR )软件,主要用于识别图片中的文本。该软件使用的文本识别模型可能是基于深度学习的开源 OCR 引擎,如 Tesseract 或 PaddleOCR 。
"
-- by ChatGPT 4


确实有 PandaOCR 这个软件,但不是一个软件啊……
AI 我觉得还是应该知道改编不是胡编的……汗……

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK