讲个笑话——以后做梦,要求内容应当真实准确,采取措施防止生成虚假信息。
source link: https://www.v2ex.com/t/931819
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
《生成式人工智能服务管理办法(征求意见稿)》 (四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
dqzcwxb 6 小时 3 分钟前 18 所以你认为虚假信息是你需要的?
|
SoviaPhilo 5 小时 57 分钟前 按照生成式 AI 的概率算法的玩法, 它的生成内容的真实准确性基本上就是 假阳性和假阴性的取舍
追求真实准确,意味着宁可不输出也不能有未经核实过的内容 最后结果就是干脆就不输出了 |
AManOnShelf 5 小时 55 分钟前 立个 flag:LLM 会产生虚假信息是包括 openAI 在内的所有公司都解决不了的问题。
上一个遇到类似问题的是基于 CNN 的自动驾驶算法。五六年过去了,大部分公司都放弃了 L5 级自动驾驶的研发,基于 LLM 的 AI 们也逃不过这一结局。 |
shnehna 5 小时 53 分钟前 怎么说呢,其实虚假信息也是真实的虚假信息,所以这也算真实准确的。
|
aptupdate 5 小时 53 分钟前 |
dqzcwxb 5 小时 52 分钟前 5 @ljrdxs #4 生成式 AI 生成什么不可控,但是输出内容是可控的
chatgpt 不也屏蔽了一大堆敏感内容,所以 chatgpt 都已经做到了的事情为什么你会觉得"非常"有难度? |
vrocker2048 5 小时 51 分钟前 控制模型生成的内容比训练模型本身还难
|
PalenessIb 5 小时 48 分钟前 9 没啥好评论的,国家整体是大进步了,但只要一牵扯到意识形态,“有关部门”一些人的脑袋还停留在上世纪,动辄整出些类似“美国禁酒令”令人啼笑皆非的蠢事来。
|
ljrdxs 5 小时 47 分钟前 @dqzcwxb 一、屏蔽内容,都是建立在用户发现、闹大基础上。按这法规,早就把 chatgpt 罚到完蛋了!
二、现在 chatgpt 生成的内容绝对准确?照样有数不清的“虚假信息”,只是用户还没发现,或者发现了但不闹大。比如问他文学作品里的内容,多少错误?按这法规,不照样把 chatgpt 罚到完蛋? 还“已经做到”,呵呵呵。 |
libook 5 小时 46 分钟前 20 https://www.ftc.gov/business-guidance/blog/2023/03/chatbots-deepfakes-voice-clones-ai-deception-sale
> If you decide to make or offer a product like that, take all reasonable precautions before it hits the market. 漂亮国限制这种行为就是自由先进,中国做一样的事情就是笑话。 |
yolee599 5 小时 44 分钟前 那还要 AI 干嘛?把搜索引擎做好就可以了啊
|
haha512 5 小时 43 分钟前 9 重点不在这,百度上、各平台上,甚至各种官方通告 虚假信息还少吗,他们真不知道吗?
重点是“AI 要有党性,将政治,符合社会主义核心价值观” |
gaolycn 5 小时 41 分钟前 via Android "采取措施防止生成虚假信息",这句话一点问题也没有,即使不要求,这个也是必然及已经在做的。
|
imaxwell 5 小时 39 分钟前 1 认同 @ljrdxs 的观点, AIGC 即便训练的时候所有的材料都是真实的,也不代表不会生成不真实的信息,因为生成什么东西就是个概率问题,生成了之后,辨别真假也没那么简单,要不然也不会有“时间是检验真理的标准”的大讨论了。这个要求,真正要落实,只有一个办法,人工审核,审核员担责。
|
ScepterZ 5 小时 37 分钟前 就这么一写而已,又不会按照这个执行,这东西还能比法律更严吗
|
assiadamo 5 小时 33 分钟前 国内基本上就蹭个热度,不会真去做的
人工智能企业,大多是人工 |
yvescheung 5 小时 31 分钟前 40 |
SoviaPhilo 5 小时 29 分钟前 某种意义上来说, 大力监管 AIGC 模型实际上是有利于创造就业的
毕竟 OpenAI 可是花十美元的时薪找黑叔叔帮忙处理训练数据。 大陆完全可以按十软的钱雇佣待就业的青年, 甚至顺便还解决了就业问题。 然后不提供就业的就不给备案, 闭环了妥妥的 |
dcsite 5 小时 29 分钟前 1 @dqzcwxb
1 、GPT 做到了屏蔽虚假内容了吗? 2 、GTP 做到了符合美国资本主义核心价值观了吗? 3 、AI 是什么意思你知道吗?人工智能不能有虚假信息? 4 、提交征求意见有用吗?程序不透明,就是浪费时间 |
AbysmalSorrow 5 小时 29 分钟前 via Android 6 以后 AI 要用刁语录训练,保证无虚假信息,同时为世界 AI 发展指明方向
|
cedoo22 5 小时 28 分钟前 1 AI 实名制, 解决不了技术问题就解决人。
|
atuocn 5 小时 28 分钟前 这条没什么好喷的。作为实验研究项目你随便搞。但 AI 生成内容已经开始进入社会服务面,虚假内容生成影响面太大。生成内容很快会占领社交平台、自媒体、软文、甚至新闻。你不会希望浏览的信息充斥着 AP 生成的真假莫辨的内容吧。尤其是一本正经的胡说八道,如果你对这个领域不是专家,也许真会蒙骗。人类的谣言都会久传成真,基因生成的虚假内容又反复生成呢。现在充斥着垃圾信息网络已经在拉低智商了,还要引入一个强力灌水机器吗。
|
decade1024 5 小时 23 分钟前 2 @dqzcwxb "《生成式人工智能服务管理办法(征求意见稿)》 这里有个 征求意见稿 几个字,说明你可以去提交你需要的内容,比如你喜欢假的"。
《说明你可以去提交你需要的内容》???你这个笑话要比楼主说的笑话好笑得多得多了,真把自己当公民了吗? |
xxmaqzas 5 小时 22 分钟前 1 以后 AI 入党,发展 AI 党员
|
zapper 5 小时 18 分钟前 做美国梦才会有虚假信息,中国人就做中国梦(狗头
|
yfwo 5 小时 16 分钟前 3 |
mazyi 5 小时 15 分钟前 @atuocn 虚假的内容是需要监管,但是需要一个更加好的办法,而非现在办法里的一句话。这句话既没有给出明确清晰的定义,什么样的信息是虚假信息、也没有给出清晰的需要采取的行动,是完全不能出现,还是提醒可能是虚假的,还是用概率来标明虚假的可能性、同时也没有讲如果出现了这样的情况,会有什么样的后果,是处罚,还是关闭,还是其他。总的来说,这就是一个占坑的
|
yxcoder 5 小时 11 分钟前 很奇怪,为啥发布个《管理办法》,这么多人高潮了,我寻思这 “真实准确” 难道不是应该的吗?有人告诉你要吃饭,你非说要自由要去吃屎?
|
yfwo 5 小时 10 分钟前 1 @dcsite 想让 GPT4/3.5 讲美国政治不正确的观点是很难的,即便你绕的 GPT 逻辑混乱之后,也很难让它说一句事实正确但政治不正确的话。
说明 GPT 真的可以贯彻美国核心价值观。 感觉这也是 openAI 目前非常领先的领域。 |
xumng123 5 小时 3 分钟前 via iPhone 要客观,不要说真假,本身真假难辨,谁来决定真假?
|
leedarmau 5 小时 3 分钟前 11 @dqzcwxb 因为秦国不能说的内容经常变啊,我都不用说远的,就说封控,一夜之间立场大反转,你告诉我怎么让 AI 跟随总路线一起摇摆?
再说远一点的,当时还在称赞江胡、胡 X 权力交接开创了好的先例,同样的文本现在还能输出? AI 再称赞一个试试? 再远一点,历史课本上对袁项城的评价都是负面的,AI 也会学到这一点。现在呢?秦国社交平台上你都不能用袁项城当昵称了。 就这种朝令夕改、浑身 G 点、万物皆可乳化的地方,你说“有什么难度”? |
persistz 5 小时 3 分钟前 4 作为 AI 从业者,不觉得这一条很过分啊,为什么都对这条意见这么大...
|
zqlcrow 4 小时 58 分钟前 5 谁能保证真实准确呢?谁来定义真实准确呢?
最终的意思其实是:内容应当听我的。 1 、比如鸿蒙与 Android 无关,真实准确了吗? 2 、比如一些抗日战役,几次更改数据,真实准确了吗? 3 、比如共产主义一定会实现,真实准确吗? 世界不是非黑即白,世间的事情,也不像应试教育,有个标准答案。 很多东西,本身就是模糊的,比如 3 ,本身就只是观点。 |
idealhs 4 小时 56 分钟前 1 @libook 这篇文章讨论了使用人工智能来制造或传播欺骗的问题,并提出了一些解决方案。由于使用人工智能的工具可以快速而廉价地生成逼真但假的内容,并将其传播给大群体或针对某些社区或个体,它们已经成为一个新的威胁。然而,尽管一些这样的 AI 工具具有益处,但欺诈者也可以使用它们来造成广泛的伤害。文章呼吁企业应该考虑使用这些工具的道德问题,并注意合理预见可能被用于欺诈或造成其他损害的方式。在这些工具上市前,企业应该采取合理预防措施,对减轻风险负责。文章还提醒广告商要避免用深度伪造或聊天机器人来误导消费者。虽然文章重点是欺诈和欺骗,但这些新的 AI 工具也存在其他问题,例如可能导致儿童、青少年和其他易受此类工具影响的群体遭受潜在伤害。
不是一个东西也能贴出来比?还是得是国内的劲大 |
yfwo 4 小时 55 分钟前 1 @dcsite 就是政治正确那一套:
你不做 AI 吧?搜搜为什么 CSAIL 的 Tiny Images 为什么下架,Yann Lecun 为什么退出 twitter 。 只要处理不好这些政治正确,保证 chatGPT 上线三天就能下架。 |
zqlcrow 4 小时 54 分钟前 12 所谓的禁止谣言,带来了什么?
没有带来真相,带来了强权。 有一次印象很深。 某人指责京东 xxx ,京东说没有。 微博:认定这是谣言。 ---------------- 老爷升堂,堂下草民状告何人? 草民:小人有冤,告赵举人欺男霸女。 老爷转头:赵举人,有这回事吗? 赵举人:没有的事。 老爷:大胆刁民,诬告赵举人,打 30 大板! ---------------- 可喜可贺。 真相大白。 |
Hellert 4 小时 48 分钟前 via Android AI 里面成立党支部就解决了
|
id80108900 4 小时 32 分钟前 总有低屄看不懂中文。
楼主开头就讲了『笑话』, 梦境不是『假』的,难道还是真的? 纯属偷换概念,故意找茬(引战)。 该拉黑就拉黑,别浪费时间。 |
jellybool 4 小时 29 分钟前 @yvescheung 这种东西你反过来看就行。
|
estk 4 小时 18 分钟前 via iPhone |
NoOneNoBody 4 小时 17 分钟前 某 AI: @dqzcwxb 说得对
那么,这个生成算虚假还是真实?如何判断?谁来判断? 还是那句话,聊天性质的话,每个人每句话都是真话?问答性质的话,好像也不是每个答案都是真实准确的,就连人民日报也发过假消息啊 4046 年也不能杜绝 AI 说假话,因为“真善美”的标准是随着时代发展的,4046 也有 4046 的假话 |
debuggerx 4 小时 7 分钟前 2 如果不能保证准确性,那么这个生成式 AI 就只能作为“玩具”,可问题是很多人不把 AI 当玩具,或者在信息传递的过程中逐渐以假乱真,这是很大的问题,尤其是现阶段生成式 AI 的最大追求就是“不保证准确性,但尽量表达得像真的”——其实这是很可怕的事情,甚至可以轻易摧毁现有的互联网,乃至影响到人类的社会生活。
比如你觉得用 AI 就是图一乐,或者你可以分辨 AI 给出的内容是不是准确的。但是,一旦有人直接把 AI 生成的内容用于正式途径发布,或者有人直接让 AI 伪装成真人去输出内容,后面接收到这些信息的人在不知道信息是 AI 创作的前提下做出了错误的判断,所造成的后果应该由谁来承担? 所以个人非常认同这一条。 整个管理办法在我看来确实不咋样,但是这一条,以及后面的: [第十九条 提供者发现用户利用生成式人工智能产品过程中违反法律法规,违背商业道德、社会公德行为时,包括从事网络炒作、恶意发帖跟评、制造垃圾邮件、编写恶意软件,实施不正当的商业营销等,应当暂停或者终止服务。] 确实相当有必要。 本以为 AI 可以提高生产力,可以解放真人,结果最后变成信息都产生自 AI ,真人却要疲于分辨信息的正确性准确性,这是不是很讽刺? |
seanhuai 4 小时 0 分钟前 1 征求意见中不去提意见,指斥别人是外宾,不知自己是外犬。
|
brader 3 小时 56 分钟前 特色啊,以后国内的 AI ,是不是得先接受九年义务教育
|
EscYezi 3 小时 56 分钟前 via Android 防止生成虚假信息,如果能做到的话那不就是百分之百准确的 AI 了,这有点太理想化了。
我只能想到“不说话就不会说错话” |
kop1989smurf 3 小时 56 分钟前 @libook #17 解释这个没有意义。他们只在乎情绪,这种标题下的事实与逻辑没人关心的。
不要浪费时间。 |
NSAtools 3 小时 54 分钟前 国内大模型都要加上“思想钢印”
|
RageBubble 3 小时 51 分钟前 对俺来说其实无所谓,反正俺不会用国内的 AI 。俺也不期待国内以后能拆掉那伟大的墙,毕竟俺又不是第一天当中国人。
|
twl007 3 小时 49 分钟前 via iPhone 为啥这么多外宾?
|
mwVYYA6 3 小时 48 分钟前 via Android @RageBubble 你的语气很随想(手动狗头)
|
nosmile 3 小时 47 分钟前 1 祝愿楼主宝贵的时间,能够被用到更健康的方面。
|
EscYezi 3 小时 46 分钟前 via Android 防止 AI 生成的虚假信息被滥用还比较现实一点,使用者至少有自己分辨是否真实的责任吧
|
Nerv 3 小时 46 分钟前 1 重要的是准确与否的标准是他们定的
|
imaxwell 3 小时 25 分钟前 via Android 做梦是日有所思,夜有所梦,若干天的沉淀和输入,自动不可控地输出梦境内容; aigc 也是长时间大量输入各种语料文本和图像,人工训练和反馈,然后让其自动根据提示来生成内容,生成内容相关但不可控。说做梦一定是假的人,真的注意到这个类比的内涵了吗?
|
NoOneNoBody 3 小时 24 分钟前 |
chenyu0532 3 小时 12 分钟前 个人觉得这个管理办法没毛病,
|
muchengxue 3 小时 2 分钟前 @dcsite 肤色平等,不用考虑历史真相,随意演。
|
timethinker 2 小时 48 分钟前 如果一个 AI 知道什么话该说,什么话不该说,那么这个 AI 到底是什么来头?他怎么提前知道哪些东西不该说的?
|
NoOneNoBody 2 小时 37 分钟前 从条文看,AI 小说、AI 辅助创作电影、AI 作曲作词、AI 虚拟偶像等等好像都符合“生成式人工智能”的定义 ……
有些场合是很好的,例如有人用 deepfake 换脸,把无关的普通人脸换到 porn 影像上,应该阻止 但涵盖面太大,变成“万有(罪)定律”就值得斟酌了 |
Biluesgakki 2 小时 33 分钟前 不过确实不用担心 1.国内不会出 chatGPT 这种 ai 2.以后肯定得继续翻墙用国外的 ai
国内的 ai 随便烂,反正我又不用 。 |
reayyu 2 小时 27 分钟前 via Android 外行领导内行 见怪不怪了
|
l2d 2 小时 15 分钟前 2 ------------
报刊(整个新闻业都属于这一范围)的编辑应当由完全正派可靠的人担任。检查令首先指出“学术才能”是这种完全正派可靠的品格的保证。至于书报检查官究竟能不能具有对各种各样学术才能作出判断的学术才能,检查令对这一点没有提出丝毫怀疑。既然在普鲁士有这么一批 zf 所熟悉的万能天才(每个城市里至少有一个书报检查官),那么,这批博学多才的人物为什么不以作者的身分出现呢?要是这些因人数众多、更因博学多才而显得声势浩大的官员们一旦崛起,用自己的声势去压倒那些仅仅用某一种体裁写作、而且连用这种体裁写作的才能也未经官方验证的可怜作者们,那么,这就会比用书报检查更快地消灭报刊中的一切混乱现象。这些老谋深算的、像罗马的鹅一样只要嘎嘎叫几声就可以挽救卡皮托利诺山的人们,为什么一声也不响呢?这些人实在太克制了。他们在学术界无声无臭,但是 zf 了解他们。 可是,假如这些人真正是一些哪一个国家也找不出来的人才(因为任何国家都没有见过完全由万能的天才和博学的才子组成的整个阶级),那么,挑选这些人才的人所具有的天才又该比他们高出多少啊!为了证明在学术界无声无臭的官员们的确有万能的学术才能,这些挑选者又该具有多么神秘的法术啊!我们在这种博学多才的官僚的阶梯上登得越高,接触到的人物也就越令人惊奇。一个拥有一批完善的报刊作为支柱的国家,是不是值得把这些人才变成一批有缺点的报刊的看守人呢?使一种完善的东西沦为对付不完善的东西的工具,这样做是不是适当呢? 你们所任命的这种书报检查官的人数越多,新闻出版界改进的机会就越少。你们把自己军队中身强力壮的汉子抽调出来,使他们成为不健康者的医生。 ------------- ——《评普鲁士的书报检查令》马克思 |
frankies 2 小时 9 分钟前 via Android 好家伙,让虚假信息防止自己生成虚假信息是吧?
那么请问如何定义虚假信息? |
sharpy 2 小时 8 分钟前 如果我们自己的 ai 能发展起来,说明我们已经解决这个问题,我们的技术遥遥领先。
如果我们自己的 ai 发展不起来,那么掌握符合美国核心价值观的诸如 ChatGPT 之类的 ai 工具可能会是一个比较亮眼的求职能力,那我赢了。 总之,这只是一个大赢,还是中赢,还是小赢的问题。 |
zhchyu999 2 小时 6 分钟前 欧洲绅士们禁止使用 ChatGPT 怎么看
这一条有什么错误么,有什么好笑的么 讲个笑话,有些人喜欢将当下的政策无限放大,并自以为可笑的把自己当一个笑话 |
yummysakko 1 小时 51 分钟前 跟真不真有关系吗?关键是别说出不利于朝廷的话
|
ericwoflskin 1 小时 41 分钟前 7 这帖简直就是个大型装外宾表演现场,五毛们各种装傻充愣,从各种角度洗地,说不过还阴阳怪气的怼你。
这玩意不就是 AI 版的言论审查吗,什么叫虚假信息,谁来定义,不就是对他们不利的信息嘛,装什么装。 |
popguy 1 小时 33 分钟前 提问:百度百科上有虚假信息吗?
|
retrocode 1 小时 31 分钟前 魔怔人真多, 晦气
|
zhoushengyue 1 小时 29 分钟前 你别说,我之前( GPT 1.0 之前,还多次在梦境里体验过那种一个个字蹦出来的梦,就是梦到我在读稿子,然后满稿纸的字看不清楚,但是一读起来就一个个字看清了,完全就是 GPT 的形式
|
xgfan 1 小时 29 分钟前 虚假信息这个只是个幌子。
核心还是要“备案”那一套。 |
azui999 1 小时 15 分钟前 那么.什么是真实呢.
|
i386 1 小时 13 分钟前 纯技术问题:LLM 怎么自证符合社会主义价值观?
|
hahiru 56 分钟前 这属于形式条款。既你可以不遵守,一般没事也不会追究。但是一旦有事秋后算账的时候必须得有白纸黑字往里放。
|
insmoin 51 分钟前 最后 AI 变成打太极的高手, 知道答案也不给你答案
|
starqoq 49 分钟前 《早该管管了》
《失去监管的 AI 必将走向歧途》 《红色价值观入脑入心走进 AI ,论坚持社会主义价值观在 AICG 中的重要性》 |
yankebupt 48 分钟前 这条也许确实很过分,对于 LLM 来说,但是……
" "熊猫吃短信"( PandaOCR )是一款中文光学字符识别( OCR )软件,主要用于识别图片中的文本。该软件使用的文本识别模型可能是基于深度学习的开源 OCR 引擎,如 Tesseract 或 PaddleOCR 。 " -- by ChatGPT 4 确实有 PandaOCR 这个软件,但不是一个软件啊…… AI 我觉得还是应该知道改编不是胡编的……汗…… |
Recommend
About Joyk
Aggregate valuable and interesting links.
Joyk means Joy of geeK