3

AI会“说谎”?专家:相比技术失控,更要防止利用人工智能作恶

 1 year ago
source link: https://www.163.com/dy/article/I2C0A8GN05198CJN.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

AI会“说谎”?专家:相比技术失控,更要防止利用人工智能作恶|乔纳森|大模型|自动驾驶|埃隆_马斯克|openai_网易订阅

上海市人工智能行业协会秘书长钟俊浩向《科创板日报》表示,比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’。 防止人工智能作恶,关键在于控制背后的人。

?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F0415%2F19755d9aj00rt4xkc008gc000ec0096g.jpg&thumbnail=660x2147483647&quality=80&type=jpg

《科创板日报》4月15日讯 (实习记者 谭海燕) 国家互联网信息办公室近日起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),旨在促进生成式人工智能技术健康发展和规范应用。《征求意见稿》出台的背景,ChatGPT出圈后,以大模型为底座的人工智能在全球范围的爆火,由此引发了社会各界对于生成式人工智能安全与伦理隐私风险的担忧

上海市人工智能行业协会秘书长钟俊浩向《科创板日报》表示,比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’。 防止人工智能作恶,关键在于控制背后的人。

能够像人类一样对话的AI,会给社会带来什么风险,是否将取代人类?当赛博朋克电影中老生常谈的命题急风骤雨般映入现实,科技革命加速正在进行时,我们是否准备好迎接以ChatGPT为首的强大人工智能系统带来的挑战?

?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F0415%2Fca24bd0ej00rt4xkc00gjc000sk00i2g.jpg&thumbnail=660x2147483647&quality=80&type=jpg

▍AI可能会“说谎”,还会“传染”?

据外媒报道,在一份让ChatGPT生成曾有过性骚扰他人历史的法律学者名单中,法学教授乔纳森·特利 (Jonathan Turley) 位列榜上。ChatGPT援引媒体2018年3月的一篇文章作为信源,并且给出了引文详尽细节,指出“乔治城大学法律中心教授乔纳森·特利被一名以前的学生指控性骚扰”。最后,被援引的媒体现身辟谣:这篇文章根本不存在,特利本人也并未在ChatGPT所说的大学工作过。

在人类社会,面临这样的“谣言”,常见的处理方式是要求对方停止散播谣言,运用法律手段等手段维权,但在AI世界,处理人工智能“造谣”并不那么容易,这样的“谣言”还可能出现“机传机”现象,信息溯源难加之传播速度快,带来了潜藏的风险。

在由GPT-4提供支持的微软Bing上重复了“有性骚扰历史的法律学者”问题,Bing重复了对于特利的错误论述,但在消息来源中引用了相关媒体的报道,概述了特利被ChatGPT“诬告”的过程。有评论认为,这表明了错误信息会由一个人工智能传递至另一个人工智能。

几乎在同一时期,澳大利亚一区市长向OpenAI“宣战”——称如果ChatGPT不纠正对他的虚假指控,他将起诉OpenAI公司,如果他提起诉讼,那么这将是全球首例针对生成式AI诽谤诉讼。澳大利亚墨尔本西部赫本郡的市长布赖恩•胡德(Brian Hood)并未真的遭到任何指控,但在ChatGPT的论述中,他“曾因贿赂入狱服刑”。胡德的律师团队与3月21日向OpenAI发出关注信,让对方在28天修改对于胡德的错误描述,否则将提起诉讼。

▍人工智能“造谣”完全可以避免

针对人工智能侵权追责,上海市人工智能行业协会秘书长钟俊浩在接受《科创板日报》采访时指出,追责大概率会成功,从技术层面而言,人工智能“造谣”完全可以避免,大型语言模型(LLM)不光能通过模型、基于过去的经验自动生成内容,也能基于靠谱的互联网文本源,重新整理并生成新的内容,“无非是后者的响应时间会长一点,运算的过程要多绕一些弯路,但是更靠谱。类比自动驾驶,技术上其实早已基本实现L5了,但是目前只允许低于L3的上路,技术应该在可控范围逐步推广。”

实际上,3月15日,OpenAI正式发布了升级后的GPT-4,官网于4月5日公布了安全地构建、部署和使用 AI 系统的策略,内容安全测试显示,GPT-4的得分比此前的模型GPT-3.5高40%。实际上,在OpenAI官网使用条款中就有对于ChatGPT准确性的论述,“在某些情况下使用我们的服务可能会导致输出不正确,无法准确反映真实的人物、地点或事实。您应该根据您的情况评估任何输出的准确性,包括对输出进行人工审查。”官网4月5日公布的AI安全策略提到,当用户注册使用ChatGPT时,官网关于准确性的论述尽可能做到透明,以避免 ChatGPT 可能给出错误回复。

?url=http%3A%2F%2Fdingyue.ws.126.net%2F2023%2F0415%2Fcfa35349j00rt4xkc0078c000ic00abg.jpg&thumbnail=660x2147483647&quality=80&type=jpg

两起“谣言”并非ChatGPT及其所有者OpenAI第一次陷入舆论风暴中,3月20日起,陆续有用户反映在聊天记录中显示了其他人的 ChatGPT 聊天对话。针对事件,OpenAI于3月25日在推特上发文解释,称“数据被泄露给其他人的用户数量极少,已经联系可能受到影响的用户”,表明了积极处理问题的态度。

生成式人工智能加速中,社会各界表示了对高速发展的AI2.0的担忧。3月底,未来生命研究所发表题为“暂停巨型AI实验”的公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统至少6个月,包括辛顿、马库斯和马斯克在内的上千位知名企业家、学者签署了这封公开信。

▍重点要防止利用人工智能作恶

在国内,人工智能技术的使用与管理更是“谨小慎微”。《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务深度合成管理规定》《互联网信息服务深度合成管理规定》等法律、法规均有针对信息技术管理相关规定,如《互联网信息服务深度合成管理规定》规定,AI合成平台必须要求内容创作者实名认证,监督创作者标明“这是由AI合成”类标识,以免误导公众;在提供“换脸”技术前,应该征得“被换脸”者的同意;完善数据管理、保障个人信息安全等。

上海市人工智能行业协会秘书长钟俊浩解释了目前可能由大模型人工智能系统带来的风险,包括知识产权风险、数据安全风险、内容滥用风险等,马斯克等人的联名信更是“一石激起千层浪”,目前针对人工智能2.0的态度整体上可以分为“暂停半年派”、“拥抱未来派”和“彻底封禁派”等。4月11日国家网信办公布的《征求意见稿》是国内有关生成式人工智能的第一个管理条例。在他看来,《征求意见稿》最大的意义在于通过规章确定“生成式人工智能”的规范名称,并强调了国家对人工智能技术和产业持鼓励的态度。

钟俊浩向《科创板日报》记者表示,《征求意见稿》并不是简单叫停,而是通过科技风险的认知和研判,建立更良性健康的发展路途和管控方式,探寻可以接受的研究和创新,“比起失控的技术,更有可能失控的是用技术来为非作歹的‘人’。比如,恶意使用者可能会利用ChatGPT来制造虚假信息、实施欺诈活动或进行其他不道德行为。防止人工智能作恶,关键在于控制背后的人。 ”**

目前,国内各个大厂正在铺设自家AI大模型上“开卷”,百度的“文心一言”、阿里的“通义千问”、王小川的“百川智能”、商汤科技的日日新SenseNova大模型、昆仑万维的大语言模型“天工”3.5纷纷加入人工智能赛道。

“(针对人工智能的规范)需要不停追赶AI发展的脚步,掌握行之有效的监管能力”,钟俊浩提到。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK