0

YouTuber用4chan政治不正确版的内容训练AI,让AI冒充人类在该版块大量发帖

 1 year ago
source link: http://jandan.net/p/111346
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

tRNS 经颅随机噪声刺激可以提高认知和专注能力第一只有记载的会捕鱼的狐狸

majer @ 2022.09.29 , 18:21

12

YouTuber用4chan政治不正确版的内容训练AI,让AI冒充人类在该版块大量发帖

名叫Yannic Kilcher的YouTuber,利用4chan的 政治不正确 版块(也称为 /pol/)的内容训练AI,引发了争议。

/pol/是 4chan 最受欢迎和臭名昭著的版块。里面充斥着种族主义、厌恶女性和反犹太主义,机器人——基于OpenAI的GPT语言模型——学习并掌握了该版用户的语言风格。

Kilcher让多个机器人账号在 /pol/ 上发布了数万条信息,用于检验机器学习的成果。

“这个模型很好。但从某种意义上说,”Kilcher在 YouTube视频中说道,“它完美地概括了 /pol/ 上大多数帖子中的攻击性、虚无主义、钓鱼行为和对任何信息的深度不信任。”

在接受The Verge采访时,Kilcher 将该项目描述为“恶作剧”,他认为,鉴于4chan本身的性质, “那里的人们并没有受到影响,只是想知道为什么塞舌尔的用户为经常打不出连贯的英语句子。”

(Kilcher 使用 VPN 使机器人看起来是来自印度洋的岛国塞舌尔。4chan 使用这个地理来源来识别机器人,他们称之为“塞舌尔”匿名者。)

Kilcher 指出,他没有分享机器人本身的代码。但他确实将底层 AI 模型发布到 AI 社区 Hugging Face 供其他人下载。这将允许其他具有足够知识的人重建自己的机器人,Hugging Face决定限制对该项目的访问。

许多人工智能研究人员,尤其是人工智能伦理领域的研究人员,批评 Kilcher 的项目是哗众取宠的噱头。

其他研究人员在测试中,输入一段关于气候的新闻,机器人就把一句话扩充成罗斯柴尔德家族和犹太人的阴谋论。

在Twitter上,其他研究人员讨论了该项目的意义。数据科学研究生 Kathryn Cramer 在针对 Kilcher 的推文中说:“这是挑衅性的行为艺术,目的是反抗你熟悉的规则和道德标准。”

人工智能出版物 Skynet Today 和 The Gradient的制作者、计算机科学博士Andrey Kurenkov问道:“老实说,你这样做的理由是什么?是你预见到它会得到很好的应用,还是为了引起戏剧性的冲突和‘激怒觉醒的人群’?”

Kilcher为该项目辩护,辩称机器人本身没有造成伤害(反正那里是4chan),并且在 YouTube 上分享该项目也是良性的(因为创建机器人而非AI模型本身,才是困难的部分)。

比较Kilcher的作品与过去有名的bots-gone-bad的案例,是很有趣的:微软的Tay。2016年,微软上线了Tay,在互联网用户连续24小时向Tay连续灌输各种种族主义和煽动性言论后,项目被迫下线。

但是,在2016年,创建这样的机器人还是大型科技公司的领域,Kilcher的项目则表明,现在任何一个人都可以使用更先进的工具,做到2016年微软团队做到的事。

Kilcher 坚称他只是一名 YouTuber,这意味着适用不同的道德规则。 2016年的问题是,公司的研发部门可能会在没有适当监督的情况下启动攻击性AI机器人。到 2022 年,也许问题是你根本不需要研发部门。

https://www.theverge.com/2022/6/8/23159465/youtuber-ai-bot-pol-gpt-4chan-yannic-kilcher-ethics

赞一个 (19)


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK