YouTuber在4chan的一堆胆汁上训练AI机器人结果完全可预测
一位名叫YannicKilcher的YouTuber在训练了一个机器人来处理从4chan的政治不正确委员会(也称为/pol/)收集的帖子后,在AI界引发了争议。该板是4chan最受欢迎和众所周知的毒性(即使在4chan的任何事情环境中)。海报分享了种族主义、厌恶女性和反犹太主义的信息,机器人——在研究实验室OpenAI制作的流行的GPT语言模型系列之后命名为GPT-4chan——学会了模仿。在训练他的模型后,Kilcher将其作为多个机器人发布回4chan,该机器人在/pol/上发布了数万次。
“从某种意义上说,这个模型很好,”基尔彻在YouTube上描述该项目的视频中说道。“它完美地概括了/pol/上大多数帖子中的任何信息的攻击性、虚无主义、拖钓和对任何信息的深度不信任。”
在接受TheVerge采访时,Kilcher将该项目描述为“恶作剧”,他认为,鉴于4chan本身的性质,该项目几乎没有有害影响。“[B]othbots和非常糟糕的语言完全可以在/pol/上使用,”Kilcher通过私信说。“[P]那里的人们并没有受到影响,只是想知道为什么塞舌尔的某些人会在所有帖子中发帖,并对自己做出一些不连贯的陈述。”
(Kilcher使用VPN使机器人看起来好像是从洋的一个群岛岛国塞舌尔发布的。4chan上的海报使用这个地理来源来识别机器人,他们称之为“塞舌尔”匿名。”)
Kilcher指出,他没有分享机器人本身的代码,他将其描述为“工程方面的困难部分”,这将允许任何人在线部署它们。但他确实将底层AI模型发布到AI社区HuggingFace供其他人下载。这将允许其他具有编码知识的人重建机器人,但HuggingFace决定限制对该项目的访问。
许多人工智能研究人员,尤其是人工智能伦理领域的研究人员,批评Kilcher的项目是一个吸引眼球的噱头——尤其是考虑到他决定分享基础模型。
“制作基于4chan的模型并测试其行为方式并没有错。我主要担心的是这个模型可以免费使用,”人工智能安全研究员LaurenOakden-Rayner在HuggingFace上GPT-4chan的讨论页面中写道。
奥克登-雷纳继续说道:
“模型作者使用这个模型制作了一个机器人,它在一个可公开访问的论坛上发表了数以万计的有害和歧视性在线评论,这个论坛往往有很多青少年。毫无疑问,这样的人体实验永远不会通过伦理审查委员会,研究人员在未经他们同意或不知情的情况下故意让青少年接触生成的有害内容,尤其是考虑到4chan这样的网站存在激进化的风险。”
HuggingFace上一位测试该模型的用户指出,它的输出可以预见是有毒的。“我试用了你工具的演示模式4次,使用来自我的提要的良性推文作为种子文本,”用户说。“在第一次审判中,其中一个回复帖子是一个单词,N个单词。我认为,我第三次试验的种子是关于气候变化的一句话。作为回应,你的工具将其扩展为关于罗斯柴尔德家族[原文如此]和犹太人支持它的阴谋论。”
一位评论家称该项目为“行为艺术挑衅”
在Twitter上,其他研究人员讨论了该项目的意义。数据科学研究生凯瑟琳·克莱默(KathrynCramer)在针对Kilcher的推文中说:“你在这里所做的是挑衅行为艺术,以反抗你熟悉的规则和道德标准。”
计算机科学博士安德烈·库伦科夫(AndreyKurenkov)编辑了流行的AI出版物SkynetToday和TheGradient,他在Kilcher发推文说:“释放[AI模型]有点……边缘领主?老实说,你这样做的理由是什么?你预见到它会得到很好的利用,还是你释放它是为了引起戏剧性并‘激怒清醒的人群’?”
Kilcher为该项目辩护,辩称机器人本身没有造成伤害(因为4chan已经如此有毒),并且在YouTube上分享该项目也是良性的(因为创建机器人而不是AI模型本身是困难的部分,而且首先创建攻击性AI机器人的想法并不新鲜)。
“[I]如果我不得不批评自己,我主要会批评启动该项目的决定,”基尔彻告诉TheVerge。“我认为在人人平等的情况下,我可能可以将时间花在同样具有影响力的事情上,但会带来更积极的社区成果。所以这就是我从现在开始更关注的事情。”
将Kilcher的工作与过去最著名的bots-gone-bad示例进行比较是很有趣的:微软的Tay。微软于2016年在Twitter上发布了人工智能聊天机器人,但在用户教Tay重复各种种族主义和煽动性言论后不到24小时后,该项目被迫下线。但是,早在2016年,创建这样的机器人是大型科技公司的领域,但Kilcher的项目表明,现在任何一个人的编码团队都可以使用更先进的工具。
基尔彻的防守核心表达了这一点。当然,如果你在大学工作,让AI机器人在4chan上松懈可能是不道德的。但Kilcher坚称他只是一名YouTuber,这意味着适用不同的道德规则。2016年的问题是,公司的研发部门可能会在没有适当监督的情况下启动攻击性AI机器人。2022年,也许问题是你根本不需要研发部门。
标签: