微软允许企业访问OpenAI强大的人工智能语言模型GPT3
它是曾经被其创建者认为太危险而不能向公众发布的人工智能系统。现在,微软正在制作该程序的升级版本,即OpenAI的自动完成软件GPT-3,作为其Azure云工具套件的一部分提供给企业客户。
GPT-3是新一代AI语言模型最著名的例子。这些系统主要用作自动完成工具:向他们提供一段文本,无论是电子邮件还是一首诗,人工智能将尽最大努力继续所写的内容。然而,他们解析语言的能力也让他们能够承担其他任务,比如总结文档、分析文本情绪以及为项目和故事产生想法——微软表示其新的AzureOpenAI服务将帮助客户。
这是来自Microsoft的示例场景:
“体育特许经营可以为球迷构建一个应用程序,实时提供评论推理以及比赛亮点、亮点和分析的摘要。然后,他们的营销团队可以使用GPT-3的功能来制作原创内容,帮助他们为社交媒体或博客文章集思广益,并更快地与粉丝互动。”
GPT-3已经通过OpenAI出售的API用于此类工作。像Copy.ai这样的初创公司承诺,他们的GPT衍生工具将帮助用户修饰工作电子邮件和演讲台,而更多奇特的应用程序包括使用GPT-3来支持选择你自己的冒险文本游戏和假装是虚构的聊天机器人抖音网红。
虽然OpenAI将继续销售自己的GPT-3API以向客户提供最新升级,但微软对该系统的重新包装将针对需要更多支持和安全性的大型企业。这意味着他们的服务将提供“访问管理、专用网络、数据处理保护[和]扩展容量”等工具。
目前尚不清楚这会在多大程度上蚕食OpenAI的业务,但两家公司已经建立了紧密的合作伙伴关系。2019年,微软向OpenAI投资了10亿美元,并成为其唯一的云提供商(在人工智能研究的计算密集型世界中至关重要)。然后,在2020年9月,微软购买了独家许可,将GPT-3直接集成到自己的产品中。到目前为止,这些努力主要集中在GPT-3的代码生成能力上,微软使用该系统将自动完成功能构建到其PowerApps应用程序套件和VisualStudioCode编辑器中。
鉴于与GPT-3等大型AI语言模型相关的巨大问题,这些有限的应用程序是有意义的。第一:这些系统产生的很多东西都是垃圾,需要人工管理和监督才能区分好坏。第二:这些模型也一次又一次地被证明包含在他们的训练数据中发现的偏见,从性别歧视到伊斯兰恐惧症。例如,他们更有可能将穆斯林与暴力联系起来,并坚持过时的性别刻板印象。换句话说:如果您开始以未经过滤的格式使用这些模型,它们很快就会说一些令人讨厌的话。
微软非常清楚当这样的系统在公众中传播时会发生什么(还记得Tay,种族主义聊天机器人吗?)。因此,它试图通过引入各种保护措施来避免GPT-3出现这些问题。这些包括仅通过邀请授予使用该工具的权限;审查客户的用例;并提供“过滤和监控工具,以帮助防止不当输出或意外使用服务”。
但是,尚不清楚这些限制是否足够。例如,当TheVerge询问该公司的过滤工具究竟是如何工作的,或者是否有任何证据表明它们可以减少GPT-3的不当输出时,该公司回避了这个问题。
“我不想让个人或公司对它根据训练数据可能说的话负责”
华盛顿大学计算语言学教授艾米丽·本德(EmilyBender)撰写了大量关于大型语言模型的文章,她说微软的保证缺乏实质内容。“正如[Microsoft的]新闻稿中所指出的,GPT-3的训练数据可能包括'从粗俗语言到种族刻板印象再到个人识别信息的所有内容,'”Bender通过电子邮件告诉TheVerge。“我不想让个人或公司对它根据训练数据可能说的话负责。”
Bender指出,微软引入GPT-3不符合公司自己的AI道德准则,其中包括透明度原则——这意味着AI系统应该是可解释的和可理解的。尽管如此,Bender说,GPT-3训练数据的确切组成是一个谜,微软声称该系统“理解”语言——许多专家强烈反对这种框架。“让我感到担忧的是,微软为了销售这种产品而倾向于这种人工智能炒作,”本德说。
但尽管微软的GPT-3过滤器可能未经证实,但只要仔细选择客户,就可以避免很多麻烦。只要它们的输出经过人工检查,大型语言模型肯定是有用的(尽管这一要求确实否定了一些承诺的效率提升)。正如Bender所指出的,如果AzureOpenAI服务只是帮助编写“针对业务主管的通信”,那问题不大。
“老实说,我更关心为视频游戏角色生成的语言,”她说,因为这种实现可能会在没有人工监督的情况下运行。“我强烈建议任何使用这项服务的人都不要在没有提前进行广泛测试和人工参与的情况下以面向公众的方式使用它。”
标签: