发布时间:2021-09-08 00:52:52来源:人工智能学家
来源:AI科技评论
编译:陈彩娴、琰琰
近日,一篇名为“HowOpenAISolditsSoulfor$1Billion”(OpenAI是如何因为10亿美元出卖自己的灵魂)的文章在Reddit上引起了热议。
文章作者AlbertoRomero抨击知名的非营利机构OpenAI为了金钱而出卖自己原有的“为人类造福”宗旨。
OpenAI成立于2015年,创立之初便将自己定位为“非营利组织”,目标是以安全的方式实现通用人工智能(AGI),使全人类平等收益,而不是为公司的股东创造利润。
但在2019年,OpenAI违背了它的初衷,成为了一家名为“OpenAILP”的营利性公司,由一家名为“OpenAIInc”的母公司控制。这时,OpenAI成了一家有利润上限的机构,股东的投资回报被限制为不超过原始投资金额的100倍。也就是说,如果你投资1000万美元,你最多能得到10亿美元的回报。
OpenAI的结构改了之后,没几个月,微软就注资了10亿美元。而微软与OpenAI的合作关系,是基于一个重要前提,即微软有权将OpenAI的部分技术商业化,比如GPT-3与Codex。今年5月末,微软的官方网站便报道了他们用GPT-3的技术赋能内部商业产品,为用户服务:
微软新闻:https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
当OpenAI因金钱关系与大型商业公司达成合作协议,我们还能相信他们会信守承诺,从全人类的福祉出发来发展人工智能吗?亦或是,技术终将沦为资本的俘虏,情怀也难逃被出卖的命运?
1
金钱始终排在第一位
文章作者Alberto指出,OpenAI的技术野心,决定了它难逃要与资本合作的宿命。
作为一个高定位的人工智能研究实验室,OpenAI的雄心壮志要求它必须获取足够的资源支持,其中,金钱始终是排在第一位。比方说,去年夏天火热全网的GPT-3,在训练阶段就已花费了大约1200万美元:
GPT-3是一个大规模语言模型,光参数量就已达到1750亿。如果不寻求交易,他们很难获得这么雄厚的研究经费。所以,在他们意识到需要投资时,发现微软当时正等着给自己提供云计算服务,交换条件是微软届时能将它们尚未成熟的系统商业化。这时,一方可以获得计算资源,一方可以达到盈利,何乐而不为呢?
早在2020年2月,麻省理工科技评论的记者KarenHao就发表了一篇文章,探究了OpenAI与微软的合作。KarenHao在“Themessy,secretiverealitybehindOpenAI’sbidtosavetheworld”一文中明确指出,经过对OpenAI内部员工的数次采访,她发现OpenAI的公开宣称内容(实现通用人工智能、使人类平均受益)与内部的运营方式存在不一致之处。
新闻链接:https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/
为什么一家以造福全人类为基础的公司突然需要大量的私人资金?要知道,从创立之初,OpenAI就获得了马斯克、SamAltman与PeterThiel(Paypal创始人)等人10亿美元的私人投资。OpenAI从非营利到营利的转变,不仅引起了公众舆论的不解,也在公司内部遭到了批评。
艾伦人工智能研究所的所长OrenEtzioni在得知微软注资OpenAI时,当时即表示怀疑态度,称:“我不同意非营利组织不具备竞争力的观点……如果规模更大、资金更多就代表(这个机构)会发展地更好,那IBM就不会被挤下第一名的位置。”
ViceNews的知名撰稿人CarolineHaskins也认为,OpenAI已经违背了他们当初的使命:“(我们)从来没有试过靠风险投资者来改善人类的命运。”
我们不得不承认,OpenAI将研究重点放在需要由更大算力与更大数据驱动的神经网络上,这必然需要很多金钱。但是,Alberto也指出,如OrenEtzioni所言,金钱并不是取得最先进的AI成果的唯一途径。更多时候,你需要的是极富创造性的想法,而不是靠堆更多的算力,或更多的数据。
2
OpenAI是如何沦落的?
GPT-2与GPT-3的诞生
2019年初,已经成为营利性公司的OpenAI发布了一个强大的语言模型——GPT-2,能够生成达到人类水平的文本。尽管GPT-2在当时是一个巨大的飞跃,但也有许多研究人员将其比喻为一只“危险的怪兽”,无法与大众共享。比如,他们担心GPT-2会被用来“传播假新闻、垃圾邮件与虚假信息”。
但这份担心很快就被打消。GPT-2没有被广泛证明有滥用的风险,所以研究人员还是纷纷使用了GPT-2。
罗格斯大学的教授BrittParis曾评论,GPT-2的诞生似乎不是为了造福人类,反而像是OpenAI利用了人工智能可能会给人类社会带来的恐慌,从而引起媒体的注意。他们认为,GPT-2并不像OpenAI声称的那样强大,但是,从营销的角度来看,他们可以吸引媒体的关注。
如果GPT-2没有他们宣称的那么强大,那为什么要让它看起来更危险呢?Alberto认为,单从这一点来看,OpenAI就已经没有遵守自己的道德标准。
2020年6月,GPT-3发布,比GPT-2大了100倍,更强大,本质上也许更危险。但OpenAI似乎认为新系统足够安全,可以与世界分享,所以通过API发布。他们设置了一个候补名单来逐个审查访问请求,但这并不能控制系统最终被用于何处。
在“LanguageModelsareFew-ShotLearners”一文中,他们甚至承认,如果GPT-3落入坏人之手,可能会带来不好的后果,比如“错误信息、垃圾邮件、网络钓鱼、滥用法律和政府程序、欺诈性学术论文写作和社会工程托辞”,或加剧性别、种族和宗教的偏见。
论文地址:https://arxiv.org/pdf/2005.14165.pdf
他们认识到问题的存在,但仍然允许用户对系统进行试验。关于通过API发布,OpenAI当时的回应是“支付他们接下来的AI研究、安全与政策制定等工作”。
一句话总结,就是说:“负责”保护人类免受AI侵害的公司决定让人们使用一个能够造成虚假信息和危险偏见的系统,以便他们可以支付昂贵的维护费用。这还是“对所有人都有价值”吗?
所以,当时社交媒体上很快就出现了关于GPT-3可能造成的潜在问题的激烈讨论。Facebook人工智能研究的负责人JeromePesenti当时就写了一条推文,在推文中举了一个例子,谈到GPT-3可能会生成加剧种族与性别歧视的文本:
UCBerkeley的计算机系学生LiamPorr还用GPT-3写了一篇能提高写作效率的文章,与订阅者分享,但没有透露其中的技巧。这篇文章在HackerNews上排名第一。如果UCBerkerley的大学生都会设法用人工智能编写的作品欺骗所有人,那么一群有恶意的人会做什么呢?
链接:https://adolos.substack.com/p/feeling-unproductive-maybe-you-should
除了传播假新闻,GPT-3的另一个危害是传播人类无法区分的假新闻。这一点也被OpenAI在“LanguageModelsareFew-ShotLearners”一文中认可、甚至强调了:
“[M]eanhumanaccuracyatdetectingthelongerarticlesthatwereproducedbyGPT-3175Bwasbarelyabovechanceat52%.Thisindicatesthat,fornewsarticlesthatarearound500wordslong,GPT-3continuestoproducearticlesthathumansfinddifficulttodistinguishfromhumanwrittennewsarticles.”
(人类在检测GPT-3175B生成的较长文章时的平均准确率仅略高于52%。这表明,GPT-3能够继续生成人类难以区分的、长度约为500字的新闻文章。)
CodexandCopilot,侵权了吗?
今年他们也做了类似的事情。
几周前,OpenAI、GitHub和微软联合发布了一款编程工具Copilot,这款工具基于GitHub及其他网站的源代码,可根据上文提示为程序员自动编写下文代码!被称为是结对编程的虚拟版本。
结对编程是一种常见的敏捷软件开发技术——即两个开发人员在同一个项目上并肩协作,轮流编写代码并检查合作伙伴的输出。
抛开可能对开发者造成的潜在威胁不谈,这款工具仅发布几天后便遭到了猛烈的抨击,原因是它在未经许可的情况下,使用了公共的Github存储库的开源代码。
当时,GitHub的首席执行官NatFriedman公布这则消息后,Hackernews上已经有不少网友在讨论,Copilot可能会存在潜在的法律风险。
链接:https://news.ycombinator.com/item?id=27676939
比如,一位网友就指出了多个疑问:
AI生成的代码属于我?还是GitHub?
生成的代码属于哪个许可证?
如果生成的代码侵权,谁来承担法律责任?
一位从事开源工作的开发者ArminRonacher直接在Twitter上分享了一个示例,表明Copilot确实存在剽窃版权代码的可能。
下面也有一位网友评论说:“我们也发现Copilot直接复制了一段GPL代码,这说明它在商业使用上是有风险的。
其实,就算Copilot没有逐字复制代码,也会产生一个道德问题:GitHub或者OpenAI等公司是否有权使用数千名开发者的开源代码对自己的系统进行训练,并将这些系统的使用权卖给开发者自己?
一位开发者兼游戏设计师EvelynWoods对此评论说:“他们好像在把开源当成一个笑话!”
3
我们还能寄希望于OpenAI吗?
OpenAI现在真正的意图是什么?
Alberto发出疑问:
难道他们已经与微软的利益捆绑在一起,以至于忘记了最初“造福人类”的宗旨?还是他们真的以为自己拥有最好的工具和人才可以独自开拓这条道路,这是否意味着OpenAI出卖了自己的灵魂?他们是按照自己的意愿来建设未来,还是考虑到了更多人?更重要的是,他们是否想从中获取巨额利润?
OpenAI在迈向更复杂人工智能的道路上占据了主导地位,当然,也有许多其他有潜力的机构在做相关的工作,这些机构并没有与金钱产生直接的联系,因而也受到了外界广泛的关注。
就目前来看,大型科技公司的目标似乎是并不是建立一个满足科学好奇心的通用人工智能,也不是建立一个最安全、最负责、最道德的人工智能。他们的首要任务是赚钱!
当然,这本身并不违法,但在道德上需要警惕,因为他们可能会不惜一切手段去实现目标,而这个过程可能会对大多数人产生不利影响。
之前OpenAI联合创始人埃隆·马斯克(ElonMusk)就曾批评其称:OpenAI应该更加开放!
4
OpenAI已经不再“Open”
在Reddit上,AlbertoRomero的文章也引起了网友的讨论。
链接:https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
网友纷纷称:OpenAI早已应该更名为“ClosedAI”。
也许OpenAI公司仍在坚持他们最初的使命,但他们也应该意识到:不能为了达到目的而不择手段,因为不合理的手段可能会损害更远大的目标。
毫无疑问,科学家们都希望实现通用人工智能。科学的好奇心是没有限度的,但我们也应该对潜在的风险保持警惕,就像核聚变是了不起的发明,但核聚变炸弹不是。
换一个角度来讲,我们愿意为了实现通用人工智能而付出任何代价吗?至少从道德上,很多人是不愿意的。科学家们或许更应该注意到这一点。
我们正在快速地更新这些深刻改变人们生活的技术。但是,如果只关心自己的利益和目标,无论是OpenAI还是其他人,最后都应该对后果承担很大的责任。
参考链接
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4
https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/
https://www.theverge.com/2019/11/7/20953040/openai-text-generation-ai-gpt-2-full-model-release-1-5b-parameters
https://openai.com/blog/openai-api/
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”