查看: 602|回复: 2

说着“对人类有益”的OpenAI,把魂魄卖给了微软

[复制链接]
发表于 2021-9-8 08:05:25|来自:中国浙江湖州 | 显示全部楼层 |阅读模式
选自One Zero
作者:Alberto Romero
呆板之心编译
呆板之心编辑部
在GPT-3开源已经成为一个梗之后,OpenAI联合微软推出了Codex,又引来更大的争议。

当款项砸来时,你是否还能对峙初心?
OpenAI 成立于 2015 年,是一家非营利性研究机构,它的愿景是构建出安全、对人类有益的通用人工智能(AGI),由伊隆 · 马斯克、Sam Altman 等人宣布出资 10 亿美元成立。
然而到了 2019 年,OpenAI 变化成了一家名为 OpenAI LP 的营利性公司,由名为 OpenAI Inc 的母公司控制。此时的 OpenAI 是一种「利润上限」结构,将投资回报限定在原始金额的 100 倍。假如你投资 1000 万美元,最多你会得到 10 亿美元。看起往返报率不错。
改变几个月后,微软宣布注资 10 亿美元。正如我们在 GPT-3 和 Codex 上看到的那样,OpenAI 与微软的合作伙伴关系意味着答应后者将部门技能商业化。

在科技领域中,OpenAI 是引领人类走向优美将来的最大盼望之一,如今却被成本和算力的需求打回了现实。我们还能信赖它将会领导我们找到真正的人工智能吗?
AI Lab,盈利优先
首先,OpenAI 是一个人工智能研究实验室,它的雄心和自身所拥有的资源相比天差地别。在 GPT-3 论文横空出世之后,外界的一个流行围观方式就是帮他们算成本,据估计 OpenAI 训练 GPT-3 泯灭了 1200 万美元——仅仅是训练。假如没有要求后期更大回报的金主,这家公司如何可以写一篇论文就花这么多钱?所以当 OpenAI 需要投资的时候,他们和拥有云服务的微软形成了合作。至于代价,就是一种未公开的,将其体系商业化的艰涩许可。
MIT Technology Review 记者 Karen Hao 的一篇调查文章披露了 OpenAI 口是心非的地方,为什么一家以确保全部人拥有更优美将来为愿景的公司忽然决定为「stay relevant」罗致大量私有资金?从非盈利到盈利的变化引发了公众甚至公司内部的猛烈品评。
艾伦人工智能研究所负责人 Oren Etzioni 表达了猜疑的态度:「我差别意非盈利构造无法具备竞争力的观点…… 假如规模更大、资金更充裕就能做得更好,那么今天 IBM 仍将是世界第一。」
曾为 Vice News 撰稿的 Caroline Haskins 则不信赖 OpenAI 仍会忠于它的使命:「人类从未由于依赖风投机构而变得更好。」
从技能角度来看,OpenAI 当前的研究方向是更大的神经网络,这就需要更大的算力和巨量数据。只有比肩科技巨头的投入才气在这条道路上走下去。但正如 Etzioni 所说的,这并不是在 AI 领域里实现开始辈成果的唯一途径,有时你需要创造性地思考新的想法,而不能只想着大力出奇迹。
OpenAI 是如何把路走窄的
GPT-2、GPT-3「危险」语言生成器
在 2019 年初,已是一家盈利公司的 OpenAI 推出了 GPT-2,这是一种强大的语言生成模子,可以或许生成靠近人类的自然语言文本。研究人员以为 GPT-2 在其时是一个巨大的飞跃,但太危险所以不能开源出来。工程师们担心 GPT-2 会被用来生成假消息、垃圾信息和误导信息。但在不久之后,OpenAI 又以为不存在显着被滥用的证据,因而将其开源出来。
罗格斯大学传授 Britt Paris 表示:「这看起来就像是 OpenAI 在利用围绕人工智能的恐慌。」有不少人把 GPT-2 的报道视为一种宣传计谋,他们以为该体系实在并不像 OpenAI 声称的那样强大。从营销的角度来看这确实可以吸引注意力,但 OpenAI 否认了这些指控。
假如 GPT-2 没有 OpenAI 宣称的那么强大,那为什么要让它看起来比现实更危险呢?假如它真的性能强大,为什么仅仅由于「没有发现被滥用的有力证据」而完全开源?无论如何,OpenAI 好像都没有遵循自己的道德尺度。

2020 年 6 月,GPT-3 的论文被传上了 arXiv,随后以 API 的形式向外界提供。OpenAI 好像以为这个比 GPT-2 大 100 倍,更强大的新体系足够安全,可以与世界分享。他们设置条款逐个审查每个访问请求,但他们仍然无法控制体系终极用于什么目的。
他们甚至承认 GPT-3 若落入暴徒之手可能发生一些标题,从误导性信息、垃圾邮件、网络钓鱼、滥用法律、政府内容,到学术欺诈、社会工程,再到性别、种族和宗教私见。
他们认识到了这些标题,但仍然决定让用户付费测试。为什么要通过 API 发布它而不是开源模子?OpenAI 回答说,这是为他们正在举行的人工智能研究、安全和政策积极提供资金。
所以总结一下就是:负责掩护我们免受有害 AI 伤害的公司决定让人们使用一个可以或许制造虚假信息和危险私见的体系,如许他们就可以负担昂贵的维护费用。看起来这并不是什么「对全部人有益的价值」。
因此,社交网络上出现 GPT-3 有害的讨论就是顺理成章的了。Facebook 人工智能负责人 Jerome Pesenti 写了一条推文,他举了一个例子

在一项利用 GPT-3 独特性的实验中,加州大学伯克利分校的弟子 Liam Porr 让体系写了一篇关于生产力的文章,并将其分享了出来(但没说是 AI 生成的)。这篇文章骗过了很多人,甚至登上了 Hacker News 的榜首。试想,假如像他如许没有恶意的弟子都可以或许用 AI 写的文章骗过全部人,一群怀有恶意的人会用它做什么?比如流传假消息?

Liam Porr 的文章。链接 https://adolos.substack.com/p/feeling-unproductive-maybe-you-should
「在检测 GPT-3 175B 生成的长文章时,人类的平均准确率仅略高于 52%。这表明,对于 500 字左右的消息,GPT-3 可以或许连续生成以假乱真的作品。」
Codex、Copilot 侵权风波
前段时间,GitHub、微软和 OpenAI 发布了 Copilot,这是一个由 Codex 提供支持的 AI 体系,可以自动生成代码。然而,Copilot 的出现遭到了猛烈的品评,由于它是盲目使用来自公共 GitHub 库的开源代码举行训练的。
有位网友指出了一些标题
AI 生成的代码毕竟属于我还是属于 GitHub?
生成的代码实用于哪种许可证?
假如生成的代码成为侵权的理由,谁该为此受罚?
在推特上,一位开发者分享了一个 Copilot 抄袭一整块有版权的代码的例子:

Copilot 原样复制了《雷神之锤》里的经典代码,连吐槽注释也没落下。
有网友在底下回帖说,「我们有 Copilot 直接复制 GPL 整块代码的证据,这说明在商业情况中,Copilot 是一个非常危险的工具。」
再深入一点,即使 Copilot 没有逐词复制代码,这里也有一个道德标题:GitHub 或 OpenAI 这些公司借助数千名开发者写出的开源代码训练这些体系,然后再向同一批开发者售卖这些体系,这合适吗?
对此,程序员兼游戏设计师 Evelyn Woods 表示,「感觉这像在讽刺开源。」
我们应该把盼望寄托于 OpenAI 吗?
OpenAI 现在的真实愿景到底是什么?他们是不是与微软精密相连,以至于忘记了自己「为人类进步」而奋斗的初志?还是说他们真的以为自己拥有最好的工具和头脑来践行这条路线,即使将魂魄出卖给一个大型科技公司也在所不吝?我们是否真的乐意让 OpenAI 按照它的愿景来构建将来?还是说我们盼望我们的愿景更加多样化,并将其与经济长处分离?
OpenAI 正领导各人走向更加复杂的人工智能,但另有很多和大公司没有款项关系的机构在做相同的事情。他们可能不喜好舒服地躺在钱堆里,因此我们有理由更加关注他们所做的工作。
终极,大型科技公司的主要使命不是满意所谓的科学好奇心,探索通用人工智能,也不是构建最安全、最负责、最道德的 AI,而是赚钱。他们会不吝统统做到这一点,即使这意味要走上一条模糊的道路,而我们大多数人都会避开这一道路。
OpenAI 的联合创始人马斯克甚至也认同这些品评:

马斯克:我以为 OpenAI 应该再开放一点。
OpenAI 的人不应该忘记,他们不能为了到达目的不择本领。这些本领可能会损害更高的目的。
我们想要 AGI 吗?从科学的角度来看,答案不可能是否定的。人们对于科学的好奇心是没有极限的,然而,我们应该时候评估潜在的危险。核聚变黑白凡的,但核弹不是。
我们想不吝统统代价实现 AGI 吗?从道德的角度来看,答案不可能是肯定的。这些快速发展的技能将对我们全部人产生影响,所以我们应该注意到这个标题。
或早或晚,那些只关注眼前长处的人终将为后果负担重要责任。
参考内容:
https://www.reddit.com/r/MachineLearning/comments/pizllt/d_how_openai_sold_its_soul_for_1_billion_the/
https://onezero.medium.com/openai-sold-its-soul-for-1-billion-cf35ff9e8cd4
与吴恩达共话ML将来发展,2021亚马逊云科技中国峰会可「玩」可「学」
2021亚马逊云科技中国峰会「第二站」将于9月9日-9月14日全程在线上举办。对于AI开发者来说,9月14日举办的「人工智能和呆板学习峰会」最值得关注。
当天上午,亚马逊云科技人工智能与呆板学习副总裁Swami Sivasubramanian 博士与 AI 领域著名学者、Landing AI 创始人吴恩达(Andrew Ng )博士睁开一场「炉边谈话」。
不但如此,「人工智能和呆板学习峰会」还设置了四大分论坛,分别为「呆板学习科学」、「呆板学习的影响」、「无需依赖专业知识的呆板学习实践」和「呆板学习如何落地」,从技能原理、现实场景中的应用落地以及对行业领域的影响等多个方面详细阐述了呆板学习的发展。
回复

使用道具 举报

发表于 2021-9-8 10:36:21|来自:中国浙江湖州 | 显示全部楼层
所谓的非盈利科技是不存在的,难以持续发展,只是你自己的人道德误区,大国实力玩火箭都搞不定何况更难的通用人工智能?科技只有商业化一条路才能真正发展
回复 支持 反对

使用道具 举报

发表于 2021-9-8 15:52:44|来自:中国浙江湖州 | 显示全部楼层
但凡有马斯克的地方都不太平,马斯克的嘴,骗人的鬼
回复 支持 反对

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

联系客服 关注微信 下载APP 返回顶部 返回列表