|
发表于 2023-3-18 22:34:32|来自:中国广东
来自手机
|
显示全部楼层
|阅读模式
本文来源:时代周报 作者:刘沐轩
没有用过ChatGPT的人可能要抓紧时间了,它的进化速度远远超乎人们的想象。
抛开其复杂的内核,许多人都把ChatGPT当成一个有问必答的AI体系,偶尔让人惊叹于它渊博的知识、清晰的语言逻辑,偶尔也不禁使人调侃其“不懂装懂”地给出离谱的答案。
这款由OpenAI公司开发的AI体系——ChatGPT,已经有超过1亿的日活用户。
但这显然只是这个AI体系的一个起步。3月15日,OpenAI发布了全新升级的版本,名为GPT-4。相比于只能吸收笔墨提问的老版本,最新的GPT-4可以识别图片的意思,10秒钟做出一个简朴的网站,甚至能回复出“这个心情包为什么好笑”的刁钻题目。
GPT-4煞有介事地解释为什么梗图好笑。(图源:OpenAI)
不但如此,科学家们现在让GPT-4去测验,发现它在美国状师资格测验中的成绩超过90%的人类考生,在语言测验GRE、“美国高考”SAT中拿到近乎满分,在生物奥林匹克竞赛中超过99%的人类考生。
总体而言,目前这个基于对话训练的GPT-4,在语言方面出类拔萃,但其数学水平似乎有待提高。
ChatGPT还没玩明白,GPT-4怎么就要来了?AI发展的速度令人惊叹甚至恐慌,我们是不是要失业了?而在AI引发的一些列疑问中,失业可能恰好是最不急迫的那一个。
为什么不必担心失业?
在围棋中战胜人类,在测验中取得满分等等,还只是让人把AI当作新鲜事来看待。然而当AI在简朴编程、旅游规划、保费评估和诊断病情等具体场景下出色地完成使命时,做着同样工作的人慌了。
AI不需要用饭睡觉、没有精神压力,也无需劳动保障。按照内卷的逻辑,打工人岂不是要被这个AI“卷”走了?
这一切似曾相识,却也有些不同。
工业革命后,呆板给社会生产方式带来了深刻的变革,大量职员下岗。但直到今天,也没有几个工厂能用得上比肩特斯拉超级工厂的生产方式。
一方面,呆板代替了简朴的重复劳动,另一方面,有能力代替精密劳动的呆板,成本极其高昂。
而不变的是,真正纯粹的体力劳动和人工服务,将越来越贵。
工业革掷中的呆板极大地提高了生产效率,也导致了大量失业。(图源:社交媒体)
面对AI是否会引发大规模失业的题目,答案是否定的。因为没人想让AI替代自己,打工人不想,老板和各国政府估计也不敢。
假设一家企业的老板执意要把员工都替换成AI,那么老板是否懂得如何管理AI?该从那里购买统筹AI的服务?
他终极仍然需要雇佣有能力利用AI辅助工作的员工。例如,科技巨头企业微软近期就设立了新职位——指令工程师(Prompt Engineer),专门负责与AI沟通。
即便是企业学会了活用AI,提高效率后举行裁员,也没有国家敢接受大规模失业引发的政治风险。因为选票仍然在人们手中,如果发生大规模失业的情况,福利政策和救济政策需要随时跟进,这对各国政府来说都是不小的压力。
更何况,AI的能力超出了人们想象,目前大多数国家、组织、个人对AI的态度都是谨慎、谨慎、再谨慎。
实际上,在ChatGPT出现前,每个人都已经主动或被动地拥抱AI十几年了。
目前看来,用于消费领域的AI似乎不会造成直接的职员下岗,抖音、淘宝、美团、滴滴等这些互联网平台早已经在用AI为用户提供服务。保举人们感兴趣的视频或商品、安排外卖骑手接单、规划门路等等,这些决策险些都有AI的参与,甚至全部被AI接受。
近十几年来,AI就是这样悄无声息地接受了大量的工作,却没有引发大规模的失业。
类似题目其实早已有了案例。例如,让人类迈入信息时代的盘算机和互联网,在刚出现的时候也足够颠覆,然而今天,没人会把自己的题目归咎于电脑生产企业或互联网本身。
此前,网络上一种盛行的说法也从侧面展示出AI的局限性:“AI不能坐牢,所以不能替代管帐”。
正因为AI不能负起相关责任,所以目前看来无法代替人。同理,AI法官和AI医生的判断有可能被广泛接受吗?否则未来全部的纠纷难道都要归咎于OpenAI、谷歌、微软这些企业吗?
面对这样的社会变革趋势,有的人会觉得“礼崩乐坏”,但又不可能完全与AI割席,陷入没有尽头的精神内耗。而有想法的人则开始学习掌握训练AI的能力,直到平台推送的都是他想要的内容,俗称“养号”。
在平台上随便一搜,就有驯化AI的养号攻略。(图源:社交媒体截图)
可预见的未来是,AI想要在工作岗位上替代真人,将依旧是一个隐性的、谨慎的过程,可以或许活用AI的打工人将具备更强的竞争力和议价能力。
对此,微软德国实行长Marianne Janik也曾表示,新的AI技术已经带来新的变革,大多数人不需要换工作,而是要在此关键时候学习AI让自己成为专家,为企业的产品与服务增加价值。
他对企业家的建议则是,要开始训练员工利用AI,这样才能顺遂过渡到下一个世代。
颠覆认知的潜力与威胁
AI与人的不同之处,恰好是它的魅力,也需要我们警惕。
通过摄入大量的信息,科学家们发现,AI越来越像一个总是能蒙对答案,但写不出解题步骤的学生。
2020年,麻省理工学院用AI发现了一种新的广谱抗生素Halicin,它能杀死许多具备耐药性的“超级细菌”,却不会让细菌产生耐药性。
科学家们先是教AI相识抗生素分子的普遍规律,然后放手让AI自行模仿了61000个分子,终极找到了Halicin。
由AI找到的抗生素Hailicin。(图源:社交媒体)
但整个事件给人带来的震撼不是AI找得有多快多准,而是AI学生用科学家老师们至今都无法理解的解题方法,得出了Halicin这个正确效果。
这并非特例,早在AlphaGo大战天下围棋冠军李世石时,人们就发现AI经常会走出一些人类棋手匪夷所思的走法。
现在,许多行业的前沿从业者和研究者都在利用AI,但绝大多数人并不知道AI为何如此抉择。如果不及时反思或学习AI的方法论,这将是一件恐怖的事情。
不知道其方法论,那AI所做的一切真的正确吗?如果AI可以或许轻易完成科研效果、股票交易这些人类社会较高难度的使命,那么寻求真理、牺牲精神、人心博弈等这些最具人性的行为又有何意义?
目前仅限于解决特定题目的AI也许还没什么威胁,但等到AI发展到了广泛处理各种事务,接受每个人的方方面面时,情况可能会变得让人啼笑皆非。
AI会综合人们知道的、不知道的全部信息,为人们提供决策或建议,而人们可能根本没有核实其对错的能力。在一些小事上,会直接替人作出决策,就像AI现在推送个性化内容一样。
终极,对绝大多数人而言,AI什么都知道,什么都做得比人好。这样的良师益友,为何不尽情地依赖它?又或者会有人将其品德化,甚至将AI奉若“上帝”。
届时硅谷会否成为一个“新梵蒂冈”?(图源:社交媒体)
那些早就开发出AI,并供给资源调控其进化速度和方向的公司,也可能会被改名为“教会”。
届时,今天那些沉溺于商品、短视频推送算法,放弃思索、拒绝接受新观点的人,可能最先成为“教徒”。人类社会或许也会面临一轮新的启蒙运动,重新拥抱理性。
这也正是基辛格、谷歌前CEO施密特和麻省理工学院盘算机学院的院长胡滕洛赫尔在《AI时代:以及人类的未来》一书中强调的,“任何情况下,真正的决策权应该掌握在人的手里。”
掌握并驾驭AI
所幸,AI领域的先行者们,正在带头警惕AI代替人。
2月24日,开发ChatGPT的OpenAI发布了一则声明,表态该公司正在谨慎地给AI发放学习资料,比如此前人们用的ChatGPT是基于GPT-3.5这个版本的应用,只收录了停止2021年底的信息。
OpenAI还在声明中表示,“我们希望就三个关键题目举行全球对话:如何管理这些体系,如何公中分配它们产生的利益,以及如何公中分享利用权。”
GPT-3和GPT-4的区别是,后者不但可以吸收笔墨信息,还可以学习多媒体素材。(图源:社交媒体)
目前,决定AI发展的三大因素是算力、算法和数据(教材),这些都需要人的参与。
算力是物质底子,而这就牵扯到芯片。
GPT对芯片的需求是极大的,且需求量呈指数级增长。GPT-4上一代的GPT-3.5,训练所需的芯片是英伟达的A100型号GPU(图形处理器,俗称显卡),一颗大概要8万元。
而完成整个训练过程,大概需要30000颗A100芯片,也就是2.4亿元。
要知道,训练当年战胜李世石的AlphaGO,也只用了176颗芯片。GPT-4的整个训练过程需要要多少芯片,现在还未可知。
与此同时,训练AI还特别耗电,ChatGPT听说训练一次,就要斲丧90多万度电,相当于1200个中国人一年的生存用电量。目前,仅仅是维持一样平常运转,天天的电费大概就要5万美元。
此外,训练AI的素材目前仍然需要人工筛选。AI该学什么,判断是否正确,这些都需要一种名为数据标注师的工种。美国《时代周刊》在今年1月曾报道过,停止到2022年,全球已经有500万名数据标注师。其中,许多人来自非洲国家,比如肯尼亚。
在算法上,目前的AI比前代更像人,也因此取得了更迅猛的进展。
以往的设计,是“人教给AI语法和词汇,然后让AI发言”。但语言模型本身就是模糊的,很多概念在人类社会中都没有所谓“正确”的定义。
比如,什么是猫?每个人都可以轻易地判断出猫的照片,但却没人能简朴地总结出判断规则。有毛?尖耳朵?大眼睛?人类老师都不一定能解释清楚,如何教给AI学生?
科学家终极发现,直接把100万张猫的照片丢给AI,AI就学会了判断“什么是猫”。因此,现在的算法是把“一样平常对话”直接丢给AI,让AI自己感受出一种“语感”。
试想如何教会小孩子“什么是猫”。(图源:社交媒体)
偶尔,AI的办法让人琢磨不透,偶尔甚至能开导人。
当前一个亟待解决的题目是,如何保障AI训练数据的准确性?除了事实本身之外,编程语言都是经由英语输入,AI只能“看懂英文教材”。这就意味着,如果要训练ChatGPT回复中文题目,也无法保证不在翻译上出现马虎。
但抛开这些研发者的苦恼,对个人而言,ChatGPT或许将成为最好的学习工具,颠覆每个人接受教育的方式。
有问必答的ChatGPT可以从头教你如何向它提问,这是一种对话式的学习。从孔子和苏格拉底的时代开始,这种情势似乎就是“学习”最本真的样子。而且在吸收了大量的知识后,ChatGPT甚至可以饰演孔子和苏格拉底,直接与人们对话。
ChatGPT也许不能完美饰演孔子,但最少是个醒目孔子思想的学霸。(图源:网络截图)
加州大学河滨分校2023年刚刚发布了一项研究,他们把《意识的解释》的作者、美国认知科学家丹尼特的全部的书和文章都输入给ChatGPT。研究者们让ChatGPT饰演丹尼特,回复受试者的题目,并将丹尼特自己的回复也混入其中,让受试者判断。
效果,25个熟悉丹内特领域的哲学家平均正确率为51%,经常阅读丹内特哲学博客的粉丝得分也差不多。也就是说,ChatGPT饰演的丹尼特已经到了真假难辨的程度。
现在,想阅读一本书,ChatGPT不但可以为人们保举、做摘要,甚至能在一定程度上替代作者本人答疑解惑。
但作者本人并不会失去价值,他的新思想恰好是ChatGPT学习的食粮,ChatGPT也将成为敦促他思索的动力。
就像呆板遍及后,人工服务的价值反而越来越高。AI遍及后,人的价值或许也将愈发凸显。
来源:https://view.inews.qq.com/k/20230318A07KPK00
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作! |
|