超载叽
超载叽

“啊哒”~嘤嘤怪+硬妹,一个经不起批评的人。科幻文学硕士,星球大战中文网副站长。关注科技、游戏、艺术、美食、历史等领域。曾服务于多家主流媒体,主持过文化、科技、游戏等栏目。 创作,是要发现和体现属于自己的趣味。 此博客登载本人原创文字和编译内容,未经授权严禁转载。 “伏枥骅骝千里志,经霜乔木百年心。”

ChatGPT加入微软必应,从没见谷歌这么慌过

十二年前,在没有标记的数据集里,AI刚刚学会辨认锐角三角形。

很少见到科技巨头“惊慌失措”。去年美国科技股大跌,五家科技巨头市值一度蒸发1.8万亿美元,相当于跌去一个谷歌。那时候,也没人见谷歌“慌”过。

2023年伊始,微软给OpenAI砸了100亿美元,又先后把OpenAI的聊天机器人ChatGPT整合进Office办公软件以及多年来半死不活的必应搜索引擎——谷歌开始慌了。

谷歌CEO桑达尔·皮查伊的动作紧锣密鼓:把“退隐江湖”的两位创始人拉里·佩奇、谢尔盖·布林拉回来“看代码”,向AI初创公司Anthropic投资了近4亿美元,并于2月7日公开了自家竞品——聊天机器人“巴德”。

谷歌主打搜索引擎,ChatGPT背后是个语言模型。要注意的是,搜索引擎和语言模型,不是一回事。

谷歌到底为什么那么慌?

人造智商考验人类智商

谷歌的慌张,来自于ChatGPT的“耀眼”。

2022年被称为“AIGC”(AI Generated Content)元年,而元年的集大成者就是ChatGPT。

去年,一系列AIGC应用均达到了“亲民”级别。先是Disco Diffusion、Dall-E 2、MidJourney等“文生图”工具触手可及,又有Stable Diffusion通过“去噪模式”,将AI图像生成的效率和精度提升到全新的境界。

去年年底,ChatGPT上线,五天内注册人数超过一百万,两个月内达到一亿。为到达这一目标,推特可用了五年。ChatGPT通过“理解”对话者的语义,能和人类进行有效、连续的反馈,几乎达到“以假乱真”的地步。

ChatGPT是由OpenAI开发的一个人工智能聊天机器人程序,2022年11月推出。对于用户来说,和ChatGPT聊天就是在对话框“打字”。除此之外,它也可以用于相对复杂的语言工作,包括自动文本生成、自动问答、自动摘要等在内的多种任务。

ChatGPT使用的是基于GPT-3.5架构的大型语言模型,通过强化学习进行训练。较之已经能写论文的GPT-3,它最重要的变化是建立在人类真实反馈基础上的调校,而训练语料还不如GPT-3多。GPT-3用了45T的文本,ChatGPT用了500G的文本——还只限于2021年。

GPT-3.5使用的新的AI训练方法,就是加大“人”的反馈权重:标记者在模型中书写期待的回复,AI的回复越贴近人的“期待”,排名就越高。排名越高,模型就越能得到奖励。之后,在持续参数迭代的过程中,输入奖励模型,就能得到优化参数。

这就是为什么ChatGPT能用北京话“捧哏”。你鼓励它说“您瞧瞧”“多说几句带儿化音的北京话”,它马上就回复你“好嘞”“这碗炒肝儿盖了帽儿了”!

就凭借这种“上下文”理解能力,ChatGPT的本事恐怕真超过不少直男,毕竟不少后者还纠结于“多喝热水”的有效性,或者上论坛提问“她说这句话到底什么意思”?

人造智商考验人类智商。

聪明的学生首先想到用ChatGPT写作业,搞得OpenAI不得不给“答案”加“水印”。学术界也非常紧张,《科学》和《自然》等顶级刊物,已经明确禁止将ChatGPT列为合著者,前者还不允许论文使用ChatGPT生成的文本。

ChatGPT模型如此厉害,和搜索引擎又有什么关系?

某种意义上,ChatGPT是问答类媒体、知识付费另一种面貌,更像Quora、知乎。你想快速知道一种技能、一条信息、一个答案,ChatGPT立刻“稳准狠”作答(有时也不准)。

搜索引擎恰好没有“稳准狠”的特点。

搜索引擎效率低

有一定“冲浪”经验的网友,多半还记得这句话:“外事不决问谷歌,内事不决问百度”。“决什么”,如今是搜索引擎和语言模型的岔路口。

如果是“决”精确性,搜索引擎不如语言模型。

如果是“决”相关性,语言模型不如搜索引擎。

搜索引擎用来信息检索、知识发现,而语言模型用来问题求解。

举例而言,比如搜“高超音速导弹”,搜索引擎会列出很多相关页面,其中既有高超音速导弹的定义,也会有它的新闻、历史以及各种趣谈——是“图书馆”层面上的;语言模型会告诉你一个“高超音速导弹”的定义,是“文本”层面上的。

也就是说,语言模型的作用,相当于搜索引擎的一个子集——好比你不用在“军事武器”的书架周围来回晃悠,管理员直接塞来一本书。

搜索引擎的优点,是更加开放,来源清晰,更多展示知识的相关性;缺点就是提供的内容不精确,更“散”。相比之下,语言模型因为“训练”过,高度“切题”。

它们的差异,源自背后的技术差异。搜索引擎的本质是算法,模型的本质是目标函数。

搜索引擎公司一直明白“不精确”的致命之处。一个页面上十条“高超音速导弹”信息,绝大多数用户不知道如何分辨、梳理和确证,陷入乱花渐欲迷人眼的低效率之中;或者搜索引擎的“算法”失之偏颇,提供太多的“广告”置顶,极大破坏了用户的信任,甚至误人生命。

Quora、知乎类产品的火爆,某种程度上起到“纠正”搜索引擎的作用:通过真人/专家的“现身说法”,为用户提供高质量的信息集合。不过,事实证明UGC的风险很大——人人都成了“专家”的时候,“现身说法”也就成“故事会”了。

语言模型的语料库经过筛选,内容更有保障,反应更加迅速,再加上准确度较高,对搜索引擎造成了很大威胁。

因此,当微软说把ChatGPT放进Office里时,谷歌还比较淡定;一说要加进必应,那真的是“触及灵魂”,谷歌立刻行动起来,盘点一下模型家底——LaMDA,Sparrow,Claude,PaLM……

也不是说语言模型就没有缺点。

首先,它是哪个词用得多就重复哪个,容易陷入“同义词反复”的境地;其次,因为要和人交流,它的“三观”根正苗红,绝对不讲政治不正确的话,想要了解历史的人恐怕还得费点功夫;另外,语言模型就是经“诱导”而来,只要“诱导”它就会跟着走,杠是不会杠,但“谄媚”的“核心”往往是胡说八道。

“快”和“准”是最大需求

谷歌的惊慌,更深层的原因恐怕还是了解人,或者说,了解今日的用户。

最火爆的应用和社交平台,主打的都是“无脑”且简单粗暴的内容提供方式。用户只需要看过若干内容,后续就不用自己筛选信息、分辨源头、思考真伪了,应用会通过“标签化”的算法,一股脑推送最符合“个人口味”的东西,令人欲罢不能。

如果说社交平台给的是量身打造的娱乐,那么ChatGPT给的就是量身打造的“知识”。整个社会的潮流是,知识可以通过非常便利、简约的技术直塞给大众,而不是个人通过较长的、曲折的学习过程自行获得。

近日谷歌CEO桑达尔·皮查伊的发言一针见血。他说,“AI加深我们对信息的理解,高效将其转化为有用的知识,帮助人们在搜索时更容易地找到核心、达成目的。”

这就是搜索引擎渴望语言模型加持的一大要义:用户越来越不耐烦,所有的技术都要冲刺“快”和“准”。

就连武器发展也是这样。高超音速导弹,俄罗斯去年先投入战场,随后美国也宣布试射成功,据悉将在日本部署。它的恐怖之处就是快,对手可能来不及反应。

更进一步说,人工智能发展也太快了。大概十二年前,刚刚出现神经网络的概念,吴恩达在谷歌搞了一套新玩意,在没有标记的数据集里,AI学会了辨认锐角三角形。没几年,AI围棋也下得,汽车也开得,还能预测蛋白质结构,如今要抢各位小编、画家的饭碗。

正是因为发展快,谷歌这样的巨头才额外担心。要知道,谷歌索引的数据量超过10万T,GPT-3才用了45T。所谓“AI一日,人间一年”,一步落后,步步落后,巨头也得未雨绸缪。

微软联合创始人比尔·盖茨对ChatGPT评价很高:“这种人工智能技术的诞生有着重大的历史意义,不亚于互联网或个人电脑的诞生。”

也许,“历史意义”正体现在人工智能和人类两者的“混淆”:人工智能越来越像人,甚至比人能力强;人要越来越像机器,必要时可以使用各式各样的“增能”手段。

五六年前,机器学习对人脑学习的“模仿”大幅度进步,算是历史进程的一种突变, 一个交叉点。深度学习模型卷积神经网络就是模仿人工神经网络的多层感知系统。不同的神经层接受、处理不同的信息,层层递进,得到一个关于某事物的“正确”的描述。计算机模拟这一过程,开始“学习”人的“识别”和“认知”能力。

总的来说,突变之后,技术将线性发展,直到下一个突变。出乎意料的是,技术突变之间,相隔的时间越来越短。

CC BY-NC-ND 2.0 版权声明

喜欢我的文章吗?
别忘了给点支持与赞赏,让我知道创作的路上有你陪伴。

硬周刊

超载叽

Bring insistence to life. “历史奔跑,逃离人类,导致生命的连续性与一致性四分五裂。” 我们的生命横跨好几个时代,要面对或重建“一致性”,心里得有点“硬”东西。 物质享受和精神追求,两手抓两手都要硬。 硬骨头-美食栏目; 硬着陆-政治栏目; 硬通货-经济栏目; 硬吹死挺-文化/科技/游戏栏目; 周末夜狂热-随想栏目

048
加载中…
加载中…

发布评论