ChatGPT服务器,深度拆解(2023)
ChatGPT发布之后,引发了全球范围的关注和讨论,国内各大厂商相继宣布GPT模型开发计划。据各公司官网,2023年2月7日,百度宣布将推出ChatGPT类似产品“文心一言”,预计今年3月展开内测;2月8日阿里宣布阿里版ChatGPT正在研发中,目前处于内测阶段;2月9日,字节跳动旗下AI Lab宣布正在开展ChatGPT和AIGC相关研发,未来将为PICO提供技术支持;2月10日,京东旗下言犀人工智能平台推出产业版ChatGPT—“ ChatJD”。
AI模型对算力的需求主要体现在训练和推理两个层面。当前主流的人工智能算法通常可分为“训练”和“推理”两个阶段。据IDC数据,2021年中国人工智能服务器工作负载中,57.6%的负载用于推理,42.4%用于模型训练。据IDC预计,到2026年AI推理的负载比例将进一步提升至62.2%。具体来看:
1)训练阶段:基于充裕的数据来调整和优化人工智能模型的参数,使模型的准确度达到预期。对于图像识别、语音识别与自然语言处理等领域的复杂问题,为了获得更准确的人工智能模型,训练阶段常常需要处理大量数据集、做反复的迭代计算,耗费巨大的运算量。
2)推理阶段:训练阶段结束以后,人工智能模型已经建立完毕,已可用于推理或预测待处理输入数据对应的输出(例如给定一张图片,识别该图片中的物体),此过程被称为推理阶段。推理阶段对单个任务的计算能力要求不如训练那么大,但是由于训练出来的模型会多次用于推理,因此推理运算的总计算量也相当可观。
ChatGPT算力需求场景包括预训练、Finetune及日常运营。从ChatGPT实际应用情况来看,从训练+推理的框架出发,我们可以将ChatGPT的算力需求按场景进一步拆分为预训练、Finetune及日常运营三个部分:
1)预训练:主要通过大量无标注的纯文本数据,训练模型基础语言能力,得到类似GPT-1/2/3这样的基础大模型;
2)Finetune:在完成预训练的大模型基础上,进行监督学习、强化学习、迁移学习等二次或多次训练,实现对模型参数量的优化调整;
3)日常运营:基于用户输入信息,加载模型参数进行推理计算,并实现最终结果的反馈输出。
预训练阶段:单次算力需求取决于模型参数量,最高可达3640 PFlop/s-day
ChatGPT基于Transformer架构,进行语言模型预训练。GPT模型之所以能够高效地完成大规模参数计算,我们认为离不开Transformer架构的加持。拆解Transformer架构来看,核心是由编码模块和解码模块构成,而GPT模型只用到了解码模块。拆解模块来看,大致分为三层:前馈神经网络层、编码/解码自注意力机制层(Self-Attention)、自注意力机制掩码层,其中:
1)注意力机制层主要作用在于计算某个单词对于全部单词的权重(即Attention),从而能够更好地去学习所有输入之间的关系,实现对文本内在关系的理解和更大规模的并行计算;
2)前馈神经网络提供了对数据信息的高效存储及检索;3)掩码层在这一过程中帮助模型屏蔽位于计算位置右侧尚未出现的单词。因此,相较于前代深度学习架构RNN,Transformer架构可以实现更大规模的并行计算,大大提升了计算效率。
单一大模型路线下,需要完成大规模参数计算。以GPT-3模型为例,随着模型朝更大体量的方向演进,参数量从GPT-3 Small的1.25亿个增长到GPT-3 175B的1746亿个,一次训练所需的计算量从2.6PFlop/s-day增至3640PFlop/s-day。与此同时,在不同学习样本(包括小样本、单一样本、零样本)条件下的模型,随着参数量的提升均实现不同幅度的上下文学习能力改善,外在表现为语言准确率的提升。我们认为,随着大模型训练表现出越来越强大的实战能力,未来或将成为NLP训练的主流选择。
推理阶段:预计单月运营算力需求约7034.7 PFlop/s-day
ChatGPT近一月访问量为8.89亿次。据SimilarWeb数据,2023年1月以来ChatGPT官网日访问量持续攀升,从1月初的日均千万次级别,到1月底日均两千万次,再到2月中旬的三千万次级别,随着软件效果的广泛传播,用户访问次数愈发频繁。加总近一月(2023/1/17-2023/2/17)ChatGPT官网访问量数据来看,可得ChatGPT月访问量为8.89亿次。
预计日常运营单月所需算力约7034.7 PFlop/s-day。日常运营过程中,用户交互带来的数据处理需求同样也是一笔不小的算力开支。据前文,近一个月(2023/1/17-2023/2/17)ChatGPT官网总访问量为8.89亿次。据Fortune杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。基于此,我们测算得2023年1月OpenAI为ChatGPT支付的运营算力成本约889万美元。此外,据Lambda,使用训练一次1746亿参数的GPT-3模型所需花费的算力成本超过460万美元;据OpenAI,训练一次1746亿参数的GPT-3模型需要的算力约为3640 PFlop/s-day。我们假设单位算力成本固定,测算得ChatGPT单月运营所需算力约7034.7PFlop/s-day。
Finetune阶段:预计ChatGPT单月Finetune的算力需求至少为1350.4PFlop/s-day
模型迭代带来Finetune算力需求。从模型迭代的角度来看,ChatGPT模型并不是静态的,而是需要不断进行Finetune模型调优,以确保模型处于最佳应用状态。这一过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和PPO策略,对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为OpenAI带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。
预计ChatGPT单月Finetune算力需求至少为1350.4PFlop/s-day。据IDC预计,2022年中国人工智能服务器负载中,推理和训练的比例分别为58.5%、41.5%。我们假设,ChatGPT对推理和训练的算力需求分布与之保持一致,且已知单月运营需要算力7034.7 PFlop/s-day、一次预训练需要算力3640 PFlop/s-day。基于此,我们进一步假设:1)考虑到AI大模型预训练主要通过巨量数据喂养完成,模型底层架构变化频率不高,故我们假设每月最多进行一次预训练;2)人类反馈机制下,模型需要不断获得人类指导以实现参数调优,以月为单位可能多次进行。由此我们计算得ChatGPT单月Finetune算力成本至少为1350.4PFlop/s-day。
1、ChatGPT需要的服务器:AI训练型服务器+AI推理型服务器
随着计算场景扩展,算力硬件也在发生变化。在传统软件架构下,主要的模式都是CS模式,服务端大多是单机处理几千个轻量请求。而在边缘计算场景下,需要数万台服务器处理上亿个重负载请求。边缘计算机本质上是用CES模式取代CS模式,当前的互联网IT架构已经从CS模式,逐步向CDN服务为核心的CES模式转变。但当前的CDN模式比较大的局限性在于缺乏灵活性,不能解决边缘上非结构化数据存储和处理的需求,引入Edge端(边缘端)就是为了解决CS模式下无法处理的业务。而在AI训练场景下,计算量及数据类型的变化导致C-E-S又无法满足集中大算力需求,计算架构回归C-S,并向高效率并行计算演变。
服务器作为算力硬件核心,面向不同计算场景分化演进。我们认为,计算架构的变化是推动服务器技术演进的关键变量。从计算场景来看,随着计算架构从PC到云计算,到边缘计算,再到AI训练,服务器需求也在发生相应变化。从单一服务器更加强调服务个体性能,如稳定性、吞吐量、响应时间等。云数据中心服务器对单个服务器性能要求下降,但更强调数据中心整体性能,如成本、快速部署和交付。边缘计算场景下,开始出现异构计算等复杂环境计算,对数据交互实时性要求有所提升,需要在边缘端设立单独的服务器设施。而AI服务器主要专为人工智能训练设计,数据类型以向量/张量为主,多采用大规模并行计算以提升运算效率。
同一技术路线下,服务器面向数据处理需求持续迭代。复盘主流服务器发展历程来看,随着数据量激增、数据场景复杂化,不同类型服务器发展驱动力也有所差异。具体来看:
1)通用服务器:传统通用服务器的发展与计算机架构发展同步,通过处理器的时钟频率、指令集并行度、核数等硬件指标的提升优化自身性能,发展较为缓慢。
2)云计算服务器:云计算的概念于20世纪80年代提出,仅20年后就有较为成熟的产品推出,如VMware的VMware Workstation和亚马逊AWS等。2010年随着OpenStack开源,阿里云、华为云等项目相继布局,云计算行业快速走向成熟。
3)边缘计算服务器:边缘计算概念孵化于2015年,仅2年后就有诸如亚马逊AWS Greengrass、谷歌GMEC等边缘计算平台产生,并在微软的带领下提前进入技术并购期。
4)AI服务器:AI服务器最早由思科在2018推出,专为人工智能、机器学习的工作服务而设计,硬件架构更加适合AI训练场景下的算力需求。
2、云计算服务器:大规模数据处理需求下的商业模式变革
数据量激增带来大算力需求,云计算服务器应运而生。通用服务器通过提高硬件指标提升性能,而随着CPU的工艺和单个CPU的核心数量接近极限,通用服务器性能难以支持数据量激增带来的性能需求。云计算服务器则通过虚拟化技术,将计算和存储资源进行池化,把原来物理隔离的单台计算资源进行虚拟化和集中化。最终以集群化处理来达到单台服务器所难以实现的高性能计算。同时,云计算服务器集群的计算能力可以通过不断增加虚拟化服务器的数量来进行扩展,突破单个服务器硬件限制,应对数据量激增带来的性能需求。
云计算服务器节约部分硬件成本,降低算力采购门槛。早期大规模数据处理成本极高,原因在于通用服务器的购置和运维成本居高不下。传统服务器中均包含处理器摸块、存储模块、网络模块、电源、风扇等全套设备,而云计算服务器体系架构精简,省去重复的模块,提高了利用率。同时云计算服务器针对节能需求,将存储模块进行虚拟化,并去除了主板上的非必要硬件,降低了整体计算成本,并通过流量计费模式,使得更多厂商可以负担算力开支,降低了算力采购门槛。
3、边缘服务器:高数据密度和带宽限制下保证低时延
边缘计算在云计算的基础上引入边缘层。边缘计算是在靠近物或数据源头的网络边缘侧,为应用提供融合计算、存储和网络等资源。在体系架构上,边缘计算在终端层和云层之间引入边缘层,从而将云服务扩展到网络边缘。其中终端层由物联网设备构成,最靠近用户,负责收集原始数据并上传至上层进行计算;边缘层由路由器、网关、边缘服务器等组成,由于距离用户较近,可以运行延迟敏感应用,满足用户对低时延的要求;云层由高性能服务器等组成,可以执行复杂计算任务。
边缘计算较云计算在实时性、低成本和安全性等方面有优势:
1)实时性:边缘计算将原有云计算中心的计算任务部分或全部迁移到与用户距离更近的网络边缘进行处理,而不是在外部数据中心或云端进行,因此提高了数据传输性能,保证了处理的实时性。
2)低带宽成本:终端产生的数据无需远距离传输至云端,避免带宽成本。同时,边缘计算机制中,边缘层可对终端产生数据进行预处理,从而降低云计算中心的计算负载。
3)安全性:边缘计算在本地设备和边缘层设备中处理大部分数据而不是将其上传至云端,减少实际存在风险的数据量,避免数据泄露危险。
4、AI服务器:更适合深度学习等AI训练场景
AI服务器采取GPU架构,相较CPU更适合进行大规模并行计算。通用服务器采用CPU作为计算能力来源,而AI服务器为异构服务器,可以根据应用范围采用不同的组合方式,如CPUGPU、CPUTPU、CPU其他加速卡等,主要以GPU提供计算能力。从ChatGPT模型计算方式来看,主要特征是采用了并行计算。对比上一代深度学习模型RNN来看,Transformer架构下,AI模型可以为输入序列中的任何字符提供上下文,因此可以一次处理所有输入,而不是一次只处理一个词,从而使得更大规模的参数计算成为可能。而从GPU的计算方式来看,由于GPU采用了数量众多的计算单元和超长的流水线,因此其架构设计较CPU而言,更适合进行大吞吐量的AI并行计算。
深度学习主要进行矩阵向量计算,AI服务器处理效率更高。从ChatGPT模型结构来看,基于Transformer架构,ChatGPT模型采用注意力机制进行文本单词权重赋值,并向前馈神经网络输出数值结果,这一过程需要进行大量向量及张量运算。而AI服务器中往往集成多个AI GPU,AI GPU通常支持多重矩阵运算,例如卷积、池化和激活函数,以加速深度学习算法的运算。因此在人工智能场景下,AI服务器往往较GPU服务器计算效率更高,具备一定应用优势。
AI服务器分类方式有两种:
1)按应用场景:AI服务器按照应用场景可以分为深度学习训练型和智能应用推理型。训练任务对服务器算力要求较高,需要训练型服务器提供高密度算力支持,典型产品有中科曙光X785-G30和华为昇腾Atlas 800(型号9000、型号9010)。推理任务则是利用训练后的模型提供服务,对算力无较高要求,典型产品有中科曙光X785-G40和华为昇腾Atlas 800(型号3000、型号3010)。
2)按芯片类型:AI服务器为异构服务器,可以根据应用范围调整计算模块结构,可采用CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡等组合形式。目前,产品中最常见的是CPU+多块GPU的方式。
常见的AI服务器分为四路、八路、十六路。一般来说,通用服务器主要采用以CPU为主导的串行架构,更擅长逻辑运算;而AI服务器主要采用加速卡为主导的异构形式,更擅长做大吞吐量的并行计算。按CPU数量,通用服务器可分为双路、四路和八路等。虽然AI服务器一般仅搭载1-2块CPU,但GPU数量显著占优。按GPU数量,AI服务器可以分为四路、八路和十六路服务器,其中搭载8块GPU的八路AI服务器最常见。
AI服务器采用多芯片组合,算力硬件成本更高。我们以典型服务器产品为例拆解硬件构成,可以更清晰地理解两类服务器硬件架构区别:以浪潮通用服务器NF5280M6为例,该服务器采用1~2颗第三代Intel Xeon可扩展处理器,据英特尔官网,每颗CPU售价约64000万元,故该服务器芯片成本约64000~128000;以浪潮AI服务器NF5688M6为例,该服务器采用2颗第三代Intel Xeon可扩展处理器+8颗英伟达A800 GPU的组合,据英伟达官网,每颗A800售价104000元,故该服务器芯片成本约96万元。
5、ChatGPT需要的芯片:CPU+GPU、FPGA、ASIC
GPT模型训练需要大算力支持,或将带来AI服务器建设需求。我们认为,随着国内厂商陆续布局ChatGPT类似产品,GPT大模型预训练、调优及日常运营或将带来大量算力需求,进而带动国内AI服务器市场放量。以GPT-3 175B模型预训练过程为例,据OpenAI,进行一次GPT-3 175B模型的预训练需要的算力约3640 PFlop/s-day。我们假设以浪潮信息目前算力最强的AI服务器NF5688M6(PFlop/s)进行计算,在预训练期限分别为3、5、10天的假设下,单一厂商需采购的AI服务器数量分别为243、146、73台。
AI大模型训练需求火热,智能算力规模增长有望带动AI服务器放量。据IDC数据,以半精度(FP16)运算能力换算,2021年中国智能算力规模约155.2EFLOPS。随着AI模型日益复杂、计算数据量快速增长、人工智能应用场景不断深化,未来国内智能算力规模有望实现快速增长。IDC预计2022年国内智能算力规模将同比增长72.7%至268.0 EFLOPS,预计2026年智能算力规模将达1271.4 EFLOPS,2022-2026年算力规模CAGR将达69.2%。我们认为,AI服务器作为承载智能算力运算的主要基础设施,有望受益于下游需求放量。
ChatGPT创业潮
最近一段时间,ChatGPT从AI领域破圈,成了互联网领域的新风口。创业者和投资人也兴奋起来了。
创业的方向已经很明了。做中国版对标ChatGPT的大模型,是显而易见的一条路。目前百度的“文心一言”已经呼之欲出,原美团联合创始人王慧文也宣布携5000万美元进军AI,要打造中国的OpenAI(ChatGPT的研发公司)。
同时,将ChatGPT这样的大模型平行扩展,从文字信息知识模型扩展到图片、视频等领域,也有同等机会。另外,顺着ChatGPT的方向再往前走一步,又是另一个思路,如今的ChatGPT理解能力强,但准确性和时效性弱,在后者上下功夫,也是不少创业者在做的事。
大模型之外,ChatGPT在各垂直领域的应用可能是适合更多创业者的路径。ChatGPT可以应用到文案、营销、设计、行业研究等文化传媒领域,还有医疗+AI,教育+AI,企业服务中的智能客服、数字人,以及游戏等各行各业中。有从业者提到,每个领域都可以训练适合自己的ChatGPT。
机会有很多,不过最终作为创业投资项目,其可行性还待验证。现在,ChatGPT欠缺严密的逻辑能力,也缺乏一些常识,在很多领域的应用壁垒不高但模型训练成本高,短期之内商业化也有难度。
投资人最近既兴奋又焦虑,市场很热,但蹭热度的占据大多数,真正靠谱的项目不多,他们目前普遍处于高度关注但下手谨慎的状态。毕竟,ChatGPT会颠覆很多领域,但这个蛋糕最终被大厂还是创业公司吃到还是个未知数。
大模型、小场景,盯紧ChatGPT
要找到ChatGPT领域的创业投资机会,有必要先弄清楚ChatGPT的特点。
众所周知,ChatGPT是生成式AI,与之对应的是分析式AI。微软投资的人工智能企业OpenAI从2015年开始研发这个模型,直到2020年,OpenAI发布了GPT-3语言模型,才引起国内外科技从业者对生成式AI的关注。
如今的ChatGPT,是OpenAI在ChatGPT-3.5的基础上,模拟人的自然语言,重点做了聊天对话方面的训练而形成的,同时,这一代的ChatGPT具备了创造、生成内容的能力。
英诺天使基金合伙人王晟告诉深燃,他们一年半之前就把AIGC(利用人工智能技术来生成内容)确定为主要投资方向了,也已经投了专注大模型的项目深言科技和做全新应用场景的公司深空交响。
ChatGPT突然爆了,“好处是我们已经投了的项目非常受人关注,最近每天都有好几个投资机构去和他们约见面。不好之处是本来我们在这一波AIGC方面的认知和布局是领先行业的,相对有时间逐步完善布局,现在这一波热度让市场开始变得混乱。”他说。
在王晟看来,国内ChatGPT相关的创业投资机会有两大方向:第一是研发大模型,直接对标ChatGPT,比如做中国版ChatGPT,同时,在ChatGPT这类语言大模型之外还可以扩展到图片、视频等领域;第二就是将ChatGPT垂直应用到各个细分领域。
目前,涉足大模型的国内大厂已有不少。百度的文心一言、华为的盘古模型,字节跳动和达摩院也有自己的模型。这些大部分是语言模型,也有一些多模态的模型,比如达摩院的M6模型,它可以生成文本,也可以生成图像。但国内的模型可能限于某些比较小众的应用,还没有形成非常大规模的市场影响力。
初创企业在该领域也有相当的发展。其中,比较有代表性的国内人工智能企业“智谱AI”近年来一直在做关于千亿模型和万亿模型的研究。他们主导研发了多语言千亿级预训练模型(是深度学习架构,经过训练以执行大量数据上的特定任务)GLM-130B,并打造了认知大模型平台(认知模型是指描述人类认知结构和认知过程的模型)Bigmodel.ai,形成了AIGC产品矩阵,提供智能API(应用程序接口)服务。从应用落地层面,智谱AI于2022年推出的AI数字人,在北京冬奥会及卡塔尔世界杯上受到广泛关注。 “大模型需要高水平团队,得是资深从业者,同时有比较强的AI工程化能力,另外我们倾向于看好曾经花过大钱做过大模型的团队。”王晟说。不过他也指出,中国能做语言类大模型的团队非常有限,加上大厂、一些科研机构和创业公司,总体数量可能不超过十个团队,加上图片、音乐、视频、3D资产等领域的大模型,全国能投的标的也就几十个。所以说大模型是一个重点关注的范围,但投资机构和普通创业者能抓住的机会不多。
ChatGPT如何适用细分领域,是更多创业者关心的事情。在这里,我们先解释一下ChatGPT身上的一些特性。跃盟科技创始人兼CEO王冉对深燃分析,评价一个模型好坏要从处理信息的适用性、准确度、时效性三个维度来看。ChatGPT对标的是搜索,可以从这三个维度对比ChatGPT和搜索的差别。
他进一步解释:搜索目前用的主要是关键词搜索,ChatGPT却能很好地识别自然语言,所以在适应性上,ChatGPT能做到满分10分;在信息的准确度上,现在搜索引擎已经做到了前十条结果点击率95%,前三条的结果点击率80%-85%,ChatGPT在准确度上做了妥协,在知识跟推理里用了更模糊的方式,准确率远远不如搜索,能打6分;在时效性上,ChatGPT是0分,它的模型是以年为单位训练的,不适合处理有时效性的信息。
所以ChatGPT是一个强适应性、弱准确度、弱时效性的产品模型,在这样的特点之下,应用场景也就明确了。
“这些特点就决定了ChatGPT不适合从0到1,更适合从1到N,它不能代替用户寻找正确答案,而适合在搜索之后做二次加工处理,比如总结、分类、做表、纠错、写代码,另一类应用是模糊推理下的创造,比如写小说、创意设计。”王冉说。
理论上说,基于ChatGPT大模型,能做各个行业的解决方案,来提升生产力,比如媒体、设计、营销、行业研究、智能客服、影视特效、教育、医疗、游戏等领域。王晟也提到,现在很多广告公司平面设计师的工作很大程度上已经是AI在做,设计师对成果再做优化,另外,ChatGPT如果运用到游戏中,里面的NPC可以真实互动,游戏也会变得更酷。
AI、医疗、教育,谁能借ChatGPT起飞?
ChatGPT具体怎么应用到细分领域,创业者的现身说法最有说服力。
王冉的跃盟科技从2016年就专注AI赛道,目前在做服务直播、新媒体或新的电商形态的AIGC模型。“我们提供一个模型底层技术,能在搜索之上,把直播间的商品按照用户的需求呈现出来,比如用户搜索情人节买点什么,我就把所有直播间在卖的对应商品信息整理出来,用对话或搜索推荐的方式推给用户。”
在这一业务中,王冉重视的是模型的准确性和时效性,因为电商的平台信息、价格信息都要准确,时效上,要做到小时级乃至分钟级。
“现在我们要做的就是准备好迎接大模型的到来。”医疗AI领域创业公司“左手医生”创始人张超说。最近每天找他咨询的同行很多,大家都在讨论怎么用、效果怎么样、怎么投入,他的感受是,ChatGPT让医疗AI领域原来很多不好解决的问题忽然能解决了,AI医生离商业化、大规模使用又近了。
张超整理了ChatGPT对医疗AI的影响,首先,ChatGPT可以用在文档的处理类任务上,比如,抽取类、结构化类任务、摘要类任务,解决医生的文书工作;同时,可以带动一堆监管类任务应用,比如质控、DRG(疾病诊断相关分组);还有一个重要应用是人机沟通类任务,比如智能自诊、预问诊、分导诊、随访等;最后,ChatGPT对全科医生的打造也更有利,比如AI能更好地辅助诊断、做指标解读、开方、做基础患者教育、完成智能问答等。
“AI医生目前需要解决的核心就是语义问题,以前我让AI系统理解10个指令,如果患者的问题不在这10个指令范围之内,系统就不会回答了,因为患者输入的问题可能用的不是标准表达方式,有了ChatGPT,新指令出现的时候它还能很好地处理。”另外,张超还提到,大家一直吐槽AI电话随访是人工智障,有了ChatGPT,系统可能对患者的提问对答如流,也可能从患者语无伦次的回复中整理出有价值的数据。 “原来我们做的是一个70分的产品,这一版优化完升级之后,应该能达到90分。接下来行业里面如果有人发布了大模型,我们会考虑采购,在大模型基础上用我们的数据去升级优化模型。”张超预计再过两三个月就能用起来,就看OpenAI或国内大厂谁先开放出来,“不过投入也不会少,硬件追加大概得1000-2000万元,预期在这块投入的研发成本一年也得近3000万元。”
教育和ChatGPT契合的场景也很多。
在新东方优编程董事长朱宇看来,在学前阶段,ChatGPT可以做成一个能够帮助孩子探索世界,解答小孩各类问题的陪伴机器人,上升到小学、中学,经过训练的ChatGPT可以像老师一样答疑,比如学生的水平比较低,就调取最低级的概念解释,一步步告诉答案,如果提问者是个水平很高的学生,直接说几个关键步骤就行。再往上一层级,ChatGPT能做到个性化推送学习素材,甚至能编写针对每一个学生的教材。
“ChatGPT现在已经会写小说、写报告了,实际上学生用的教材涉及到的知识点是固定的,比小说和报告的素材更简单,只需要用不同层次的学生听得懂、有兴趣听的方式输出就可以了,比如可以选择更活泼幽默的方式。”朱宇说,这可能是跨时代的意义,几乎能颠覆过去三四千年以来的知识传递方式。
悉之智能创始人兼CEO孙一乔目前看好ChatGPT做语言学习方面的结合,“我最近正好在学英语,以前都是跟外教一对一练习,但外教不太懂中文,有一些词汇我表达不出来,外教也不知道我想说什么,我的合伙人利用现在的ChatGPT加上语音识别与合成功能,结合一个虚拟AI形象,做出了可以与我进行流畅的英语对话的AI老师,大大的提高了我的英语学习效率,降低了学习成本。未来一些以真人为主的英语教学,可能会被替代。”
诸如此类ChatGPT在细分领域的应用机会有很多,需要的是一线从业者敏锐的洞察力。
成本高、壁垒低,ChatGPT应用尚待时机
虽然国内大模型技术的发展呈现百花齐放的态势,但不得不承认我们与国外在基层技术上的差距。
ChatGPT背后是GPT-3.5模型,有从业者提到,国内目前大约在GPT-3甚至比GPT-3还差一些的水平,在这点上,国内处于追赶国外的状态,而且追赶难度还不小。
“新技术的研发道阻且长,其中包含着巨大的挑战,但大模型的中国创新是必经之路。接下来从GPT-3到GPT-3.5到ChatGPT这条路径中的必要工作,我们会持续去做。”智谱AI方面表示。
即便是王慧文这样的互联网大佬要入局,也有很多质疑的声音。有从业者说,“5000万美元够干什么?大模型训练一次就要花500万美元。”
另外,前文提到的很多创业投资机会,还停留在理论层面,要真的实现起来,创业者还将面临不小的阻力。
近年来王晟接触了很多生成式AI相关的项目,有设计衣服和服装面料的,有写文本的,有为电商行业提供营销方案的,还有图片、视频内容生成工具。他不看好其中大部分项目的原因是,没有纵深壁垒,王晟希望ChatGPT应用的领域有一定深度,否则只是做产业中的一个点,很容易被大厂颠覆。“比如,有项目要做AI生成式短视频平台,就相当于有AI辅助功能的抖音,这是抖音、快手之类的大厂升级的机会。”
所以在他看来,AI这一波落地的场景非常多,看上去很热,但投资人非常焦虑,大部分都没有创业和投资的机会,很难出手。
朱宇也提到,ChatGPT在教育领域真正实现还需要时间。首先需要一个专业的教育知识语料库,谁能建立语料库,能不能和ChatGPT结合都是需要考虑的问题;其次,还需要提升ChatGPT的准确度,如果只是作为一个聊天工具,它可以信心满满地“胡说八道”,但要是给学生讲解知识,必须要准确;第三,需要等ChatGPT整体的算力成本降下来,否则它在跟学生对话的时候,成本比真人老师都高。
另外,每个技术的诞生都会存在滥用的问题,现在国外有些学校、科研机构、期刊杂志禁止使用ChatGPT写论文。这也是ChatGPT发展应用路上的问题。
在王冉看来,创业要有差异化的角度,ChatGPT直接套用,业务很容易被OpenAI覆盖。他认为,不应该过度去追ChatGPT适应性的维度,而要去思考一下准确性加时效性角度,每个赛道都应该做自己的模型,而不是用模型直接套赛道。“ChatGPT代表着适应性极强的一种方式,比如互联网相关的一些领域,不能以年为训练单位,时效性如果能到天、小时的维度,自然有机会。”
孙一乔也持有类似的观点,如果创业者只是基于ChatGPT3或ChatGPT3.5去做一些应用,风险很大。“比如一些估值很高的NLP领域的文本公司,ChatGPT一出,公司市值可能就要作废了。”
所以在他看来,ChatGPT会产生一个新生态,创业机会会出现在OpenAI的主线不涉及的领域,而且创业公司要有独创的算法和前瞻性,比如以ChatGPT为基础再往前进一步,建立护城河。
悉之智能一直以来做的是AI解题方向的探索,目前ChatGPT有很强的同理心和理解能力,但相对缺乏逻辑能力,无法完成数学题之类更复杂的问题。“让AI获得逻辑能力,稳定完成更加复杂的任务,比如AI解体,或许会成为下一个十年AI领域最重要的课题。这也是我们努力的方向。”孙一乔说。
有人觉得,ChatGPT的能力被夸大了,多位从业者一致认为,ChatGPT不是天才也不是白痴,说ChatGPT是万能的,肯定夸大了,但如果说中国一两年就能追上,显然是低估了难度。
确实,ChatGPT并不是通用人工智能,目前可以理解为是一个读了几千万本书,但没有太多生活经验的人,虽然在文本层级有了能力,但学习人类对知识应用、逻辑推理、转化为行为的能力,是AI下一个阶段的重要命题。
无论如何,ChatGPT已经搅动了整个科技互联网行业这一潭水,全行业都在关注、学习,及时吸收利用其中的精华。至于二者将会碰撞出什么样的火花,还需要交给时间。
本文链接:https://my.lmcjl.com/post/1146.html
4 评论