1. 流量密码不是财富密码
这两个月才突然热议ChatGPT的朋友,其实技术嗅觉有点迟钝、见识有点落伍。从2022年下半年开始,多款AI绘图类应用就在小圈子里爆火推广,ChatGPT也是去年11月底推出的。
ChatGPT最大的优势是“截个图就能玩梗传播”“可以灵活提问”“看似能编程”,实际上其他AI绘图和AI决策应用同样很惊艳,但那些应用很难玩梗也很难大范围传播。
ChatGPT确实会取代一批只会说车轱辘废话的办公室蛀虫,但对于动脑子分析事物也有明确观点的朋友,AI不仅不会取代我们的工作,还能帮我们高效的准备大量资料。
因为云计算正在成为IT行业的基石,所以任何IT圈技术的重大突破,云厂商都可以蹭热点,将其当做“流量密码”。
从云厂商例行保持品牌活跃度、表达公司有技术追求、对客户常规搭讪的角度看,这些云厂商的市场宣传行为毫无问题。但是流量密码不等于财富密码,ChatGPT对公有云的生产工作没有太大的影响,连中短期产品设计都不会有影响。
2. 从规模太小看产品延伸
公有云厂商对于这一波AI技术热潮会持续关注,但不会出现公司级别的重点规划,因为AI公有云的营收规模太小,产品连带销售能力极差。
国内公有云的年营收规模是2000亿,但是AI算力云的营收才75亿。对于公有云庞大的胃口,几十亿的营收只是个夹缝市场。
从产品的本源角度看,云厂商基于CPU构建的(年消费额2000亿)云计算产品体系,要远远超过GPU(年消费额75亿)能构建的产品体系。GPU的上下游生态,和云厂商的关联还太松散。
一份CPU云资源的背后,肯定会伴生着机柜电力、带宽、服务器机框、硬盘、网络、操作系统、中后台服务软件,这些资源都能当做超越CPU的核心卖点去创收收费,也会伴生着资源错峰复用和超卖。
一份GPU资源的背后,肯定会有着海量的电力需求,但那些伴生的软硬件都在服务于GPU业务,没有任何独立于GPU和AI计算的产品价值。
3. 从产能限制谈卖资源
一两个云厂商能够加倍投入AI计算,大力建设GPU算力池。但如果多家云厂商同时布局,争抢GPU云计算市场,那么全行业就会撞上原厂芯片产能限制和供电能力限制。
GPU的芯片产能一直在堆积排队,就算云厂商有翻倍增长的业绩需求,也没人能快速新建一条4纳米的GPU生产线。
数据中心的电力资源也不是凭空产生的,如果GPU机柜数量连年翻倍,IDC肯定需要申请新的用电指标。
在2022年8月底,美国禁止源头厂商出售高端CPU给中国,国产芯片也不可能一两年就接上,这同样也是巨大的产能限制。
这些产能限制的背后,展示出公有云的营收增长就是离不开卖资源。
2015-2020年,云厂商能保持连年翻倍的迅猛增速,很大一块原因就是:云厂商增收的重点在于售卖公网带宽。
相比于硬件和电力,公网带宽是一种半限制半资源的特殊资源,只要云厂商肯掏钱采购,带宽运营商改一下限速策略就一定能保证供货,这让云厂商减少了大量的供应链管理成本。
虽然很多喷壶认为云厂商们卖资源就是逼格不够,云厂商也总想强调自己是卖技术的,但是所有营收过10亿的公有云产品,实质上都在贩售资源。
从1980到2010年,传统企业软件厂商,写个满身bug、经常打热补丁、用法艰难晦涩、动辄停机维护的软件就能营收几十亿美元,技术支持还要额外付费。这是少数工程师利用对IT技术的垄断,欺负收割普通企业用户,软件本就不该值那么多钱。
只要IT工程师的人数大量增加,不管有没有云计算,IT技术垄断和软件收割客户都会无法维系,云厂商根本没可能去实践这种商业模式。
公有云很大一块毛利来源是客户资源的无感复用,这种资源营收就是多方互利的高科技营收。国外大云因为竞争不够激烈,产品毛利很高,他们的大营收产品同样也是在售卖资源。
4. AI市场对云厂商不友好
这半年的AI市场需求对云厂商并不友好,客户画像不对,GPU资源也没有太好的复用技术。
这半年来,AI创新技术的参与者都是一些成熟大企业,这些企业新增的云上GPU资源需求并不多,而且各云竞价激烈,产品利润很低。
现在能快速推出种AI创新功能的企业,都是大型企业,他们都有个平稳运行的GPU资源池。他们发布新产品不会外采大量的AI算力云服务,云厂商也不愿意卖那种临时用几天的GPU资源 。
市场上只有少数几个目标客户,这些客户都有存量资源池,采购策略也很成熟,友商的数量可能比客户的数量还多,所以大客户对GPU资源的价格成本压得很低。
从云厂商的角度看,深层的原因是,无论是大模型还是AI作图,云厂商能在虚拟化、超卖、复用上能做的工作太少了,背靠背的转售资源确实很难找到本厂的价值。
云厂商并不介意现在只能转售资源,但是短期内看不到有什么技术和产品突破,没故事可讲。
5. 云厂商对AI的长期助力
作为一类企业服务公司,云厂商能给企业客户提供的是:廉价的资源和通用的技术。面对这次AI创新浪潮,云厂商对AI行业的中长期工作目标也是:提供廉价的资源和通用的技术。
云厂商要是想搞技术攻坚,那就辅助或替代CUDA,做GPU资源池的虚拟化和AI计算任务的分解,做完这些工作就能更高效率的调度GPU资源。
云厂商还可以利用自己做虚拟化和资源转售的便利,引入国产GPU硬件。
因为云厂商承担资源管理和硬件维保,因为企业客户可以低成本尝鲜,新兴国产硬件在云端的测试和上线的速度会更快一些。
云厂商即使做不好上述工作,研究一下机柜节电技术,加快网络和存储读写速度,赞助一些开源AI框架,一样能够和AI行业共同发展。
本文链接:https://my.lmcjl.com/post/7749.html
4 评论