网络效应靠不住,AI时代的增长还能靠什么?
引言
一转眼,假期余额告急,我们来聊点轻松的话题。
今天的文章和“增长”有关,适道祝大家在新的一年持续增长!
说到增长回报,近二十年来,规模经济和网络效应下的“赢家通吃”一定是大杀四方。
规模经济(Economies of Scale),原意是指企业随着生产规模扩大,平均成本逐渐降低的经济现象。
但如果按照亚当·斯密赋予的原始含义,你会发现“规模经济”不仅不会呈现增长递增,反而会增长递减。
例如,一家培训机构招了1名老师,5名学生。随着招生规模扩大,学生变成了20名。假设1名老师的精力有限,最多只能教20名学生。此时,培训机构达到了“规模”极限。如果继续扩大招生,培训机构还要再雇1名老师,从而承担更多的成本。
在这种情况下,增长从“规模经济”变成了“规模不经济”。最终市场竞争达到动态平衡,每家企业都依据自身竞争力,获得相应的市场份额。
但这似乎与我们认知中的“赢家”世界不同。
原因在于,以知识为基础的经济世界,产品为知识密集型,自然资源比重小,可以实现递增收益。例如,微软公司花了5000万美元研发出Windows系统第一张软盘,而第二张和随后的软盘只需花费3美元。而且,单位成本随销售量增长而降低。
谁能先占领高地,并通过早期用户的正反馈快速迭代,谁就可能以“微弱的优势”吃下整个市场,实现“赢家通吃”。
当这个现象叠加互联网时代的“网络效应”,“赢家通吃”被进一步放大。
网络效应(Network Effect),指某种产品(或服务),每增加一名用户,都会对该产品的其他用户产生新的价值。最典型的例子是电话,世界上装电话的人越多,能通话的人就越多,电话的价值也就越大。
但电话只是初代网络效应——“直接网络效应”。
互联网时代则是“交叉网络效应”的天下——一个平台上,至少有一组相互依附,但利益不同的用户。例如某宝的买家和卖家;某程的酒店和房客;某滴上的司机和乘客;某红书的博主和粉丝。
平台的作用就是帮双边(多边)用户牵上红线,织出千丝万缕的网络。哪个平台“红线”牵得越到位,就越让用户着迷。例如,字节的算法推送就建立在这一逻辑上。
同时,因为APP复制的成本几乎可以忽略不计,边际成本接近于零,规模经济进一步放大,赢家进而吃掉整个市场。
得益于规模经济+网络效应的双重buff,我们听过最波澜壮阔的创业故事几乎都发生在互联网时代。
趁着放假,适道再次阅读了Brian Arthur在1996年发表的经典论文《Increasing Returns and the New World of Business》(收益递增与商业新世界)。论文介绍了知识密集型产品的“规模经济”和彼时的新生理论“网络效应”。其意义之重大,甚至改变了硅谷的游戏规则。
但正如Arthur在文中质疑Alfred Marshall于1890s提出的
收益递减
规律。28年转瞬即逝,Arthur于1996年所提出的“商业新世界下网络效应和规模经济”在AI时代是否依然适用?
01 乏力:规模经济和网络效应
说说我的一家之言:至少从目前来看,这两个增长理论似乎没有那么奏效了。
先说规模经济的“失效”。
ChatGPT每回答一次问题,都要消耗算力。例如微软的GitHub Copilot,此前平均每月要给每个用户倒贴20美元,给有些用户最多倒贴80美元。甚至用户越多,亏得越多。除非你的产品足够优秀,用户愿意为更好的体验买单。不过,即便在这种情况下,高昂成本依然存在,利润不会像互联网时代一样庞大。
再说网络效应的“弱化”。
第一个原因,从最直观的体验来看,当你使用AI软件时,面对的是一个个robot,不是许许多多的people,用户间的联系不再错综复杂。当然软件开发者也可以通过建立AI社区,同时叠上“网络效应”的buff,例如Midjourney;
第二个原因,虽然“数据”至关重要,但其作用可能被夸大了。大家思考一个问题,产品/模型是否会因为用户数据越多,而变得更好?还是存在一个S曲线?
先不说ChatGPT4.0“变懒”。事实上,训练模型可能并不需要更多的数据,达到一定程度就足够了。例如,A16Z所投资的公司Everlaw开发了一个法律软件。该软件在对一百万封电子邮件进行情感分析后,就不需要再训练了。
此外,训练模型的数据一定要和实际问题非常适配。而互联网巨头的数据壁垒,更多的价值体现在数量,而非质量。
02 变化:万物摩尔定律时代
还有哪些“靠得住”的增长理论?
除了规模经济(Economies of Scale)、网络效应(Network Effect)。增长回报主要的独立原因还包括:边学边做(Learning by Doing)、观念重组(Recombination of Idea)。
边学边做(Learning by Doing),指工人在生产时积累经验知识,会想办法提高自己的技能,从而形成总体经济层面的技术进步,摆脱收益递减规律的限制,推动长期经济增长。
简单来说,就是卷王先卷死自己再卷别人。
在这个“卷王”理论之下,有一条非常著名的定律。
摩尔定律(Moore’s Law):当价格不变时,单个芯片上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。
比尔·盖茨曾经说过:“我喜欢把摩尔定律作为一种预测未来的方式。它可以帮助我们了解科技发展的速度,以及我们应该预测的未来。”
不过,摩尔定律不是数学定律,也不是物理定律,而是一条基于半导体行业发展经验的规律。随着晶体管数量逐渐增加,摩尔定律如今也碰到了天花板。有专家预测,2025年,摩尔定律将会失效。
真的如此吗?Ark Invest报告显示,2014年以来,AI芯片性能以每年93%的速度提高,这意味着成本每年下降48%,比摩尔定律成本每年下降30%还快。例如,2020年GPT-3单次训练成本是460万美元,而现在的价格是140万美元,约下降70%。2023年初,OpenAI提供的API服务价格下降90%。如果趋势持续,完成同等质量任务的硬件成本,将从2014年的11000美元下降到2030年的5美分。
此外,自2012年以来,AI模型在ImageNet分类中训练神经网络达到相同性能所需的计算量,每16个月也会减少2倍。
也就是说,传统的摩尔定律可能失效,但AI时代有属于自己的“智能摩尔定律”。
1)黄氏定律:GPU将推动AI性能实现逐年翻倍。
2020年,黄仁勋提出取代摩尔定律的“黄氏定律”。2023年,老黄又称:Nvidia的GPU在过去10年中将AI处理性能提高了不低于100万倍,并将在未来10年内再次令AI性能强大100万倍。而摩尔定律在其最好的日子里,在十年内(仅)实现了100倍的增长。
2)大模型定律:大模型参数和与训练数据量飞速增长。
根据OpenAI测算,全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。
如果按传统的摩尔定律,芯片计算性能大约每18-24个月仅翻一番。这种情况下,芯片性能提升的步伐跟不上AI训练模型的胃口。不过,如果按照上述“黄氏定律”10 年内翻100万倍,结果又是另当别论。
此外,高质量数据似乎也不够用。《麻省理工技术评论》曾发表文章表示:大模型就像是一个不断吸收的“网络黑洞”,最终导致没有足够的数据进行训练。
而AI研究机构Epochai的论文给出了一个精确的时间范围:2026年,大模型训练将消耗尽高质量数据;2030年-2050年,将消耗尽所有低质量数据;2030年-2060年,将消耗尽所有图像训练数据。这意味着,如果数据效率没有显著提高或有新的数据源可用,到2040年,模型的规模增长将放缓。
3)Altman定律:宇宙中的智能数量将在每18个月后翻一番。
Gary Marcus对此直言:是AI炒作量每18个月翻一番吧。其实也怪不得Marcus阴阳,因为Altman没有对“智能数量”(amount of intelligence)进行明确定义。这句话更像是一句脱口而出的感想。
不过,早在2021年,Sam Altman就撰文“万物摩尔定律”(Moore"s Law for Everything),其中提出:摩尔定律适用于万物,人工智能将降低商品和服务的成本。一个乌托邦世界就此展开:财富或技术快速增长,人类可以用更低廉的价格得到自己想要的东西。
总而言之,无论是“见顶”的传统摩尔定律,或是各类新生的摩尔定律,都表明了信息技术的爆发式指数增长快速迭代特征。这一点大概是贯穿人类技术发展的永恒“增长规律”。
03 恒定:专利实现内生技术增长
另一个增长回报的独立原因:观念重组(Recombination of Idea)——任何创新都是不同材料的重新组合或拼接。
如果一家公司的产品是Idea(算法、公式、设计),其开发过程道阻且长。可一旦Idea被开发,其后续产出会成为公司的专有财产(例如专利)。结果就是公司获得了一个增量成本接近于零的高价值产品。
敏锐的小伙伴可能已经发现,这个例子属于诺贝尔经济学奖获得者——罗默,内生经济增长理论开山之作《报酬递增与长期增长》(Increasing Returns and Long-Run Growth)三个基本前提之一:
第一,技术进步位于经济增长的核心;
第二,技术进步在很大程度上是人们有意识的行为。换句话说,是人们对市场激励的一种反应;
第三,开发一个新的技术会产生一个固定成本,但之后的使用成本为零。
罗默假设存在三个经济部门:生产最终产品的部门、研发部门,以及生产中间品的部门。
研发部门负责生产Idea,并将其卖给中间产品部门;而中间产品部门则产出耐用资本设备,并将其租给最终品生产部门以获得租金,最终品生产部门负责生产经济体重的最终产品。
在这个模型中,研发部门生产的Idea是具有外部性的,其社会收益和其给研发部门带来的私人收益并不一致。在罗默看来,为了鼓励研发,需要尽可能消除这种私人收益和社会收益之间的差值,因此引入专利、版权等一些激励手段十分必要。
当我们将眼光从整个经济世界转向微观企业个体,观念重组的概念更像是技术开发,用知识产权构筑“护城河”是重中之重。适道此前写过:一些深度科技企业在筹资中经常面临“先有鸡还是先有蛋”的问题。即,没有近在咫尺的市场,企业筹资相当困难;但没有足够的资金支持,接近市场更是难上加难。
因此在早期阶段中,要格外重视早期货币化机会,战略性合作伙伴和许可协议是“无价之宝”。例如,深度科技公司Halitus向一家行业领导者提供了自家的知识产权许可,并与一家成熟初创公司合作,销售他们的产品,来获得一部分必要收入,并通过多个合作伙伴,得到宝贵的早期客户反馈。
04 辨别:为何苹果没有迎来“黑莓时刻”
近期,著名经济学家Michael J. Mauboussin和Dan Callahan发表了一篇论文《Increasing Returns:Identifying Forms of Increasing Returns and What Drives Them》。
文章虽然没有提出全新的增长模型。但通过追溯规模经济、网络效应、边学边做、观念重组、国际贸易,对Google、Meta、Nvidia、微软、苹果等巨头的增长来源进行了区分。
Google和Meta非常依赖网络效应。
商业上区分它们的并不是观念重组。因为其他公司也可以做出非常相似的产品,但无法复制它们的网络。
Nvidia的增长源于观念重组。
未来能否持续领先取决于公司能否让自家技术成为行业标准,就像微软的PC操作系统。不然,Nvidia会被更优秀或更便宜的竞争对手取代。借用马斯克的一句话:“Nvidia不会永远在大规模训练和推理芯片市场占据垄断地位。”
微软虽然得益于网络效应,但更依赖观念重组。
试想,如果一家公司合法拥有所有Facebook社交网络或Google搜索引擎背后的技术,这家公司仍然无法与Meta、Google竞争,因为你不可能一夜之间搬来庞大的用户。但如果一家公司能合法销售和微软软件完全相同的副本,它就能立即以价格与微软竞争。
而这正是国内盗版Win漫天飞,但你却找不到第二个IG或小红书的原因。
亚马逊的零售业务虽然非常依赖网络效应,但其增长回报却主要源于传统的规模经济和边做边学。
因此,亚马逊在硬件基础设施上进行巨额投资,并且不断尝试新东西。
同时,亚马逊也是国际贸易增长回报的巨大受益者。公司创建了一个技术和物流层,将亚洲工厂的廉价制成品运送到西方的庞大终端市场。不过,从目前来看,跨境电商独角兽Shein正在挑战亚马逊在这一领域的主导地位。
苹果惊人的增长回报则源于以上五大独立增长因素的组合叠加。
虽然苹果的增量单位成本并不低:iPhone15 Pro Max的生产成本在500——600美元。但苹果可以保护其回报率,因为他们似乎永远不会失去定价权。而这可能归功于网络效应和随之而来的高切换成本(在这个背景下考虑iMessage的锁定效应)、观念重组(软件更新、各项专利)、边做边学和国际贸易。
因此,当人们认为终有一天,摩托罗拉、诺基亚和黑莓的命运也会降临到苹果身上时,苹果却在持续增长。
从最近来看,在智能手机领域的创新几乎枯竭之际,2023年底,苹果连发两篇论文(观念重组)。其中一篇提出:苹果通过一种创新的闪存利用技术,成功地在内存有限的iPhone和其他苹果设备上部署了大模型。而这条“大模型+硬件”的路线或许会直接改变AI手机的竞争格局。第二篇详细介绍了一项名为HUGS(Human Gaussian Splats)的生成式AI技术。HUGS仅仅需要一个约50-100帧的原始视频,相当于2到4秒24fps的视频,就能在30分钟内生成一个“数字人分身”。而该技术是VR头显进一步发展的必然要求。前不久上市的Vision Pro更是突破智能手机平面计算的局限性,踢开了空间计算时代的大门。
对于投资者的启发:“黑莓”们和苹果存在本质区别——增长回报是否可持续?源自不同独立因素的增长回报是否具有不同半衰期?各家公司又是否具备过硬的本领扛过半衰期?
回到文章开头,适道认为,至少从目前来看,网络效应可能弱化,但观念重组(专利技术)的力量却始终熠熠生辉。
版权声明
本文收集整理自网络,如有侵权,请联系删除。
上一篇:小米汽车,一桌“好菜”攒了个局? 下一篇:贾玲才是中国电影圈的真“芭比”