新智元报导
编辑:Aeneas 好困
【新智元导读】小扎All In元宇宙两年后,遽然发现全世界都在搞生成式AI。这可尴尬了,自家公司还在用CPU做AI推理呢……
ChatGPT大战,Meta为何迟迟没有动作?
就在今日,路透社记者挖出了一个大瓜,原因让人瞠目结舌——
相比谷歌、微软等大厂,Meta跑AI时,用的竟然是CPU!
很难幻想,在深度学习简直占机器学习半壁江山的时代,一个科技巨头竟然能用CPU坚持这么久。
虽然他们也曾尝试过自研AI芯片,但最终遭遇滑铁卢。
现在,ChatGPT引爆的生成式AI大战打得昏天黑地,这就更加重了Meta的产能紧缩。
用CPU练习AI,Meta怎么想的?
Meta迟迟不愿接受用GPU的原因,令人匪夷所思。
GPU芯片十分合适AI处理,因为它们能够一起执行很多使命,然后减少处理数十亿条数据所需的时刻。
但是,GPU 也比其他芯片更贵重,英伟达操控着80%的市场份额,并在配套软件上,也保持着肯定的领先地位。
直到上一年,Meta在处理AI作业负载时,首要运用的还是CPU。CPU是计算机的主力芯片,几十年来数据中心用的也是CPU,但它在AI作业上表现并欠安。
据悉,Meta还曾自研芯片,在内部规划的定制芯片上进行推理。
但在2021年,Meta还是失望地发现,比起GPU,这种双管齐下的办法速度更慢、功率更低。而且GPU在运行不同类型的模型上,远比Meta的芯片更灵敏。
而且,小扎决议All In元宇宙这一举措,也直接榨干了Meta的算力。不管是AI的布置,还是要挟的应对上,都遭到了极大的削弱。
这些失误,引起了前Meta董事会成员Peter Thiel的注意,随后,他于2022年初辞去职务。
据内部人士透露,在脱离前的一次董事会会议上,Thiel告知小扎和高管们,他们对Meta的社交媒体事务太骄傲,而且过分关注元宇宙了,这让公司很简单被TikTok的应战所撼动。
Meta粗大事了
在上一年夏天快要结束的时候,小扎曾召集了高档副手们,花了五个小时,对Meta的计算才能进行剖析。
他们需求知道,在开发尖端的AI方面,Meta有多大的才能?
出来的成果,让一切人倒吸一口凉气。
根据9月20日的公司备忘录显现,虽然Meta对AI研讨进行了大笔高调的投资,但是首要事务需求的AI友爱型硬件和软件体系都十分贵重,在这些方面公司的发展相当缓慢。
缓慢到,现已阻碍了Meta跟上大规模创新的步伐。
这但是个扎手的大麻烦,要知道,Meta的增长,越来越依赖AI。
根底设备负责人Santosh Janardhan着重,无论是开发AI的工具,还是作业流程,Meta都现已远远落后于其他对手。
「Meta需求从根本上改变物理根底设备规划、软件体系和供给稳定渠道的办法。」
一年多来,Meta一直在搞的大项目,就是期望完善AI根底设备。但经历过产能紧缩、领导层变化和废弃的AI芯片项目后,Meta的变革似乎不尽善尽美。
所以,Meta彻底放弃AI芯片了?
对于外媒的这个发问,Meta发言人Jon Carvill表明,公司「在大规模创建和布置最先进的根底设备方面有着良好的记载,并有着人工智能研讨和工程方面的深厚专业知识。」
「跟着咱们为应用程序和消费产品系列带来新的AI体验,咱们有决心持续扩展根底设备的才能,以满意咱们的近期和长期需求。」
总之,没有正面答复。
但这次变革,现已耗费了很多的人力物力。
据悉,变革使Meta每季度的资本开销增加了约40亿美元,简直是2021年开销的两倍。而且Meta此前建设4个数据中心的方案,也因此暂停或取消。
Meta的资本开销大增
而这些大笔开销,跟Meta严峻的财务紧缩期又恰恰重合。
上一年11月以来,硅谷的互联网泡沫开端幻灭,Meta一直在大规模裁人。
OpenAI的ChatGPT在11月30日亮相后,立马引爆了科技巨头之间的军备比赛。
此后的生成式AI大战,吞噬了很多的算力,这更逼得Meta加紧变革。
极力追赶
据悉,Meta在实际面前,不得不选择低头。
高管们取消了在2022年大规模推出自研芯片的方案,回头订货了价值数十亿美元的英伟达GPU。
但此时,现已为时已晚。
Meta现已落后于谷歌等同行一大截,谷歌早在2015年就开端布置自己定制的GPU——TPU。
在2022年春天,高管们也一起开端着手重组Meta的AI部门。
这期间发生了长达数月的动乱,十几位高管脱离了。AI根底设备领导层,整个经历了一次大换血。
接下来,Meta的作业也很扎手。
他们得费老迈劲重组数据中心,来适应新的GPU,因为GPU比CPU的功耗和产热都更多,还必须用专用网络把它们聚在一起。
为了办理集群的热量,这些设备需求24到32倍的网络容量和新的液冷体系,因此需求从头规划。
即便如此,Meta似乎也并没有放弃自研芯片的道路。
据悉,新的内部芯片会和GPU相同,能够练习AI模型并执行推理,将于2025年左右完结。
悬崖勒马,回头是岸
此前,微软有ChatGPT,谷歌紧忙拉Bard出来对打,Meta却似乎并不急于下场生成式AI比赛,推出的LLaMA也并不用作商用。
Meta CFO Susan Li在2月承认,Meta并没有将大部分计算资源投入到生成式AI中,而是基本上将一切的AI才能都用于广告、feeds和Reels(类似于TikTok的短视频)。
此前,同谷歌相同,Meta并不重视生成式AI。Meta的FAIR实验室从21年末以来,就在发布这种AI技能的原型,研讨成果也备受推重,但Meta从未考虑过将其转化为产品。
上一年11月中旬,Meta的FAIR实验室曾提出Galactica模型
但是ChatGPT诞生后,一切都不相同了。投资者的兴趣开端飙升,小扎在本年二月官宣了全新的顶级团队,押宝生成式AI。
据悉,作业的重点是建成一个根底模型,在这个中心的根底上,能够针对不同产品进行微谐和调整。
All In AIGC?网友:改名MetAI吧
18个月前,小扎把Facebook的未来押在了元宇宙上,乃至还把公司的名字改成了Meta。最近,他又迷上了另一个十分烧钱的技能——AIGC。
本月早些时候,Meta首席技能官Andrew Bosworth表明,扎克伯格和其他高管现在把大部分时刻都花在了人工智能上。
对此,Bernstein的剖析师表明,照这个姿势下去,Meta很可能要改名叫——MetAI了。
不过,想要追上OpenAI、微软和谷歌的步伐,Meta就必须为练习这些超大规模的生成式AI模型,大举采购英伟达的芯片(单个组件1万美金起跳)。
目前,耗时5个月练习出的「Meta版ChatGPT」LLaMa,用的是2048个80GB显存的A100。
作为对比,微软为OpenAI量身定做的超算,搭载的但是上万块A100。
而ChatGPT和Bard「决一死战」的背后,正是英伟达CUDA支撑的GPU(图形处理单元)和谷歌定制的TPU(张量处理单元)。
换句话说,这现已不再是关于ChatGPT与Bard的对立,而是TPU与GPU之间的对决,以及它们怎么有效地进行矩阵乘法。
因为在硬件架构方面的超卓规划,英伟达的GPU十分合适矩阵乘法使命——能有效地在多个CUDA中心之间完成并行处理。
因此从2012年开端,在GPU上练习模型便成为了深度学习范畴的共识,至今都未曾改变。
而跟着NVIDIA DGX的推出,英伟达能够为简直一切的AI使命供给一站式硬件和软件解决方案,这是竞争对手因为缺乏知识产权而无法供给的。
相比之下,谷歌则在2016年推出了第一代张量处理单元(TPU),其间不仅包含了专门为张量计算优化的定制ASIC(专用集成电路),而且还针对自家的TensorFlow结构进行了优化。
而这也让TPU在矩阵乘法之外的其他AI计算使命中具有优势,乃至还能够加速微谐和推理使命。
不过,微软与英伟达长久以来的深度合作,让各自在职业上的积累得到充分地使用,并以此一起扩大了两边的竞争优势。
尤其是当ChatGPT开端横扫整个AI圈时,两家公司的市值也是一路狂飙。
而这波被ChatGPT带起来的大模型炼丹潮,更是让「炼丹炉」供应商英伟达赚得盆满钵满。仅在本年的这几个月里,市值就增长了超过80%。
裁人硅谷第二,野心怎么支撑
但是,Meta现在好像并没有满足的资金来支撑自己的野心。
众所周知,这段时刻裁人潮持续席卷了整个科技职业,但有些公司裁得比他人更多。
在比例上,裁掉80%职工的推特毫无疑问地占据了第一的方位,而送走近四分之一职工的Meta紧随其后。
在数量上,Meta也凭借着高达2.1万人的巨大优势位列第二,但这并没包含行将进行第三轮裁人。
2022年,在小扎宣布大裁人之前,Meta有差不多87,000名职工。但在11月时毕业了11,000人,3月又毕业了10,000人。
据Insider报导,Meta的第三轮裁人会直接影响数千人,而办理层职位更是首战之地。包含但不限于,实际实验室、Facebook和Instagram的技能产品司理,以及人工智能研讨科学家、软件工程师、数据工程师等。
最新的一项剖析显现,从2018年到2022年,Meta的职工队伍胀大了143%,但每个职工的收入在这段时刻内下降了14%。
高管变化、职工丢失、资金不足、道路选错,Meta前方的路,似乎困难重重。
让咱们看看小扎接下来会怎么走。
参考资料:
www.reuters.com/technology/…