2月20日,在OPPO AI战略发布会上,OPPO宣布进入AI手机时代,分享三级大模型部署策略,并介绍了OPPO AI手机的云端算力——拥有能够支持千亿级AI模型训练的高算力的OPPO AI滨海湾数据中心。
OPPO AI滨海湾数据中心
该数据中心位于广东省东莞市,主要包括4栋数据中心大楼和1栋综合办公楼,总投资14.76亿元,共建设6736个8KW机柜,采用先进GPU训练集群和互联架构,可支撑千亿超大模型预训练,也了部署浸没式液冷GPU服务器集群在数据中心开展试点。未来OPPO将通过它部署Titan、Turbo、Tiny三个级别的模型对应不同应用场景。
AI手机成新趋势带来算力新增长点
2023年下半年至今,多家手机厂商纷纷拥抱AI,大模型的风终于吹到了手机行业。
华为宣布HarmonyOS 4系统全面接入盘古大模型,OPPO发布自主训练的安第斯大模型(AndesGPT),vivo发布首款大模型手机vivo S18系列,搭载自研的AI蓝心大模型;荣耀发布首个平台级自研7B端侧AI大模型——魔法大模型;小米自研大语言模型MiLM,小爱同学AI助手也正式通过生成式AI服务备案。
据行业媒体统计,手机市场上排名位列前五的国产手机厂商,都已发布其端侧大模型产品。
大模型为手机带来哪些改变?华金证券在研报中指出,AI大模型可增强手机处理图像、语音、NLP(自然语言处理)等任务的能力。此外,AI大模型拥有庞大的语言数据库作为训练资源,在算力和算法的支持下,手机可以理解复杂的语意和语境。基于准确的自然语义理解,外加庞大的知识和数据库,手机可以给出准确和快速的回答。
OPPO创始人、首席执行官陈明在内部信上说,“AI将成为继功能机、智能手机之后,手机的第三阶段”。魅族宣布将停止传统智能手机新项目的开发。荣耀CEO赵明表示:“当下的操作系统值得用AI重做一遍”。
AI手机的崛起与普及大势所趋。
OPPO首席产品官刘作虎称,手机厂商要抢占AI先机,就必须进行从底座到生态的全方位布局。这里的底座,当然包括支撑大模型训练与推理的算力。
此前智能手机的应用带来了数据量爆炸式增长,推动数据中心规模与高速发展。
如今,大模型为手机行业引入活水的同时,AI手机也将为算力行业带来新增长点。
大模型算力租用供给与价格成挑战
推出大模型的手机厂商如何满足算力需求,租用还是自建?
算力需求规模与价格是决定性因素。
大模型需要多少算力,以ChatGPT做参考。OpenAI推出的Chat GPT-3训练使用了128台英伟达A100服务器训练34天,对应640P算力,GPT-4模型训练使用了3125台英伟达A100服务器训练90至100天,对应15625P算力。从GPT-3至GPT-4模型参数规模增加约10倍,但用于训练的GPU数量增加了近24倍。
除大模型训练之外,推理需求同样不容忽视。AI手机中的大模型自带众多用户——仅过去一年全国前五的手机厂商销量与激活量均超过3500万台,不久的将来AI手机大规模问世使用,形成规模的、稳定的推理算力需求,手机厂商如何满足?
租用算力是当前大部分厂商的选择,可以满足当下大模型需求,也不需要建设的大额投入。
但长远来看,租用算力也存在两点弊端。
“百模大战”已经升级为“两百模大战”,大模型的智能算力需求上升供应紧张,用于AI训练推理的GPU一卡难求。2023年底,多家上市企业宣布上调算力服务收费价格,有AI算力服务单价由12万元/P/年上涨为18万元/P/年,更有的最高涨幅达100%。国盛证券认为,在国际因素和AI应用加速迭代等前提下,算力集体提价并非短期波动,而是在开启中长期的涨价潮。
智能算力紧缺、价格上涨的情况下,自建成为手机厂商们选择之一。
从OPPO自建的AI数据中心,到目前投用的智算中心不难看出,超大规模、GPU和散热性是满足大模型需求的算力中心的必备特征。因此,其中的技术难度和高投资额都是横在手机厂商自建算力中心前的难题。
总结来看,手机厂商解决大模型的算力需求,租用要面临算力供给与价格挑战,自建则要考虑技术难度与投入成本。
IDC预计,中国市场新一代AI手机所占份额将在2024年后迅速攀升,2027年达到1.5亿部,市场份额超过50%。
随着AI手机使用普及,手机搭载的大模型的应用与算力需求将持续增长,IDC圈认为,初期仍然会以租用算力为主,但当大模型用户达到一定量级,自建算力中心将凭借稳定供给与价格优势,成为值得考虑的选项。