联发科猛攻AI端侧AI芯片大角逐
眼下,生成式AI正势不可挡地重塑着产业生态,划分出新的代际。
有观点认为,Transformer大模型出现之前,都可以被称为AI“史前时代”;若之后回望2024年,或许将是端侧AI的分水岭,从芯片龙头、到手机厂商、再到应用开发,AI成为产业链上的绝对主题。
其中,移动终端的AI芯片已经开启新的角力场,底层的芯片厂商在今年加快了迭代步伐、释放更大声量。
5月7日,联发科就举行了天玑开发者大会2024(MDDC 2024)。
值得注意的是,这是联发科第一次举办开发者大会,剑指AI和生态构建。
在会上,联发科不仅发布了“9300+”旗舰5G生成式AI移动芯片,还启动了“AI先锋计划”、推出AI开发套件,积极和产业链抱团协作。目前,联发科已与谷歌、Meta、百度、百川智能等大模型达成合作,天玑移动芯片将支持包括阿里云通义千问、零一万物等更多大模型。
在3月18日,另一家芯片龙头高通推出第三代骁龙8s移动平台,支持广泛的AI模型,包括Baichuan-7B、Gemini Nano、Llama 2和智谱ChatGLM等大语言模型。同时,高通还推出了AI Hub开发套件。
可以看到,手机芯片厂商在生成式AI战场上的竞赛已经拉开帷幕,随着接下来苹果揭开AI计划,移动端的AI叙事和角逐将进入新阶段。
手机AI芯片之战
随着生成式AI的渗透,芯片厂商的比拼早已不局限于硬件。芯片平台之外,厂商还要强健开发者生态、软件解决方案、乃至和产业链共同定义新标准,才能在新的赛场上卡位,争取更多的话语权。
目前安卓系手机厂商中,联发科和高通是两大龙头,AI都被视为新增长点。
如今,联发科继续往高端突围的同时,正在猛攻AI来开辟新路径。
首先看芯片层面,联发科此次推出的天玑9300+旗舰芯片。据介绍,天玑9300+采用全大核CPU架构,八核CPU包含4个最高频率可达3.4 GHz的Cortex-X4超大核,以及4个主频为2.0GHz的 Cortex-A720大核,瞄准高端手机用户、提升游戏体验。
在支持生成式AI能力上,天玑9300+率先在端侧支持AI推测解码加速技术,同时支持天玑AI LoRA Fusion 2.0技术。再加上支持主流的生成式AI大模型,芯片可提供文字、图像、音乐等端侧生成式 AI 多模态体验。
对比来看,高通推出的第三代骁龙8移动平台也主打端侧人工智能,支持多模态通用AI模型,已支持运行130亿参数的大模型,而骁龙8s移动平台更是进一步对中端市场进行覆盖。整体而言,在中高端手机市场上,高通和联发科都在加快布局,发布节奏也越来越接近。
另一方面,芯片算力之外,开发者生态更受到业内关注,因为AI创新非常需要第三方的应用开发者的参与,此前高通的AI HUB就是开发者生态建设的尝试。
此番,联发科联合了阿里云、百川智能、传音、零一万物、OPPO、荣耀、vivo、小米启动“天玑AI先锋计划”,助力开发者在搭载天玑芯片的终端设备上进行创新。同时还推出“天玑AI开发套件”,可以协助开发者加速大模型的终端部署、优化开发流程、提升开发环境等。
联发科技无线通信事业部副总经理李彦辑在接受媒体采访时谈道:“先锋计划就是希望能够跟具有指标性、开发比较早的、开始导入生成式AI的应用开发者,一起把生态往前推动。AI先锋计划包含两部分,第一个环节是我们和一些模型、OEM厂商联合;再者是跟所有的APP开发厂商,在这样的硬件基础上,探索怎么样开发新的应用。”
21世纪经济报道记者在会场观察到,现在虽然是在端侧AI初期,但是大模型厂商、APP应用厂商,已经直接和芯片厂商进行合作。正如百川智能创始人、CEO王小川在会上所言,以前做搜狗的时候从来不用见芯片公司,但是做了大模型后是不得不见。
因此,在现场,除了手机企业展台外,APP企业、大模型合作案例,也占据着展会C位。比如,抖音就在联发科芯片的基础上,结合自家的端侧SDXL-Lightning大模型,提供高画质文生图功能。
这是应用、大模型和芯片三者直接紧密合作的典型案例。可以说,生成式AI时代的移动生态,正在酝酿新的合作模式,算力的分配调用也在重构。芯片对于AI体验的影响力进一步加强,同时AI应用也对芯片提出更高要求,考验着芯片厂商在生态合作、算力优化等全方位的能力。
移动生态之变
可以预见,生成式AI正在重塑着移动生态的新格局。芯片厂商和手机品牌、手机应用、大模型厂商之间的关系面临新的变化和机遇。
一方面,当前不仅是芯片厂商在联合大模型,手机公司更是纷纷推出端侧大模型,而互联网巨头更是早就推出了一系列的大模型产品。当云端大模型、终端大模型都集成到手机中,各大主体之间是否有竞争关系?而生成式AI究竟会孕育出怎么样的杀手级应用?这些课题都是关注焦点。
首先,谈及产业链上各环节的关系,联发科技无线通信事业部生态发展资深总监章立谈道:“生成式AI一定是个开放的生态。一个闭环的或者封闭的解决方案,可能没有办法适应生成式AI这个场景,因为不知道创新出现在哪里,这是最大的问题。我们希望和大模型合作能打造一个生态的土壤,手机厂商能够找到创新的用户体验。所以我们希望这是一个把饼做大的过程,在生成式AI到来之际,无论是开发者、芯片厂商还是手机厂商,面对的都是更巨大的市场,这应该是三方的最大公约数。”
会上,联发科与Counterpoint等联合发布了《生成式AI手机产业白皮书》,白皮书预计,生成式AI手机将在未来几年保持高速成长,生成式AI手机的存量规模将在2027年突破10亿大关,帮助实现生成式AI技术的普惠。
面对增长的市场,不论是手机厂商、应用厂商都在寻求创新路线。章立还指出:“如果涉及到芯片级层次的技术创新,厂商一定会选择和芯片公司优先合作,这样可以抹平不同机型和品牌之间的技术差异。越来越会从芯片的底层来发掘如何利用移动平台的技术打造创新的用户体验,未来一段时间生成式AI和芯片是强相关。”
其次,对于杀手级应用,联发科董事、总经理暨营运长陈冠州谈道:“两年内会出现杀手级应用,不论云端和终端,谁先出现不重要。联发科在思考怎么样在端侧早一点出现杀手级应用。一方面是规范化,内存等方面很复杂;第二方面优化,端侧相对于云侧算力小,首先需要进行模型优化,比如专家系统怎么根据各行各业进行优化,怎么和产业链上下游去优化,规范和优化是同样重要的事情。”
另一方面,在引入生成式AI的过程中,仍面临挑战,最大的一个拷问就是为什么需要端侧AI。联发科技无线通信事业部技术规划总监李俊男认为,在端侧有几个必须,比如隐私保护,一些数据用户不想上云,使用端侧大模型,即使没有网络的时候大模型还是可以很快地做回答和交互。另外手机天生有多模态优势,有声音、影像,这样的交互是最自然的,所以端侧很适合做GAI。
不过在具体的落地方面有不少难题,李彦辑谈道:“其实大模型厂商很希望能够在端侧高效运行大模型,面临的问题基本上有两大类:一类就是运行有没有效率,耗电量是多少或者速度够不够快;第二是它的内存占用可能过高,这些我们都有相应的解决方案。”
多位开发者告诉21世纪经济报道记者,目前端侧有7B的大模型,装到手机这么小的设备里面,就是很大的挑战。而且头部应用往往倾向于使用自己的大模型,而将所有大模型都加载到本地是不现实的,未来端云协同将是趋势。
声明:免责声明:此文内容为本网站转载企业宣传资讯,仅代表作者个人观点,与本网无关。仅供读者参考,并请自行核实相关内容。