热搜词: 河南思皓 思皓

Arm发布Lumex CSS平台, 以两位数IPC提升推动端侧AI体验变革

[CNMO科技新闻]今日,Arm公司正式推出全新一代计算子系统平台——ArmLumexCSS,该平台致力于为旗舰智能手机与下一代PC设备提供更强大的AI算力支撑,带来包括智能语音助手、实时翻译、个性化服务等在内的丰富端侧AI体验。据悉,Lumex平台在多方面实现显著性能突破,尤其在AI推理、能效管理与图形处理等领域提升显著。

性能方面,LumexCSS平台依托搭载第二代可伸缩矩阵扩展(SME2)技术的Armv9.3架构CPU,实现了高达五倍的AI性能提升。在实际应用场景中,语音类任务延迟降低4.7倍,音频生成速度提升2.8倍,极大改善了终端用户的使用流畅度与响应体验。该平台还首次在旗舰级设备中实现连续六年两位数的每时钟周期指令数(IPC)增长,显示出Arm在处理器微架构设计方面的持续领先。

除了CPU的重大升级,Arm也发布了新一代MaliG1-UltraGPU,其光线追踪性能达到前代产品的两倍,显著提升了移动游戏画质与真实感。同时,该GPU还在AI推理任务中实现了高达20%的性能增益,进一步强化了平台在复杂视觉与AI负载中的综合表现。

尤为值得注意的是,Lumex并非单一IP组合,而是一套完整的硬件与软件协同解决方案。通过KleidiAI软件库,开发者可在主流AI框架(如PyTorchExecuTorch、GoogleLiteRT、阿里巴巴MNN和微软ONNXRuntime)中无缝调用SME2硬件加速能力,无需修改代码即可实现性能提升。这一特性大幅降低了AI应用开发与部署的门槛,为生态快速成熟奠定基础。

在实际落地方面,Arm也与多家行业头部企业展开合作。例如,在与支付宝、vivo共同推进的大语言模型端侧推理项目中,借助SME2技术成功将响应延迟降低40%,显著提升了用户体验。阿里巴巴MNN团队也指出,通过深度融合SME2,其能够在智能手机端支持十亿参数级别大模型的低延迟量化推理,显示出该技术在下一代移动AI基础设施中的关键价值。

除了性能,Lumex在设计灵活性方面也提供多种选项。合作伙伴可选择直接采用Arm预集成的物理实现方案以缩短上市时间,也可基于寄存器传输级(RTL)设计进行自定义配置,以适应不同市场与功耗需求。该平台涵盖从旗舰级C1-Ultra、注重面积效率的C1-Premium,到高能效C1-Pro及超低功耗C1-Nano等多个CPU配置,覆盖智能手机、PC、可穿戴设备等多种产品形态。

Arm终端事业部总经理ChrisBergey强调,AI已不再是附加功能,而是下一代移动技术的核心。Lumex平台的推出,正是为了应对设备端对更高算力、更低延迟、更强隐私保护能力的综合需求。他预计,到2030年,SME与SME2技术将为超过30亿台设备带来超过100亿TOPS的额外算力。

从行业角度看,ArmLumex的发布进一步巩固了其在移动计算生态中的核心地位。谷歌、三星、MediaTek、腾讯等企业均表示正在推进相关集成与优化工作。尤其是在端侧大模型、生成式AI、实时渲染等前沿场景中,Lumex有望成为推动终端体验变革的关键平台。

总体而言,ArmLumexCSS不仅是一次硬件迭代,更标志着端侧AI正从实验性功能走向系统级支持。其通过架构创新与生态协作,为下一代消费电子设备的“更智能、更高效、更个性化”奠定了坚实基础。随着搭载该平台的终端陆续面世,一个真正属于设备本身的AI时代正在到来。