[复盘]AI热下的冷思考: 产品落地难点剖析
AI热潮席卷而来,产品却频频“落不下地”。本文从一线实操视角出发,复盘AI产品在落地过程中遇到的典型难题,揭示从技术能力到场景匹配之间的断层,是一份关于“冷思考”的现实指南。
背景
最近技术不断的更新,从AutoGLM2.0点外卖到nanobanana掀起的一片生图狂潮,资本和企业以前所未有的热情涌入,大家都对于AI抱有很大的热情,好像对于企业来说AI可以解决一切问题。
但当我进入现在这家制造业公司落地AI项目,我才发现toB企业内落地的根本难点并不是AI的技术有多难,因为技术是你沉下心来可以去学习再优化落地、调整的一种手段。但如果一开始我们就搞错了重点,只会更快地发现错误有多彻底。
我们在落地的过程中遇到了无数问题:
1.企业对AI存在一定的幻想,由于不了解技术,会认为AI是万能的,需要管理用户预期
2.想落地AI(因为有硬指标),但是缺失数据,工业AI对结果的容错率要求极高,没有原始数据根本无法完成任务
3.企业工作流程不规范,中层管理者推动产品落地的原动力不强,需要先搞定上层管理者
4.企业内系统太多,各类ERP、MES等原住民系统都需要接入,还有传感器数据、图片信息等,而且传感器数据还存在脏数据,依赖底层数据处理和接入能力
5.工业生产和管理流程复杂,缺乏明确且可复制的AI应用场景和业务需求分析,导致AI技术难以融入现有生产环节,对业务了解程度依赖性极高
我在工作的时候就会有一些很明显的体感,论坛和网站都在更新各种技术,各种视觉、语言、世界模型,但回到工作仿佛世界与我无关。
在听播客、甚至做客户调研的时候,发现大家遇到的问题真的是类似的,Agent产品实施复杂度高,需要端到端整合能力。
决定AI成败的,往往不是算法,而是水下看不见的基础建设。所以这篇文章我想好好复盘一下我目前的项目所遇到的问题和我的解决方案,希望能给大家一些参考价值,以及想跟志同道合的朋友一起讨论问题。
所以,我想借这篇文章,复盘我的项目经历,从数据、流程、人这三个核心维度,拆解我们遇到的真实难题和应对思考,希望能给同行者一些参考,也期待与志同道合的朋友们一同探讨。
项目复盘
我在项目初期花了1个月猛搞AI,各种提升准确率、召回率、指令遵循效果,最后上线发现用户使用率并不及预期。
巨大的挫败感让我开始反思,并把目光从模型转向了更前端。在接下来的时间里,我花了大量时间去寻找数据、清洗数据、对齐不同系统间的术语。我发现,项目前期近80%的时间,都耗费在了这些看似基础的工作上,而非核心的算法建模。
第一道难题:数据难收集
场景一:为了追溯批次的产品质量问题,我们需要跨越3个不同的业务系统、翻阅N份散落的Excel、再对照纸质的SOP(标准作业程序),才能拼凑出完整的信息链条。
场景二:一个知识问答机器人,在回答“为什么A设备今天停机了?”这类问题时,它不仅需要理解制造流程,还需要实时关联设备传感器数据、维修日志和排班表才能给出准确答案。
上面的案例无法闭环,主要发生的真正原因是:
知识非标准化:每个人的记录方式、格式、术语都不同。
非结构化:大量信息是文本描述、包含图片、复杂的文档,难以提取。
数据缺失:很多隐性知识都在老师傅的脑子里,不愿意提供也不愿意沉淀
系统壁垒:MES、ERP数据接入难,友商不配合、领导不推动就拿不到,数据标准也不统一,同一个字段叫法不一样。
数据质量:传感器数据存在脏数据、缺失、延迟。人工二次确认后录入的数据标准不一、存在错误。
第二道难题:工作流的割裂与混乱
我们现在的产品提供的是一个单独的网页&小程序,虽然已经非常方便了,但是还是与他们现有的使用流程不兼容。他们目前的使用流程是在现场发现问题,就直接去现场电脑的MES中查询数据。
即使我们解决了数据问题,新的AI系统也可能与工厂现有的生产管理流程格格不入,成为一个外挂累赘。很难找到一个稳定、可复制的AI应用切入点。同时由于流程不规范,即使AI给出了行动建议,也难以推动员工执行和衡量效果。
而以上问题的真正原因:
流程不规范:企业工作流程不规范,很多操作依赖于个人习惯,而非标准SOP。
流程割裂:生产、质量、设备等部门的流程相互独立,缺乏端到端的全局视角,不同部门之间互相推诿。
第三道难题:人的观念与组织的惯性
解决完上面的问题,还有一道难题,一线老师傅的软抵制。他们不仅是数据的所有者,更是流程的执行者。AI项目成为了一个高层想要,基层不鸟,中层不动的空中楼阁:
高层管理人员:企业对AI存在一定的幻想,期望AI能解决一切问题,对前期基础建设的投入和耐心不足。
中层管理人员:推动产品落地的原动力不强,他们更关心自己的KPI和流程稳定,AI项目对他们而言可能是额外的麻烦
基层执行人员:他们会有危机感,觉得AI是来抢饭碗的。同时存在经验傲慢的情况,认为机器怎么可能比几十年的经验还准?
AI项目需要生产、IT、采购等多个部门通力合作,但由于缺乏来自最高决策层的强力推动和资源倾斜,导致部门间互相推诿,项目进展缓慢。项目的推进,严重依赖于找到关键的高层发起人和中层合作者,搞定人反而比搞定技术更难。
思考
方向调整
经历上面的这些,我的方向也会发生一些根本性的转变,从大模型转向到AI工程化,将成熟的AI技术,通过强大的工程化能力,稳定、可靠地应用到真实场景中。
在落地AI项目的时候更加关注的应该是数据校验、模型监控、可解释性、人机协同等工程化技术,而不单单是AI。国外的AI产品在落地时可能AI只是其中参与的一部分而不是全部,现在国内的AI产品缺少了对于全局产品使用上下游的统一。
需要有效地管理好用户的预期,告诉他AI的边界在哪里。这个沟通和引导的问题,比模型本身更重要,所以AI产品的Onboarding流程非常重要。
数字化地基搭建
AI落地不应该是一个独立的AI项目,而应该是企业数字化转型到高级阶段的必然结果。如果不提早构建AI数据和知识,应用效果难以提升,也不可能实现更好的商业价值。AI应用的上限由算法决定,但下限、可靠性以及最终的商业价值,完全取决于知识源的质量和结构。
基础建设原则
推动数据治理:建立统一的数据标准和数据字典。
流程梳理与标准化:在引入AI前,先对核心业务流程进行梳理和优化。
小处着手:从一个数据基础最好、流程最规范的单点开始,用效果来证明价值,再逐步推广。
多模态数据需融合:
结构化数据:来自MES、ERP、SCADA等系统的工艺参数、生产订单、物料信息、质量检测结果(如长、宽、高、缺陷数量)。
非结构化数据:
图像与视频:产线监控视频、产品质检图片(如表面划痕、缺陷)、设备运行状态的红外图像。
文本:设备维修日志、老师傅的SOP操作手册、工艺变更记录、客户投诉报告。
时序数据:传感器采集的温度、压力、振动、电流等连续性数据流。
业务知识图谱构建:将零散的数据点连接成网,构建人-机-料-法-环-测之间的关联关系。例如,将某一批次的产品缺陷,与当时的生产设备、操作人员、环境温度、物料供应商等信息关联起来,形成一个完整的知识链条。
最终目标是构建一个高质量、可追溯、可理解的制造业数字孪生知识库,未来反而会成为我们自己企业在工业AI中的壁垒,让AI真正理解生产逻辑和工艺知识。
找到统一战线
AI项目必须是一个一把手工程,并需要为中层和基层带来明确的、可感知的价值。
对高层:将AI的价值,翻译成他们能听懂的ROI。
对中层:将AI定位为能帮助他们达成KPI、减轻管理负担的赋能工具。
对基层:将AI定位为能减少他们重复劳动、提升他们专业技能的智能助手。
打通全链路:从单点智能到全局智慧
观点:AI的终极价值,在于打通从研发-生产-质量-供应链的全链路数据,提供全局最优的决策支持。
具体方向:提出构建工业数据中台或企业知识图谱的长期愿景。
只有成功穿越了数据地基和流程壁垒的重重考验,AI的理论性能,才能最终转化为可被衡量的商业价值(降本、增效、创收)。AI不再是主角,而是整个价值链中的一个赋能环节。
建议
先做数字化体检,再开AI药方
在立项前,请先诚实地评估:我的核心业务数据在哪里?它们是电子化的吗?是标准化的吗?获取和打通它们的难度有多大?
把数据基建视为战略投资
将数据治理、业务流程线上化、打通数据孤岛等工作,提升到战略高度。这就像修路,路修好了,才能跑各种各样的AI汽车。这是一项长期但回报巨大的投资。
注重新数据沉淀,给出时间优化,协助企业完善数字化。
保持谦逊与耐心
工业领域的数字化转型是一场持久战,需要从项目思维到平台思维
统一数据底座:构建湖仓一体架构,作为所有AI应用唯一、可信的数据源头,彻底解决数据孤岛问题。
知识转化引擎:建立自动化数据处理管道,将原始的多模态数据高效转化为AI可用的结构化知识和向量。
知识图谱平台:引入知识图谱技术,将隐性的行业Know-How显性化、结构化,为AI提供深度推理的能力。
LLMOps中心:搭建模型应用的管理与运维平台,系统化解决Prompt工程、应用监控和迭代优化的问题。
价值闭环:设计一个从应用效果到数据源头的反馈机制,让AI在与业务的交互中持续学习和改进,是AI基础设施建设的终极目标。
从赋能思维转向共建思维
让AI成为一线员工的助手,邀请他们参与到产品的设计和优化中来,让他们感受到AI是来帮助他们的。
高层必须下场:AI转型是一把手工程,需要最高管理者亲自推动,打破部门墙,统一认知,为项目保驾护航。
AI产品经理思维:首先需要懂业务和人性,其次才是技术专家。落地时注重MVP思维,能在2-4周内快速见效,用一个小而美的胜利,来建立信任和争取资源。
近两年Agent生态成熟:多Agent协同成为企业标配,企业数据平台化趋势明显,结果付费成为主流
总结
AI的热潮之下,我们更需要回归商业的本质。技术的价值最终要体现在业务流程中。
GarbageIn,GarbageOut是AI领域铁律。用不完整的数据,得到的必然是不可靠AI应用。
算法的优化或许能提升5%-10%的效果,但高质量、大规模的数据能够将整体效果提升数倍,直接决定了项目的上限。没有好的食材(数据),再厉害的厨师(算法)也做不出好菜。