分享

年后AI落地别踩坑!DeepSeek热潮下,企业最容易犯的2个错(含详细避坑指南)

 真友书屋 2025-02-06 发布于浙江

春节期间这波AI热潮,注定会从餐桌前的谈资,延续到办公桌上的行动计划。

可以预见,开工之后,会有越来越多的企业,抱着"有枣没枣打一杆"的心态,开始规划AI项目。

就像当年的互联网转型一样,AI似乎也开始成为了企业升级的必答题。

一、两块硬骨头

不过,对于众多蠢蠢欲动的AI团队来说,要想在年终考核时达成KPI,有两块硬骨头必须啃下来:

1、选择合适的技术路线

此时的AI发展态势,恰如彼时的田径史:

四分钟跑完一英里,曾被认为是人类的生理极限。直到罗杰·班尼斯特以3分59.4秒打破这个纪录。一旦心理障碍被打破,随之而来的就是一连串的突破。这个纪录仅仅维持了46天,就被约翰·兰迪刷新至3分57.9秒。

今天的AI领域,正经历着类似的历史时刻。整个2024 年,关于AI 减速的讨论此起彼伏。而DeepSeek的突破,就像是AI界的“班尼斯特时刻”,打破了发展的心理藩篱。加上开源浪潮的推动,AI技术迭代正在加速。[1]

在这样的关键节点上,选择技术路线不仅要考虑当下的技术成熟度,更要预判未来的发展方向。押对了,就能在技术浪潮中占得先机;押错了,可能需要付出数倍的代价重新开始。

2、从成本中心转变为利润中心

不然,等到下一轮"降本增效"来临时,AI团队往往是第一批被"优化"的对象。

前两年,很多AI团队之所以难以成为利润中心,症结往往不在AI商业化本身,而在于对技术与业务融合的理解过于肤浅。不少团队陷入了技术中心主义的误区,以为掌握了算法就等于掌握了价值创造的钥匙。

这种情况下,AI团队往往成为企业内的技术孤岛,整天研究最新的算法和模型,却很少了解业务痛点。双方就像说着不同语言的两个群体,AI团队滔滔不绝地讲着技术术语,而业务人员只关心问题能否解决、成本和风险。

这种割裂,最终会陷入恶性循环。AI团队为证明价值不断追求技术指标提升,却始终无法解决实际业务问题。业务部门见不到效果,就更不愿投入资源支持,进一步加剧了双方的隔阂……

二、两类参考答案

针对技术路线的问题,我春节期间看到最好的参考答案是perplexity。

1、

我原本以为,perplexity 很快会被联网版的deepseek R1 取代。

因为deepseek 足够强的推理加上实时的联网,就把提示词的门槛给打了下来。

每个人只要像聊天一样输入自己的问题,就能收获其他AI改半天提示词也达不到的效果。[2]

于是我就想,免费的deepseek 就能搜成这样了,又要付费的perplexity干嘛呢?

2、

但实际情况却是,perplexity 不仅很快就引入了deepseek R1,而且成为了所有引入deepseek的产品中速度最快和效果最惊艳的:

deepseek原生的R1加上搜索,偶尔还是太飘了;不少人说最新版本的秘塔AI搜索,配的是满血的R1,但实测效果也远不如perplexity。 

perplexity之所以那么好用,是因为我先用Claude 去理解和搜索,再用R1去推理(如图)。前者让搜的内容更精准,后者让出来的结果更有洞察。整体有点类似于当下热门的DeepClaude的效果。

所以,早在deepseek没有限制联网之前,我就重新换回perplexity了。

确实没想到,perplexity 的产品力恐怖如斯。无论模型层有多大进步,都能快速转化成自己的能力,让搜索效果更好,让用户体验更佳。

回到技术路线问题上,个人认为perplexity这种「不会被模型进步干掉,反而是模型越强我越强」架构,反倒更值得追求。

3、

在企业领域,在“模型越强我越强”方面做得最好的,当属美国AI ToB当红炸子鸡Palantir 家的Ontology 。

什么是Ontology?

2021年的Demo Day上,Palantir曾宣称,他们能在几个小时内,自动整合完公司各部门数据,形成整个公司的“数字分身”(digital twin)。而这,就是Ontology。[3]

时间来到2023 年,Palantir与时俱进推出的AIP,更是直接将先进的AI模型(如ChatGPT)与Ontology框架结合,进一步简化操作,增强客户基于全面、实时洞察做决策的能力。

当年第四季度,Palantir 就在报告里说,美国商业收入同比增长70%,这主要得益于AIP的成功推出和市场需求……

4、

虽然,目前还没有消息说Palantir 要AIP里引入deepseek,但我敢确信,只要跟Ontology框架结合,就一定会有超预期的效果。

理由无他,只是因为Ontology 跟deepseek 等头部AI 太配了。

如果说互联网产品的工作机制是"预设路径下的功能调用”,那么生成式AI产品则是“上下文感知下的动态生成”。

AI负责感知和生成,Ontology则主攻“上下文”。

这个“上下文”有多重要呢?就像在现实生活中,我们绝不允许医生在不看任何病历资料的情况下就匆忙开药,就算是华佗在世也不行。

想要AI 生成准确的结果,就要提供详尽如“检查报告、过往病史和家族病史”的上下文。否则,再强的AI 在手,也只能空叹“庸医误人”。

5、

所以,Ontology 是如何解决「大模型们缺乏有效上下文」问题的呢?

太技术的内容,先不做展开。我就拿自己比较熟悉的影视行业,举个例子吧:

【before】

在没有 Ontology 之前,创作素材和各方意见散落各处,形成 “信息孤岛”,导致沟通成本极高。

据一位非常资深的行业专家估计,行业里70%以上时间,都耗费在信息沟通上。

很多时候,由于缺失太多必要的背景信息,最强的AI 也无法提供足够有针对性的帮助。

【after】

而引入Ontology后,可整合项目各种数据,动态链接关联,形成 “智能故事大纲”。

这时,AI就像是一位对项目了如指掌的老编剧,无需反复解释背景,一句话便可切中要害。

因为,在它面前,角色性格、人物关系、剧情走向等关键信息都烂熟于心,给“一个眼神”就能指哪儿打哪儿。

更重要的是,这份"智能故事大纲"就像一张实时共享的创作地图。

过去,大家找剧本最新版本可能要翻邮件,理解人物关系可能要翻会议记录,琢磨角色性格可能要翻讨论记录,很容易陷入信息的迷宫里兜圈子。

现如今,有了这张统一的地图,所有参与方都能一目了然地看到项目全貌,把更多原先用在找资料、对进度上的时间,投入到打磨内容上。

6、

可见,Ontology的价值,不止是“模型越强我越强”的保障,更是连接AI与业务的桥梁。

有了这座桥,AI才能真正读懂企业的业务场景,访问到关键信息,进而提供真正有价值的输出。

当然,要搭建这个桥梁,不仅是技术工程,更是组织工程。比如,AI团队必须从独立的技术孤岛,进化成连接各业务部门的纽带。

只有让AI专家真正理解业务痛点,让业务人员切实参与AI应用设计,才能确保AI项目既有技术可行性,又有业务价值。

跟业务方和行业专家协同方面,我在过去两年有比较多的经验和教训,感兴趣可以加我微信(yangchangpku)交流。

三、4 个重大有利信号

1、大模型支持context支持的拐点,已经到来

在年前那篇热议的访谈中,MiniMax老板简单梳理过大模型公司context的最新进展。

他提到,之所以在去年年中说没人做出成功的 Agent 应用,是由于当时大模型能力还不够强。

现如今,他们家新发布的MiniMax-01,已经在博客中宣告 “开启 Agent 时代”了。

究其原因,是因为在架构层面,MiniMax-01已经可以高效、快速地处理400万token的 context。

如此一来,对于单个Agent(比如O1,可以单次输出多步),就可以记住非常多的内容,进一步提高交互质量;

对于多个Agent,可以像Claude 的MCP(Model Context Protocol,模型上下文协议)那样,更好支持Agent 间巨长的通讯量,进而提升多 Agent 之间的通讯能力。[4]

2、DeepSeek的R1-Zero模型,或将带来各行各业的“李世石时刻”

公众号“波斯兔子”[5]说,Deepseek R1可能找到了超越人类的办法。

具体来说,DeepSeek的研究者基于 V3 模型,在数学和代码这两类包含思维链的数据上进行了强化学习(RL)训练,他们创造了一种名为 GRPO(Group Relative Policy Optimization)的强化学习算法,最终得到的 R1-Zero 模型,在各项推理指标上相比 DeepSeek V3 显著提升,证明仅通过 RL 就能激发模型的推理能力。

该公众号认为,这是另一个 AlphaZero 时刻,在 R1-Zero 的训练过程,完全不依赖人类的智商、经验和偏好,仅靠 RL 去学习那些客观、可测量的人类真理,最终让推理能力远强于所有非 Reasoning 模型。

总而言之,DeepSeek R1-Zero展示了,如何使用几乎不使用人类反馈来提升模型性能的方法,这是它的 AlphaZero 时刻。很多人曾说“人工智能,有多少人工就有多少智能”,这个观点可能不再正确了。

就这两天,DeepSeek研究员Daya Guo也在Twitter 上爆料:R1训练仅用两到三周,春节期间观察到R1 zero模型性能曲线的 “持续增长”,而且预计不会快速到达瓶颈,今年就能看到显著的进展。

在回答网友问题的过程中,Daya Guo提到,研究人员使用 RL prompt 未覆盖的领域的基准来评估泛化能力,目前来看,R1似乎具备泛化能力。[6]

以上种种说明,随着R1 的快速发展,我们将在自己所在的行业里看到,在没有行业专家“教”的情况下,行业的推理模型将超过头部专家的能力,而且胜任更多我们想得到和想不到的任务

3、Coding Agent 领域的突破,将直接带动“上下文”框架的发展

锦秋在硅谷组织的Scale With AI活动[7]中,有两三百的硅谷头部AI研究员、创业者和投资人参会,会上聊到了些Coding Agent的核心挑战与改进,他们都认为需要进一步发展的关键领域包括:

①事件建模 

②记忆和世界建模 

③准确规划未来 

④提高上下文利用率

我简单搜了一下,发现这四大关键领域,都与上下文(context)存在紧密关联:

①事件建模的核心,是通过业务流程中的事件驱动机制来构建领域模型。事件之间的因果关系,需要依赖上下文来界定限界范围(Bounded Context)。

②记忆机制通过分层管理上下文信息实现长期推理能力:工作记忆依赖Transformer的注意力机制,作为短期记忆处理即时上下文;长期记忆通过外部知识库或神经记忆模块存储结构化上下文;世界模型(如R2I)结合状态空间模型(SSM),利用上下文历史预测未来状态,解决时间跨度长的任务。

③规划需基于上下文动态调整策略:短期规划通过ReAct 等框架结合即时上下文和工具调用,长期规划依赖上下文摘要和外部知识(如用户目标、环境状态)制定多步策略

④长上下文(超过 10,000 个tokens上下文的利用率会显著下降),增强对扩展记忆长度(例如 100,000 个tokens或更多)的推理能力,正在进行的研究旨在提高更长上下文的记忆和推理能力。前文中提到的MiniMax-01,就是其中关键突破之一。

等这些技术突破到Coding Agent 可以处理全公司代码的时候,这些代码不仅可以作为实时更新的公司级别的Ontology,让老板可以随时用自己能懂的方式去了解所有线上业务的进展,甚至可以牵一发而动全身地实现更多业务的自动化。

4、哪怕暂时用不上前三项技术,现在也有可快速落地的技术方案

最简单的是提示词,余一老师曾多次分享,她可以通过1500字的提示词,模拟出一个AI 版本的真人[8]

我基于她的方法,也做过一个“AI版本的杨昌”,效果非常惊艳。个人一些重大决策,已经开始邀请该AI来参谋了。

通过定期更新的项目背景提示词,我们就可以搭建一个极简版的Ontology。

如果嫌提示词不方便更新和协作,也可以换成项目知识库,再通过比较成熟的RAG(检索增强生成)去处理。

其实,Cursor等主流AI编程工具,都普遍集成了RAG技术,并将代码库作为核心知识源。它们通过语义检索与生成模型的结

对啦,如果方便的话,请告诉我你的公司-职位信息;如果你的朋友圈不可见,我就先不邀请了。

向上滑动,阅览出处链接/参考文献

[1]https://mp.weixin.qq.com/s/7Kt8XWx7g5pPxtRCIWydyw

[2]https://mp.weixin.qq.com/s/jlOvlC7Sp_-Xyz8PSBM1bA

[3]https://mp.weixin.qq.com/s/gtLstuLlUA6v0-hqL0t2xw

[4]https://mp.weixin.qq.com/s/VBnm3KCsYd4fuXcBpDgiaA

[5]https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ

[6]https://mp.weixin.qq.com/s/3czfUcGt6mJAOOBxUTYvfQ

[7]https://mp.weixin.qq.com/s/dY3Qnw7xj1aQwjBstUkrYw

[8]https://www./episode/6753337517cd5416ad158fd7

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多