“模型”对话追一科技CEO吴悦:垂直大模型的机会在那些旧bug里

2023-06-09 11:05:08来源:PingWest品玩

今天,很高兴为大家分享来自PingWest品玩的对话追一科技CEO吴悦:垂直大模型的机会在那些旧bug里,如果您对对话追一科技CEO吴悦:垂直大模型的机会在那些旧bug里感兴趣,请往下看。

深圳的科兴科学园面前的那条路,地铁修了好几年,走动很不方便。

这里是附近范围里的一个集散地。园区下沉空间里的餐饮区域是包括腾讯在内的,周围很多科技公司的“食堂”。

也包括从创业之初就把公司放在距离腾讯不远的追一科技。他们的办公地在对面,与科兴一街之隔。

很多追一科技的员工会去对面吃饭,但修了路,就不太方便了。

这很像这家公司最近几年给人的感觉,它离热闹很近,但好像又不是很近。

不久前品玩写过一篇对于追一科技的观察文章,时间线终止在2020年。之后这家公司和整个NLP领域的沉寂一起消失在了外界的关注之中。

直到ChatGPT的出现重新把关于AI的一切活力唤起。但在生成式AI压倒性的优越性面前,NLP这个概念本身甚至有被整个抛弃的危险。

如果NLP都不重要了,一家以NLP领域技术为根基的AI公司该如何变化?

在这个角度上,从上一次AI浪潮中存活下来的追一科技仍然是很多“不够大又不够新”的中国AI公司的合适样本。

品玩在深圳与追一科技的CEO吴悦做了一次对话,我们想知道这家公司在2020年之后在做什么,这样一位具备商业和技术视角的创始人是如何看待大模型产业的,以及在大模型的竞争中,这样体量的AI公司究竟还有没有独特的地方。

吴悦不是一个耀眼的创业者了,也没有选择在这次新的AI浪潮中重新成为一个KOL一样的人物。他的身份是一家300人的AI公司的经营者。这意味着他必须专注和务实。

这几年的沉默背后,追一完成了一个艰难的产品标准化的过程,这曾经是一块2000个Bug的硬骨头,啃下来后,变成面向未来的机会。

他不愿陷在对AGI没有答案的争论里,但相信垂直大模型是坚实的机会,就像发现美洲大陆这件事远不只成就了一人而已。

一切尚未尘埃落定。

以下是品玩与吴悦的对话,部分内容有些优化和调整:

现在国内初创公司“百模大战”的热潮像2016年左右追一科技出现时的热闹一样了。

现在不少创业公司做的主要还是对ChatGPT的解构和复现。这是一个非常有挑战的事,我们乐见其成。

首先复现ChatGPT在现在是一个可以实现的事吗?

首先相关的论文其实确实很多,并且开源社区中已经有非常多的团队在做复现。并且ChatGPT这个产品已经在那里了,它并不是一个不可体验的技术。综合这些维度来看,我觉得相对来说去复现这个事情的信心和信息密度还是够的。

另外就是,你要解决的问题明确了,这就变成一个更确定性的事。

也就是说现在寻找的是一个结果确定的东西。

对。美洲大陆在发现之前的投入是很大的,因为你不知道向哪个方向寻找。但一旦美洲大陆发现了之后,找到一条路去美洲大陆的航道其实容易多了。

这可以换一种更熟悉的说法——国内大模型的机会在垂直领域或者应用层面。但这有点像曾经智能客服和翻译可能是NLP领域最容易摘的桃子那种感觉。

我觉得这个事情,从创业公司角度是生存下去,虽然要有理想,但是生存是第一位的。但是并不代表着说我们没有一家公司在做这些事。但最终还是要基于有多大能力做多大事。

这是指追一的能力,还是整个中国AI领域的公司抽象成一个集体的“能力”?

我不太好说,但我感觉大家现在还是以实用主义,也就是做应用的居多对吧?你说真的像OpenAI那样烧几十亿美金,反正过去我觉得是很难,未来行不行?我觉得也不好说。

从最初顶着光环迎来高增长到后来的发展降速,直到2020年的那次裁员后从大众视线里消失。追一科技仍然有特殊的地方,它是少有在此前的AI热潮中活下来的公司之一;它也有现在看来更平庸的一面,在大模型面前,他不够庞大,也不是直接从大模型入手的充满活力的初创公司。这样的公司有些“夹生”,但这样的公司也正好是当下中国AI产业中的普遍样本。

2020年之后的追一在做什么?

我们进入到了服务传统行业的一个产品化的阶段。主要面向于金融和运营商、政务这种大型企业客户。2018、19年属于大客户的打样阶段,然后到了19年之后开始传统大型企业客户的规模化扩展,20年就面临到交付。

坦白来讲这个难度已经比我们预期的要难很多。

有多难?

因为我们定位自己是做AI产品,这里面有两个典型特征。第一是它底层是基于AI能力的,然后上层它其实是一个应用层的产品。但应用层产品的定义是要由客户定义出来的,也就是要有足够多的大型客户来帮我们来定义这样一个产品。

这些大客户的本地化部署中暴露了很多关于软件向下适配度和向上兼容度的问题。

这个其实挺夸张的,我们测算过软件的产品部署到客户现场之后,出现一个bug差不多就要1万块钱的成本来解决。我们累计做了200多个客户,在那个阶段已经有将近大几十家头部客户,累计的bug有几千个。

很大一笔开销,所以2020年之前这些问题还不显现。

做腰部还好一点,但是做股份支行这种大客户要求确实很高,我们的产品又是客服和营销这样银行里的核心业务系统。

为什么头部客户要求更高?

同样一个产品。可能腰部客户没有任何问题,但头部客户那里会暴露很多问题,因为他使用的很高频。

并且对整个软件的软件的质量要求更高。它会有非常严格的安全漏洞扫描,并且——如果用银行举例——客户的IT环境不一样,操作系统不一样,然后中间件也不一样,数据库也不一样,这些都要适配。

头部客户对同一个软件的使用深度会更深,也就会产生很多个性化的需求。如果说你整个软件结构架构设计不合理,它的需求可能会关联到这个软件的核心系统,核心系统被牵扯就需要我们主线开发人员去参与进来了。主线开发人员的资源其实是非常宝贵的。他被调用的话我们花费的成本就很高。

什么样的需求会牵扯到主线的设计?

比如出现了AI助手在回答时不精准或者直接没有回答的这种bad case。

这意味着可能要改算法算子。问题直接就到了底层算法模型这一层,然后全公司的所有人都要卷进来解决这一个bug。

但如果只做腰部,对底层技术推进的动力就没那么大。我们定位是AI公司,需要找到大把手。

又要底层技术,又要产品。

对,两头都要特别难。

这逼迫团队要把产品分层做的更合理,定制化需求最好在应用层解决而不影响主线。这是PaaS化之后才能实现的事,这个过程其实就是产品标准化的过程。

怎么理解产品的标准化,有没有明确的衡量方式?

我觉得有几个,第一个产品的bug收敛的非常明显,这是一个标准;另外就是面对客户各种各样的需求,可以通过一个应用开发团队去自闭环,不需要牵扯主线团队进来,我觉得这是第二个;第三个就是和产品相关的,从咨询到交付的配套可以标准化,可以可以按照管理流程的方式来驱动,而不是靠人来驱动。

在中国做软件,特别是大客户方向,是要做从咨询然后到产品,然后到实施三个环节的所有事的。理想状况应该是比如IBM做咨询,然后SAP做产品,然后艾森哲去做实施。

是因为中国整个软件行业不够成型导致的吗?

对,整个生态仍然不是很完整。

吴悦在对话中补上了公司在2020年后的空缺。在一场产品标准化过程中沉淀下来的东西,又成为追一在大模型时代的竞争基础。追一科技在前不久发布了自己的博文大模型。站在聚光灯和嗜血的资本之外,吴悦相信垂直大模型的机会在于这是大厂与创业公司之间的真空地带。

谈谈垂直大模型吧。如果把大模型技术延展成一条技术链,垂直大模型看上去是很末端的一环。追一可以帮银行做,银行也可以跟大厂直接合作,这就跳过了追一。这会不会意味着垂直大模型领域的AI公司其实很被动,缺少议价能力?

这是三个角度的问题。第一个是客户会不会自研,但对于传统企业的客户来说,因为他主营业务不完全在IT上,出于投入产出比的考虑它不会自己来做这个事。

然后就是,这是不是意味着有通用大模型的厂家就能解决好垂直大模型的问题,或者说垂直大模型这个领域是不是因为门槛不够导致竞争非常激烈。

没错。垂直大模型的门槛到底在哪里?

垂直大模型这个事的门槛不低。一个是私域知识如何融入到大模型里;然后还要考虑领域知识在回答生成上的精准度和可控性;并且这些垂直领域的知识最终都需要和软件产品做好融合才行。

从这几个角度来说,不是说是一个特别低门槛这个事。

最后这一点怎么理解?

软件的成熟度是一个独特的壁垒。这个就有点像比如说Copilot最终还是需要GPT去跟Microsoft 365结合起来做刻画的,不能脱离Microsoft 365这个产品去做这个事情。

所以产品能力可能才是差异化的优势,比如CoPilot的优势其实是Microsoft 365,你们的优势其实是之前已经成型的AI产品?

对。比如之前提到的牵扯到主线需要做分层设计的问题。在调整过程中可能会做一些支持规则系统的改变,比如简单的配一个规则,或者把算子的参数释放出来,可以调参数来调效果。这些就是一些知识沉淀或技术沉淀。

确实碰壁碰的多了,问题解决的多了,产品才慢慢知道怎么去设计,这不是拍脑袋想出来的。

大厂和创业公司都缺乏这个。

对。这种经验是靠bug堆出来,靠客户堆出来的。

大厂从顶层设计向下看,很顺利,但碰到比如安全漏洞就很麻烦。一个漏洞可能涉及到你的算法模块缺陷,然后你的后台模块有缺陷,软件后台也有缺陷,一动就有很多问题。

这是一些很泥泞的地方,大家看不到。

我觉得是。

还是一个精度的考量。比如说我们现在通过小模型模型能在对话中做到90%以上的准确率——虽然可能他的对话体验可能没想那么好——比如金融行业的头部客户,它对对话答案精度的要求是挺高的。

然后在大模型的能力进入这个AI产品后,可能它的对话体验变得更好,但是这个90%的精度可能会下降。因为生成式AI本身是个概率问题,有更多不可控的因素。在B端市场这是一个挺棘手的问题。

但数据仍然在那些你服务的公司里拿不出来,垂直大模型好像也没有回答因为缺少数据而影响软件迭代的问题?

不同的客户的数据差异度是10%到20%,但之前在小模型技术的基础上,因为这个10%到20%的差异,你就要去训练一个新的定制化模型——因为小模型的理解能力不够。但是现在大模型的优越性在于,他的理解能力充分了,所以这10%左右的差异其实不需要再去训练一个新的模型。这其实是一个本质上的变化。

但客户要一个适合自己的AI产品,其实就是要那%10-20%跟它相关的差异化。如果我只是个80%契合的产品,但对所有银行都可以用的话,那也就是对所有银行来说它也都没区别了?

这个差异化的数据变量其实只是在表达上有差异。这部分表达上的差异在大模型下可以被理解出来。

也就是说数据这个痛点其实现在比原来小很多了。

对,是的。

2015前后开始的那一波AI热潮现在回过头来看,会给现在追一科技在垂直大模型的竞争有些什么启发或者遗产吗。

我们已经成立第七个年头了。有了可靠的业务和客户,也沉淀下来一个团队。我们现在更加专注企业本身的经营,所以也会更加冷静的来看待大模型这个事。

好了,关于对话追一科技CEO吴悦:垂直大模型的机会在那些旧bug里就讲到这。


返回科技金融网首页 >>

版权及免责声明:凡本网所属版权作品,转载时须获得授权并注明来源“科技金融网”,违者本网将保留追究其相关法律责任的权力。凡转载文章,不代表本网观点和立场,如有侵权,请联系我们删除。


相关文章