狂飙两年的AI行业走到了一个十字路口。
Scaling Law依然奏效吗?大厂与创业公司的竞争初见分晓了吗?国内与海外AI市场分别会走什么路径?这些问题的答案,决定着战局的走向。
在蓝驰创投2024年度基金合伙人大会上,蓝驰创投管理合伙人朱天宇对话了沐言智语创始人张月光、月之暗面战略及投资负责人杜頔康。站在这个技术与产业的十字路口,这场对话也更多呈现出不被定义的特质——从模型的演进到产品定义的思考框架、从市场的选择到比较优势的思辨,两家非常具有代表性的明星AI公司都分享了自己的非共识思考。
我们期待这些思考带给行业启发和灵感,整理如下,有删改——
朱天宇:先来一轮快问快答,过去一两年AI新产品层出不穷,谈谈近期你们最欣赏的产品?
张月光:我印象最深刻的是基于Wordware的毒舌AI,只要把推特链接输入进去,它就会根据推文自动生成吐槽。它对Elon Musk的吐槽非常火,不出意外应该锁定了今年Product Hunt榜一。它初步验证了一个可行性:AI 去理解人、人的性格、社交行为、社交信息。
朱天宇:利用了很好的数据源——Twitter,AI的总结能力对它做了一些分析,用比较有趣的方式来呈现。頔康呢?
杜頔康:我今年比较欣赏的产品是AI编程工具Cursor,能帮程序员做代码补全、批量地生成代码。这款AI native的IDE产品拥有众多拥趸,许多之前微软Copilot的用户也逐渐转向Cursor,成为付费用户。我之前原本认为AI coding赛道是没有创业公司的机会的,毕竟微软有Github的数据、VS Code的编程环境、和OpenAI的合作关系。但Cursor却在巨头看似无懈可击的领域杀出重围。我觉得几个创始人的快速迭代、他们对AI模型的理解,在各种代码生成的任务中更好地定义了上下文。
朱天宇:有点不被定义的意思了,我们最喜欢看到的是创业公司以小博大,在大厂夹缝中杀出重围,这是VC的成就感来源。大家最近在讨论技术上的问题:Scaling Law还有效吗?还是放缓了?Transformer是不是能走到底?你们认为呢?
张月光:生成式AI模型技术大概率阶段性遇到了一些瓶颈,我们也看到产业界中模型的进展相对进入到小幅度优化的过程。但我认为永远不要反向去赌「技术不会再进步」。我从2016年开始做CV,见过不止一波AI浪潮,每次都是上升一个台阶后会进入相对平滑的曲线、稍微卡住一下。但一定会有聪明人找到下一个可以 scale up 的东西,而且这中间的gap呈现出越来越短的趋势。如果我们将视野拉长到5到10年的周期,我持乐观态度。
杜頔康:对,ChatGPT的成功是摘取了互联网上数十万亿token的技术果实、发挥Transformer架构的能力,同时得到了算力的有力支持。但今天来看,高质量的互联网数据相对有限,那么如何使模型在预训练过程中找到高质量数据就成为了当前亟待解决的问题。
前段时间很火的 OpenAI o1模型,就是探索利用真实的合成数据来让模型有内化推理能力,并在推理过程中反思,找到更合理思维链的一种方案。这跟OpenAI在数据领域的高标准要求是分不开的。所以,以模型智能为杠杆去产生更多高质量数据的路径已经初现端倪,也有研究探讨了通过self play(自我博弈)来解决数学问题,将推理算力转化为智能的路径。所以我们不去高估技术短期的发展,也不能低估技术长期的发展。
朱天宇:所以对于Transformer和Scaling Law的行业共识还会持续下去吗?
张月光:我认为业内对于Scaling Law没有任何非共识,无论后续技术中采用何种架构或数据范式,下一代的技术范式一定是可scale up的。音频、图像和视频等模态也都正在尝试采用Transformer的方法进行大一统,把更多类型的数据放进去scale up。我认为Transformer本身的技术价值尚未被挖掘殆尽,今年还会有很多的多模态技术产生。
杜頔康:之前很多人认为,Transformer结合next token prediction在解决算术问题上面临挑战,因为人类是从最后一位开始做算术的,而模型则需要先生成第一位,然后再生成后续的数字。但我们发现,即使是这样,Transformer加上next token prediction的方法也能解决这个问题,而且不需要特别大的模型,就能在高位运算和复杂算术运算中取得非常好的结果。我们还尝试将传统的扩散模型(diffusion model)和自回归模型(auto-regressive model)结合起来,同时解决一些被认为对next token prediction具有挑战性的问题,并且取得了非常好的成果。
朱天宇:两位都在从模型出发做应用的初创公司,你们认为怎么更高效地试错?这可能是个产品开发的黑盒子问题,很难得能听到两位分享。
杜頔康:把模型的能力边界和PMF结合的探索对我们非常重要。想要扩展基座模型的能力边界,需要在模型训练和数据质量上做持续的投入;二是要定义自己在市场上的差异化定位。大语言模型是共识机会,竞对很多。我们希望树立一个「对用户有用」的心智,那什么是对用户有用?去年10月我们主打的是长文本代表的长记忆,今年10月份我们发布了探索版,希望探索长推理的产品。
朱天宇:为什么选择长文本和长推理产品?取舍逻辑是什么?
杜頔康:最开始我们将模型的能力分成三层来考虑:一是底层能力:scaling law+next token prediction;二是数据相关:怎么找到统一的数据表征?怎么解决语言模型在预训练过程中遇到的数据瓶颈?最上层是用户感知层面:包括instruction following和long context。
我们发布模型时已经有GPT-4,Claude也有模型。我们希望能够发挥对中国市场的理解,使用一个更适合中文的tokenizer来提升模型在中文的表现,并通过合成数据的方式让模型学会在长文本任务上取得更好的效果。同时我们认为长文本其实代表模型的内存,大家都在扩展CPU和计算资源的情况下,如果我们能让模型的内存也得到更好的提升,那么它就能解决更多的用户问题。
朱天宇:特别好。所以可以看到,确实要对模型训练的基本原理的洞察,才能感知到它的差异化特点。我们常说现在最缺的就是懂AI的产品经理型创业者,这样的创业者怎么才能造就?经历过产品的从0到1是非常重要的。月光觉得呢?AI产品创业者怎么更高效地试错?
张月光:让我们推到最原始的维度。产业热潮一定是有关键生产要素的变化,就当下的AI来说,就是能源、算力转化为智力的等式。从技术角度来看,发展主要朝着两个方向:一是提升智力水平,即从低级智能逐渐提升至高级智能;二是提高兑换效率,即在同样的成本下,能够兑换出更大规模的智力,这将是整个产业发展中最需要关注的变化。
那接下来几个问题来了:第一,智力提供给谁?普通用户?还是专业用户或企业?这对应于我们常说的ToC(面向消费者)、ToP(面向专业人士)和ToB(面向企业)。但ToC并不一定意味着将能力交付给用户来实现市场价值。就像推荐算法,先赋能了企业,企业用这个能力赋予每一个用户。
第二,你提供的能力是一个偏重复性的指令,还是想要提供极少数人能做的事情?前者就比如AI搜索,后者比如AI for Science;
再比如技术成熟度。做一款AI产品,用户并不太关心这是不是当前最好的技术,只关心这个问题是不是解决了。所以最好选择那种「已经解决了70分,但经过一些努力和定义,能做到100分」的赛道,那就是低垂的果实。
还有很多维度,比如最终的商业空间跟你的愿景是不是一致?在商业竞争要素当中是不是存在你不可能去赢的对手?我觉得少说也有十几个决策空间,经过所有的排除后,留给你的选项一定很少。
朱天宇:如果严格按这些标准排除,可能不会剩下选择。那一定是在某些标准上创业者愿意冒一些风险。你愿意在哪些边界条件上做冒险的取舍?
张月光:首先最应该去冒险的还是技术。如果技术在演进、技术边界在变化,那么即使这件事目前只能做到30-60分,但做到100分会特别有价值,这是值得尝试的。
朱天宇:所以很多选择都是基于技术边界做出的,这就带来下一个问题:模型演进曲线是处于陡峭或平缓的阶段,对于你们去定义产品边界和节奏意味着什么?
张月光:不同公司的技术愿景就决定了很多。如果我的公司愿景是推动AGI实现,那么我们可能会选择那些技术波动空间最大的领域。即使我们没有开发出能让所有用户充分使用的产品,只要能在技术边界上保持全球或局部的领先性,无论是从资本角度还是团队内部角度来看,都有非常明确的价值。
如果公司愿景是为用户提供某类体验上的提升,那么可能会更多地关注那些在当前阶段能够解决问题的技术。这里有一个反向思考的问题:很多人会问,那些以技术为导向的公司不断推进技术发展,那么应用公司如何在其中找到自己的位置?你开发的产品会不会明天就被OpenAI迭代掉?其实不用担心这个问题。如果你能够解决100%的问题,即使后面有新技术更新,它最多只能做到跟你一样好。也许会有一些改进,但用户体验是相对近似的。对于应用公司来说,守住自己的竞争壁垒就不会那么危险。
杜頔康:我们的模型团队分为预训练和后训练团队,对于有技术有大变量的领域,预训练团队会更多cover,基座模型的迭代是0或1的变量,要么能实现探索性推理,要么就不能,没有中间值;技术迭代相对平稳的领域,我们就会让后训练团队和产品团队协作起来,提升用户的体感。
朱天宇:再聊些抬头看路的话题。其实现在这一波AI,虽然中国的大模型研究起步稍晚于美国,但在应用开发方面两国都很活跃。中国的AI研究者和创业者非常丰沛,中美之间的信息交流也很活跃。对两位而言,在全球化问题上会怎么选择?生而全球化?还是在本土市场发展稳定后未来再去出海?
杜頔康:Kimi目前从业务上还是聚焦在中国市场的。因为Kimi的基座模型针对中文用户做了比较多的优化,在中文、英文、一些小语种上有相对更强的优势。而且美国在基座模型训练、计算资源、人才上的确有着阶段性的优势,我们在模型上还需要积累更多的势能,才能去到海外与OpenAI、Claude、Google这些巨头公司竞争。
这也涉及到我们在下一个阶段应该bet哪一个技术曲线,比如现在OpenAI bet在了模型的推理能力上,希望借此找到更高的智能;Claude放在了coding、让AI使用电脑上。去年10月,Kimi的重点放在了长文本上,这在国内和海外范围都有一定的领先性。对于下一代,我们还希望定位自己的核心竞争力后再迈向全球市场。
朱天宇:所以之前有想过这个问题吗?是从一开始就确定先做国内?还是说中间其实思辨过、选择过?
杜頔康:肯定也是有过很多讨论。首先我们认为中国是一个足够大的单一市场,这个市场有机会成长出一个足够大的C端企业,Kimi也是走了Super App的路径。的确取得了一定的成果,但市场竞争还远未结束。我们希望先建立起「中国的最领先的AGI公司」的心智,拿到迈向世界的AGI的船票。在这两个条件都准备好的情况下,我们会有更多的精力和模型竞争优势。
朱天宇:这点我和植麟也交流过,他的观点就是没有捷径,先练内功,努力赶超,之后再说。我也非常认同这点。月光认为呢?
张月光:我们是会同时看国内外两个市场的, AI 原生代的企业家还是必须要具有生而全球化的视角。还有两个技术层面的问题比较客观:
第一,市场认可价值比较高的AI应用,一个重要特征是它不是直接生成内容,都是把原始信息处理后给到用户,比如chat bot、搜索。这是一个常见的范式,我认为最终发挥最大价值的产品都会在这里产生。不是靠AI在模型内部自循环,而是把人产生的智慧使用起来。
但中国商业环境中的信息孤岛效应是大于美国的。几个大的社交平台之间的信息孤岛会导致AI很难发挥其信息处理能力,无论是在抽取信息、处理信息,再为用户提供信息等方面,都会受到一定限制,这是一个比较现实的问题。
另一个,国内的竞争生态也让创业公司不能放弃对海外市场的观察。国内大厂在AI领域的投入很大,迭代速度非常快,竞争也会更加剧烈。
朱天宇:那对海外市场的观察是只是一个策略视角呢?还是说我们是真的值得去耕耘海外市场,可以有收获?
张月光:中国公司出海具备一个明确的优势,就是完善的产研体系。不仅是工程师,也有产品经理、设计师、运营等方面的人才,整个产业有完整的人才体系的支撑,无论是从成本还是效率来看,都有绝对优势。这本质上是我们在软件供应链上的优势。
朱天宇:刚才提到本土市场和海外市场呈现出的要素和特征不同,涉及到人才供给、数据、技术、需求多个方面,相关利益方在议价能力上也不完全相同。在这个基础上,中国AI产业能怎样走出一条自己的发展路径?过去,中国产业常常处于Tier 2或Tier 3的位置,但现在,我们要开始在全球范围内做Tier 1的竞争者。作为创业者,我们如何走出自己的中国之路?
张月光:除了我刚才提到的完善的软件供应链,还有中国企业在移动互联网上积累了很多对用户需求的洞察以及体验细节方面的打磨方面的经验,例如,在国外并没有内容运营、社群运营这个概念,这些岗位并不存在。而在中国,这种概念不仅存在并且还很重要。我们的工作非常细致,将用户体验摆到非常高的位置。所以在ToC领域,中国企业在不考虑地缘政治问题的情况下,拥有一定的竞争优势。
杜頔康:我们也是非常看好中国企业最终走向全球。我们之前也尝试过视频音乐的产品,在几乎没有内部流量扶持和研发资源的情况下依然能够吸引海外忠实用户,并实现大量用户付费,甚至实现了单元上的盈亏平衡。我觉得这验证了中国的创业公司在产品人才和运营增长人才方面的积累和优势。
而且中国不仅拥有软件供应链的优势,我们硬件供应链的优势也会在AI领域逐渐发挥出来。中国的具身智能企业和海外更 science 主导的这种企业,对于 AI 的软硬件结合的底层认知和出发点是不一样的。我觉得中国在机器人供应链、未来消费电子产品供应链以及海外渠道方面都已经建立了非常完备的渠道,这些都能够帮助承载更多中国AI公司的出海理想。这也是我们在观察的一个方向。