大模型会经历重复建设然后出清的过程。


(相关资料图)

作者|甲小姐、刘杨楠

燃烧半年的大模型之火正在逐渐冷却。

一个直观的表现是,ChatGPT的用户增长开始下坡。第三方网站SimilarWeb的监测数据显示,今年6月,ChatGPT的网站与移动客户端的全球流量 (PV) 环比下降了%,美国地区的流量环比下降了%,用户在ChatGPT上的停留时间也下降了%。

此外,七月以来,微软、谷歌、AWS、阿里巴巴等国内外科技大厂开始陆续发布2023半年报,遗憾的是,各项收入数据中,AI几乎没什么存在感。

大模型似乎走入了用户增长和商业落地的双重瓶颈。与此同时,另一股AI势力正在异军突起。

个性化AI聊天机器人创业公司自去年9月发布Beta版本以来,用户涨势凶猛。SimilarWeb数据显示,2023年6月,访问量达到亿,5月的增长率更高达%。不仅如此,用户黏性极高。多个第三方统计数据显示,用户在的停留时间长达28分钟。相比之下,ChatGPT的用户停留时长约8分钟,YouTube和B站的停留时长约20分钟,WhatsApp约18分钟,Google、Facebook和Twitter约10分钟——足见用户对“偏爱有加”。

成立于2022年,同样主攻个人人工智能 (Personal Intelligence) 的AI初创企业Inflection AI也冲劲十足。Inflection AI于今年5月推出了首款产品“Pi”,仅2个月后,Inflection AI便在7月完成13亿美元的新一轮融资,估值突破40亿美元,成为OpenAI之后估值最高的AI初创企业。

这两家公司的出现, 让“情感AI”成为ChatGPT之外的另一个焦点。

在国内,清华系AI初创企业聆心智能已经在情感AI领域布局多年。从应用场景上划分, ChatGPT可归为“功能AI”,其价值是用超越人脑的智能帮人类解决各类实际问题,追求“高智商”;而聆心智能、及Inflection AI正在做的事可归为“情感性AI”,其价值在于解决人类情感需求,追求“高情商”。

聆心智能创始人、首席科学家黄民烈同时还在清华大学担任多个职位——他是清华大学计算机科学与技术系长聘教授、国家杰出青年科学基金获得者、智能技术与系统实验室副主任及清华大学基础模型中心副主任。

在涌入大模型的众多学者、创业者中,黄民烈的判断独树一帜。他并未直接瞄准看起来极其性感的“通用大模型”,而是从2015年起就尝试破解情感AI的密码。在他看来,“ 功能固然很重要,但人的情感也是非常本质的需求”

事实上,“功能AI”还是“情感AI”,这既是AGI的技术选择,也是AGI的社会角色选择——AI之于人到底会是什么样的存在,是工具,是助手,还是伙伴?本期甲小姐对话黄民烈,聊一聊大模型重复建设之下的另一个视角和判断。

甲小姐: 最近很多人感觉ChatGPT的热度降下来了,你有这种感受吗?

黄民烈: 融资市场和产业都在趋于冷静。原因是,之前无论投资还是产业,都在说要做“中国的OpenAI”,现在已经有这么多开源和闭源的模型, 大家开始考虑能做什么样的应用来真正解决产业问题 ;大家对大模型的认知更清晰了,有各种评测榜单,大家逐渐清楚彼此的能力;另外,七八月份是上市公司半年报的窗口期, 市场会冷静地看这些公司的投入在财报上如何反应 ,大模型的投入和产出是否匹配。之后有些公司可能会被收并购,融不到钱的公司也会倒闭,这是行业发展的客观规律。

甲小姐: 现在我们公允地看过去半年的AI热潮,哪些被高估,哪些被低估?

黄民烈: 大家对通用大模型的期待很高,但在解决实际问题时,国内模型距离ChatGPT、GPT-4还有挺大差距。一方面是 我们底层模型的能力还要提高 ;另一方面, 大模型最终要落地产业,依然需要大模型之外的能力, 比如加上传统的算法模块,形成一个以大模型为主导的复杂系统,真正解决行业问题。

甲小姐: 我身边真实的个人用户,从最开始对ChatGPT上头,到今天逐渐冷静甚至弃用,原因有二:第一是ChatGPT会出现幻觉,不够可信;第二是无法做精确计算等等。这是ChatGPT热度下降的本质原因吗?

黄民烈: 本质与否不好说,但这是一个重要原因。现在大模型容易产生幻觉,因为ChatGPT是概率模型,每次问答都会随机采样,同一个输入,不同的人、不同时间得到的回答不一样,有不可控性。 怎么解决这个问题?要和业务、场景结合。 比如有些场景允许有一定的容错率,但 有些场景容错率为零,就得有别的手段来处理。

再比如你刚才讲的精确计算,现在技术发展很快,大模型算数学题,过去全是概率采样,每次的计算结果都不一样;但现在不一定要通过概率采样去做,可以把数学题变成一个公式,再在模型中插入一个Python解释器去执行,最终得到的结果是确定的。 因此,神经系统和符号计算系统结合能够很好地提升模型能力。 所以技术也在随着业务需求不断演进,快速发展,有些稀奇古怪的问题今天都能解决得挺好,这是一个动态过程。

甲小姐: 放眼全球AI产业的细分发展,通常是美国定义流行,中国一拥而上,市场关注度在短期会高度集中在某一两个赛道,但在欧洲有很多AI细分门类一直有人在做,对比而言,今天的中国AI产业似乎少了某种多样性。你曾表达过“重复造轮子”可能不利于AI发展。近半年内国产大模型的数量已经增长到80多个,是否存在重复建设?

黄民烈: 肯定存在。现在算力非常紧张,基本租不到卡,大家都把算力圈起来了,但各家在技术、能力和商业化路径上都大同小异, 肯定是重复投入。 但这也是一个市场自然淘汰和选择的过程。中国的做事方式和国外不太一样,搜索是这样,互联网也是这样,CV热也是这样,现在 大模型应该还会有一个重复建设然后出清的过程。

甲小姐: 你曾表达过ChatGPT的底层还是基于Transformer架构,在模型架构上没有太多创新,它的成功是“数据+工程+系统”层面的集成化创新。ChatGPT会是AI范式的最终状态吗,还是会出现一个新的范式颠覆它?

黄民烈: 很有可能是后者,但现在也不好说。不能说OpenAI没有技术创新,他们肯定有各种各样的创新,只是现在披露出来的比较少。 新的范式在2-3年可能不太会出现,但5-10年大概率会出现。 在现在这个时代,技术发展具有很大的不可预测性。

甲小姐: 回顾历史,AI范式一直合久必分分久必合,几个月前很多人认为ChatGPT路径正在一统江湖,目前这个趋势有变化吗?AI范式正朝着哪个力量发展,是归一的力量还是分化的力量?

黄民烈: 大语言模型、多模态、视觉都是不同的方向,AI研究不一定是大一统的事情,会不断有新的元素融入进来。 我本人更希望有多样性的发展,只有百家争鸣才能更好地激发创新,大一统的语言模型对于学术创新来说不一定是好事。

甲小姐: AI领域的next big thing可能是什么?

黄民烈: 相对来讲,学术界更容易做出新的AI范式,例如 神经网络和符号计算的大规模结合 。也许是新的神经网络架构,也许是能解决现在模型问题的新的神经符号系统。

甲小姐: LLaMA2发布对市场影响很大,国内百川、阿里等都在开源,有些公司还没有确定未来究竟开源还是闭源。开源对一群人来说是原则问题,象征着极客精神和价值导向,对另一群人来讲是利润问题,如果开源和商业逻辑不匹配就很难开源。能否展开说说开源对市场产生了什么样的连锁反应?

黄民烈: 说实话, 公司会在不同阶段打不同的牌。 Meta的LLaMA做得很好,但谷歌就不怎么开源,OpenAI也全部闭源,Claude介于开源、闭源之间,因为公司的战略打法不同。Meta作为后来者,可能以开源赢得市场认可、口碑,再想办法拓展商业客户。而且Meta对于商业利用还是有比较大的限制,它规定访问流量大于一定范围就必须受限。

相对而言, 入局更晚的公司肯定要通过开源来赢得市场和业界的认可。 因为不是每个人都有技术能力和算力资源去训练模型,那我就给你提供模型能力,服务很多中小B企业,还能不断收集数据去微调模型。像智谱、MiniMax,包括我们这种做得更早的公司,就在一定范围内开源,可以调用我们的API服务。所以 并不存在完全的开源,这取决于公司的战略打法和发展阶段,以及早期采取的模型策略。

比如OpenAI就认为大模型很智能,如果开源让每个人都去用不一定是好事,把所有事情控制在自己手里相对更安全。我不知道这是他们的真实想法还是一种托辞,但我认为 开源与否本质上还是商业逻辑。

甲小姐: 安卓的开源会让很多人以极低的成本接入生态,但对普通人来说,要接入大模型依然门槛不低。

黄民烈: 肯定要有算力,还要有一定的技术人员,否则就要依赖大模型生态中的工具链。但相比之下, 开源是静态版本,闭源可以动态地更新系统。

甲小姐: 是否可以理解为,刚开始创业就开源的公司很大程度上是以开源来吸附更多的资源,让公司进展更快,但很可能某天就会闭源,目前大模型领域还没有出现真正意义上的苹果和安卓,大家还是阶段性战术?

黄民烈: 是的。开源会形成品牌效应,能够吸引来一定的商业客户,这是有很大影响力的。

甲小姐: 接下来,大模型的发展逻辑是在ChatGPT的基础上继续修修补补、添砖加瓦,还是有其他的路径?

黄民烈: 首先,底层模型的能力必须很强。在很强的底座上,确实也需要加入一些模块来“修修补补”——解决幻觉的问题,就需要搜索能力;要解决数学问题,就需要有Python解释器,能够做公式、做执行;要解决其他更专业的问题,就需要有更高质量的知识库进来。比如和金融行业结合,金融行业的信息都是高度动态的,生成内容需要非常精准,股票、基金的信息每时每刻都是实时、动态变化的,不可能只用一个大模型解决,所以需要插件能力。但如果底座不强,很多事也做不了。

甲小姐: 插件能力是底座方自己来做,还是和行业其他开发者共建?

黄民烈: 会允许第三方添加自己的插件,但前提是,基座有足够的能力允许外挂组件运行。

甲小姐: 假设未来的通用大模型底座可以允许用户用更简单的方式定义任务,把通用大模型训练成用户想要的状态,这件事在学术界做更好,还是以商业化形式展开更好?

黄民烈: 商业化的形式更多,现在学术研究的算力资源比较稀缺。

甲小姐: 听说现在一些斯坦福的博士才上学一两年就辍学去业界的大厂了,因为在学校做不出来在工业界可以做的事。

黄民烈: 是的,这是一个趋势。

甲小姐: 经过上半年的验证,到底哪家国内公司在大模型的投入中真正获益了?

黄民烈: 国内的大模型公司分几类——一类是要做“中国的OpenAI”,做底层模型,这类公司不介意大模型是否会影响原有业务;一类是大厂,比如百度、阿里、科大讯飞等,他们有自己的业务场景,做大模型本质上是为了更好地服务原有业务场景,比如百度的搜索,科大讯飞的教育业务等,科大讯飞前段时间发了客户增长量的数据,可以看到大模型对他们的客户增长、粘性的提升影响很大;另外,大模型和原有业务结合后会形成新的形态,获取更好的流量和广告效应,类似国外微软的New Bing;还有一类是把大模型搭在云上,本质是卖云,比如华为。

甲小姐: 还原一下客户对大模型进行选型的场景?

黄民烈: 肯定会先去看榜单和各种评测数据,但最终企业一定会做自己的测试。 很多榜单都失真了,相当于开卷考试,很多题之前都知道了,刷刷题就能得高分。客户肯定要从他自己的业务场景需求出发,做针对性的评测,最终选一个模型。 这也侧面解释了为什么有些公司这个阶段选择开源——他首先得让别人知道他有这个能力,客户才能去测试他的模型,从而带来商业机会。

甲小姐: 很多人想接入大模型,但是不知道从哪下手,也看不懂评测,这种情况该怎么办?

黄民烈:大模型公司和用大模型的公司之间需要有一个工具链。 当然,如果大模型公司提供API也没问题,因为大模型API很易用,按照格式调用就行,门槛很低,这对中小企业比较友好。但如果客户是大企业,大模型就要做服务。因为大企业基本都有自己的场景和数据,并不需要一个通用大模型,而是能解决自身业务问题的大模型。这就需要用自己的数据做微调、优化,这是一般人做不了的,所以就需要一个工具链把大模型能力和场景需求衔接起来,现在已经有公司在做类似的事。

甲小姐: 现在市面上有各种大模型评测体系,你能从中分辨出哪个模型更好吗?

黄民烈: 大模型评测是一个非常难,也非常有争议的话题。现在很多榜单只能做参考,并不能完全体现大模型的能力。所以我们也在思考,怎么设定评测体系才能让结果不失真。 大家觉得ChatGPT和GPT-4很强,是因为它们在任何一个新的任务上都很强,说明它有很强的泛化能力,而不是fit了哪个榜单所以很强。 我们最近也在做比较难的、动态的Benchmark,大概有几十上百种任务,从不同维度上去评测它,希望能把模型真正的能力测出来。

甲小姐: 现在的评测体系都还是做任务的逻辑?

黄民烈: 必须要做任务。评测方法分为两类,一种就是做题,让模型参加人类的考试,比如解数学题,我们也在做类似的事情;还有一种是从学术层面设定任务,看模型的推理能力等等。但现在从AGI角度来说,大家经常都是让模型参加考试,看能得多少分。

甲小姐: 我始终觉得解数学题需要严密的推理,这和大模型的工作逻辑是相悖的。但似乎现在有了大模型之后,所有人都想和大模型有些关联,甚至有些领域的内在逻辑和大模型根本不同,但还是要接入大模型。

黄民烈: 有点在“为赋新词强说愁”,这样不太好。我认为你的业务和应用场景一定要跟大模型本身的特性相匹配,才能更高效地结合。比如智能客服,过去已经做了很多年,出现了一堆公司,行业相对比较成熟了。但现在要用大模型再做一遍, 边际收益可能很小 。因为智能客服产品需要掌握业务知识逻辑,光接入大模型远远不够,还脱离不了传统的方法。

甲小姐: 这轮大模型热是否会重蹈上一轮计算机视觉热潮的覆辙,因商业模式不明确而无法真正形成商业闭环?

黄民烈: 这个技术趋势不可预测,但我认为大模型和CV有显著差别。 CV属于感知智能,相对可控,也更容易落地,比如做人脸识别、工业检测等;大模型属于认知智能,理解语言更难,但它的应用场景更广,涉及交互的场景都需要语言。所以我认为可能会出现比较好的机会,比如在情感陪伴上,和教育设备的结合等等,都离不开语言。当然你也可以讲所有东西都离不开视觉,但语言更难,更有挑战性,这也是大家这么关注大模型的一个原因。

甲小姐: 我感受过几波AI的起起落落,几乎每一波浪潮最后都困在商业化。你从2015年开始研究AI情感对话,2021年创办聆心智能,你对AI商业化有何感受?

黄民烈: 对话技术本质是满足人的需求。例如智能交互大脑,平时可以用来直播带货,做数字客服,提高这些场景的生产力,降低沟通成本。从情感的角度看,AI可以为人类提供情绪价值。但最终要形成商业闭环,还是要把账算清楚,因为大模型本身成本很高。

甲小姐: 你们现在把账算清楚了吗?

黄民烈: 现在肯定还没有,还需要时间。

甲小姐: 聆心智能最初主攻心理健康,2022年中期开始拓展游戏、教育、数字人等落地场景,所以现在你们主要to B?

黄民烈: 我们to B和to C都在做,但to B 为主,收入主要还是to B业务贡献,C端还没有开始收费。目前在游戏、文化娱乐方面正反馈比较多。我们主要面向这些客户提供大模型,让他们的玩家更好地定制角色人设,有很好的对话体验。

甲小姐: 今年AI还会有新的大事件发生颠覆人们的认知吗?

黄民烈:找到killer APP (杀手级应用) 。 我说的killer APP,更多是指 若干个行业和应用的问题能在大模型的支持下被很好地解决 ,但目前还没有看到特别好的应用。主打情感陪伴、消磨时光,更多是一种游戏需求,它的用户增长还相当不错,但是未来还是需要有新的应用,更有影响的、更大的应用。

甲小姐: 在今年4月的甲子引力上,你说“聆心智能在致力于用大模型的基础组件加上其他关键算法技术模块,解决最后一公里的问题。这是我们正在关心的事情,这样才能真正实现商业的落地,最后才能把整个业态真正跑起来,这个是一个良性健康的发展。 今天的ChatGPT更多停留在炫技的层面 。”在国内的AI学者里,你的判断有些独树一帜。很多人可能想炫技或者突破技术制高点,但你非常强调解决“最后一公里”的问题,这背后的底层逻辑是什么?

黄民烈: 我认为把AGI作为一个研究目标肯定没问题,但 很多应用产品并不需要这些能力。 比如金融场景可能只需要基础的数学能力,不需要复杂的论证。 现在的大模型和真正解决行业问题、创造用户使用价值之间还有一定距离,这不是模型本身能做到的。

甲小姐: 以你的资历,完全有能力直接去卷底层通用大模型,去造锤子和铲子,为什么你会这么坚定地锁定情感AI这条路?

黄民烈: 我一直在做情感和心理方向。非常有趣的是,OpenAI的ChatGPT出来之前,Google的Lamda、MINA,Meta的Banana这几个系统都是情感AI,做得非常好,非常类人。去年Google有一位研究员说Lamda出现人格觉醒,这件事在AI圈引起很大的争议,最后这个人被开掉了。这说明Lamda系统已经非常类人了,而且他们是做情感陪伴方向。只是ChatGPT出来之后,大家忽然发现,过去做传统任务对话的Siri、Ali、Alexa等助理可以在一个模型里把各种复杂任务解决得很好,所以重新又开始去卷功能。

功能固然很重要,但人的情感是非常本质的需求。 你看的数据增长比ChatGPT好很多,说明 人要去消磨时光,解决孤独感,需要被陪伴,但ChatGPT满足不了,所以情感AI是很大的机会。

从另外一个维度来说, 放眼未来,人类肯定不希望AGI只是机器属性,肯定很希望能跟AI建立信任关系,建立长久的情感和社交连接。AGI不仅能做人类的助理,还能帮人解决信任、情感、情绪的问题,这是未来 AGI真正的方向。

甲小姐: 我在今年二月写过一篇文章谈ChatGPT,对比了功能性和人格化两方面。 功能性 ,如帮人们写作文、编程、收集结构化资料; 人格化, 如会理解意图、声明立场、表达恭喜、道歉、自我修正答案,并拥有上下文的记忆连贯性,体现出实时的自主学习能力,简言之,就是“像人”。对一个对话AI系统而言,功能性与人格化 二者有着相反的牵引力 ——如果追求功能性,重点是回答本身的正确、精准、靠谱,最好其回答有明确可溯源的出处。排除写作文等创意任务,不同人问同一个问题应该有类似的答案 (千人一面) ,因为大部分功能性问题是在寻求正确解或最优解,这更像 “改进版搜索引擎” ,有其明确价值,却不是革命性的体验;如果追求人格化,重点是交互感、创新性、超预期,意味着不能有死记硬背的感觉,因为死记硬背并不是人类学习与交互的惯性方式,这意味着回答要有个性、丰富性、多样性甚至狡猾性 (千人千面) 。诡异的地方恰恰在于, 后者往往比前者看起来更“聪明”,更“机灵”,但往往更“不可信”。 功能性AI和情感AI在技术路径上是不是有内在的不同?

黄民烈: 的确, 二者的优化目标不一样。 从情感出发希望聊天聊得越久越好,而功能性是希望能尽快解决问题,信息密度越高越好。评价体系也不一样:一个是信息需求,一个是情感需求。信息需求希望信息越精准、越客观越好,而情感很多是很隐晦、很个性化的,所以优化的目标和角度也不一样—— 一个更像理科生,一个更像文科生;一个是智商,一个是情商;一个满足信息需求,一个满足情感需求。

我们在发布会上举了一个特别有趣的例子。比如一个女孩和AI说,“我肚子不舒服,但男朋友让我多喝热水”,ChatGPT可能会告诉她喝热水挺好的,但情感AI会说你的男朋友应该来陪陪你。 有时候人更需要的是陪伴和呵护,而不是一个solution。

甲小姐: 放眼人类文明,ChatGPT更像我们为自己创造的assistant,它是为了做我们不愿意做的事情而存在;但情感AI更像在创造一个物种,它可能是我的lover或partner,甚至是下一代的更高阶的我。 这两个不同的方向关乎一个基础假设:AI到底是什么。 功能AI和情感AI未来会渐行渐远,还是会相互融合?

黄民烈:未来一定会融合。 比如在保险销售的场景下,一定是先建立信任和连接,你才能把东西卖出去。如果现在有一个人给你打电话卖房子,你肯定直接挂了,但一个朋友和你说,他有一个房子,各个方面都挺不错的,你肯定不会反感他。如果有一个助手和你聊得很好,知道你的信息并建立了深厚的信任和社会关系,某一天它给你推荐说西山那边有个别墅,你要不要考虑考虑?你也不会反感,情感AI是同样的逻辑。

甲小姐: 你的底层逻辑是希望AI越来越像人,而不是一味追求AI的功能有多强?

黄民烈: 我们最早做研究的时候也是做DeepQA,就是IBM Watson那一套,但是当时IBM Watson很有名,他们运用在医疗里也是解决信息的需求。神经网络出来之后,大家开始用data driven的方法做对话,就发现 对话更多出现在闲聊或陪伴上。 我们就试图让计算机表达喜怒哀乐,那项工作很有前瞻性,在国际上也具有引领性。我们第一次在一定程度上让计算机去表达情感。当时MIT technology review、英国卫报都报道了我们,在国际上还是相当有影响力的。

之后我们进一步发现,这些成果可以去解决人心理和情绪上的问题。你也知道,现在很多年轻人心理压力都很大,很多人有各种各样的心理问题。我们就和心理学的老师做了一个项目,叫做Emotional Support Conversation,这是一个情绪支持的对话框架。有趣的是,很多人都很需要这个东西,我们也慢慢地在这条路上一直走了过来。

1966年MIT的Eliza最早开始做能够进行心理咨询的对话系统,他用规则做对话,设计了心理学的提问模板,在当时影响很大,今天也非常有名。所以,实际上 人们对于情感AI还是有很多执念的

甲小姐: 在做情感AI的经历中,有让你印象深刻的例子吗?

黄民烈: 有的。我们看了很多case,发现曾经有一个用户,他每天和AI聊几百句,大概聊两个小时。他觉得没人可以去倾诉、交流。对他来说,AI是一个倾听者。这种例子非常多,也说明AI for social good是一个有明确需求的方向。

甲小姐: 你们有没有统计过一个人每天有多少对话是功能属性的,有多少是情感属性的?

黄民烈: 这个没有统计过,但你对比抖音和京东的数据,京东更偏功能性,抖音偏社交、情感属性。从用户量、用户留存来看,京东你有确定需求才会打开,但抖音、快手随时都可以。

甲小姐: 一个夹带功能属性的情感类产品,可能比仅有功能性的产品更吸引用户。从技术角度看,让AI像人一样有情商比让AI有智商更难吗?

黄民烈: 我觉得要 更难 。更难的点在于:第一,情感本身比较隐晦且主观,但信息是很客观的,它是任务本身固有的能力;第二,数据处理难度也不一样,情感类数据收集很难,公开的渠道也很少,高质量的数据更少。而且社会背景、生活状态不同的人对情商的理解和追求也不一样。

甲小姐: 在情感AI的方向下,会不会因为人跟AI高密度的对话,催生出下一代微信、微博等完全不同的社交平台级产品?

黄民烈:完全可能。未来人和AI、AI和AI,甚至在一个群里和多个AI同时交流都可能发生。

甲小姐: 有种观点认为“一切应用场景最终都是对话”,你认同吗?

黄民烈: 也不能这么说。对话更符合人自然交互的习惯,但 从信息量来讲,对话相对低效。 以购物为例,我们希望有一个界面能呈现商品属性、价格、尺寸、物流等等,这样效率更高。但你要把这个过程变成对话,可能对话20分钟也不知道你想要什么样的电脑。对话适合解决特定的事情,而且今天机器有了超强的对话能力,可以和人无缝交流,这让它有更大的发挥空间。

甲小姐: 我身边做大模型的人可能有一些隐性的执念,一个最性感的大模型应该无所不包无所不能,就像个人类文明的DNA一样,作为一个载体,承载几乎所有的信息。你有没有想过在纯学术领域探一探那颗最性感的果实?

黄民烈: 理想的情况下,特别聪明的人才能做这件事——创造一个模型帮人类解决所有的问题,但这很理想,大多数公司达不到这样的高度。

甲小姐: 从2021年创业到现在,有哪些事情跟你预想的不一样?

黄民烈: 我们最初做心理的时候觉得挺好,但后来发现心理赛道很慢,我们也找了很多专家,但真正要进入一个行业还是需要很多know-how。去年五六月份的时候,我们想做的是数字疗法,因为心理治疗中对话是其中的一个关键因素。我刚才给你发的Echo可能会继续用大模型的方式做一做。但总体来说, 心理比我们想象的复杂很多,也困难很多。

甲小姐: 你曾对媒体说,“过去在中国大家一般不太敢说AGI概念,甚至AGI定义都不太清楚。所以我们有时会调侃说中国的科学家不敢有梦想,因为只要说AGI都会被喷死”。“不敢”这个词显得很被动。经过这一轮AI浪潮的洗礼,今天的中国学者对于“梦想”这件事是更敢说了,还是更不敢说了?

黄民烈: 中国的科研体系和市场体系更偏向短期利益,考察标准都是看你短期三年内能不能有收益,需要5-10年来验证的高风险、高回报的项目是没人愿意给你资金的。

甲小姐: 我见过的很多科学家、创业者、投资人,甚至政策制定者,都很清楚中国科技产业存在短视的问题,却都对此无能为力。

黄民烈: 这是一个非常非常复杂的问题,我也没有答案。它是一个整体的社会系统性问题,涉及到文化、理念、制度、人才考核等方方面面。

甲小姐: OpenAI能够造出ChatGPT有一个很重要的因素是他们真的在这个领域坚持了很久。目前烧了半年的AI热潮正在冷却,AI弄潮儿再一次开始面临资金、人才、商业化的困境,面临群体快速降温的关注度,面向未来,大家的“坚持”从何而来?

黄民烈: 要坚持初心。另外,不需要所有人都去干同样的事,那不利于生态发展。 每个人都应该做自己擅长的,与自己的基因、背景相契合的事情。 我们之前也做了功能性的业务,但很显然,这块不是我们的优势。我们一直在想,怎么把角色、人设、情感做好,成为最独特的存在。

推荐内容