印象条记能够凭借“知识管理”在AI风口起飞吗?为了追寻答案,我们走进了这家独角兽公司。

访谈人:印象条记高等副总裁 燕徙

中国信息化周报副总编 刘晶

对非构造化的知识数据进行管理

总编访谈丨印象笔记的AI征途

刘晶:2012年5月,美国硅谷公司Evernote在中国推出“印象条记”做事。
2018年6月,印象条记在中国独立运营,成为一家由中国成本推动、中国本地团队管理运营的中美合伙公司。
独立运营6年的印象条记,现在已经发展为中国AI领域的“独角兽企业”,印象条记为什么能够成为一家“小巨人”企业?

燕徙:我们将产品定位于知识管理领域的工具软件,我们所做的事情是帮助用户把自己的数据通过组织、整理,形本钱身的信息;然后对这些信息再提炼,形成知识。
这是一个从数据到信息再到知识的过程,在这个过程中,表示出“Code”观点,即Capture(捕获)、Organize(组织)、 Distill(提取) 和Express(表达)。
在这个根本上,用户可以跟别人进行分享、协作,形成对知识进行管理的完全循环。

印象条记对AI的投入,是比较早的。
一方面,印象条记符合人工智能发展赛道哀求,由于印象条记一贯在处理非构造化信息,包括笔墨、音频、视频、图片等,这些非构造化数据很难以一个严格的数据库形式来管理,而印象条记从 2012 年进入中国开始,就一贯致力于帮助用户进行非构造化数据的网络与整理。

印象条记高等副总裁 燕徙

另一方面,印象条记很早就开始做计策布局,我们在 2018 年景立了自己的人工智能研究院,全体研发团队既被 AI 赋能又为 AI 赋能。
我们已经结合自然措辞处理和印象条记本身的一些功能进行了考试测验,比如条记的智能择要功能,以及自动打标签的功能等。
在2023年4 月份旁边,我们又在产品内供应了AI和印象大模型的干系功能。

刘晶:喜好用印象条记来做知识管理的紧张是哪些用户?

燕徙:我们将印象条记用户定义为知识事情者,包括媒体从业人士、年夜夫、状师等,这些人对信息的获取、整理有较大诉求。
一样平常来说,印象条记会陪伴这些用户很永劫光,从学生开始,到他们毕业、事情、成为团队卖力人。
我们的用户主体每每会持续利用印象条记的产品。

其余,从企业角度来说,一些知识驱动型的企业团队也是我们的用户主体,像状师事务所、VC投资(风险投资)机构,还有制造业设计中央、研发中央等,他们的共性须要是对大量信息进行网络和整理,以及团队之间须要高频次地同步和共享内容信息与知识。

AI在知识管理中 如何发挥浸染

刘晶:在今年2024天下人工智能大会上,印象条记提出想做超级运用,详细来看,印象条记将从哪些方面去达成这个目标?

燕徙:印象条记有一个思路,也是我们自己提出的一个观点,是在复合AI系统之下,打造超级运用的六要素,分别是模型、数据、用户、场景、交互和载体。

首先,我们会考虑模型本身的能力,印象条记的模型更多集中在“文生文”领域,同时,我们的模型也具有一定的路由能力,当用户有“文生图”或“文生视频”的需求时,我们可以要求别的模型产出一些知足用户需求的结果。

第二,从数据维度来看,我们会思考一些问题:当模型演习的时候,我们用什么样的数据去进行演习?它有没有自己的独特性?在知识管理垂直领域里,如何用高代价的知识类的语料去进行模型演习?思考这些问题能帮我们将目标厘清。

第三,从用户的角度来看,用户能通过我们的AI产品去办理什么样的问题?我们的回答每每会聚焦在三个点上:创作赞助、阅读赞助、通过AI助手实现用户与条记对话。

第四,从交互维度来看,我们认为对话式交互不一定是最好的交互办法。
用户在条记里写下一段话,这实在是 in context (高下文式)交互,在这个场景下,它比对话式交互更好的缘故原由是更符合用户当时的创作场景。

第五,从场景维度来看,我们会考虑用户想要利用 AI 办理什么样问题?印象条记的模型不善于写代码,但它“读书”能力很强,或者说它能更好地抓取知识要点,从而形成总结,这是我们的上风。

末了,我们还会考虑载体。
载体究竟是落在独立运用上,还是落在现有的APP 上?在微信"大众年夜众号上能否实现?在智能硬件上能否实现?

我们认为,如果一个大模型只供应一个人机对话的界面,是不能被称为超级运用的。
以是将六要素的思考全都整合在一起,才能打造出一个为用户供应更好做事的 AI 运用。

更主要的是,无论是做超级运用或是其他,都要和公司本身的定位相结合。
如果让印象条记去做一个像 Sora的天生视比年夜模型运用,就非常不现实,由于这和我们推崇的六要素不适配。
但在知识领域、知识管理领域,如何把 AI 和运用更好地结合起来,一定是我们未来持续深耕和发展的方向。

刘晶:AI+知识管理的未来机会在哪里?

燕徙:如果说过去一年是云端大模型的爆发年,那么今年则是AI 运用的爆发年、端侧大模型能力的爆发年。
对我们来说,端侧模型怎么样和用户设备上的数据更好地结合和打通是一个问题。
由于用户实在还有很多知识存储在本地电脑硬盘里,那这些东西怎么抽象出来、形成知识?是我们须要进一步磋商的问题。

另一个机会,便是 AI 的智能硬件。
AI 的智能硬件未来可能不是在手机端或是PC 端,往大了讲,可能是具身智能。

印象条记目前已经做了一系列的硬件,这些硬件都在办理一些传统信息记录场景上电子化的问题。
在原来的传统领域里,信息可能分散在不同的地方,它可能是一条语音、一段录音,可能是在条记本上写的一些字,书上被高亮的一个段落。
基于这些传统信息场景,我们推出了印象智能笔(EverPEN)、印象录音笔(EverREC)、印象电子马克笔(EverMARKER)等硬件产品。
个中,印象智能笔在智能硬件领域里,已经做到了行业第一。

用户通过这些产品进行书写笔墨、录音、选中并高亮书本中文段内容,随后,这些信息会被同步到印象条记里,完成电子化。
电子化的好处是方便用户后期进行整理、检索,形本钱身的知识体系。

我们认为,未来 AI 大模型可以更好地赋能信息记录。
以录音笔为例,用户不须要把某个录音全部转录,一点一点地查找主要信息,而是可以用大模型自动形成择要和重点,这将大大提高利用者的事情效率。

希望成为“更智能的第二大脑”

刘晶:好的思想终极须要表示在产品设计上,印象条记在产品上做了哪些创新?对产品的定位是什么?

燕徙:从去年开始,我们就希望印象条记通过 AI 的赋能,由我们原来的定位“第二大脑”,变成现在我们所希望的“更智能的第二大脑”。

举个例子,我们在聊一个观点:让韶光看得见。
我们希望条记内容可以以一个日程或日历的形式展现出来,这样可以让用户更方便地查找过去一段韶光里,或是分外韶光点记录下的条记内容。
就彷佛条记见证了用户的进步和发展,这是我们希望能给用户带来的一种体验。
而我们创造,该功能的利用率在“日历”功能推出后有了翻番的提升,可见这是一个用户乐于看到的,将知识与行动串联起来的功能。

刘晶:从AI运用来看,由高质量的数据演习出来的模型,才是真正具备代价的。
在数据的管理、运用、挖掘方面,印象条记有什么方案?

燕徙:首先,印象条记始终秉持“信息是属于每个用户个人的宝贵的数字知识资产”的原则。
其次,我们不会利用用户的条记或数据去演习大模型,我们用的都是公开数据。
同时,我们也会鼓励用户进行主动分享。
例如,我们会在产品内供应协作的能力,用户会有一个共享空间,在这个共享空间里,用户可以与同一个项目组的同事共享各自网络到的资料和信息。

其余,我们的大模型在演习时,一方面用公开的数据源;另一方面,用印象条记的独特数据。
印象条记的独特数据包括几个方面:第一,我们有一个强大的功能叫作剪藏,便是当用户无论是在微信、微博、小红书,还是在网页上看到一些他认为感兴趣的内容,都可以通过剪藏这个功能,将其保存到印象条记中。
这些数据是由用户通过API接口保存而来的,属于公开数据。
第二,印象条记还有一个内容平台,叫作“识堂”。
在这个平台内,用户可以基于他的条记与别人共享、发布,形成公开的数据和内容。
终极,印象条记将这些内容与市场公开数据相结合,形成我们独占的高代价数据集。

刘晶:大家在用印象条记产品的时候,会碰着一些付费做事。
目前印象条记在扩大用户总量、提高做事收入之间,如何做到平衡?

燕徙:印象条记从一开始便是订阅制的模式,所谓订阅制便是会员制。
所有的用户能免费利用印象条记,但我们一些高等功能是须要付费的,也便是所谓的“免费利用、功能付费”的观点。

我们既希望获取更多的用户,同时公司本身的商业持续发展也须要商业收入,以是,付费订阅制能在两边做到一个较好的平衡。

印象条记已经不是之前的互联网流量模式(互联网流量模式指的是平台通过砸钱得到大量流量,再通过广告的办法转卖出去)。
我们希望我们的产品能为用户供应更多的增值,以是我们更希望它是一个PLG 的模式(Product-Led Growth,用产品推动用户增长)。

刘晶:你认为,可以支持印象条记长期发展的核心理念是什么?目前印象条记在专注构建的竞争上风是什么?

燕徙:我以为首先是专注。

我们在知识管理的领域里持续深耕了12 年,这些积累和履历带来的“壁垒上风”是稳定。
对付条记类用户来说,他们须要的是“我随时随地能够访问我的条记,并找到我想要的内容和知识”,这一贯是用户的最核心诉求,以是我们的第一要务是担保为用户供应稳定持续的做事。

而其余一个,便是离线能力。
离线能力指的是用户的所有条记内容,无论是在 PC 端还是移动端都可以随时进行离线访问。
我们的目标是当用户乘坐飞机或高铁时,纵然碰着网络或旗子暗记差的情形,也能获取到自己的数据和信息。
以是我们一贯坚持“云端、本地双备份”。

印象条记倡导“端云一体”的观点,指的是在一些场景下,一些须要完成的任务由端侧去完成。
我们有一个2.2B的模型,在 AI PC 上完备跑得起来。
虽然端模型是小模型,无法实行一些繁芜的推理,但端模型可以在离线的情形下实现一系列AI的能力,也便是我们之条件到的离线能力。
我们能够实现的是端侧数据加端侧模型,这能够知足用户大部分场景下的利用需求。

作者:郦雨婷

编辑:高珊珊

监制:刘晶