23年,以OpenAI领头的大模型赛道风靡一时,一韶光海内、国际诸多玩家纷纭入场。巨子们紧张以底层能力入手开始卷,做自己的大模型,而在广袤的运用层,大家都有机会做自己的大模型运用。于是起心动念,开始在闲时研究干系内容。
说来大略,实际匆匆使我实际开始动手去做的,还有一个关键的信念/不雅观点——场景闭环是成败关键。
随着OpenAI开放了GPTS,网上涌现一个段子说“每个人都在做自己的GPTs,同时没有人乐意用别人的GPTs”,除了用户低廉甜头的对话运用的确良莠不齐的成分外,我认为还有一个关键成分是,清一色基于谈天界面的运用很难打造品牌爆款,背后的缘故原由是大略的谈天页面无法完全闭环场景。
比如常见的AI创作小红书文案的场景,通过优化后的prompt的确可以让AI在给定的语境下天生一段看似符合小红书常见帖子的文案,但如果想专业运营好一个小红书账号,你还会面临:
而以上这些问题,都是你在一个与AI的谈天框中无法办理的。这也是为何GPT3.5面世时各路媒体纷纭宣布天下变了,但一年多后的本日,你可能以为天下变革彷佛并没有那么大的缘故原由。
谈天框+插件在一定程度上强化了AI能处理的场景,比如搜索引擎在可预见的将来就一定会被取代,由于AI在阅读、搜索、归纳信息的效率上是人所不能比的。
但同时,短缺细分行业的业务流程逻辑,也意味着单一的对话运用一定无法在各个领域都取得良好表现,反而是那些已经在垂类领域有认知积累的玩家,有机会在此技能革命中取得更好的口碑,比如AI+数据库查询,AI+客户管理系统,AI大批量口试,AI优化在线文档,都是有商业代价且能切实提高效率的场景。
图为阿里云AI+数据库管理的运用,意味着不会sql的同学也可以按需查询所需数据
言归正传,决定去做后,便开始考虑要做的定位与场景。
一、市场细分与定位
做大模型市场的定位时,细分市场的第一刀是2c&2b。
在2b的企业做事侧,大模型存在的形态,或是与原有场景深度结合,或是基于会话能力创造出了新的可行产品。比如营销获客领域,一键天生的内容与批量发布形成了新型的内容平台管理,由人生产内容更新为机器生产内容,让矩阵运营流量平台账号的本钱更低,效率更高(当然,流量平台后续一定会对此相应进行监管);
比如客户跟进领域,基于平台供应的客户高下文信息,大模型可以以发卖个性化的口吻天生跟客话术推举,并在通话后智能总结通话择要;比如客户做事领域,基于知识库的大模型,在信息的提取与理解方面已经超过了大部分客服,只须要大略的一份pdf文档,就能演习一个节制全部信息的客服(以目前的技能水平,实际场景中仍旧有无法识别并发送知识库图片、无法帮助客户操作等弊端)。已经落地的案例中也可以看到,大模型能力必须与利用场景深度结合才能更好地发光发热,纯挚具有天生小红书文案的能力不敷以支撑一个完全的产品,但如果可以批量管理数千个小红书账号内容的自动天生与数据管理,这才是合格的商业化产品。
比较2c,2b市场更哀求完全产品交付,也对应须要更高的启动本钱,以是这部分市场我没有考虑。接下来,我们再看下2c的市场。2c的市场太大了,我们的目的是找到潜在的切入点,如果机器按照“社交、电商、游戏、内容…”等领域去做细分无疑是很呆的,对我们的目标也没有任何建树。以是我这里仅仅基于做平台/做场景粗粗分类。
第一块2c的市场是做大模型底层培植。这是大厂们的首选,无论是基于品牌、商业竞争、企业代价等角度,海内企业一定要有自己的大模型,并基于自己的大模型搭建平台。范例如百度的文心一言,字节的coze(豆包/cici),第一步是演习属于自己的大模型,第二步是基于自研大模型做平台发展GPTs。
第二块市场属于各种细分场景,将大模型的开放能力包装一下,形本钱身的运用。
最直白的的做法是把会话、画画等能力接入进来,以别人的能力做自己的品牌,如果你在微信小程序搜AI,可以看到不少这样的运用——由于某些限定,只是大略把国外的能力拿过来,实在也是有较大需求市场的。
另一种更专业的做法则是专注于某种场景供应做事,比如KIMI,早期定位于“快速阅读整理资料”的场景,把文章发过去后即会快速阅读给出总结,随着扩展的须要,目前又拓展了网络搜索、超长高下文的能力,去承载更多运用。
细分后,我的目标也就基本框定在了“2c市场中的细分场景”这一部分。终极产品初步定位为小程序佳构GPTs的市场,同时在产品架构上支持原始GPT能力与数个内置的场景化GPTs,这样选的缘故原由包括:
基于小程序紧张是基于增长的考虑。大模型的核心魅力之一在于“对付自定义输入内容所带来的未知输出的期待”,而这种游戏性很适宜做裂变增长,比如年前在年轻人群中火过的“哄哄仿照器”,把哄女朋友的场景做成了笔墨闯关小游戏,便是个很好的增长案例。短缺诉求极其强烈的利用场景。个人直接做2c的微型项目,最稳妥的办法便是自己便是这个领域的深度用户,否则就须要付出数倍的努力去做用研。当下的我并没有某个强烈且乐意稳定付费的细分场景,以是须要在多种细分场景上试。当然,这也会导致更高的掩护本钱,以及错过真正高代价场景的风险。1.0版本中,我选择了“起名”的场景。大模型的语义理解与内容天生能力很适宜做一个发散性的起名助手,且比较直接用通用对话AI起名,独立的小程序意味着可以增加“起到满意名字的添加备选”“分享我的备选列表给家人”“管理家庭备选列表及投票”“查看备选名字重复率”等延伸诉求。且起名虽然极其低频,但在海内广大的基数下,依然有可不雅观的市场。
二、版本、定价与增长
由于是个人项目,我没有打算贴钱做用户量,要做就从第一天开始自大盈亏(当然,根本的韶光、工具投入还是要的,我预了大概出去玩一趟的机票钱来做这件事)。
大模型选型上,我利用了GPT3.5,由于4.0的价格实在太贵了(而海内大模型仍处于追赶阶段,效果较差)…3.5的定价是输入0.0005刀/1000tokens,输出0.0015刀/1000tokens;而4的定价则是输入0.01刀/1000tokens,输出0.03刀/1000tokens。
不要以为这个价格很便宜,随着用户与AI谈天的记录增多,每次对话时AI都会将之前的对话记录阅读一遍,看似AI只回答了几十个字,但实在已经花费了几千tokens。按照用户每次对话花费2000输入tokens+1000输出tokens的量来预估,AI每次回答会花费2000/10000.0005+1000/10000.0015=0.0025刀,约公民币2分钱,于是初步定价4.9元/15次起名机会,比较传统人工起名的收费显得很良心,我也有一定空间来做免费体验等转化功能。
1.0版本的搭建大概用了半个多月韶光(利用低代码工具自己搭建的,不须要写代码且效率更高),上线了根本的起名、收藏起名记录、付费、看广告得到免费次数的功能,算是实现了根本的闭环。目前紧张的增长渠道还是小红书的推广,通过内容引流,去得到免费流量,上线一个月也做到了几百月活,得到了一部分付费与广告收入。
中间微调过两次策略,第一次是创造用户付费率很低,进一步去看数据,创造险些每个进来的用户都会去对话起名,但大部分用户用完赠予的谈天次数后没有进一步的转化动作,考虑场景足够刚需,于是下调了赠予的体验次数;第二次是创造一位用户在两天内看了170条广告(来获取免费次数),于是下调了看广告赠予的次数且增加了最大免费次数。
至此,一阶段的场景验证已经基本完成,验证了在细分场景下的确有做一些轻运用的空间。下阶段则要进一步验证增长与收入模型,目前的推广手段还比较单一,依赖公域平台的内容流量,下个阶段希望则通过拓展场景,去得到口碑或裂变式增长。
三、小结
下笔写来大略,实操过程中实则有很多细节,要花费心力去优化办理,比如如何申请openai的API,如何代理API,如何将AI起的名字存入表中等等。本篇重点在过程中的思路而不在实操,因此刻意忽略了实行的落地细节。
总体来说,现阶段大模型的能力足够支撑我们做一些创新产品,如果场景的确可以为用户/企业带来实打实的代价,也可以带来一定的商业回报。当然,还是那句话,创业有风险,以是如果你希望做自己的项目,还是建议在空隙韶光兼职做,不要一头莽进创业者军队。在实际投入韶光精力之前,也可以通过AI谈天产品做一些基本的验证,确保这个场景的确有代价,再考虑产品化。
本文由 @紫兆 原创发布于大家都是产品经理,未经容许,禁止转载
题图来自 Unsplash,基于 CC0 协议
该文不雅观点仅代表作者本人,大家都是产品经理平台仅供应信息存储空间做事。