先是今年9月份一幅由AI绘图工具Midjourney创作的作品《太空歌剧院》得到了艺术比赛的首奖引起争议,而与此同时,StableDiffusion、Copy.ai、Jasper.ai等多个AIGC平台宣告了融资,一韶光呈现出了多个独角兽公司。
另一方面,AIGC正面临着不少商业和技能的争议,内容本身的版权、良品率和工业标准问题,技能伦理的寻衅,以及算力可能汇合中在头部大公司的问题,未来的新机会究竟在哪里尚未可知。
很多宣布关注的都是国外AIGC创业动态,对付海内赛道的创业却少有宣布,海内AIGC创业的机会在哪里?和国外产品有何不同?FounderPark特意约请到了海内AIGC领域的多位创业者,来一起聊一聊AIGC当前的技能发展和海内创业的商业可能性。
AIGC内容如何更好地进行内容版权保护?到底AIGC会让人工智能取代人类,还是赞助人类更高效地进行生产创作?关于这些问题,在这场圆桌谈论中也都有深入的谈论。
这是FounderPark的圆桌栏目「Tech、CoffeeorTea」的第一期,和「Founder100」栏目聚焦创业者有所不同,这个栏目会关注当下的热点科技话题,直面热点的现状和争议,从更多元的视角来核阅新技能带来的变革和商业可能性。
参与本次圆桌的创业者们分别是:
澜舟科技合资人&首席产品官李京梅
西湖心辰合资人&COO俞佳
数字力场科技创始人&CEO张涛
ZMO.AI创始人&CEO张诗莹
AIGC
的现状和争议
FounderPark:很多人说AIGC的大进步得益于底层大模型的进步,到底是哪些技能发生了革命性的变革?
李京梅:大模型到底是什么?严格说来该当叫预演习模型,可以追溯到2017年谷歌提出的Transformer技能,在之后有真正的预演习模型开始呈现,谷歌的BERT、T5以及OpenAI、GPT-3模型等,还有阿里、百度、华为等推出的预演习模型。
Transformer模型:最早是由Google于2017年在「Attentionisallyouneed」一文中提出,在论文中该模型紧张是被用于战胜机器翻译任务中传统网络演习韶光过长,难以较好实现并行打算的问题。后来,由于该方法在语序特色的提取效果由于传统的RNN、LSTM而被逐渐运用至各个领域。
预演习模型在技能上实现了哪些打破呢?首先是认知智能,NLP也便是自然措辞处理,我们可以用人工智能技能去理解人类的自然措辞。2019年机器AI的阅读理解的水平已经超过人类的水准了。
其次是感知智能,便是视觉上能看得懂、语音上能听得懂。为什么说NLP会被视为人工智能皇冠上的明珠,是由于当AI能够像人类一样做到能听会看,下一步的打破便是理解、思考以及决策了。
预演习模型跟以往传统的学习模型最大的不同,是预演习模型基于互联网公开的海量数据,可以做到无监督或者次监督学习,不须要人工打标,比如识别一只猫、一只狗,或者说这是一个名词还是动词等,都是通过机器自己的无监督学习,让模型AI有了基本的阅读理解、分类和分词的能力。
但是天下并没有一个可以办理所有问题的预演习模型,可以一套预演习技能办理不同措辞、不同的任务,可以快速针对详细的某个领域、场景做针对性微调。而在此之前的学习模型都必须从零开始演习。也便是说,NLP大模型进入到了一个工业化履行的阶段,可以作为买卖去商业化了。
还有便是,比来StableDiffusion模型开源,并且这个模型的规模比较于GPT-3小很多,能够在消费级显卡乃至手机上运行,瞬间让AIGC这件事的门槛降落了,普通消费者或者一样平常的公司都可以来考试测验,公众年夜众可以来考试测验各种发挥想象力的运用。澜舟科技也是自研开拓了预演习大模型——孟子,并且通过轻量化技能,做到了十亿级参数量的预演习模型可以比肩超大规模的预演习模型。
俞佳:在京梅老师的回答上,我轻微补充下当下存在的问题。
实际上当我们真正面对用户的时候,会创造大模型还是存在着一小步的间隔。不管是GPT-3还是T5,获取到行业信息天生通用文章的效果都还不错,但是文章的知识性或者言之有物的一壁间隔工业级运用还会有一些差距。这是目前商业化中会碰着的一些问题。
还有便是,除了天生质量之外,人对大模型的掌握能力,或者说大模型如何能更好理解人的指令也是很主要的。
张诗莹:图像这边的变革紧张源于Diffusionmodels(扩散模型),是学术圈和商业圈重新把之前的东西捡了起来。大家之前都是在研究GANs(对抗天生网络),OpenAI的研究职员揭橥了一篇论文说扩散模型在图像合成上优于目前最前辈的天生模型的图像质量,然后大家就都去做Diffusionmodels了,事实也证明这确实是一条更好的路,后来涌现的很多开源框架都基于Diffusionmodels。
其次,我也比较赞许京梅老师的意见,大模型虽然很广,但是也没法办理所有行业的问题,大概未来算法打破后,算法集变大以及GPU变得更便宜后可以。当下还是要基于不同行业的需求,对模型进行修正和优化。
FounderPark:AIGC现在在不同领域天生内容的成熟度是什么样的?
李京梅:文本天生是个中相比拟较成熟的,澜舟科技在去年成立之后就在营销文案领域进行告终构。
文本天生在技能上关注的是可控性,本日还做不到给AI一个题目,让AI直接天生千字文万字文,更多的是可控文本天生。在营销文案领域,须要供应商品信息、以及一些知识信息,比如人在白天戴墨镜,夜里不戴;白天擦防晒霜等这类信息。
在营销文案领域,我们和数说故事旗下的横琴容徽互助推出了contentnote智能文案,已经在去年年底就上线了。其余便是在文学写作赞助领域的运用也已经落地,和网文平台中文在线进行互助,紧张给网文作者供应一些灵感和赞助,目前已经集成在他们的写作平台中。
图像天生比文本天生的进度轻微慢一些,还有一些细节问题待办理,比如人脸和手部的细节真实度等,脸部有扭曲或者六指这样的问题还有待去办理。
比较较文本天生和图片天生这种背靠开源红利,视频天生目前还存在不少门槛,至少有两个问题须要办理,首先是AI须要能够识别图片中的内容,然后基于此做一些插帧,这才能让天生的视频是一个比较真实连贯的视频。
不过不管是视频,还是文本天生,对付输入长度都会有限定,几百字的文本还行,再长可控性难度就比较高了。
张涛:3D内容天生这块确实存在很多问题待办理。
StableDiffusion推出之后,我们就快速将其引入到了3D内容生产的环境中。优点显而易见,在大量的内容贴图天生环节中可以帮我们降落本钱。缺陷的话,跟以前GANs类似,大家目前只能做一些很大略的风格掌握,比如马变斑马、长发变短发等,离偏风雅化的掌握还有一段间隔。
不像文本有海量的数据可以演习,网络上目前没有大量开源的3D资产数据可以直接用来演习大模型。我们现在走的路是一条比较艰辛的路,便是把3D的资产拆解后,用不同的办法去做,有些用传统的图形渲染的办法求解,其余一些通过StableDiffusion或者类似模型天生后再去做组合。
张诗莹:特殊认同张涛老师的说法。
3D内容天生是很主要的,这是现在的游戏、动画以及未来的AR/VR场景下的痛点。如果3D内容天生可用,将极大颠覆游戏、动画乃至未来天下的叙事办法。
现在图片天生还是2D的形式,我们希望未来可以直接输入文本天生3D内容,用一种humanfriendly的办法去天生,也不须要很多工程师。现在2D天生3D,是一个自由度更高的寻衅,不仅要改变形状和呈现形式,还要考虑移动办法等,而到了视频时期,还要考虑不同的角度,以及光影等,难度更大,但也会更加震荡。
俞佳:从技能成熟度来看,文本天生确实比图片天生更成熟,但是这个成熟度如果和人类的本身能力去比较的话,其结果可能是反过来的。
大部分用户都有一些根本的写作能力,可以写出75-80分的文章,现在的文本天生模型可能在70分旁边;而对付图片天生来说,大部分用户不经由几年专业画图演习的话,可能是无法超过现在的图片天生模型的。图片天生模型的成熟度在这几个月内得到了极大的打破,可能在未来几个月也会有更快的调度。
FounderPark:如何看待AIGC内容的版权问题?
俞佳:盗梦师现在遵照的是CC协议,版权属于创作者本人。不过现在确实有一些艺术创作者担心自己的作品被喂给大模型演习后,可能会损失对自己的图片的版权保护,我有一些更开放性的想法。
版权的实质是对创作者的知识产权和收益权的保护,版权的观点早在互联网涌现之前就有了,本身的内涵也在随着技能的发展而变革,大概将来对创作者的收益分成机制也叫版权,比如说利用区块链技能或者其他大家认可的一种分配办法。如果是你的图被模型演习了,那么将来利用这个模型创造出来的所有的作品的商业收益你都得到分成;或者是利用你的图演习了一个私有模型,那么别人可以直接进行付费购买这个私有模型进行内容创作。
以是我以为,版权问题,或者说创作者的收益保护问题一定会随着行业的发展得到更好的办理方案。
张诗莹:如果把AI看做一位小朋友的话,一定会经历从模拟到创新的过程,一开始是从临摹开始,后来才会有创造和超越。AIGC中最强调的便是AI的创造能力,不是只去模拟,是可以在学习的根本上创造新的东西。以是我们也鼓励所有的创作者,来和AI一起创造一些更美更有趣的内容,也更鼓励我们的用户去用更创新的办法去创作新的内容,而不是只模拟某一位艺术家的风格。
02 AIGC产品
在海内的商业落地
FounderPark:ZMO.AI的产品紧张布局在哪些方向?
张诗莹:我们很早就意识到AIGC是AI的下一波浪潮,上一波浪潮是感知智能,下一波该当便是怎么感知。目前我们在外洋商业化落地的时候,紧张环绕三个方向。
首先是电商营销,电商营销分为博客营销和社交媒体营销。博客创作须要配图,传统都是在图片素材库购买,本钱比较高,现在可以直接用AIGC天生。社交媒体的营销对付图片的photorealism(照片写实主义)哀求比较高,尤其是细节和光影等,我们目前也优先从这个点切入。
第二个方向是3D素材的天生,目前还没有到可以直接驱动天生3D人物形象的阶段,但是可以帮助游戏和动画原画师,去更好地得到灵感。由于之前设计师都是靠画很多张草稿,然后从中选出一张满意的,不一定须要很风雅的素材。
末了是设计领域的参考素材库,微软前一阵也发布了Designer软件,为用户免费供应设计模版。AIGC在个中既是天生器又是编辑器,可以天生设计师须要的素材,也可以进一步编辑成为更加完全的设计。
FounderPark:ZMO.AI的产品基于开源的StableDiffusion做了哪些创新改进?
张诗莹:最大的不同是我们一开始就聚焦在真实照片的天生。这也导致我们选取的模型不同,StableDiffusion是在隐空间直接天生图片的办法,而我们须要一些更真实的照片,光影包括细节须要更细腻,以是更多是在像素等级,基于多层级的办法去做模型的构造优化。
还有便是,我们是环绕商用的场景,对图片分辨率比较看重,一样平常会输出1k以上分辨率的图片,全体的算法、模型构造和优化策略也会有所不同。
措辞处理上,中文的语法和英文很不一样,开源数据集也因此英文为主,对英文的处理会更好。由于产品面向外洋市场,以是中文、英文的数据都进行了演习。后期可能会针对不同国家,在数据上做更多的优化,比如针对海内市场的运用,利用更多的中文数据集。
FounderPark:先容下盗梦师这款产品,你们的底层技能是如何实现的?做了哪些创新?
俞佳:我们现在有三款产品:图片天生的盗梦师、文本天生的FridayAI和生理谈天机器人。盗梦师目前有靠近50万用户,用户粘性还是很强的,越日留存靠近40%。
盗梦师的用户分为两类,第一类是兴趣型用户,对AIGC的技能感兴趣,头脑中有很多故事和画面但是自己没法画出来,于是用盗梦师实现了自己的梦想,很多用户都在访谈中表示利用盗梦师创作小故事,这也是我们一贯说的要授予用户画出言之有物的图像的能力。
还有一部分用户是专业画师或者设计师,他们更多把盗梦师当做素材和观点来源,对他们来说,可以很清楚地进行需求描述,很快得到观点稿。对付这样的专业用户,我们做了一定程度的优化,而对付普通用户是免费的。
我们也是基于diffusion技能进行开拓。在我看来,当下的AIGC会有两个比较关键的问题还没有被很好地办理。一个是模型本身的理解能力,给模型一段笔墨或者一张图,它能理解多少,这个中有很多的gap,比如说措辞的隔阂,模型演习时利用的都是英文,自然对中文的理解会存在问题。基于此我们做了模型的前置理解部分,让模型去更好理解文本的内容。
除此之外,如果想在工业级别或者企业级别上利用内容天生,当下的图片天生更多是做到了好看,但是没有细节,短缺言之有物的东西。主要的是模型要能够有知识和逻辑,理解语义的能力,我们在这个方面做了比较多的创新和优化,这是现在的开源模型或者其他竞品所不具备的。
还有便是,我们会根据用户的输入,通过强化学习的方法来增强模型的能力,由于有不少专业用户输出了专业的描述词汇来天生很好的内容。
FounderPark:澜舟科技的文本天生产品现在发展得怎么样?
李京梅:澜舟科技是做自然措辞入手的,我们去年做先做的便是文本天生,目前的产品便是contentnote智能文案,紧张针对营销文案的智能化写作。
AI赞助创作营销文案紧张是三步,首先是选择写作模版,产品营销、好物推举还是科普等,然后确定文案的标题,输入品牌和详细的商品,这样实在就有了初步文案的天生,用户可以在最后进行关键词选择,比如雅诗兰黛的护肤产品,就会有类似清爽、淡斑之类的关键词可选。营销职员基于天生的内容进行二次编辑,很多时候可以做到80分的水准,可以知足批量或者紧急情形下的内容天生,提高了效率。
我们还有一个文学创作赞助的运用,现在已经开放了api接口,大家可以去澜舟科技的官网申请试用。这款产品紧张针对网文等商业化写作,帮助作者提高效率,供应灵感。比如用户想创作一个从教室穿越到清朝的小说,输入一些关键字后,AI可以帮助他天生一段细节描述,给用户供应一些新的灵感,也鼓舞用户连续创作下去。目前这个api已经在中文在线的写作平台上进行了支配。
而具备了文本天生和图像天生的能力,我们就可以给用户供应更多的可能性,比如图文并茂内容的一键天生等。
其余我们也上线了一款小程序——熊猫小说家,供应小说接龙的功能,你可以约请你的朋友,大家一起来集体创作一个故事,AI会根据你选择的关键词天生故事走向,分享给你的朋友后他可以进行续写。
我们目前还是在垂直场景进行发力,在孟子这个预演习模型的根本上,整体走轻量化的策略,持续进行自研,去做多模态跨模态的领悟,面向不同的场景做领悟。
FounderPark:数字力场在AIGC上的探索方向是怎么样的?
张涛:我们紧张聚焦在数字人和数字人服装的低门槛天生。现阶段流程已经打通,不过还须要进一步提升品质。
对服装来说,3D服装面对的寻衅也有很多,光芒、人物动作、周围环境等的影响,还要合营不同的avatar,衣服的材质建模以及物理仿真等,这些环节都有一系列的寻衅,我们目前算是磕磕碰碰跑完了全体流程,不过还处于调优级别。
为什么切入这个方向,我们认为当AIGC的可以大量生产内容之后,数字人大概也可以通过这样的办法生产,包括数字人的服装、配饰等,毕竟行业内总是须要低门槛的天生办法,而不是全靠建模师、美术师一件一件去生产,这是我们目前比较看好的点。
03 AIGC创业终极面对
的是内容创作者
FounderPark:ZMO.AI的产品功能上,还有哪些创新的点?
张诗莹:我们一贯以为从内容天生到内容编辑是非常完善的内部链条,天生图片只是第一步,后续用户还可以对图片进行编辑,加入笔墨等。我们去做Editor这款产品也是希望能带给用户完全的体验。尤其是对付很多设计师来说,很多时候都是从天生元素开始,然后在元素的根本上设计海报或者包装,这些都是链条上不可或缺的一环。
我们的Editor产品考试测验将编辑的门槛降得更低,用户不须要去学习繁芜的PS技能等。未来在包装、建筑和服装设计领域等,AIGC能够帮助到大家很多,不管是供应灵感还是帮助他们直接天生内容,而在3D天生成熟后乃至可以直接对接到制造业。
FounderPark:ZMO.AI的产品是ToC还是ToB的?会聚焦在哪些领域?
张诗莹:我们的IMAGECREATOR最早在国外上线,最近在海内也推出了YUAN初小程序,为什么叫这个名字是由于以为YUAN很有想象力,可以叫它源远的「源」,也可以叫它为远大的「远」或者愿景的「愿」都可以。
产品的定位是tocreator,所有的创作者,没有严格说一定是ToB或者ToC。我们认为在未来,当AIGC变成所有人都可以利用的时候,B和C的界线会很模糊。很多人一开始可能是个人消费者C,他通过自己的设计和作画,有了自己的作品开始挣钱了,逐步就变成一个小型的B了。大家都是创作者,大家都可以创造。
目前会聚焦在电商方向,但是会在此根本上进行拓展。由于模型的天生能力是底层的能力,末了的落地可以有很多场景,电商只是个中的一部分。详细来说我们会聚焦在三个领域。
第一个是真实图片的天生能力,第二个是3D内容的能力,第三个是专业的插图能力,这种插图包括后当代、儿童等各种插画风格。实质上是一个内容天生和创造的平台,能够在上面创造各种内容,帮助到用户更好创造代价。
FounderPark:对付图片天生,ToC会是更值得期待的方向吗?
俞佳:在我看来,AIGC的ToC领域一定会涌现非常大的平台,由于人类的创作本钱亘古未有地降落了,创作形式的变革会带来内容消费形式的变革。由于有了智好手机,人们可以更方便地拍摄视频,才涌现了抖音,昔时夜家可以更快速地去创作图片或者视频内容的时候,一定会涌现另一种内容消费平台。大概将来会涌现很多的网络漫画,由于只要有故事和想象力,你就可以自己创作自己的漫画。这种创作生产力的突变会带来一些新的机会,当然竞争也会很激烈。
FounderPark:文本天生类产品,海内外的产品有什么差异?
俞佳:外洋的文本天生运用也有征象级的公司比如Jasper、copy.ai等,外洋公司的上风在于起步较早,国外用户对付SaaS类产品付费接管度比较高,对付能够节省韶光的产品,他们的付费意愿是很高的。
海内用户对付工具类产品付费意愿没那么高,但是对付那些工具确实能够帮他们挣钱的用户,比如跨境电商、新媒体创作的用户,付费意愿就比较高,以是我们除了这一类用户外,也会发展一些ToB的互助。
04 AIGC
的未来可能性
FounderPark:从商业化角度考虑,如何提高AIGC的良品率?
张涛:两个层面吧,首先是从模型的底层掌握入手,朝着更精准的方向优化。底层改造须要投入大量的资源和数据资源。
其次是生产层面,对付大模型来说,想进行精准的调度是有难度的,我以为可以在运营层面投入更多的资源进行调度,比如输入更准确的描述,内容把控上更严格等。
李京梅:当下实在还没有放之四海而皆准的办理方案。从技能层面来看,我们更关注垂直场景的落地,这样对我们来说是比较可控的,在这个场景下进行持续优化,提升良品率。其次是工程层面的优化,让产品的用户体验更好。
还有一个最根本的理念,不管是NLP还是AIGC,大多数场景下该当都是人机互动的办法天生末了的成品,也便是说终极能否产出良品,还是把握在操作者的手中。这是目前以人机交互的形式产出内容的客不雅观局限性。
俞佳:现阶段谈论建立工业标准可能有点言之过早,可能文章的完全性、并发数、QPS等这些传统指标是可以作为监测标准的。
我以为在很长的一段韶光内,人一定是和AI共同完成创作。早期阶段人须要做的是不让AI跑偏,随着AI能力的上升,人须要去供应创意,或者按照自己的审美从结果中选择好的内容。不管是短期还是长期,这种交互关系是值得深入去研究的。
张涛:我们现在更多是聚焦,在垂类上更加聚焦,逐步提高产出的细节、光照等质量。
其次是重视用户反馈,当天生的图越来越多,用户的反馈就很主要,可以帮助大模型进一步优化,达到更好的状态。
FounderPark:3DAI模型演习进展比较缓慢,你们如何办理3D模型演习素材少的问题?
张诗莹:我们会利用渲染引擎专学天生一些数据来做演习,这些能够覆盖到我们聚焦的场景,但是没办法泛化到所有场景,而且相对来说获取本钱有些高。未来还是期待会有大厂无私放出一些数据帮助大家。
张涛:我以为进展慢是正常的发展规律。14、15年多模态发展起来的时候,很多人去做文本天生和图片天生,也是积累了很永劫光,即便是到了本日的DALL·E2,也是经历了一段韶光才爆发。现在数据比较难,将来一定是要依赖某些开源数据的大力推进,这一点我是认同诗莹老师的。
但是即便是这样,我仍旧以为目前3D的进展不慢。回到元宇宙观点爆发之前,行业内的3D资产很多是在游戏行业,这个赛道是相对更封闭,有固定的盈利模式,人才培养和生态也是有自己的闭环,人才很少流入到其他行业。随着元宇宙赛道的火热,以及游戏行业这两年受到的牌照、疫情的冲击等,全体行业的人才流失落到了其他行业。当这些不同行业的人才碰撞在一起,开始磋商AIGC的内容打破的时候,我以为这个赛道才刚刚开始。
现阶段大模型很难取得让人惊异的成绩,由于大家现在习气影视和游戏高本钱制作的3D模型,但是一年之后,3D模型天生的状态一定不是本日这种粗糙的状态。要知道,三年以前文本和图像大模型的状态也是不可控的。
FounderPark:很多AIGC公司都是在开源模型的根本上进行优化和产品开拓,该当如何搭建自己的技能壁垒?
李京梅:澜舟科技是一贯武断走开源路线,孟子的面向不同场景的17个开源模型都可以在开源站上体验到。对我们来说,首先让社区内尽可能多的伙伴把东西用起来,网络更多的反馈,然后再找到不同场景里存在的不敷,再去优化我们的大模型。
作为创业公司,上游的数据采集和硬件显然不是我们要走的方向,我们走的是更落地的路线,以是要去不断打磨我们的大模型,以客户的运用处景为导向,供应轻量化的可快速落地的方案。
人工智能的三要素:算力、算法和数据。昔时夜家共创生态圈的时候,自然是有算力的出算力、有数据的出数据,我们做模型也是希望能改进算法。大家一起把蛋糕做大,让更多运用开拓者和厂商能够有更多想象空间,一起促进家当生态发展。
俞佳:AI的三要素,算法模型目前有比较好的根本,而且模型的创新可能要面临全体开源社区和学术界的寻衅;算力面临着大公司的寻衅,在数据层面我以为是可能有自己的护城河的,这也是我们选择去做ToC产品的出发点。我们能够直面用户,切到详细的行业,得到非常好的一手数据,这是我们的一个上风。
FounderPark:长远来看,AIGC还有哪些方向的创新值得关注?
俞佳:在动漫化、元宇宙等强内容消费行业,AIGC会有非常大的发展。
张诗莹:首先是在设计领域会有一个爆发,比如已经涌现的Figma插件等。然后营销领域的发展该当也是比较快的。
而在日常生活中,大部分人都会打仗到设计的需求,比如短视频、广告语、产品包装设计等,这些事情在未来会跟AIGC有越来越多的结合,能够帮助到更多人在线下、线上更好地进行内容创造。
张涛:第一,由于AIGC能够更高效地生产内容,目前主流的短视频平台肯定会大量通过AIGC生产内容,这是目前比较兴旺的需求。
第二,通过AIGC帮忙设计师,降落本钱、提高生产效率。
第三,游戏领域,更高效地产出NPC和提高生产力。
第四,目前的元宇宙和3D内容生产领域,生产力还是很低下的,大量内容生产须要人工去补充,AIGC在这个领域还是比较有出息的。
李京梅:还是回归到人类和人工智能的关系上,我以为人类不要放弃去做有创造力的事情,机器还是要跟人学习的。在未来几年,人工智能会用在那些帮助人类提升效率的地方,虚一点说,把创造力、创意干系的事情留给人类,人工智能去提升效率。人类和机器能够更加和谐相处,找到自己的位置,终极还是机器为人类创造代价。
技能终极的代价实在并不是取代人,而是真的去帮助人更好创造代价。
以上高朋不雅观点不代表FounderPark态度,也不构成任何投资建议。
文中提到的一些运用和网站如下:
YUAN初:https://yuan.zmoai.cn/
IMAGECREATOR:https://imgeditor.zmo.ai/
澜舟科技:https://www.langboat.com/
contentnote容徽:https://www.content-note.com/
FridayAI:https://www.heyfriday.cn/home
盗梦师:https://www.printidea.art/
小程序:盗梦师、聊会小天、熊猫小说家、YUAN初
本文源自极客公园