在2023年,随着ChatGPT的兴起,我们见证了对天生式人工智能(Generative AI)的极大兴趣激增。从初创公司到大型企业,所有公司都在探索他们的Generative AI运用。
这些都是各公司在开始之前碰着的问题。在这样一个不愿定的期间,每个人都想知道其他人都在做什么。凭借LangChain在生态系统中的独特地位,可以讲解一下其他团队是如何实际利用LLM来构建自己的产品的。
在本篇文章涉及的数据统计都是基于利用LangChain产品,取自2023年7月2日至2023年12月11区间。
AI运用开拓中哪些技能用的多
42%:利用RAG的比例。这表明在利用LangChain进行繁芜查询时,有42%的情形下会利用到RAG功能。这个比例突显了RAG在处理繁芜查询中的主要性。
17%:这是指在繁芜查询中作为代理部分的比例。代理在这里指的是让大型措辞模型(LLM)决定实行哪些步骤,以更好地处理繁芜查询或分外情形。17%的比例表明,只管代理的利用在提升系统处理繁芜问题的能力方面有潜力,但由于它们目前的可靠性和性能问题,其利用率并不高。
85%:大多数人都在用LangChain开拓。
LCEL 的利用情形
LangChain的一个重大新增功能是LangChain表达措辞(简称LCEL)。这是一种简便的方法来组合各种组件,非常适宜创建繁芜、定制化的链条。
我们现在仍处于全体天生性人工智能旅程的早期阶段,每个人都在考试测验弄清楚如何确切地使大型措辞模型(LLM)为他们做事。这涉及大量的实验和定制化。LCEL使这变得大略——过去几个月随着增加了更多功能并改进了文档,其利用率迅速增加。
最常用的 大模型LLM
在所有这些新技能中,核心是大型措辞模型(LLM)。那么,人们都在利用哪些LLM供应商呢?
我们看到OpenAI位居榜首,紧随其后的是Azure OpenAI。OpenAI已经成为2023年领先的LLM供应商,而Azure(供应更多企业级担保)也很好地捉住了这一势头。
其他供应专有模型的托管做事包括Anthropic(排名第三)、Vertex AI(排名第四)和Amazon Bedrock(排名第八)。
在开源模型方面,我们看到Hugging Face(排名第四)、Fireworks AI(排名第六)和Ollama(排名第七)成为用户与这些模型互动的紧张办法。
最常用的开源模型
比来,开源模型受到了大量关注,我们看到,人们紧张是在本地运行这些模型,像Hugging Face、LlamaCpp、Ollama和GPT4All这类选项排名很高。
在供应开源软件模型(OSS)API访问的供应商中,Fireworks AI领先,其次是Replicate、Together和Anyscale。
最常用的向量数据库
我们看到,本地向量存储是最常利用的,个中Chroma、FAISS、Qdrant和DocArray都名列前五。这些排名是基于利用过特定向量存储的用户数量,因此,如果按这种办法打算,本地的免费向量存储是最常被利用的也就不足为奇了。
在托管做事中,Pinecone作为唯一一个排在前五的托管向量存储领先。Weaviate紧随其后,表明向量原生数据库目前比添加了向量功能的数据库更常用。
在那些添加了向量功能的数据库中,我们看到Postgres(PGVector)、Supabase、Neo4j、Redis、Azure Search和Astra DB领先。
最常用的嵌入
为了利用向量存储,您须要打算文本片段的嵌入。那么开拓职员是如何做到这一点的呢?
与 LLM 类似,OpenAI 霸占了至高无上的地位——但在那之后,我们看到了更多的多样性。开源供应商的利用率更高,Hugging Face 排名第二,GPT4All 和 Ollama 也排名前 8。在托管方面,我们看到 Vertex AI 实际上击败了 AzureOpenAI,Cohere 和 Amazon Bedrock 紧随其后。
高等检索策略
仅仅通过嵌入向量之间的余弦相似性进行检索是有限的。我们看到许多人依赖于更高等的检索策略——个中很多我们已在LangChain中实现并记录了。
即便如此——我们看到的最常用的检索策略并不是内置的,而是自定义的。这解释了两点:
在LangChain中实现自定义检索策略的随意马虎程度。为了得到最佳性能,须要实现自定义逻辑。在此之后,我们看到更多熟习的名字涌现:
自我查询(Self Query):从用户问题中提取元数据过滤器。稠浊搜索(Hybrid Search):紧张通过特定供应商的集成,如Supabase和Pinecone。高下文压缩(Contextual Compression):对基本检索结果进行后处理。多重查询(Multi Query):将单一查询转换为多个,然后检索所有结果。韶光加权向量存储(TimeWeighted VectorStore):给予最近文档更多的偏好。人们在测试什么?我们可以看到,大多数人仍旧紧张关心其运用的精确性。
来源:https://blog.langchain.dev/langchain-state-of-ai-2023/