在2023年,随着ChatGPT的兴起,我们见证了对天生式人工智能(Generative AI)的极大兴趣激增。
从初创公司到大型企业,所有公司都在探索他们的Generative AI运用。

这些都是各公司在开始之前碰着的问题。
在这样一个不愿定的期间,每个人都想知道其他人都在做什么。
凭借LangChain在生态系统中的独特地位,可以讲解一下其他团队是如何实际利用LLM来构建自己的产品的。

在本篇文章涉及的数据统计都是基于利用LangChain产品,取自2023年7月2日至2023年12月11区间。

AI运用开拓中哪些技能用的多

总结AI应用开拓今朝大年夜家最常用的是哪些技能

42%:利用RAG的比例。
这表明在利用LangChain进行繁芜查询时,有42%的情形下会利用到RAG功能。
这个比例突显了RAG在处理繁芜查询中的主要性。

17%:这是指在繁芜查询中作为代理部分的比例。
代理在这里指的是让大型措辞模型(LLM)决定实行哪些步骤,以更好地处理繁芜查询或分外情形。
17%的比例表明,只管代理的利用在提升系统处理繁芜问题的能力方面有潜力,但由于它们目前的可靠性和性能问题,其利用率并不高。

85%:大多数人都在用LangChain开拓。

LCEL 的利用情形

LangChain的一个重大新增功能是LangChain表达措辞(简称LCEL)。
这是一种简便的方法来组合各种组件,非常适宜创建繁芜、定制化的链条。

我们现在仍处于全体天生性人工智能旅程的早期阶段,每个人都在考试测验弄清楚如何确切地使大型措辞模型(LLM)为他们做事。
这涉及大量的实验和定制化。
LCEL使这变得大略——过去几个月随着增加了更多功能并改进了文档,其利用率迅速增加。

最常用的 大模型LLM

在所有这些新技能中,核心是大型措辞模型(LLM)。
那么,人们都在利用哪些LLM供应商呢?

我们看到OpenAI位居榜首,紧随其后的是Azure OpenAI。
OpenAI已经成为2023年领先的LLM供应商,而Azure(供应更多企业级担保)也很好地捉住了这一势头。

其他供应专有模型的托管做事包括Anthropic(排名第三)、Vertex AI(排名第四)和Amazon Bedrock(排名第八)。

在开源模型方面,我们看到Hugging Face(排名第四)、Fireworks AI(排名第六)和Ollama(排名第七)成为用户与这些模型互动的紧张办法。

最常用的开源模型

比来,开源模型受到了大量关注,我们看到,人们紧张是在本地运行这些模型,像Hugging Face、LlamaCpp、Ollama和GPT4All这类选项排名很高。

在供应开源软件模型(OSS)API访问的供应商中,Fireworks AI领先,其次是Replicate、Together和Anyscale。

最常用的向量数据库

我们看到,本地向量存储是最常利用的,个中Chroma、FAISS、Qdrant和DocArray都名列前五。
这些排名是基于利用过特定向量存储的用户数量,因此,如果按这种办法打算,本地的免费向量存储是最常被利用的也就不足为奇了。

在托管做事中,Pinecone作为唯一一个排在前五的托管向量存储领先。
Weaviate紧随其后,表明向量原生数据库目前比添加了向量功能的数据库更常用。

在那些添加了向量功能的数据库中,我们看到Postgres(PGVector)、Supabase、Neo4j、Redis、Azure Search和Astra DB领先。

最常用的嵌入

为了利用向量存储,您须要打算文本片段的嵌入。
那么开拓职员是如何做到这一点的呢?

与 LLM 类似,OpenAI 霸占了至高无上的地位——但在那之后,我们看到了更多的多样性。
开源供应商的利用率更高,Hugging Face 排名第二,GPT4All 和 Ollama 也排名前 8。
在托管方面,我们看到 Vertex AI 实际上击败了 AzureOpenAI,Cohere 和 Amazon Bedrock 紧随其后。

高等检索策略

仅仅通过嵌入向量之间的余弦相似性进行检索是有限的。
我们看到许多人依赖于更高等的检索策略——个中很多我们已在LangChain中实现并记录了。

即便如此——我们看到的最常用的检索策略并不是内置的,而是自定义的。
这解释了两点:

在LangChain中实现自定义检索策略的随意马虎程度。
为了得到最佳性能,须要实现自定义逻辑。

在此之后,我们看到更多熟习的名字涌现:

自我查询(Self Query):从用户问题中提取元数据过滤器。
稠浊搜索(Hybrid Search):紧张通过特定供应商的集成,如Supabase和Pinecone。
高下文压缩(Contextual Compression):对基本检索结果进行后处理。
多重查询(Multi Query):将单一查询转换为多个,然后检索所有结果。
韶光加权向量存储(TimeWeighted VectorStore):给予最近文档更多的偏好。

人们在测试什么?

我们可以看到,大多数人仍旧紧张关心其运用的精确性。

来源:https://blog.langchain.dev/langchain-state-of-ai-2023/