Phi-3模型将在Microsoft Azure AI模型目录、Hugging Face(机器学习模型平台)以及Ollama(用于在本地打算机上运行模型的轻量级框架)上供应。此外,它还将作为NVIDIA NIM微做事供应,具备标准API接口,可在任何地方支配。
微软还宣告将推出Phi-3系列的其他型号,以供应更多选择。估量很快将在Azure AI模型目录和其他模型平台上推出Phi-3-small(70亿个参数)和Phi-3-medium(140亿个参数)。
如何下载、安装和利用Phi-3 Mini?1.下载LM Studio
首先,您须要下载并安装LM Studio,您可以通过访问LM Studio官网(lmstudio.ai)下载适用于您操作系统的版本。
2.登录Hugging Face
在浏览器中输入huggingface.co进入网站,或者直接访问。
链接:https://huggingface.co/collections/microsoft/phi-3-6626e15e9585a200d2d761e3
3.下载Phi-3 Mini 模型
在搜索框中输入“Phi-3”进行搜索。在搜索结果中,找到名称为microsoft/Phi-3-mini-4k-instruct-gguf的模型,选择并下载最新版本,常日标有“最新”或详细的版本号,如Q4,由于它只有2.32GB。
请把稳:Phi-3 7B Mini的某些版本可能针对性能进行了优化,例如供应更快的处理速率或更低的资源花费,因此请根据您的需求选择得当的版本。
4.开始利用Phi-3 Mini 模型
模型下载和安装完成后,您可以立即开始利用Phi-3 Mini模型。在LM Studio的左侧菜单中,点击“AI Chat”标签,然后在顶部的模型选择栏中选择Phi-3 Mini模型,此时您就可以进行利用了。