Ollama:本地大型语言模型的利器
Ollama是一个命令行工具,允许用户在本地计算机上运行大型语言模型,如Llama 2、Code Llama等。该工具支持自定义和创建自己的模型,目前已在macOS和Linux操作系统上免费开源,未来还将支持Windows系统。
轻松部署大型语言模型
Ollama提供了官方的Docker镜像,使得使用Docker容器部署大型语言模型变得简单。所有与这些模型的交互都将在本地进行,无需将私人数据发送到第三方服务。
支持多种模型
Ollama模型库目前已支持40多个模型,且仍在持续增加。以下是一些可下载的开源模型示例:
模型名称 | 参数大小 | 文件大小 | 下载运行命令 |
---|---|---|---|
Neural Chat | 7B | 4.1GB | ollama run neural-chat |
Starling | 7B | 4.1GB | ollama run starling-lm |
Mistral | 7B | 4.1GB | ollama run mistral |
Llama 2 | 7B | 3.8GB | ollama run llama2 |
Code Llama | 7B | 3.8GB | ollama run codellama |
Llama 2 Uncensored | 7B | 3.8GB | ollama run llama2-uncensored |
Llama 2 13B | 13B | 7.3GB | ollama run llama2:13b |
Llama 2 70B | 70B | 39GB | ollama run llama2:70b |
Orca Mini | 3B | 1.9GB | ollama run orca-mini |
Vicuna | 7B | 3.8GB | ollama run vicuna |
相关AI网站
暂无评论...