新型号
- 巫师LM 2:来自 Microsoft AI 的最先进的大型语言模型,在复杂聊天、多语言、推理和代理用例方面具有改进的性能。
wizardlm2:8x22b
:基于 Mixtral 8x22B 的大型 8x22B 模型wizardlm2:7b
:基于 Mistral 7B 的快速、高性能模型
- 雪花北极嵌入:Snowflake 的一套文本嵌入模型,针对性能进行了优化。
- 命令 R+:专为 RAG 用例构建的强大、可扩展的大型语言模型
- 数据库接收:Databricks 创建的大型 132B 开放式通用 LLM。
- 混合 8x22B:Mistral AI 推出的全新领先专家混合 (MoE) 基础模型。
发生了什么变化
- Ollama 现在将更好地利用可用的 VRAM,从而减少内存不足错误,并提高 GPU 利用率
- 当在 macOS 上运行不适合 VRAM 的较大模型时,Ollama 现在将在 GPU 和 CPU 之间拆分模型,以最大限度地提高性能。
- 修复了 Ollama 在遇到错误时挂起的几个问题
- 修复在中使用引号的问题
OLLAMA_ORIGINS
会导致错误
新贡献者
完整变更日志: v0.1.31...v0.1.32