发布 v0.1.32 · ollama/ollama · GitHub

新型号

  • 巫师LM 2:来自 Microsoft AI 的最先进的大型语言模型,在复杂聊天、多语言、推理和代理用例方面具有改进的性能。
    • wizardlm2:8x22b:基于 Mixtral 8x22B 的大型 8x22B 模型
    • wizardlm2:7b:基于 Mistral 7B 的快速、高性能模型
  • 雪花北极嵌入:Snowflake 的一套文本嵌入模型,针对性能进行了优化。
  • 命令 R+:专为 RAG 用例构建的强大、可扩展的大型语言模型
  • 数据库接收:Databricks 创建的大型 132B 开放式通用 LLM。
  • 混合 8x22B:Mistral AI 推出的全新领先专家混合 (MoE) 基础模型。

发生了什么变化

  • Ollama 现在将更好地利用可用的 VRAM,从而减少内存不足错误,并提高 GPU 利用率
  • 当在 macOS 上运行不适合 VRAM 的较大模型时,Ollama 现在将在 GPU 和 CPU 之间拆分模型,以最大限度地提高性能。
  • 修复了 Ollama 在遇到错误时挂起的几个问题
  • 修复在中使用引号的问题 OLLAMA_ORIGINS 会导致错误

新贡献者

完整变更日志: v0.1.31...v0.1.32

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​