2.18.0 版本更新说明:
Bug修复
- 修正了
install.sh
中systemd服务安装的处理方式(贡献者 @mudler)。 - 工作进程现在为单一二进制文件使用dynaload(贡献者 @mudler)。
- 修正了
install.sh
中的版本拼写错误(贡献者 @mudler)。 - 调整
install.sh
中的ARCH检测,使其同时适用于Mac(贡献者 @mudler)。 - 从CLI中移除重复的别名(贡献者 @mudler)。
令人兴奋的新特性
- 升级到CUDA 12.5(贡献者 @reneleonhardt)。
- 添加对OCI镜像和Ollama模型的支持(贡献者 @mudler)。
- Whisper功能添加翻译选项(贡献者 @mudler)。
- 为llama.cpp后端添加Vulkan支持(贡献者 @mudler)。
- 在聊天界面允许用户选择所有可用模型(贡献者 @mudler)。
- 仅构建与llama.cpp相关的目标(贡献者 @mudler)。
- 添加选项
repeat_last_n
(贡献者 @mudler)。 - 暴露
properties_order
属性(贡献者 @mudler)。
模型更新
- 画廊模型添加了多个新模型,包括l3-umbral-mind-rp-v1.0-8b-iq-imatrix、llama-3-sec-chat、llama-3-cursedstock-v1.8-8b-iq-imatrix等(均由贡献者 @mudler 更新或添加)。
- 更新了部分模型的校验和(由 @localai-bot 更新)。
文档和示例更新
- 更新文档以包含安装程序和高级YAML选项(贡献者 @mudler)。
- 更新Swagger文档(由 @localai-bot 更新)。
- 更新了telegram-bot示例以修复问题 #2638(贡献者 @greygoo)。
依赖更新
- 更新了mudler/LocalAI文档版本、ggerganov/llama.cpp等多个依赖项(由 @localai-bot 和 @mudler 更新)。
其他变更
- 增加CI并行作业数量(贡献者 @mudler)。
- 修复go.mod模块问题(贡献者 @sozercan)。
- 中央化base64图像处理和安全扫描清理(贡献者 @dave-gray101)。
- 重构以解决画廊不一致问题(贡献者 @mudler)。