2.8.0 版本更新说明:
新增功能
- 上下文菜单:将消息上的“全选”替换为“复制消息”
- 上下文菜单:未选择内容时隐藏复制/剪切选项
- 提升在多个聊天之间快速切换时的上下文切换速度
- 新建聊天:点击按钮时始终切换到新聊天
- 新建聊天:点击按钮时始终滚动到列表顶部
- 更新至2024年5月9日的最新llama.cpp版本
- 添加对llama.cpp CUDA后端的支持
- 默认仍使用Nomic Vulkan,但现在可在设置中选择CUDA设备
- 使用中:在某些设备上显著提升了提示处理和生成速度
- 使用中:GPU支持Q5_0, Q5_1, Q8_0, K-quants, I-quants以及Mixtral
- 添加对InternLM模型的支持
修复
- 不允许在LLM响应时发送消息
- 修复许多模型生成的聊天标题质量不佳问题)
- 在Windows上正确设置窗口图标
- 修复一些内存泄漏问题)
- 如果模型文件没有架构键,不崩溃
- 修复多个模型加载进度显示不正确的情况
- 新建聊天:修复启动时新聊天滚动到列表上方的问题
- macOS:显示“Metal”设备选项,并在选择“CPU”时真正使用CPU
- 从白名单中移除不支持的Mamba、Persimmon和PLaMo模型
- 修复离线安装程序在macOS上创建GPT4All.desktop的问题