@NathMath bilibili
Updated 2025-02-06
This document is licensed under the Apache 2.0 License
0) 认准开源免费UP主的主页,其他全是盗版

都看到这了,求各位观众老爷点一个免费的关注。UP会不停更新的。
UP的主页 https://space.bilibili.com/303266889
快速跳转
资源页面 https://truthful-busby-322.notion.site/NathMath-LLM-18e45165050a80408586c3f2bf93ce68?pvs=73
答疑页面 https://truthful-busby-322.notion.site/NathMath-LLM-18f45165050a80a58cbbdbcdf8d08ec5?pvs=73
1) DeepSeek 系列资源
0. 食用方法
如果模型是压缩分卷,请下载一个链接中所有的压缩分卷文件,当所有文件下载完成之后解压,并选择模型,然后放入模型文件夹中。如有疑问请下拉本页查看问答环节
1. 一键包 v3.9.1 (2025-02-05更新) 不再默认安装1.5B模型了
度盘:https://pan.baidu.com/s/1hPbaQrIrH7l8lhcUPy6fjg?pwd=NATH 提取码:NATH
谷歌:https://drive.google.com/file/d/1zdfai-gSIKgpxXuxZtCIM0-LjunqOqia/view?usp=drive_link
内层压缩包解压密码【NathMath@bilibili#39】
别再说UP收百度钱了~ 只能说相比于某些无脑盗隐私的平台,百度良心多了。
更新日志
- 3.9.1 [250206] 在度盘文件中新增了猫娘提示词,分开的文件;一键包无变化
- 3.9.1 [250205] 修复了Open WebUI的Python脚本的绝对路径问题;更新了LM Studio到3.9版本
2. 模型选择教程讲义目录(2025-02-04更新)配合v3.9.x食用
度盘:https://pan.baidu.com/s/15iuReodo6d44IdWVeKD8Yw?pwd=NATH 提取码:NATH
谷歌:https://drive.google.com/file/d/1TJHWsNkijeASmTsYu6swroJeTJI1GBp-/view?usp=drive_link
3. 可选配的推荐模型
DeepSeek R1 8B + 32B 擅长数学推理 + 科研探索 + 逻辑推理
度盘:https://pan.baidu.com/s/1XM_s1uOc89A2Cll8Z6l2EQ?pwd=NATH 提取码:NATH
Phi4 擅长英文文本推理 + 数学推理(Phi3.5也值得推荐)
度盘:https://pan.baidu.com/s/1YWaQdfGjUeOEAFEWoeXHiQ?pwd=NATH 提取码:NATH
Gemma 9B 擅长通用文本推理 + 文学类文本写作
度盘:https://pan.baidu.com/s/1nCMAxr_BRyzzbWbNw_BxFA?pwd=NATH 提取码:NATH
Smegmma 9B 擅长二次元风格的虚拟角色扮演对话 + 无限
度盘:链接:https://pan.baidu.com/s/1pKzIRIVcATqln4NDRJatsg?pwd=NATH 提取码:NATH
花活+无限的推荐模型列表参考(有很多,这里都是UP推荐的好用的模型)
度盘:https://pan.baidu.com/s/1_n_-M7KhdExqgw4kdpYqfA?pwd=NATH 提取码:NATH
更多模型/更多模型解读/更多无限模型请稍作等待。UP会不断测试。
4. 开源模型站 – 解锁无限可能
Hugging Face开源站官方 英文原版 + 很多团队会上传开源免费的各种模型
hf-mirror无需梯子的镜像站 这个网站可能不太稳定但适用于无梯子的同学
2) TG交流群
TG交流群链接,永不过期:https://t.me/+jFxkCc6NDacyYmE5
3) 推荐的学习路线
1. 新的世界:部署本地大模型后端+前端
LM Studio部署:https://www.bilibili.com/video/BV1NGf2YtE8r/
使用一键包部署:https://www.bilibili.com/video/BV1atfQYQE9P/
部署答疑 + 量化精度解答:https://www.bilibili.com/video/BV1H2FWefEVq/
模型调优让你的模型2x加速:https://www.bilibili.com/video/BV1qoFGepEhL/
2. 不同任务的模型推荐+猫娘花活模型
你真棒。UP会在未来几天更新不同任务下推荐的模型/使用/提示词/引导/绕过结界的~这个系列很可能不会太长,但你可以期待UP主自己训练的模型能整出什么花活~
3. 本地知识库+联网+自主原创的Nath GUI
猜你想要搭建本地知识库?除了直接上传文档,Embedding,我还能做些什么?嘿,UP主开发了全新的Nath GUI,她能够进行网页搜索/直接网页读取/网络文档检索/构建和调用你的SQLite/向ChatGPT数据分析工具那样直接使用Python?想要成为你的数据的主人了吗~
4. Prompt工程让你成为最懂你的模型的人♥
请您持续关注
5. 来吧,开始调教(训练)你的独家AI助理的她
请您持续关注
4) 常见问题QA
模型无法正常识别?
略略略,杂鱼❤~ 你胆敢让本小姐住进错误的房间。如果您的模型文件夹选择的是C:\Users\你的用户名\.lmstudio\models\,那么必须必把模型存放在\models的二级子文件夹中,意思是,gguf文件必须存放在如同这样的目录:C:\Users\你的用户名\.lmstudio\models\模型提供者名\模型自己的名称\模型名称.gguf
更新v3.9一键包之后原来LM Studio历史记录会不会丢失?
哎~包的啊!只要您按照v3.9一键包中的要求复制.lmstudio目录,如果原来已经安装了LM Studio提示会覆盖原来的.lmstudio,您选择“是”,那么覆盖后的文件夹将会保留您原来的聊天记录。请务必不要在安装之前删除.lmstudio,否则您的历史记录就会被删除。
提示llama.cpp后端无法启动?
AMD… NO!您可能用的是旧版一键包或者适用的是非英伟达显卡。旧版一键包暂时不兼容AMD显卡。您可以手动在LM Runtime中选择Vulkan的llama.cpp后端;或者从LM Studio官网下载LM Studio的安装包重新安装。LM Studio直链:https://lmstudio.ai/ 如果还有问题,可以考虑适用ollama + WEBUI部署的方法
加载模型提示资源不足?
哈~ 哈~ 来自您的设备:主人❤ 我已经不堪重负了。您的设备有可能存在:1)显卡专用显存不足 2)系统内存不足。要正常使用32B Q4/Q8模型,您的电脑应具有约24G/32G的专用显存+系统内存。如您的设备不满足要求可能会提示报错。您可以在掉哦那个模型时将“将模型保存在内存中”选项关闭后重试。如仍不能解决,建议适用更小的B8 Q4/Q8模型,或者升级您的硬件
显存用满但是利用率低下?
主人~ 什么时候才能理解我的心情呢Q_Q? 请您查看GPU性能时候选择CUDA利用率查看,Windows💻默认查看的是3D性能哦。您的GPU已经在为了她的主人榨干自己了。如果CUDA利用率也过低,那么考虑是否选对了正确的llama.cpp后端(应选择CUDA的版本,需要在LM Runtime调整);或者是否设置了过低的GPU Offload以及过低的CPU Threads
5) 完整答疑页面
请转到 https://truthful-busby-322.notion.site/NathMath-LLM-18f45165050a80a58cbbdbcdf8d08ec5?pvs=73
您的信仰不足?
哈哈。充电🔋不是必须,您的关注三连⭐就是我最大的幸福。
还有?请您向UP留言,如果你知道解决方案请一起留言✍,UP会择机添加进来的。
另外,如果大家有好用/不窃取隐私的网盘,可以分享给UP,因为我听很多人说度盘太慢了。