deepseek-r1本地部署方法
安装ollama
打开ollama官网,根据系统下载ollama软件:
https://ollama.com/
下载模型
安装完成ollama后,通过cmd命令行输入运行相关模型的命令,获取地址是官网的Models页面:
第一个就是需要下载的模型deepseek-r1,点击名称选择需要的版本,即使不符合也能运行,会很卡:
https://ollama.com/library/deepseek-r1:8b
使用
运行完成后就能正常使用了,这样只能命令行使用;可以通过浏览器插件图形化页面使用本地运行的模型,插件名称是:Page Assist - A Web UI for Local AI Models
说是能联网,但是我的不行
可以用以下话语添加在问题末尾通过其他联网的ai获取信息后给deepseek整理回答,来间接上网:
1 | 请先告诉我你要回答这个问题需要检索哪些关键词或者最新消息?我会尝试提供相关数据。 |
api参数
python使用参数
1 | url = "http://localhost:11434/api/generate" |
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 HAHA!