安装ollama

打开ollama官网,根据系统下载ollama软件:
https://ollama.com/
upload successful

下载模型

安装完成ollama后,通过cmd命令行输入运行相关模型的命令,获取地址是官网的Models页面:
upload successful

第一个就是需要下载的模型deepseek-r1,点击名称选择需要的版本,即使不符合也能运行,会很卡:
https://ollama.com/library/deepseek-r1:8b
upload successful

使用

运行完成后就能正常使用了,这样只能命令行使用;可以通过浏览器插件图形化页面使用本地运行的模型,插件名称是:Page Assist - A Web UI for Local AI Models
upload successful

说是能联网,但是我的不行

可以用以下话语添加在问题末尾通过其他联网的ai获取信息后给deepseek整理回答,来间接上网:

1
请先告诉我你要回答这个问题需要检索哪些关键词或者最新消息?我会尝试提供相关数据。

api参数

python使用参数

1
2
3
4
5
6
url = "http://localhost:11434/api/generate"
data = {
"model": "deepseek-r1:1.5b", # 替换为你的模型名称
"prompt": "你好",
"stream": False # 是否启用流式响应
}