https://api-docs.deepseek.com/zh-cn/

https://ollama.com/download/windows

https://www.cnblogs.com/qubernet/p/18702147

https://ollama.com/library/deepseek-r1:14b

##
DeepSeek-R1-1.5bNVIDIA RTX 3060 12GB or higher
DeepSeek-R1-7bNVIDIA RTX 3060 12GB or higher
DeepSeek-R1-8bNVIDIA RTX 3060 12GB or higher
DeepSeek-R1-14bNVIDIA RTX 3060 12GB or higher
DeepSeek-R1-32bNVIDIA RTX 4090 24GB
DeepSeek-R1-70bNVIDIA RTX 4090 24GB *2
DeepSeek-R1-671bNVIDIA A100 80GB *16
# 终端弹出安装页面进行安装,然后退出安装程序
.\OllamaSetup.exe /DIR="D:\Ollama"
# 验证
ollama -v
ollama -h
 
# 添加环境变量
OLLAMA_MODELS = D:\Ollama\Models
 
# 下载并启动模型,变慢之后可以按Ctrl+c取消,再开始就快了。如此反复。
ollama run deepseek-r1:7b
 
# 查看已经安装的模型
ollama list
 
# 退出
/bye 
 
# conda环境中安装 open-webui, Why the version of Python must be 3.11?
conda create -n webui python=3.11
pip install open-webui
 
# 添加环境变量
HF_ENDPOINT=https://hf-mirror.com
open-webui serve
 
# 启动之后白屏是因为默认连接到open.ai 等待一会超时之后,在设置里面关掉对应的选项。
http://localhost:8080
 
pip install --upgrade open-webui

Obsidian + Deepseek 本地知识库 本地知识库如何联网