全新DeepSeek R1 本地部署詳細(xì)圖文教程 支持Web-UI 可以斷網(wǎng)使用(附下載)

DeepSeek全球下載榜單登頂,流量巨大。春節(jié)這段時間,DeepSeek這把火真的是太猛了,幾乎燒遍了全球。翻開朋友圈,打開視頻號,清一色的關(guān)于DeepSeek的各種消息。這潑天的流量絲毫不亞于當(dāng)初OpenAI爆火的時候。因?yàn)樘^火爆了,導(dǎo)致DeepSeek這段時間用的時候幾乎天天崩潰。經(jīng)常出現(xiàn)“服務(wù)器繁忙,請稍后再試”的情況,這里為大家?guī)鞤eepSeek R1本地部署的方法,支持WebUI離線使用,感興趣的朋友歡迎前來查看。
先下載所需工具:
如果有去注冊的朋友應(yīng)該都知道這段時間新用戶幾乎都注冊不了,如果發(fā)現(xiàn)能注冊,建議大家趕緊去注冊體驗(yàn)一下。
DeepSeek官網(wǎng):https://www.deepseek.com/
這是我在昨天使用deepseek的情況,時不時就會遇到下面這個回復(fù)。
用著用著就崩了,很是尷尬。
后面才發(fā)現(xiàn)DeepSeek居然是開源的,
那既然DeepSeek R1是開源的,那就直接本地部署使用吧。
這樣也就省去了諸多麻煩。
好了,先給大家做個簡單的科普。
什么是DeepSeek R1?
DeepSeek-R1是杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司發(fā)布的高性能AI推理模型,對標(biāo)OpenAI的o1正式版。
模型通過大規(guī)模強(qiáng)化學(xué)習(xí)技術(shù)進(jìn)行后訓(xùn)練,僅需極少量標(biāo)注數(shù)據(jù),
便能在數(shù)學(xué)、代碼和自然語言推理等任務(wù)上取得卓越表現(xiàn)。
DeepSeek-R1遵循MIT License開源,支持模型蒸餾,訓(xùn)練其他模型。
據(jù)說DeepSeek-R1的訓(xùn)練成本居然還不到OpenAI的1/50,
這個真的是太牛了?。?!
大寫的牛?。。?!
各項(xiàng)性能指標(biāo)更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,關(guān)鍵是開源的,我們可以本地部署使用
使用Ollama + Open-WebUI一鍵部署DeepSeek R1的詳細(xì)步驟
這里我們來介紹如何用Ollama + Open-WebUI來一鍵部署DeepSeek R1。
這倆好搭檔非常之牛掰且好用,看他倆在Github的Star就知道了。
用Ollama管理、運(yùn)行Deepseek,在Open-WebUI接入Ollama之后,
我們就可以完全界面化去下載安裝Deepseek R1,
界面化給大模型調(diào)整參數(shù),并設(shè)定預(yù)設(shè)prompt,以及對話(如下圖),
非常方便。
好了,廢話不多說,我們開始本地部署Deepseek R1!
先安裝Ollama和Open-WebUI
安裝 Ollama
下載 Ollama(官網(wǎng)較慢,可以使用本站提供的地址)
訪問 Ollama官網(wǎng)(https://ollama.com/),根據(jù)操作系統(tǒng)(Windows、macOS 或 Linux)下載安裝包。
對于 Windows 用戶,下載 OllamaSetup.exe 并雙擊安裝。
驗(yàn)證安裝
這里需要注意,它跟我們平常普通的軟件安裝不一樣,這里安裝完成后,桌面基本上是沒有任何圖標(biāo)的,
但是我們可以通過命令行工具去驗(yàn)證是否安裝成功。
打開命令行工具,輸入以下命令驗(yàn)證是否安裝成功:
ollama --version
如果顯示版本號,說明安裝成功。
下載 DeepSeek-R1 模型
Ollama已經(jīng)在第一時間支持DeepSeek-R1, 模型地址:deepseek-r1 。
根據(jù)自己的顯存選擇對應(yīng)的模型,2G顯卡只能選1.5b的。
硬件需求
所以對于大多數(shù)個人用戶,建議部署4bit量化模型:
7B/8B模型:8GB顯存。
14B模型:16GB顯存。
32B模型:22GB顯存。
70B模型:48GB顯存。
下圖是ollama官方給出的模型選擇建議
如何查看我們電腦的顯存大小呢?
Ctrl + Shift + Esc打開任務(wù)管理器->性能->GPU
如何下載模型?
如何運(yùn)行deepseek?
運(yùn)行模型很簡單,確定好想要的模型后,復(fù)制對應(yīng)的命令到你的終端并執(zhí)行。
使用以下命令下載 DeepSeek-R1 模型:
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
該命令會自動下載并加載模型,下載時間取決于網(wǎng)絡(luò)速度和模型大小。
查看模型信息
下載完成后,可以使用以下命令查看模型信息:
ollama list
該命令會列出本地已下載的模型及其狀態(tài)。這是我筆記本上的本地模型。
運(yùn)行 DeepSeek-R1
啟動模型
使用以下命令啟動 DeepSeek-R1 模型:
ollama run deepseek-r1:1.5b
啟動后,模型會進(jìn)入交互模式,用戶可以直接輸入問題并獲取回答。
測試功能
在交互模式下,可以測試 DeepSeek-R1 的多種功能,例如:
- 智能客服:輸入客戶常見問題,如“如何安裝軟件?”。
- 內(nèi)容創(chuàng)作:輸入“為一款智能手表撰寫廣告文案”。
- 編程輔助:輸入“用 Python 實(shí)現(xiàn)快速排序”。
- 教育輔助:輸入“解釋牛頓第二定律”。
這是測試的效果
使用 Open WebUI 增強(qiáng)交互體驗(yàn)
只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。
Open WebUI也強(qiáng)烈推薦大家安裝使用,它應(yīng)該是目前功能最全,最好用的大模型WebUI工具。
安裝完Ollama和Open WebUI,并在Open WebUI接入本地Ollama之后,就可以非常方便的一鍵安裝DeepSeek R1使用了~
如何安裝Open WebUI可視化交互界面工具
目前我知道的大概有幾種方式:
1、使用Docker-desktop,不僅是open-webui,其他絕大多數(shù)Github的開源項(xiàng)目都支持用docker一鍵部署,docker的好處是自帶虛擬環(huán)境,不需要在本地額外安裝一堆其他環(huán)境、依賴等,是管理、部署項(xiàng)目的神器。
2、自行安裝Python環(huán)境,使用Pip的方式安裝即可
☆ 次推薦 3、不需要安裝Docker-desktop,也不需要安裝Python環(huán)境,直接使用瀏覽器Web UI插件就能搞定(下面下載鏈接與教程就是,大家可以點(diǎn)擊查看)
本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡單的DeepSeek離線部署聯(lián)網(wǎng)搜索教程
☆ 首要推薦 4、還可以使用ChatBox、Cherry Studio等桌面客戶端都可以(下面也給大家提供了教程,點(diǎn)擊查看)
DeepSeek服務(wù)器繁忙怎么解決?CherryStudio&DeepSeek 告別不響應(yīng)
這里我們先采用第二種方式(安裝Python環(huán)境的方式),而且也是與Ollama結(jié)合比較緊密的Open WebUI為例:
GitHub地址:https://github.com/open-webui/open-webui
如果本身已經(jīng)安裝有Python環(huán)境,如:Anaconda,
那么就直接Pip安裝即可,至于如何安裝Python環(huán)境和Anaconda環(huán)境,自行度娘即可,這里不做介紹。
安裝open-webui服務(wù)
pip install open-webui
啟動open-webui服務(wù)
open-webui serve
啟動后,在瀏覽器中訪問 http://localhost:8080/ 即可進(jìn)入 Open WebUI 界面。
選擇模型并測試
在 Open WebUI 界面中,選擇已下載的 DeepSeek-R1 模型,即可開始對話測試。
大家可以看到,效果非常不錯。
上面我分別使用了五種模型進(jìn)行測試,只有R1模型確確實(shí)實(shí)是在推理,而其他兩種默認(rèn)的模型都是普通模型,沒有推理能力。
注意事項(xiàng)
硬件要求:DeepSeek-R1 對硬件有一定要求,建議使用支持 GPU 的設(shè)備以獲得更好的性能。如果電腦配置一般建議選擇1.5b就足夠。
網(wǎng)絡(luò)配置:如果下載速度較慢,可以使用國內(nèi)鏡像加速。
本地化支持:Open WebUI 支持中文界面,可以在設(shè)置中調(diào)整語言。
通過以上步驟,您可以快速在本地部署 DeepSeek-R1 模型,并通過 Ollama 和 Open WebUI 進(jìn)行高效交互。
使用建議
從小型模型開始測試
根據(jù)實(shí)際需求選擇合適版本
注意監(jiān)控系統(tǒng)資源使用情況
定期備份重要對話數(shù)據(jù)
DeepSeek R1能做什么?
處理復(fù)雜提示
揭示問題背后的推理步驟
在聊天界面中呈現(xiàn)并測試代碼
提供強(qiáng)大的推理能力
為何選擇本地部署DeepSeek R1及它有哪些優(yōu)勢
雖然DeepSeek提供免費(fèi)的網(wǎng)頁和移動應(yīng)用版本,
但選擇本地部署有以下幾個重要優(yōu)勢:
1. 隱私保護(hù)
所有數(shù)據(jù)都保存在本地計(jì)算機(jī)
無需擔(dān)心數(shù)據(jù)被收集或用于其他目的
完全掌控?cái)?shù)據(jù)安全
2. 離線訪問
無需依賴網(wǎng)絡(luò)連接
適合旅行或網(wǎng)絡(luò)不穩(wěn)定的場景
隨時隨地可用
3. 未來保障
避免可能出現(xiàn)的使用限制
不受未來商業(yè)化影響
永久免費(fèi)使用
4. 更大的靈活性
可以根據(jù)需求微調(diào)模型
支持與其他工具集成
允許構(gòu)建自定義界面
相關(guān)文章
如何實(shí)現(xiàn)deepseek本地部署?詳細(xì)教學(xué)deepseek本地環(huán)境搭建及設(shè)置
本文將詳細(xì)介紹deepseek本地部署的完整步驟,包括從環(huán)境配置到軟件安裝的全程指南,我們將細(xì)節(jié)和注意點(diǎn)做了介紹,確保你能夠在短時間內(nèi)完成高效、安全的配置,快速啟動Deep2025-02-04本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡單的DeepSeek離線部署聯(lián)網(wǎng)搜索教程
DeepSeek是近日熱門的AI大型語言模型,目前可實(shí)現(xiàn)本地部署版本,那么DeepSeek本地部署后如何實(shí)現(xiàn)聯(lián)網(wǎng)?這里要給大家介紹一個插件,簡單快速部署deepseek-r1本地,無需網(wǎng)絡(luò)2025-02-06- 過年這幾天,DeepSeek 算是徹底破圈了,火遍大江南北,火到人盡皆知,有不少讀者私信詢問本地部署DeepSeek-R1的電腦配置要求,下面我們就一起看看DeepSeek每個版本的配置要2025-02-07
DeepSeek R1最全本地部署教程 適用于Mac/Windows/Linux平臺
本篇文章將以部署國產(chǎn)最新崛起的 AI 大模型 DeepSeek R1 為例,手把手教你如何利用 Ollama 在本地環(huán)境中快速搭建和運(yùn)行這些先進(jìn)的 AI 模型2025-02-07- 本文將通過圖文結(jié)合的方式,詳細(xì)介紹 DeepSeek 的安裝、配置、基本使用、高級功能以及實(shí)用技巧,幫助你快速上手并掌握這一工具2025-02-08
DeepSeek服務(wù)器繁忙怎么解決?手把手教你本地連接DeepSeek R1告別不響
近期DeepSeek經(jīng)常出現(xiàn)服務(wù)器繁忙,請稍后再試的情況,那么DeepSeek服務(wù)器繁忙怎么解決呢?本文手把手教你本地連接DeepSeek R1,告別不響應(yīng),一起來看看吧2025-02-07看到滿血版價格想想還是算了! 本地部署 DeepSeek 電腦硬件配置清單
針對本地部署DeepSeek大模型的配置需求,需根據(jù)模型規(guī)模(如7B/13B/70B參數(shù))和量化方案進(jìn)行區(qū)分,以下是三個層級的硬件配置建議2025-02-09- 如果你是內(nèi)容創(chuàng)作者,或者在數(shù)字營銷、數(shù)據(jù)分析等領(lǐng)域工作,提升工作效率和創(chuàng)作水平是必不可少的,而掌握一些強(qiáng)大的創(chuàng)作指令,無疑能讓你事半功倍!今天,我整理了20個Deep2025-02-09
DeepSeek R1 671B 完整版本地部署詳盡教程來了!
關(guān)于本地部署,大多數(shù)人使用的是蒸餾后的8B/32B/70B版本,本質(zhì)是微調(diào)后的Llama或Qwen模型,并不能完全發(fā)揮出DeepSeek R1的實(shí)力,下面我們就來看看DeepSeek R1 671B 完整版2025-02-09DeepSeek-R1 與 AnythingLLM 安裝部署本地知識庫詳細(xì)教程
DeepSeek R1是目前最火的大模型,近來有很多朋友問怎么搭建DeepSeek 本地知識庫,在這里分享一種使用DeepSeek + AnythingLLM快速搭建本地知識庫的方法,完全本地化,懶人必2025-02-20