亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

全新DeepSeek R1 本地部署詳細(xì)圖文教程 支持Web-UI 可以斷網(wǎng)使用(附下載)

  發(fā)布時間:2025-02-07 17:29:15   作者:佚名   我要評論
DeepSeek全球下載榜單登頂,因?yàn)樘^火爆了,導(dǎo)致DeepSeek這段時間用的時候幾乎天天崩潰,經(jīng)常出現(xiàn)“服務(wù)器繁忙,請稍后再試”的情況,這里為大家?guī)鞤eepSeek R1本地部署的方法,支持WebUI離線使用

DeepSeek全球下載榜單登頂,流量巨大。春節(jié)這段時間,DeepSeek這把火真的是太猛了,幾乎燒遍了全球。翻開朋友圈,打開視頻號,清一色的關(guān)于DeepSeek的各種消息。這潑天的流量絲毫不亞于當(dāng)初OpenAI爆火的時候。因?yàn)樘^火爆了,導(dǎo)致DeepSeek這段時間用的時候幾乎天天崩潰。經(jīng)常出現(xiàn)“服務(wù)器繁忙,請稍后再試”的情況,這里為大家?guī)鞤eepSeek R1本地部署的方法,支持WebUI離線使用,感興趣的朋友歡迎前來查看。

先下載所需工具:

如果有去注冊的朋友應(yīng)該都知道這段時間新用戶幾乎都注冊不了,如果發(fā)現(xiàn)能注冊,建議大家趕緊去注冊體驗(yàn)一下。

DeepSeek官網(wǎng):https://www.deepseek.com/

這是我在昨天使用deepseek的情況,時不時就會遇到下面這個回復(fù)。

用著用著就崩了,很是尷尬。

后面才發(fā)現(xiàn)DeepSeek居然是開源的,

那既然DeepSeek R1是開源的,那就直接本地部署使用吧。

這樣也就省去了諸多麻煩。

好了,先給大家做個簡單的科普。

什么是DeepSeek R1?

DeepSeek-R1是杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司發(fā)布的高性能AI推理模型,對標(biāo)OpenAI的o1正式版。

模型通過大規(guī)模強(qiáng)化學(xué)習(xí)技術(shù)進(jìn)行后訓(xùn)練,僅需極少量標(biāo)注數(shù)據(jù),

便能在數(shù)學(xué)、代碼和自然語言推理等任務(wù)上取得卓越表現(xiàn)。

DeepSeek-R1遵循MIT License開源,支持模型蒸餾,訓(xùn)練其他模型。

據(jù)說DeepSeek-R1的訓(xùn)練成本居然還不到OpenAI的1/50,

這個真的是太牛了?。?!

大寫的牛?。。?!

各項(xiàng)性能指標(biāo)更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,關(guān)鍵是開源的,我們可以本地部署使用

使用Ollama + Open-WebUI一鍵部署DeepSeek R1的詳細(xì)步驟

這里我們來介紹如何用Ollama + Open-WebUI來一鍵部署DeepSeek R1。

這倆好搭檔非常之牛掰且好用,看他倆在Github的Star就知道了。

用Ollama管理、運(yùn)行Deepseek,在Open-WebUI接入Ollama之后,

我們就可以完全界面化去下載安裝Deepseek R1,

界面化給大模型調(diào)整參數(shù),并設(shè)定預(yù)設(shè)prompt,以及對話(如下圖),

非常方便。

好了,廢話不多說,我們開始本地部署Deepseek R1!

先安裝Ollama和Open-WebUI

安裝 Ollama

下載 Ollama(官網(wǎng)較慢,可以使用本站提供的地址)

訪問 Ollama官網(wǎng)(https://ollama.com/),根據(jù)操作系統(tǒng)(Windows、macOS 或 Linux)下載安裝包。

對于 Windows 用戶,下載 OllamaSetup.exe 并雙擊安裝。

驗(yàn)證安裝

這里需要注意,它跟我們平常普通的軟件安裝不一樣,這里安裝完成后,桌面基本上是沒有任何圖標(biāo)的,

但是我們可以通過命令行工具去驗(yàn)證是否安裝成功。

打開命令行工具,輸入以下命令驗(yàn)證是否安裝成功:

ollama --version

如果顯示版本號,說明安裝成功。

下載 DeepSeek-R1 模型

Ollama已經(jīng)在第一時間支持DeepSeek-R1, 模型地址:deepseek-r1 。

根據(jù)自己的顯存選擇對應(yīng)的模型,2G顯卡只能選1.5b的。

硬件需求

所以對于大多數(shù)個人用戶,建議部署4bit量化模型:

7B/8B模型:8GB顯存。

14B模型:16GB顯存。

32B模型:22GB顯存。

70B模型:48GB顯存。

下圖是ollama官方給出的模型選擇建議

如何查看我們電腦的顯存大小呢?

Ctrl + Shift + Esc打開任務(wù)管理器->性能->GPU

如何下載模型?

如何運(yùn)行deepseek?

運(yùn)行模型很簡單,確定好想要的模型后,復(fù)制對應(yīng)的命令到你的終端并執(zhí)行。

使用以下命令下載 DeepSeek-R1 模型:

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Qwen-7B

ollama run deepseek-r1:7b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

DeepSeek-R1-Distill-Qwen-14B

ollama run deepseek-r1:14b

DeepSeek-R1-Distill-Qwen-32B

ollama run deepseek-r1:32b

DeepSeek-R1-Distill-Llama-70B

ollama run deepseek-r1:70b

該命令會自動下載并加載模型,下載時間取決于網(wǎng)絡(luò)速度和模型大小。

查看模型信息

下載完成后,可以使用以下命令查看模型信息:

ollama list

該命令會列出本地已下載的模型及其狀態(tài)。這是我筆記本上的本地模型。

運(yùn)行 DeepSeek-R1

啟動模型

使用以下命令啟動 DeepSeek-R1 模型:

ollama run deepseek-r1:1.5b

啟動后,模型會進(jìn)入交互模式,用戶可以直接輸入問題并獲取回答。

測試功能

在交互模式下,可以測試 DeepSeek-R1 的多種功能,例如:

- 智能客服:輸入客戶常見問題,如“如何安裝軟件?”。
- 內(nèi)容創(chuàng)作:輸入“為一款智能手表撰寫廣告文案”。
- 編程輔助:輸入“用 Python 實(shí)現(xiàn)快速排序”。
- 教育輔助:輸入“解釋牛頓第二定律”。

這是測試的效果

使用 Open WebUI 增強(qiáng)交互體驗(yàn)

只要是支持Ollama的webUI都可以,如Dify,AnythingLLM都可以。

Open WebUI也強(qiáng)烈推薦大家安裝使用,它應(yīng)該是目前功能最全,最好用的大模型WebUI工具。

安裝完Ollama和Open WebUI,并在Open WebUI接入本地Ollama之后,就可以非常方便的一鍵安裝DeepSeek R1使用了~

如何安裝Open WebUI可視化交互界面工具

目前我知道的大概有幾種方式:

1、使用Docker-desktop,不僅是open-webui,其他絕大多數(shù)Github的開源項(xiàng)目都支持用docker一鍵部署,docker的好處是自帶虛擬環(huán)境,不需要在本地額外安裝一堆其他環(huán)境、依賴等,是管理、部署項(xiàng)目的神器。

2、自行安裝Python環(huán)境,使用Pip的方式安裝即可

☆ 次推薦 3、不需要安裝Docker-desktop,也不需要安裝Python環(huán)境,直接使用瀏覽器Web UI插件就能搞定(下面下載鏈接與教程就是,大家可以點(diǎn)擊查看)

本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡單的DeepSeek離線部署聯(lián)網(wǎng)搜索教程

☆ 首要推薦 4、還可以使用ChatBox、Cherry Studio等桌面客戶端都可以(下面也給大家提供了教程,點(diǎn)擊查看)

DeepSeek服務(wù)器繁忙怎么解決?CherryStudio&DeepSeek 告別不響應(yīng)

這里我們先采用第二種方式(安裝Python環(huán)境的方式),而且也是與Ollama結(jié)合比較緊密的Open WebUI為例:

GitHub地址:https://github.com/open-webui/open-webui

如果本身已經(jīng)安裝有Python環(huán)境,如:Anaconda,

那么就直接Pip安裝即可,至于如何安裝Python環(huán)境和Anaconda環(huán)境,自行度娘即可,這里不做介紹。

安裝open-webui服務(wù)

pip install open-webui

啟動open-webui服務(wù)

open-webui serve

啟動后,在瀏覽器中訪問 http://localhost:8080/ 即可進(jìn)入 Open WebUI 界面。

選擇模型并測試

在 Open WebUI 界面中,選擇已下載的 DeepSeek-R1 模型,即可開始對話測試。

大家可以看到,效果非常不錯。

上面我分別使用了五種模型進(jìn)行測試,只有R1模型確確實(shí)實(shí)是在推理,而其他兩種默認(rèn)的模型都是普通模型,沒有推理能力。

注意事項(xiàng)

硬件要求:DeepSeek-R1 對硬件有一定要求,建議使用支持 GPU 的設(shè)備以獲得更好的性能。如果電腦配置一般建議選擇1.5b就足夠。

網(wǎng)絡(luò)配置:如果下載速度較慢,可以使用國內(nèi)鏡像加速。

本地化支持:Open WebUI 支持中文界面,可以在設(shè)置中調(diào)整語言。

通過以上步驟,您可以快速在本地部署 DeepSeek-R1 模型,并通過 Ollama 和 Open WebUI 進(jìn)行高效交互。

使用建議

從小型模型開始測試

根據(jù)實(shí)際需求選擇合適版本

注意監(jiān)控系統(tǒng)資源使用情況

定期備份重要對話數(shù)據(jù)

DeepSeek R1能做什么?

處理復(fù)雜提示

揭示問題背后的推理步驟

在聊天界面中呈現(xiàn)并測試代碼

提供強(qiáng)大的推理能力

為何選擇本地部署DeepSeek R1及它有哪些優(yōu)勢

雖然DeepSeek提供免費(fèi)的網(wǎng)頁和移動應(yīng)用版本,

但選擇本地部署有以下幾個重要優(yōu)勢:

1. 隱私保護(hù)

所有數(shù)據(jù)都保存在本地計(jì)算機(jī)

無需擔(dān)心數(shù)據(jù)被收集或用于其他目的

完全掌控?cái)?shù)據(jù)安全

2. 離線訪問

無需依賴網(wǎng)絡(luò)連接

適合旅行或網(wǎng)絡(luò)不穩(wěn)定的場景

隨時隨地可用

3. 未來保障

避免可能出現(xiàn)的使用限制

不受未來商業(yè)化影響

永久免費(fèi)使用

4. 更大的靈活性

可以根據(jù)需求微調(diào)模型

支持與其他工具集成

允許構(gòu)建自定義界面

相關(guān)文章

最新評論