DeepSeek R1 本地部署版本(國產(chǎn)人工智能 AI ) + web-ui 可以斷網(wǎng)
937MB / 02-07
LM Studio本地部署大模型(支持DeepSeek-R1) v0.3.9 中文綠色版
229MB / 02-06
Cherry Studio(多模型聚合AI桌面客戶端) v1.2.6 官方中文綠色便
180MB / 04-22
DeepSeek-R1本地部署模型LM Studio v0.3.14 中文版 含DeepSeek-R
460MB / 03-28
Cherry Studio AI(模型服務聚合) v1.2.6 官方中文安裝版
181MB / 04-22
-
VScode神級Ai代碼插件 Continue v1.1.24 開源版 編程工具 / 72.5MB
-
JetBrains DataSpell(數(shù)據(jù)科學IDE) v2025.1 官方中文安裝版 編程工具 / 899MB
-
-
-
-
-
Cursor(智能AI代碼生成工具) v0.48.9 官方版 編程工具 / 112MB
-
JetBrains ReSharper Command Line Tools命令行工具 v2025.1 官 編程工具 / 169MB
-
JetBrains ReSharper C++ v2025.1 中文最新免費版(附安裝教程) 編程工具 / 62.8MB
-
JetBrains ReSharper Ultimate(dotUltimate) v2025.1 免費正式安 編程工具 / 3.0GB
詳情介紹
Ollama是一個開源的 LLM(大型語言模型)服務工具,用于簡化在本地運行大語言模型、降低使用大語言模型的門檻,使得大模型的開發(fā)者、研究人員和愛好者能夠在本地環(huán)境快速實驗、管理和部署最新大語言模型,支持與DeepSeek R1模型搭配本地部署,還包括如Qwen2、Llama3、Phi3、Gemma2等開源的大型語言模型。
Ollama 與 Llama 有什么關系?
Llama是 Meta 公司開源的備受歡迎的一個通用大語言模型,和其他大模型一樣,Llama可以通過Ollama進行管理部署和推理等。
因此,Ollama與Llama的關系:Llama是大語言模型,而Ollama是大語言模型(不限于Llama模型)便捷的管理和運維工具,它們只是名字后面部分恰巧相同而已!
Ollama 安裝和常用系統(tǒng)參數(shù)設置
Ollama的安裝過程,與安裝其他普通軟件并沒有什么兩樣。
安裝完成之后,有幾個常用的系統(tǒng)環(huán)境變量參數(shù)建議進行設置:
OLLAMA_MODELS:模型文件存放目錄,默認目錄為當前用戶目錄(Windows 目錄:C:\Users%username%.ollama\models,MacOS 目錄:~/.ollama/models,Linux 目錄:/usr/share/ollama/.ollama/models),如果是 Windows 系統(tǒng)建議修改(如:D:\OllamaModels),避免 C 盤空間吃緊
OLLAMA_HOST:Ollama 服務監(jiān)聽的網(wǎng)絡地址,默認為127.0.0.1,如果允許其他電腦訪問 Ollama(如:局域網(wǎng)中的其他電腦),建議設置成0.0.0.0,從而允許其他網(wǎng)絡訪問
OLLAMA_PORT:Ollama 服務監(jiān)聽的默認端口,默認為11434,如果端口有沖突,可以修改設置成其他端口(如:8080等)
OLLAMA_ORIGINS:HTTP 客戶端請求來源,半角逗號分隔列表,若本地使用無嚴格要求,可以設置成星號,代表不受限制
OLLAMA_KEEP_ALIVE:大模型加載到內(nèi)存中后的存活時間,默認為5m即 5 分鐘(如:純數(shù)字如 300 代表 300 秒,0 代表處理請求響應后立即卸載模型,任何負數(shù)則表示一直存活);我們可設置成24h,即模型在內(nèi)存中保持 24 小時,提高訪問速度
OLLAMA_NUM_PARALLEL:請求處理并發(fā)數(shù)量,默認為1,即單并發(fā)串行處理請求,可根據(jù)實際情況進行調(diào)整
OLLAMA_MAX_QUEUE:請求隊列長度,默認值為512,可以根據(jù)情況設置,超過隊列長度請求被拋棄
OLLAMA_DEBUG:輸出 Debug 日志標識,應用研發(fā)階段可以設置成1,即輸出詳細日志信息,便于排查問題
OLLAMA_MAX_LOADED_MODELS:最多同時加載到內(nèi)存中模型的數(shù)量,默認為1,即只能有 1 個模型在內(nèi)存中
CPU適配版本:
沒有GPU:1.5B Q8推理 或者 8B Q4推理
4G GPU:8B Q4推理
8G GPU:32B Q4推理 或者 8B Q4推理
16G GPU:32B Q4推理 或者 32B Q8推理
24G GPU: 32B Q8推理 或者 70B Q2推理
根據(jù)個人配置安裝合適版本。
DeepSeek R1 本地部署方法
安裝命令:
1.5B Qwen DeepSeek R1
安裝命令:ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R1
安裝命令:ollama run deepseek-r1:7b
8B Llama DeepSeek R1
安裝命令:ollama run deepseek-r1:8b
14B Qwen DeepSeek R1
安裝命令:ollama run deepseek-r1:14b
32B Qwen DeepSeek R1
安裝命令:ollama run deepseek-r1:32b
70B Llama DeepSeek R1
安裝命令:ollama run deepseek-r1:70b
如果出現(xiàn)403,以管理員身份運行即可。
然后,會有一個漫長的下載模型的時間,下載后看到如下界面,證明你成功了!
搭建 web ui 用于網(wǎng)頁對話
明顯命令行這樣的方式很不方便,無法滿足對我們的聊天內(nèi)容進行管理。這時,一個類似于Chat GPT這樣的網(wǎng)頁對話功能就顯得十分重要了。
這里我選擇的是Open web ui,具體效果如下。
下面講解如何搭建,在此之前我們需要安裝 docker 。
安裝完成后,我們打開docker,注冊登錄一下docker,然后在右下角點擊Terminal,打開控制臺,然后輸入下面命令,然后等待安裝完成。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker 容器啟動后,會有歡迎頁面,點擊開始使用,開啟體驗之路!
其他Open WebUI可視化交互界面工具
目前我知道的大概有幾種方式:
1、使用Docker-desktop,不僅是open-webui,其他絕大多數(shù)Github的開源項目都支持用docker一鍵部署,docker的好處是自帶虛擬環(huán)境,不需要在本地額外安裝一堆其他環(huán)境、依賴等,是管理、部署項目的神器。
2、自行安裝Python環(huán)境,使用Pip的方式安裝即可
3、不需要安裝Docker-desktop,也不需要安裝Python環(huán)境,直接使用瀏覽器Web UI插件就能搞定(下方就是教程,大家可以點擊查看)
本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡單的DeepSeek離線部署聯(lián)網(wǎng)搜索教程
4、還可以使用ChatBox、Cherry Studio等桌面客戶端都可以(下面也給大家提供了教程,點擊查看)
下載地址
人氣軟件
Java SE Development Kit(JDK) 17.0.15 官方正式版 Win64
JDK11(Java SE Development Kit 11) v11.0.27 x64 LTS 長期支持
EXT界面圖形工具Ext Designer 特別版
JetBrains Pycharm Pro 2025.1 中文專業(yè)免費正式版(附漢化包+安
intellij IDEA v2025.1 社區(qū)版 官方中文正式版(附漢化包+安裝方
myeclipse2016破解工具 v1.0 破解補丁(附安裝教程)
Java SE Development Kit(JDK1.8) jdk-8u451-windows-x64.exe 64
Java SE Development Kit(JDK) 17.0.15 官方正式版 Linux64
安卓集成開發(fā)工具Android Studio 2024.3.1.13 + SDK 2024.1.09 W
Zend Studio 10.1.0與10.0.1 破解文件與注冊碼打包
相關文章
-
DeepSeek服務器繁忙怎么解決?手把手教你本地連接DeepSeek R1告別不響應
近期DeepSeek經(jīng)常出現(xiàn)服務器繁忙,請稍后再試的情況,那么DeepSeek服務器繁忙怎么解決呢?本文手把手教你本地連接DeepSeek R1,告別不響應,一起來看看吧...
-
全新DeepSeek R1 本地部署詳細圖文教程 支持Web-UI 可以斷網(wǎng)使用(附下載)
DeepSeek全球下載榜單登頂,因為太過火爆了,導致DeepSeek這段時間用的時候幾乎天天崩潰,經(jīng)常出現(xiàn)“服務器繁忙,請稍后再試”的情況,這里為大家?guī)鞤eepSeek R1本地部署...
-
DeepSeek R1最全本地部署教程 適用于Mac/Windows/Linux平臺
本篇文章將以部署國產(chǎn)最新崛起的 AI 大模型 DeepSeek R1 為例,手把手教你如何利用 Ollama 在本地環(huán)境中快速搭建和運行這些先進的 AI 模型...
-
本地部署DeepSeek-R1聯(lián)網(wǎng) 超簡單的DeepSeek離線部署聯(lián)網(wǎng)搜索教程
DeepSeek是近日熱門的AI大型語言模型,目前可實現(xiàn)本地部署版本,那么DeepSeek本地部署后如何實現(xiàn)聯(lián)網(wǎng)?這里要給大家介紹一個插件,簡單快速部署deepseek-r1本地,無需網(wǎng)絡...
-
DeepSeek新手必看! 最全的DeepSeek訪問以及使用方法
DeepSeek是一款多模態(tài)AI工具,融合了文本生成、圖像創(chuàng)作等多種功能,致力于為用戶提供無縫的創(chuàng)作體驗,該怎么使用DeepSeek呢?詳細請看下文DeepSeek實操指南...
-
如何實現(xiàn)deepseek本地部署?詳細教學deepseek本地環(huán)境搭建及設置
本文將詳細介紹deepseek本地部署的完整步驟,包括從環(huán)境配置到軟件安裝的全程指南,我們將細節(jié)和注意點做了介紹,確保你能夠在短時間內(nèi)完成高效、安全的配置,快速啟動Deep...
下載聲明
☉ 解壓密碼:chabaoo.cn 就是本站主域名,希望大家看清楚,[ 分享碼的獲取方法 ]可以參考這篇文章
☉ 推薦使用 [ 迅雷 ] 下載,使用 [ WinRAR v5 ] 以上版本解壓本站軟件。
☉ 如果這個軟件總是不能下載的請在評論中留言,我們會盡快修復,謝謝!
☉ 下載本站資源,如果服務器暫不能下載請過一段時間重試!或者多試試幾個下載地址
☉ 如果遇到什么問題,請評論留言,我們定會解決問題,謝謝大家支持!
☉ 本站提供的一些商業(yè)軟件是供學習研究之用,如用于商業(yè)用途,請購買正版。
☉ 本站提供的Ollama(本地LLM管理/WebUI對話) for Windows v0.5.7 安裝免費版資源來源互聯(lián)網(wǎng),版權歸該下載資源的合法擁有者所有。