亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Linux上設(shè)置Ollama服務(wù)配置(常用環(huán)境變量)

 更新時(shí)間:2025年03月26日 10:29:23   作者:zhangxiangweide  
本文主要介紹了Linux上設(shè)置Ollama服務(wù)配置(常用環(huán)境變量),Ollama提供了多種環(huán)境變量供配置,如調(diào)試模式、模型目錄等,下面就來介紹一下,感興趣的可以了解一下

在 Linux 上設(shè)置環(huán)境變量

  • 1. 通過調(diào)用systemctl edit ollama.service編輯 systemd 服務(wù)。這將打開一個(gè)編輯器。這邊可以直接通過vim /etc/systemd/system/ollama.service,打開編輯。

  • 2. 對(duì)于每個(gè)環(huán)境變量,在[Service]部分下添加一行Environment

vim /etc/systemd/system/ollama.service
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_DEBUG=1"
Environment="OLLAMA_FLASH_ATTENTION=1"

對(duì)于每個(gè)環(huán)境變量,在[Service]部分下添加一行Environment.
1. OLLAMA_HOST=0.0.0.0 外網(wǎng)訪問
2. OLLAMA_MODELS=/mnt/data/.ollama/models 模型默認(rèn)下載路徑
3. OLLAMA_KEEP_ALIVE=24h 設(shè)置模型加載到內(nèi)存中保持 24 個(gè)小時(shí)(默認(rèn)情況下,模型在卸載之前會(huì)在內(nèi)存中保留 5 分鐘)
4. OLLAMA_HOST=0.0.0.0:8080 修改默認(rèn)端口 11434 端口
5. OLLAMA_NUM_PARALLEL=2 設(shè)置 2 個(gè)用戶并發(fā)請(qǐng)求
6. OLLAMA_MAX_LOADED_MODELS=2 設(shè)置同時(shí)加載多個(gè)模型

#為了使更改生效,您需要重新加載systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重啟服務(wù)以應(yīng)用更改:
sudo systemctl restart ollama

默認(rèn)情況下,ollama模型的存儲(chǔ)目錄如下:
macOS: `~/.ollama/models` 
Linux: `/usr/share/ollama/.ollama/models`  
Windows: `C:\Users\<username>\.ollama\models`

journalctl -u ollama | grep -i 'prompt='    #查看日志
/set verbose    #設(shè)置以查看token速度

配置 Ollama

Ollama 提供了多種環(huán)境變量以供配置:

OLLAMA_DEBUG:是否開啟調(diào)試模式,默認(rèn)為 false。
OLLAMA_FLASH_ATTENTION:是否閃爍注意力,默認(rèn)為 true。
OLLAMA_HOST:Ollama 服務(wù)器的主機(jī)地址,默認(rèn)為空。
OLLAMA_KEEP_ALIVE:保持連接的時(shí)間,默認(rèn)為 5m。
OLLAMA_LLM_LIBRARY:LLM 庫,默認(rèn)為空。
OLLAMA_MAX_LOADED_MODELS:最大加載模型數(shù),默認(rèn)為 1。
OLLAMA_MAX_QUEUE:最大隊(duì)列數(shù),默認(rèn)為空。
OLLAMA_MAX_VRAM:最大虛擬內(nèi)存,默認(rèn)為空。
OLLAMA_MODELS:模型目錄,默認(rèn)為空。
OLLAMA_NOHISTORY:是否保存歷史記錄,默認(rèn)為 false。
OLLAMA_NOPRUNE:是否啟用剪枝,默認(rèn)為 false。
OLLAMA_NUM_PARALLEL:并行數(shù),默認(rèn)為 1。
OLLAMA_ORIGINS:允許的來源,默認(rèn)為空。
OLLAMA_RUNNERS_DIR:運(yùn)行器目錄,默認(rèn)為空。
OLLAMA_SCHED_SPREAD:調(diào)度分布,默認(rèn)為空。
OLLAMA_TMPDIR:臨時(shí)文件目錄,默認(rèn)為空。Here is the optimized list in the desired format:
OLLAMA_DEBUG:是否開啟調(diào)試模式,默認(rèn)為 false。
OLLAMA_FLASH_ATTENTION:是否閃爍注意力,默認(rèn)為 true。
OLLAMA_HOST:Ollama 服務(wù)器的主機(jī)地址,默認(rèn)為空。
OLLAMA_KEEP_ALIVE:保持連接的時(shí)間,默認(rèn)為 5m。
OLLAMA_LLM_LIBRARY:LLM 庫,默認(rèn)為空。
OLLAMA_MAX_LOADED_MODELS:最大加載模型數(shù),默認(rèn)為 1。
OLLAMA_MAX_QUEUE:最大隊(duì)列數(shù),默認(rèn)為空。
OLLAMA_MAX_VRAM:最大虛擬內(nèi)存,默認(rèn)為空。
OLLAMA_MODELS:模型目錄,默認(rèn)為空。
OLLAMA_NOHISTORY:是否保存歷史記錄,默認(rèn)為 false。
OLLAMA_NOPRUNE:是否啟用剪枝,默認(rèn)為 false。
OLLAMA_NUM_PARALLEL:并行數(shù),默認(rèn)為 1。
OLLAMA_ORIGINS:允許的來源,默認(rèn)為空。
OLLAMA_RUNNERS_DIR:運(yùn)行器目錄,默認(rèn)為空。
OLLAMA_SCHED_SPREAD:調(diào)度分布,默認(rèn)為空。
OLLAMA_TMPDIR:臨時(shí)文件目錄,默認(rèn)為空。

Ollama使用常見的指令:

ollama serve         #啟動(dòng)ollama  
ollama create        #從模型文件創(chuàng)建模型  
ollama show          #顯示模型信息  
ollama run           #運(yùn)行模型  
ollama pull          #從注冊(cè)表中拉取模型  
ollama push          #將模型推送到注冊(cè)表  
ollama list          #列出模型  
ollama cp            #復(fù)制模型  
ollama rm            #刪除模型  
ollama help          #獲取有關(guān)任何命令的幫助信息

導(dǎo)入huggingface模型

最新版Ollama開始支持從Huggingface Hub上直接拉取各種模型,包括社區(qū)創(chuàng)建的GGUF量化模型。用戶可以通過簡單的命令行指令快速運(yùn)行這些模型,可以使用如下命令:

ollama run hf.co/{username}/{repository}

要選擇不同的量化方案,只需在命令中添加一個(gè)標(biāo)簽:

ollama run hf.co/{username}/{repository}:{quantization}

例如:量化名稱不區(qū)分大小寫
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:IQ3_M  
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Q8_0

還可以直接使用完整的文件名作為標(biāo)簽:  
ollama run hf.co/bartowski/Llama-3.2-3B-Instruct-GGUF:Llama-3.2-3B-Instruct-IQ3_M.gguf

手動(dòng)安裝

下載并解壓壓縮包

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
啟動(dòng)ollama
ollama serve

安裝特定版本

OLLAMA_VERSION環(huán)境變量與安裝腳本一起使用,以安裝特定版本的 Ollama,包括預(yù)發(fā)行版??梢栽?releases 頁面中找到版本號(hào)。

releases頁面:https://github.com/ollama/ollama/releases

例如:
curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.3.9 sh

查看日志

要查看作為服務(wù)運(yùn)行的 Ollama 的日志,請(qǐng)運(yùn)行:

journalctl -e -u ollama

到此這篇關(guān)于Linux上設(shè)置Ollama服務(wù)配置(常用環(huán)境變量)的文章就介紹到這了,更多相關(guān)Ollama服務(wù)配置內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家! 

相關(guān)文章

  • 科學(xué)知識(shí):理解socket

    科學(xué)知識(shí):理解socket

    這篇文章主要介紹了科學(xué)知識(shí):理解socket,本文試圖用簡潔的語言說清楚socket的相關(guān)知識(shí),以便理解,需要的朋友可以參考下
    2015-05-05
  • 使用Git Bash向GitHub上傳本地項(xiàng)目

    使用Git Bash向GitHub上傳本地項(xiàng)目

    這篇文章介紹了使用Git Bash向GitHub上傳本地項(xiàng)目的方法,對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2022-04-04
  • 科學(xué)知識(shí):同步、異步、阻塞和非阻塞區(qū)別

    科學(xué)知識(shí):同步、異步、阻塞和非阻塞區(qū)別

    這篇文章主要介紹了科學(xué)知識(shí):同步、異步、阻塞和非阻塞區(qū)別,本文分別講解了這些概念,需要的朋友可以參考下
    2015-05-05
  • 各種語言、服務(wù)器301跳轉(zhuǎn)代碼全集

    各種語言、服務(wù)器301跳轉(zhuǎn)代碼全集

    這篇文章主要介紹了各種語言、服務(wù)器301跳轉(zhuǎn)代碼全集,本文講解了IIS下301設(shè)置、ASP下的301轉(zhuǎn)向代碼、ASP.Net下的301轉(zhuǎn)向代碼、PHP下的301轉(zhuǎn)向代碼 、CGI Perl下的301轉(zhuǎn)向代碼、JSP下的301轉(zhuǎn)向代碼等內(nèi)容,需要的朋友可以參考下
    2015-04-04
  • 史上最好用的遠(yuǎn)程桌面工具(附源碼)

    史上最好用的遠(yuǎn)程桌面工具(附源碼)

    今天給大家分享一款不錯(cuò)的遠(yuǎn)程控制工具向日葵遠(yuǎn)程桌面工具,支持多平臺(tái),跨網(wǎng)絡(luò),對(duì)向日葵遠(yuǎn)程桌面工具感興趣的朋友跟隨小編一起看看吧
    2021-05-05
  • 使用curl命令行模擬登錄WordPress的方法

    使用curl命令行模擬登錄WordPress的方法

    這篇文章主要介紹了使用curl命令行模擬登錄WordPress的方法,本文通過圖文實(shí)例相結(jié)合給大家介紹的非常詳細(xì),需要的朋友可以參考下
    2019-11-11
  • deepseek本地部署流程(解決服務(wù)器繁忙以及隱私等問題)

    deepseek本地部署流程(解決服務(wù)器繁忙以及隱私等問題)

    本文介紹了如何在本地部署DeepSeek,并詳細(xì)說明了下載和安裝Ollama、ChatBoxAI以及拉取DeepSeek-R1模型的步驟,同時(shí),還提供了所需的硬件配置建議
    2025-02-02
  • Hadoop分布式集群的搭建的方法步驟

    Hadoop分布式集群的搭建的方法步驟

    這篇文章主要介紹了Hadoop分布式集群的搭建的方法步驟,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧
    2019-06-06
  • 如何用Idea或者webstorm跑一個(gè)Vue項(xiàng)目(步驟詳解)

    如何用Idea或者webstorm跑一個(gè)Vue項(xiàng)目(步驟詳解)

    這篇文章主要介紹了如何用Idea或者webstorm跑一個(gè)Vue項(xiàng)目,本文分步驟給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2021-02-02
  • 踩坑記錄關(guān)于"authentication failed "的解決方法

    踩坑記錄關(guān)于"authentication failed "的解決方法

    今天給大家分享我的踩坑記錄關(guān)于報(bào)錯(cuò) authentication failed,這個(gè)報(bào)錯(cuò)的原因是“身份驗(yàn)證失敗”,本文給大家分享我的解決方法,感興趣的朋友跟隨小編一起看看吧
    2023-01-01

最新評(píng)論