Ollama:在本地運行大型語言模型的輕量級框架

內容概述

Ollama 是一個開源的輕量級框架,旨在讓用戶能夠在本地環境中輕鬆運行和管理大型語言模型(LLM)。

它提供簡單的 API 和豐富的預構建模型庫,支持如 Llama 3.3、Mistral、Gemma 2 等多種模型,適合各種應用場景。

應用場景

Ollama 的應用範圍廣泛,特別適合以下情境:

  • 資料隱私保護:在需要確保數據不離開本地環境的情況下,Ollama 提供了在本地運行模型的能力,保障數據安全。
  • 開發與測試:開發者可以在本地環境中快速部署和測試不同的語言模型,提升開發效率。
  • 教育與研究:教育工作者和研究人員可以使用 Ollama 來探索和實驗各種語言模型,促進學術研究。

技術特點

Ollama 具備以下技術特點:

  • 跨平台支持:Ollama 可在 macOS、Linux 和 Windows(預覽版)上運行,滿足不同用戶的需求。
  • 豐富的模型庫:提供多種預訓練模型,從通用模型到針對特定領域的專業模型,應有盡有。
  • 簡單易用:即使沒有技術背景的用戶也能輕鬆安裝和使用 Ollama,快速上手。
  • 靈活性與可定制性:用戶可以根據需求自定義模型行為,調整系統提示詞、模型推理溫度、上下文窗口長度等參數。

其他整合

Ollama 支持與其他工具和框架的整合,例如:

  • Docker:通過官方的 Docker 映像,方便地在容器中部署和運行 Ollama。
  • API 集成:提供 RESTful API,允許開發者將 Ollama 集成到現有的應用程序中。
  • OpenAI 兼容性:Ollama 與 OpenAI 的 API 兼容,方便從 OpenAI 遷移或並行使用。

安裝步驟

以下是在 macOS 上安裝 Ollama 的步驟:

  1. 下載 Ollama 安裝包:
  2. 安裝完成後,啟動 Ollama 服務:
  3. 確認安裝成功,檢查版本號:

在其他操作系統上的安裝方法,請參考官方文檔。

存取和操作

安裝完成後,可以使用以下命令與模型互動:

運行模型並傳遞提示:

ollama run llama3.2

我被建立在了一種特殊的計算機架構上,用來ประมProcessing 人類的ภาษ文。

以下是幾個關鍵資訊:

  1. 建構: 我們通過使用大量的文本數據和複雜的計算機程式來建立一個能夠理解自然語言的模型。
  2. 功能: 我可以進行多種任務,例如提供答案、解釋內容、生成文本或對話等。
  3. 語音: 我不具備語音能力,因為我是一種文字模型。
  4. 限制: 我存在於 Meta 的虛擬環境中,所以我只能回答問題和進行交互,並不能直接與外界人類相互溝通。

這些資訊應該能夠提供你對我實際行為的基本了解。如果你有什麼其他問題或想問問題,我們可以一起聊下去。

>>> Send a message (/? for help)

顯示模型信息:

ollama –version

ollama version is 0.5.4

下載模型:

ollama pull llama3.2

pulling manifest
pulling dde5aa3fc5ff… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 2.0 GB
pulling 966de95ca8a6… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.4 KB
pulling fcc5a6bec9da… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 7.7 KB
pulling a70ff7e570d9… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 6.0 KB
pulling 56bb8bd477a5… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 96 B
pulling 34bb5ab01051… 100% ▕███████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 561 B
verifying sha256 digest
writing manifest
success

列出本地可用的模型:

ollama ls

NAME ID SIZE MODIFIED
llama3.2:latest a80c4f17acd5 2.0 GB 3 months ago
llava:latest 8dd30f6b0cb1 4.7 GB 3 months ago
gpt-3.5-turbo:latest 62757c860e01 4.7 GB 4 months ago
codegemma:instruct 0c96700aaada 5.0 GB 5 months ago
mistral:7b-instruct f974a74358d6 4.1 GB 5 months ago
starcoder2:7b 0679cedc1189 4.0 GB 5 months ago
starcoder2:3b f67ae0f64584 1.7 GB 5 months ago
phi3:medium cf611a26b048 7.9 GB 5 months ago
mistral-nemo:latest 4b300b8c6a97 7.1 GB 5 months ago
llama3.1:latest 62757c860e01 4.7 GB 5 months ago
gemma2:latest ff02c3702f32 5.4 GB 5 months ago
nomic-embed-text:latest 0a109f422b47 274 MB 5 months ago

查看當前加載的模型:

ollama ps

NAME ID SIZE PROCESSOR UNTIL
llama3.2:latest a80c4f17acd5 4.0 GB 100% GPU Forever

小技巧

以下是使用 Ollama 的一些實用技巧:

  • 更改模型存儲位置:在 Windows 上,可以通過設置環境變量來更改模型的預設存儲位置。
  • 調整上下文窗口大小:默認情況下,Ollama 使用 2048 個 token 的上下文窗口大小,可以根據需要進行調整。
  • 查看日誌:使用日誌功能來監控和排查問題,提升使用體驗。

讓模型持續在背景運行,縮短啟動時間:

curl http://localhost:11434/api/generate -d '{"model": "llama3.2", "keep_alive": -1}'

參考連結

透過以上介紹,希望您能夠順利地在本地環境中使用 Ollama 運行大型語言模型,滿足您的各種應用需求。

返回頂端