NoteZ_技术博客 NoteZ_技术博客
🏠 首页
  • 📚 Web技术
  • 📋 Npm笔记
  • 📑 Markdown
  • 📄 Git笔记
  • 📝 Nginx文档
  • 📓 Linux文档
  • 📖 技术文档
  • 📜 其他文档
  • 🧊 NodeJs
  • 🎡 Express
  • 🔥 Rust
  • 🎉 Koa2
  • 🍃 MongoDB
  • 🐬 MySql
  • 🥦 Oracle
  • 🍁 Python
  • 🍄 JavaScript
  • 🌰 CSS
  • 🧄 HTML
  • 🥑 Canvas
  • 🌽 Nuxt
  • 🍆 React
  • 🥜 Vue
  • 🧅 TypeScript
  • 🌶️ AI
  • 📘 分类
  • 📗 标签
  • 📙 归档
⚜️ 在线编辑 (opens new window)
  • 📁 站点收藏
  • 📦 前端组件库
  • 📊 数据可视化
  • 🌈 开源插件
  • 🎗️ 关于我
  • 🔗 友情链接
GitHub (opens new window)

NoteZ_技术博客

前端界的小学生
🏠 首页
  • 📚 Web技术
  • 📋 Npm笔记
  • 📑 Markdown
  • 📄 Git笔记
  • 📝 Nginx文档
  • 📓 Linux文档
  • 📖 技术文档
  • 📜 其他文档
  • 🧊 NodeJs
  • 🎡 Express
  • 🔥 Rust
  • 🎉 Koa2
  • 🍃 MongoDB
  • 🐬 MySql
  • 🥦 Oracle
  • 🍁 Python
  • 🍄 JavaScript
  • 🌰 CSS
  • 🧄 HTML
  • 🥑 Canvas
  • 🌽 Nuxt
  • 🍆 React
  • 🥜 Vue
  • 🧅 TypeScript
  • 🌶️ AI
  • 📘 分类
  • 📗 标签
  • 📙 归档
⚜️ 在线编辑 (opens new window)
  • 📁 站点收藏
  • 📦 前端组件库
  • 📊 数据可视化
  • 🌈 开源插件
  • 🎗️ 关于我
  • 🔗 友情链接
GitHub (opens new window)
  • JavaScript笔记

  • CSS笔记

  • HTML笔记

  • Canvas笔记

  • Nuxt笔记

  • React笔记

  • Vue笔记

  • TypeScript笔记

  • AI相关笔记

    • Ollama - 本地安装部署
      • 1. Ollama简介
      • 2. 支持的操作系统
      • 3. 安装Ollama
        • Windows系统
        • Linux系统
        • Mac系统
      • 4. 运行模型
      • 5. 配置Ollama的环境变量
        • Windows系统
        • Linux系统
      • 6. 基于WebUI部署Ollama可视化对话界面
    • linux 在没有 sudo 权限下安装 Ollama 框架
  • 开发文档
  • AI相关笔记
NoteZ
2024-11-25
目录

Ollama - 本地安装部署

# 1. Ollama简介

Ollama是一个专为在本地环境中运行和定制大型语言模型而设计的工具。它提供了一个简单而高效的接口,用于创建、运行和管理这些模型,同时还提供了一个丰富的预构建模型库,可以轻松集成到各种应用程序中。

  • 官网地址:https://ollama.com/ (opens new window)
  • Github:https://github.com/ollama/ollama (opens new window)

# 2. 支持的操作系统

Ollama支持多种操作系统,包括但不限于macOS、Windows 10及更高版本、多种Linux发行版以及通过Docker容器运行。

# 3. 安装Ollama

# Windows系统

  • 访问 Ollama (opens new window) 官方网站的下载页面,点击 Download for Windows (opens new window) 下载对应的安装包。
  • 双击安装包,按照提示完成安装。
  • 安装完成后,打开命令提示符窗口,输入ollama命令,验证安装是否成功。

# Linux系统

  • 打开终端,执行以下命令下载安装脚本:
    curl -fsSL https://ollama.com/install.sh | sh
    
    1
  • 等待安装完成,安装脚本会自动下载所需的组件,并完成Ollama的安装与配置。
  • 安装完成后,可以通过以下命令启动Ollama:
    ollama serve
    
    1

# Mac系统

  • 访问Ollama官方网站下载对应Mac的安装包。
  • 下载好后打开安装命令行进行安装。

# 4. 运行模型

安装完成后,可以通过命令行启动Ollama并运行模型。例如,运行Llama3.1-8b模型的命令如下(需要8G的显存):

ollama run Llama3.1-8b
1

如果本地不存在该模型,Ollama会自动下载完整模型文件到本地磁盘,然后启动模型;若本地存在模型,则直接启动。

Ollama支持的模型可在 https://ollama.com/search (opens new window) 查看。

# 5. 配置Ollama的环境变量

# Windows系统

windows 的安装默认不支持修改程序安装目录

  • 默认安装后的目录:C:\Users\{username}\AppData\Local\Programs\Ollama
  • 默认安装的模型目录:C:\Users\{username}\.ollama\models
  • 默认的配置文件目录:C:\Users\{username}\AppData\Local\Ollama

修改模型目录: 你需要打开系统设置,进入“高级系统设置”,然后点击“环境变量”。在“系统变量”中新建一个变量,变量名为OLLAMA_MODELS,变量值为你创建的新目录路径,例如E:\ollama\models,然后重启Ollama服务。

修改启动端口: 你需要打开系统设置,进入“高级系统设置”,然后点击“环境变量”。在“系统变量”中新建一个变量,变量名为OLLAMA_HOST,变量值为你要修改的端口,例如11434,然后重启 Ollama ,浏览器访问 http://127.0.0.1:11434。

# Linux系统

如果Ollama以systemd服务的形式运行,你可以通过编辑/etc/systemd/system/ollama.service文件来设置环境变量。在[Service]部分下添加一行 Environment="OLLAMA_MODELS=/path/to/ollama/models",然后执行以下命令来刷新配置并重启Ollama服务:

systemctl daemon-reload
systemctl restart ollama.service
1
2

确保替换/path/to/ollama/models为你的实际路径

例如:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/lib/nvidia-cuda-toolkit/bin:/root/anaconda3/bin:/root/anaconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin"

Environment="OLLAMA_HOST=0.0.0.0:11434"
# Environment="OLLAMA_NUM_PARALLEL=2"  #并行处理请求的数量
Environment="OLLAMA_MAX_LOADED_MODELS=1" #同时加载的模型数量
Environment="OLLAMA_KEEP_ALIVE=3h" #模型在内存中保持时间

Environment="OLLAMA_MODELS=/data/models

[Install]
WantedBy=default.target

# systemctl daemon-reload
# systemctl restart ollama
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24

# 6. 基于WebUI部署Ollama可视化对话界面

Ollama自带控制台对话界面体验可能不佳,可以部署Web可视化聊天界面以提升用户体验。具体步骤如下:

  1. 下载并安装Node.js工具。
  2. 下载ollama-webui工程代码。
  3. 在ollama-webui代码目录下,设置Node.js工具包镜像源。
  4. 安装Node.js依赖的工具包。
  5. 启动Web可视化界面。

以上步骤可以帮助您在本地环境中部署Ollama并运行大型语言模型。希望这些信息对您有所帮助。

#Ollama#Python
上次更新: 2025/02/28, 23:52:30
项目中常见的 Typescript 语法
linux 在没有 sudo 权限下安装 Ollama 框架

← 项目中常见的 Typescript 语法 linux 在没有 sudo 权限下安装 Ollama 框架→

最近更新
01
Gitea数据备份与还原
03-10
02
Linux 中使用 rsync 同步文件目录教程
03-10
03
Linux 使用 rsync 互相传输同步文件的简单步骤
03-08
更多文章>
Theme by Vdoing | Copyright © 2019-2025 NoteZ,All rights reserved | 冀ICP备2021027292号-1
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式