• 本站招聘各个版块版主共同发展,有意可私聊站长

在 BWH VM 上部署你的专属 AI 聊天机器人

Telegram账号购买找【ITCRY】-顶级号商 https://itcry.com/

起名太难了

Member
Lv0
Lv1
Lv2
7
消息得分
注册
2025-06-11
消息
784
反馈评分
0
想要一个属于你自己的 “GPT“”?

本教程教你在 BWH 云主机上部署一个完全开源、免费、可定制的 AI 聊天系统。

无需 GPU、无需外部 API,仅用几行命令即可拥有属于自己的智能助手。

# 一、项目简介



目标:

在一台 BWH 提供的虚拟机(VM)上,部署一个本地运行的 AI 聊天机器人。



功能特点:



支持开源模型(Llama、Mistral、Qwen、Gemma 等)



网页端访问界面(Open WebUI)



数据完全私有,存储在本地 VM



可自定义人格、主题、外观样式



无需 GPU,CPU 模式即可运行小模型

eFnzx2IG6I8WOFeMj8IHW4.png




# 二、技术架构



部署使用两个核心组件:



组件 功能 Docker 镜像

Ollama 模型运行引擎(负责加载大模型) ollama/ollama

Open WebUI Web 聊天界面 ghcr.io/open-webui/open-webui



架构示意:



浏览器(Chat 界面)



Open WebUI(前端界面)



Ollama(本地模型后端)



Llama / Qwen / Mistral 等模型





所有数据与模型都在你的服务器上处理,无需联网调用外部 API。



# 三、系统要求

项目 建议配置

操作系统 Ubuntu 22.04 / Debian 12

CPU 2 核以上

内存 4GB 起(推荐 8GB)

磁盘空间 20GB 以上(存模型文件)

网络 能访问外网(用于下载模型)



检查安装是否成功:



docker version



2.创建项目目录

mkdir -p ~/ai-bot && cd ~/ai-bot



3.新建配置文件 docker-compose.yml

version: '3.8'

services:

ollama:

image: ollama/ollama:latest

container_name: ollama

restart: unless-stopped

ports:

- "11434:11434"

volumes:

- ./ollama:/root/.ollama



openwebui:

image: ghcr.io/open-webui/open-webui:main

container_name: openwebui

restart: unless-stopped

ports:

- "3000:8080"

environment:

- OLLAMA_API_BASE_URL=

depends_on:

- ollama



4.启动服务

docker compose up -d





精彩评论


冷雨@夜 发表于1 小时前

牛啊
gspl 发表于9 分钟前

Copilot差不多了
 
后退
顶部