云服务器配置

本节需求

购买并初始化云服务器,完成端口放通与 Docker/Compose/Portainer 安装,使用 docker compose 部署 AI Agent 运行所需的组件(Ollama、Redis、向量库),配置 JDK 17 与 Maven,并拉取 DeepSeek R1 1.5B 模型完成联通验证。

云服务要求

AI Agent 至少需要 2C4G 的云服务器。阿里云学生优惠获取的2C2G服务器无法满足性能要求,因此建议购买新的实例以保证模型和服务的稳定运行。

腾讯云 4C4G 实例(79 元/年),性价比较高。参考:腾讯云服务器4C4G

选择Ubuntu 24.04-LTS即可,不需要额外的应用镜像

环境配置

1. 重置密码

这里需要给 root 用户重置密码。

2. 防火墙开放

至少确保下列端口的开放:

3. Termius 安装

Termius

4. Docker 安装

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
# 下载并运行官方安装脚本
curl -fsSL https://get.docker.com | sudo sh

sudo apt update
sudo apt install docker-compose-plugin -y

# 检查 Docker 版本
docker version

# 检查 Docker Compose 版本
docker compose version

# 创建 Docker 配置目录
sudo mkdir -p /etc/docker

# 配置镜像加速器(使用腾讯云内网镜像)
sudo tee /etc/docker/daemon.json <<EOF
{
"registry-mirrors": [
"https://mirror.ccs.tencentyun.com"
]
}
EOF

# 重启 Docker
sudo systemctl restart docker

# 测试运行一个容器
docker run hello-world

如果上述过程没有问题的话,则会显示:

5. AI-Agent 环境配置

创建并切换到 dev-ops 目录:

1
2
3
cd /
mkdir dev-ops
cd dev-ops

将项目中的 docs 目录下的内容移动至云服务器的 dev-ops 目录下(通过 Termius 的 SFTP):

然后执行如下命令:

1
2
# 使用 docker compose(注意:部分老命令为 docker-compose)
docker compose -f docker-compose-environment-aliyun.yml up -d

即可完成下列组件的安装和配置:

1. Ollama - 大语言模型服务
  • 作用:运行本地化的大语言模型(如 deepseek-r1:1.5b)
  • 用途:提供对话 AI、文本生成、代码解释等 AI 能力
  • 端口:11434 - 可以通过 API 调用模型服务
2. Redis - 缓存和消息队列
  • 作用:高速内存数据库,用作缓存和会话存储
  • 用途:存储用户会话、缓存 AI 响应、临时数据
  • 管理界面:通过 redis-admin 在 8081 端口可视化管理
  • 账密:admin/admin
3. Vector DB - 向量数据库
  • 作用:专门存储和检索向量数据的数据库
  • 用途:存储文档嵌入向量,实现语义搜索、RAG(检索增强生成)
  • 数据库:ai-rag-knowledge

接下来需要完成 MavenJDK 17 的配置:

1
2
3
4
5
6
7
8
9
10
11
# 1. 安装 JDK 17 和 Maven
sudo apt update
sudo apt install openjdk-17-jdk maven -y

# 2. 验证安装
java -version # 应该显示 JDK 17
mvn -version # 应该显示 Maven 版本

# 3. 设置 JAVA_HOME
echo 'export JAVA_HOME=/usr/lib/jvm/java-17-openjdk-amd64' >> ~/.bashrc
source ~/.bashrc

6. DeepSeek R1 1.5B 模型安装

1. 安装 portainer

1
2
3
4
5
6
7
8
9
10
docker volume create portainer_data

docker run -d \
-p 9000:9000 \
-p 9443:9443 \
--name portainer \
--restart always \
-v /var/run/docker.sock:/var/run/docker.sock \
-v portainer_data:/data \
portainer/portainer-ce:latest
  • 防火墙开启 9000 端口
  • 立即访问:<公网IP:9000> 进入 portainer 界面
  • 首次登录需要设置管理员账号的用户名和密码

2. 安装 Deepseek R1

portainer 中完成如下操作:

然后 Connect,依次输入如下命令:

1
2
3
4
5
6
7
8
# 拉取模型,推荐小一点,够做开发就可以
ollama pull deepseek-r1:1.5b

# (可选)运行模型,运行后关闭,继续安装模型。Ctrl/Command + D
ollama run deepseek-r1:1.5b

# 向量文本
ollama pull nomic-embed-text

命令执行完毕后,即可与 AI 对话:

  • 输入 /exit 退出对话

3. 通过其他途径访问

1. 可以像小傅哥项目中提到的用 sh 脚本:
1
2
3
4
5
6
7
curl http://<ipv4地址>:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1:1.5b",
"prompt": "1+1",
"stream": false
}'
5. 也可以用 apifox 发起请求

Body:

1
2
3
4
5
{
"model": "deepseek-r1:1.5b",
"prompt": "你好",
"stream": false
}

Headers:

成功响应!