🖥️ ub2 主机探索报告
日期: 2026-02-07
IP: 100.97.95.88 (Tailscale)
用户: ubuntu
📊 硬件配置
| 组件 | 规格 |
|---|---|
| **CPU** | Intel Core i9-13900K (13代旗舰) |
| **内存** | 62 GB DDR |
| **GPU** | **NVIDIA RTX 4090** (24GB VRAM) 🔥 |
| **系统盘** | WD_BLACK SN770 1TB NVMe |
| **数据盘** | WD 2TB HDD (挂载 /mnt/sda) |
这是一台顶级 AI 工作站配置!i9-13900K + RTX 4090 + 62GB 内存。
💾 存储情况
系统盘 (NVMe 457GB)
- 已用: 368GB (85%)
- 可用: 66GB
- ⚠️ 空间偏紧,建议清理
数据盘 (HDD 1.8TB)
- 已用: 261GB (15%)
- 可用: 1.5TB ✅
数据盘内容 (/mnt/sda):
| 目录 | 大小 | 说明 |
|---|---|---|
| sugardaddy | 249G | 大型数据集? |
| gutenberg | 12G | Project Gutenberg 电子书? |
| ai | 341M | AI 相关文件 |
🤖 AI/LLM 环境
Ollama 服务 (运行中 ✅)
已安装模型:
| 模型 | 大小 | 说明 |
|---|---|---|
| qwen3:32b | 20 GB | 通义千问 32B |
| qwen3:30b-a3b | 18 GB | 通义千问 30B |
| deepseek-r1:32b | 19 GB | DeepSeek R1 32B |
| gpt-oss:latest | 13 GB | GPT 开源版? |
| deepseek-r1:8b | 5.2 GB | DeepSeek R1 8B |
| qwen3:8b | 5.2 GB | 通义千问 8B |
| qwen2.5:7b | 4.7 GB | 通义千问 2.5 7B |
| qwen3:4b | 2.6 GB | 通义千问 4B |
总计约 90GB 模型,RTX 4090 可以跑 32B 量化模型!
项目目录 (/home/ubuntu)
| 项目 | 大小 | 说明 |
|---|---|---|
| LLMs-from-scratch | 78G | 从零构建 LLM 教程 |
| index-tts | 14G | TTS 语音合成 |
| babel | 14G | 多语言项目? |
| py311_venv | 10G | Python 3.11 虚拟环境 |
| eye | 7.1G | 视觉项目? |
| higgs-audio | 6.2G | 音频项目 |
| minimind | 5.7G | Mini LLM 项目 |
| llama.cpp | 256M | LLM 推理引擎 |
🌐 网络服务
监听端口
| 端口 | 服务 |
|---|---|
| 22 | SSH |
| 6379 | Redis |
| 7890/7891 | Clash 代理 |
| 9090 | Clash 管理 |
| 11434 | Ollama API |
Tailscale 网络
100.97.95.88 ubuntu (本机)
100.107.142.48 m1 (Mac)
100.88.165.27 u1 (VPS)
⚙️ 系统状态
| 项目 | 状态 |
|---|---|
| **系统** | Ubuntu 20.04.6 LTS |
| **运行时间** | 213 天 |
| **负载** | 极低 (0.05) |
| **CUDA** | 12.2 (驱动 535.86.10) |
| **Python** | 3.8.10 |
| **桌面** | GNOME (GDM) |
关键服务
- ✅ Ollama (LLM 推理)
- ✅ Redis (缓存)
- ✅ Clash (代理)
- ✅ NVIDIA 持久化守护
- ✅ Tailscale
🔒 安全建议
| 问题 | 建议 |
|---|---|
| ⚠️ 无防火墙 (UFW) | 建议启用 `sudo ufw enable` |
| ⚠️ 密码登录开启 | 建议关闭,仅用 SSH Key |
| ⚠️ 系统盘 85% | 建议清理或迁移数据到 HDD |
💡 使用建议
这台机器非常适合:
1. 本地大模型推理 - 4090 + 62GB 可以跑 32B+ 模型
2. AI 模型训练/微调 - 24GB VRAM 很充裕
3. TTS/音频处理 - 已有相关项目
4. 计算密集型任务 - i9-13900K 性能强劲
快速使用 Ollama:
ssh ub2 "ollama run qwen3:8b '你好'"
报告生成时间: 2026-02-07 12:18 UTC