🖥️ ub2 主机探索报告

日期: 2026-02-07

IP: 100.97.95.88 (Tailscale)

用户: ubuntu

📊 硬件配置

组件规格
**CPU**Intel Core i9-13900K (13代旗舰)
**内存**62 GB DDR
**GPU****NVIDIA RTX 4090** (24GB VRAM) 🔥
**系统盘**WD_BLACK SN770 1TB NVMe
**数据盘**WD 2TB HDD (挂载 /mnt/sda)

这是一台顶级 AI 工作站配置!i9-13900K + RTX 4090 + 62GB 内存。

💾 存储情况

系统盘 (NVMe 457GB)

数据盘 (HDD 1.8TB)

数据盘内容 (/mnt/sda):

目录大小说明
sugardaddy249G大型数据集?
gutenberg12GProject Gutenberg 电子书?
ai341MAI 相关文件

🤖 AI/LLM 环境

Ollama 服务 (运行中 ✅)

已安装模型:

模型大小说明
qwen3:32b20 GB通义千问 32B
qwen3:30b-a3b18 GB通义千问 30B
deepseek-r1:32b19 GBDeepSeek R1 32B
gpt-oss:latest13 GBGPT 开源版?
deepseek-r1:8b5.2 GBDeepSeek R1 8B
qwen3:8b5.2 GB通义千问 8B
qwen2.5:7b4.7 GB通义千问 2.5 7B
qwen3:4b2.6 GB通义千问 4B

总计约 90GB 模型,RTX 4090 可以跑 32B 量化模型!

项目目录 (/home/ubuntu)

项目大小说明
LLMs-from-scratch78G从零构建 LLM 教程
index-tts14GTTS 语音合成
babel14G多语言项目?
py311_venv10GPython 3.11 虚拟环境
eye7.1G视觉项目?
higgs-audio6.2G音频项目
minimind5.7GMini LLM 项目
llama.cpp256MLLM 推理引擎

🌐 网络服务

监听端口

端口服务
22SSH
6379Redis
7890/7891Clash 代理
9090Clash 管理
11434Ollama API

Tailscale 网络


100.97.95.88    ubuntu (本机)
100.107.142.48  m1 (Mac)
100.88.165.27   u1 (VPS)

⚙️ 系统状态

项目状态
**系统**Ubuntu 20.04.6 LTS
**运行时间**213 天
**负载**极低 (0.05)
**CUDA**12.2 (驱动 535.86.10)
**Python**3.8.10
**桌面**GNOME (GDM)

关键服务

🔒 安全建议

问题建议
⚠️ 无防火墙 (UFW)建议启用 `sudo ufw enable`
⚠️ 密码登录开启建议关闭,仅用 SSH Key
⚠️ 系统盘 85%建议清理或迁移数据到 HDD

💡 使用建议

这台机器非常适合:

1. 本地大模型推理 - 4090 + 62GB 可以跑 32B+ 模型

2. AI 模型训练/微调 - 24GB VRAM 很充裕

3. TTS/音频处理 - 已有相关项目

4. 计算密集型任务 - i9-13900K 性能强劲

快速使用 Ollama:


ssh ub2 "ollama run qwen3:8b '你好'"

报告生成时间: 2026-02-07 12:18 UTC