Infrastructure
Architecture Physique → Virtuelle
Le serveur utilise une architecture en couches qui va du matériel physique aux applications conteneurisées:
graph TD
A[Machine Physique] --> B[Proxmox VE Host]
B --> C1[Stockage mergerfs+SnapRAID]
B --> C2[Réseau vmbr0 Bridge]
B --> D1[LXC 100 Media]
B --> D2[LXC 101 Management]
B --> D3[LXC 102 PBS]
D1 --> E1[Docker Engine]
D2 --> E2[Docker Engine]
E1 --> F[Applications Media]
E2 --> G[Applications Management]
Composants Matériels
Vérification:
lscpu | grep "Model name"
# Model name: Intel(R) Core(TM) i7-2600 CPU @ 3.40GHz
free -h | grep "Mem:"
# Mem: 31Gi
lspci | grep VGA
# 01:00.0 VGA compatible controller: NVIDIA Corporation GM204 [GeForce GTX 970]
Processeur
- Modèle: Intel Core i7-2600 (Sandy Bridge, Q1 2011)
- Architecture: x86_64
- Cœurs physiques: 4
- Threads: 8 (Hyper-Threading)
- Fréquence de base: 3.40 GHz
- Fréquence turbo: 3.80 GHz
- Cache L3: 8 MB
- TDP: 95W
- Support virtualisation: VT-x, VT-d
Page détaillée: CPU Intel i7-2600
Mémoire
- Capacité: 32 GB DDR3-1600
- Type: DDR3 SDRAM
- Configuration: 4x 8GB (probablement)
- Utilisation actuelle: ~7.2 GB (23%)
- Disponible: ~24 GB
Allocation conteneurs:
- LXC 100: 4096 MB
- LXC 101: 1024 MB
- LXC 102: 2048 MB
- Total alloué: 7168 MB (22%)
Page détaillée: Mémoire RAM
Cartes Graphiques
GPU NVIDIA GTX 970
- État: Installée mais NON utilisée
- Raison: Incompatibilité drivers avec Proxmox VE 9.1 / Debian Trixie
- Décision: Transcoding CPU uniquement
- Page détaillée: GPU NVIDIA GTX 970
iGPU Intel HD Graphics 2000
- État: Disponible via /dev/dri
- Devices: card0, renderD128
- Passthrough: Possible mais non configuré
- Page détaillée: GPU Intel HD 2000
Stockage
Inventaire complet:
| Device | Modèle | Taille | Type | Rôle |
|---|---|---|---|---|
| sda | Samsung SSD 850 EVO 250GB | 250 GB | SSD | Système Proxmox (LVM) |
| sdb | Samsung SSD 850 EVO 250GB | 250 GB | SSD | Données LXC (/mnt/lxc-data) |
| sdc | HGST HDS724040ALE640 | 4 TB | HDD | Data (931GB) + Media bulk (2.7TB) |
| sdd | WDC WD10EADS-65L5B1 | 1 TB | HDD | Data disk 2 |
| sde | WDC WD10EARS-00Y5B1 | 1 TB | HDD | Parity SnapRAID |
Total: 6.5 TB brut
Pages détaillées: Stockage
Couche Virtualisation
Proxmox VE 9.1
Vérification:
- Version: Proxmox VE 9.1.0
- Base: Debian 13 "Trixie" (Testing)
- Kernel: 6.17.4-2-pve
- Type: Host uniquement (pas de VM, que des LXC)
- Page détaillée: Proxmox Installation
Conteneurs LXC
Vérification:
pct list
# VMID Status Lock Name
# 100 running docker-media
# 101 running management
# 102 running pbs
| ID | Nom | IP | RAM | Disk | Type | Rôle |
|---|---|---|---|---|---|---|
| 100 | docker-media | 192.168.1.11 | 4 GB | 32 GB | Unprivileged | Services média |
| 101 | management | 192.168.1.12 | 1 GB | 16 GB | Unprivileged | Management, dashboard |
| 102 | pbs | 192.168.1.13 | 2 GB | 100 GB | Privileged | Backup server |
Page détaillée: Conteneurs LXC
Couche Stockage
MergerFS
Fusion de /mnt/disk1 et /mnt/disk2 en un pool unifié /mnt/storage (1.8 TB)
Vérification:
Page détaillée: MergerFS
SnapRAID
Protection par parité des données dans /mnt/storage
Vérification:
cat /etc/snapraid.conf | grep -E "^parity|^data"
# parity /mnt/parity/snapraid.parity
# data d1 /mnt/disk1
# data d2 /mnt/disk2
Page détaillée: SnapRAID
Médias Non-Protégés
Partition sdc2 (2.7 TB) montée en /mnt/media-bulk, données non sauvegardées (re-téléchargeables)
Couche Réseau
Topologie
graph LR
Internet[Internet] --> Router[Gateway<br/>192.168.1.254]
Router --> vmbr0[Bridge vmbr0]
vmbr0 --> Host[Host Proxmox<br/>192.168.1.21]
vmbr0 --> CT100[LXC 100<br/>192.168.1.11]
vmbr0 --> CT101[LXC 101<br/>192.168.1.12]
vmbr0 --> CT102[LXC 102<br/>192.168.1.13]
Vérification:
Allocation IP
| Hôte | IP | Service principal |
|---|---|---|
| Gateway | 192.168.1.254 | Routeur |
| Host Proxmox | 192.168.1.21 | Hyperviseur |
| LXC 100 | 192.168.1.11 | Jellyfin, *Arr |
| LXC 101 | 192.168.1.12 | Portainer, Homepage |
| LXC 102 | 192.168.1.13 | PBS |
Page détaillée: Réseau
Couche Applications
Stack Média (LXC 100)
Vérification:
| Application | Port | Fonction |
|---|---|---|
| Jellyfin | 8096 (host mode) | Streaming média |
| Sonarr | 8989 | Gestion séries TV |
| Radarr | 7878 | Gestion films |
| Prowlarr | 9696 | Indexeurs centralisés |
| SABnzbd | 8080 | Client Usenet |
| Bazarr | 6767 | Sous-titres |
Stack Management (LXC 101)
| Application | Port | Fonction |
|---|---|---|
| Homepage | 3000 | Dashboard |
| Portainer | 9443 | Gestion Docker UI |
| Documentation | 8001 | MkDocs (cette doc) |
Pages détaillées: Applications
Flux de Données
Flux Médias
Internet (Usenet)
↓
SABnzbd (téléchargement)
↓
Sonarr/Radarr (organisation)
↓
/mnt/media/tv ou /movies
↓
Jellyfin (streaming)
↓
Clients (navigateurs, apps)
Flux Backup
Métriques Actuelles
État au 26 janvier 2026:
# CPU usage
top -bn1 | grep "Cpu(s)"
# Cpu(s): 3.2%us, 1.1%sy, 0.0%ni, 95.5%id
# RAM usage
free -h
# total: 31Gi, used: 7.2Gi, available: 24Gi
# Storage
df -h | grep -E "pve-root|storage|lxc-data"
# /dev/mapper/pve-root 66G 15G 48G 24%
# 1:2 1.8T 4.1M 1.7T 1%
# /dev/sdb1 228G 72G 145G 34%
Points Clés d'Architecture
Choix de Design
- LXC plutôt que VM: Overhead minimal (~5% vs ~20% pour VM)
- Docker dans LXC: Meilleure isolation qu'un Docker host unique
- MergerFS + SnapRAID: Flexibilité vs performance RAID matériel
- Proxmox VE 9.1: Version récente mais instable (problèmes drivers)
Limitations Connues
- ⚠️ GPU transcoding non fonctionnel (incompatibilité Proxmox 9.1)
- ⚠️ Kernel 6.17 instable (considérer downgrade vers 6.8)
- ⚠️ SnapRAID = parity asynchrone (pas de protection temps réel)
- ⚠️ Media bulk non protégé (accepté: données re-téléchargeables)
Navigation
- Hardware détaillé: CPU | RAM | GPU
- Stockage: Vue d'ensemble | MergerFS | SnapRAID
- Réseau: Topologie | Allocation IP
- Services: Proxmox | LXC
Sources
Dernière vérification: 26 janvier 2026
Commandes de vérification exécutées sur le système réel