| Feld | Wert |
|---|---|
| Site | Home (Proxmox VE-IO-01) |
| Hypervisor host | VE-IO-01 |
| Rolle | HM-Service-Tier PROD — UptimeKuma + Homepage + CUPS + UniFi |
| OS | Debian 12.x |
| Primary IP | 10.100.100.102 (VLAN 100 SERVER) |
| DNS-intern | vm-hm-svc-prod-01.hm.blackreset.internal |
| Last-changed | 2026-05-04 |
| Stack | Image | Port | DB |
|---|---|---|---|
uptime-app |
louislam/uptime-kuma:1 |
3001 (Traefik) | MariaDB auf vm-hm-db-01 |
homepage-app |
ghcr.io/gethomepage/homepage:latest |
3000 | none (config-files) |
cups-app |
— | DECOMMISSIONED 2026-05-06 — Print-Spooler läuft jetzt direkt auf vm-dc-01 (Windows-nativ). Container-Daten archiviert in /opt/cups.archived-2026-05-06/. Siehe archive/policies/printer-access. |
|
unifi-app |
lscr.io/linuxserver/unifi-network-application:9 |
8443/8080/8843 | MongoDB-Sidecar unifi-mongo |
unifi-mongo |
mongo:7 |
27017 (LAN-only) | self |
portainer-agent |
portainer/agent:2.41 |
9001 | — |
/opt/uptime-kuma/{compose.yml,.env,data/}/opt/homepage/{compose.yml,data/{config,images}}/opt/cups/{compose.yml,data/{cups,spool}}/opt/unifi/{compose.yml,data/{unifi,mongo}}GS-Print-Home, GS-Print-Admin (siehe policies/printer-access).CUPS-Container am 2026-05-06 entfernt. Druck wird seitdem direkt über die Windows-Print-Spooler auf vm-dc-01 gemacht (kein separater Container mehr nötig — AD-natives Setup).
docker compose down + Verzeichnis nach /opt/cups.archived-2026-05-06/ umbenannt (Daten erhalten als Rollback).cups.blackreset.com aus Hetzner gelöscht.enabled=false gesetzt.cups.blackreset.com (id=60) + HM CUPS backend :631 (id=68) gelöscht.policies/printer-access (id=127) verschoben nach archive/policies/printer-access mit Status-Banner.Neue Services auf vm-hm-svc-prod-01:
| Stack | Image | Port | Use | Auth |
|---|---|---|---|---|
n8n |
docker.n8n.io/n8nio/n8n:1.121.1 |
5678 | Workflow-Automation | Perimeter-Auth via Authentik proxy outpost (HM-EDGE Traefik fwauth, n8n-community hat keine native OIDC) |
ollama |
ollama/ollama:0.13.5 |
11434 | LLM-Backend (LAN-only, kein Public-Reverse-Proxy) | none (LAN-trust) |
openwebui |
ghcr.io/open-webui/open-webui:v0.9.2 |
3030→8080 | Browser-UI für Ollama | Authentik OIDC native (OAUTH_CLIENT_ID/SECRET env, OPENID_PROVIDER_URL) |
Public Routes:
https://n8n.blackreset.com → http://10.100.100.102:5678 (mit Authentik forward-auth + outpost-callback-router für /outpost.goauthentik.io/* paths, webhooks bypass auth via skip_path_regex)https://chat.blackreset.com → http://10.100.100.102:3030 (security-headers, Authentik OIDC im OpenWebUI selbst)Postgres-Datenbanken (zentral auf vm-hm-db-01):
n8n / Role n8n (PW in HM_POSTGRES__N8N_DB_PASSWORD)openwebui / Role openwebui (PW in HM_POSTGRES__OPENWEBUI_DB_PASSWORD) — aktuell SQLite intern, nicht aktiv genutztAuthentik-Setup:
prov-n8n-proxy (pk=28) als ForwardAuth-Provider, attached to HM proxy outpost (d41d55a4-...).prov-openwebui-oidc (pk=29) als OIDC-Provider; native Open-WebUI OAuth.Storage:
/opt/n8n/data/ (n8n config + workflows)/opt/ollama/models/ (heruntergeladene Modelle, persistent)/opt/openwebui/data/ (settings + chat history SQLite)