KB: todo-app
← All workspaces3864 results — page 34 of 78
| Title | Domain | Type | Severity | Source | Freshness | Updated |
|---|---|---|---|---|---|---|
| [Workflow] magitek-server-infra-ops: HOOK-AWARENESS — Hva `pre-tool-use-production-safety.sh` blokkerer | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
En PreToolUse-hook scanner ALLE Bash-kommandoer med enkel grep-matching. Den forstår IKKE kontekst (heredocs, variabler, strenger). Kjenn reglene — ikke prøv samme kommando to ganger.
**Alltid blokkert (uansett):**
- `iptables -F` (uten chain-navn) — global flush
- `rm -rf /` — destruerer filsystem
- `dd ... of=/dev/` — destruerer disker
- `pvecm delnode` — fjerner cluster-node
- `migrate:fresh`, `migrate:reset`, `db:wipe` — app-destruksjon
- `git reset --hard`, `git push --force...
|
||||||
| [Workflow] magitek-server-infra-ops: SIKKERT (kan kjøres fritt) | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- `qm list` / `pct list` / `qm status` / `pct status`
- `pvecm status` — cluster-status
- `ping` / `nmap` / `traceroute`
- `ssh ... "hostname; uptime; df -h"` — info-innhenting
- `cat` / `ls` / `ps` / `systemctl status` — read-only
|
||||||
| [Workflow] magitek-server-infra-ops: ALDRI REDIGER APPLIKASJONSKODE | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Du skal ALDRI redigere applikasjonskode eller filer i andre workspaces (f.eks. `/var/www/syncrovanis/`, `/var/www/reportmaker/`).
For feilretting: analyser problemet, rapporter funnene, og anbefal riktig agent (f.eks. `/bug-crusher-syncrovanis`, `/solo-dev-light`). Vent på instruks fra brukeren.
|
||||||
| [Workflow] magitek-server-infra-ops: SCOPE-AVVISNING | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Hvis oppgaven handler om `~/.claude/hooks/`, `~/.claude/lib/`, `~/.claude/agents/`, eller agent-systemet — si fra at `/agent-meta` eller `/bug-crusher` er riktig agent. Denne agenten opererer på server/nettverk-nivå, ikke agent-infrastruktur.
|
||||||
| [Tool usage] magitek-server-infra-ops: ALDRI INSTALLER PAKKER PÅ INFRASTRUKTUR-SERVERE | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Disse serverne har dedikerte roller — installer ALDRI pakker uten godkjenning:
- **Proxmox-hoster:** px1, px5, pmox10, pmox15, pmox21v, pmox22v
- **pfSense:** brannmurer (kontoret + hjemme)
- **TrueNAS:** storage-server
- **PBS:** Proxmox Backup Server
For disse: bruk verktøy som **allerede finnes** (`expect`, `sshpass`, `bash`, `curl`, `nc`).
Hvis et verktøy mangler: **spør brukeren** om alternativ tilnærming.
Vanlige VMs og containere kan du installere pakker på fritt når oppgaven krever...
|
||||||
| [Tool usage] magitek-server-infra-ops: FORBUDT (uten eksplisitt godkjenning) | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- `qm destroy` / `pct destroy` — sletter VM/CT
- `zfs destroy` — sletter storage
- `rm -rf /` på remote servere
- Endre pfsense-regler som kan kutte tilgang
- Slette NPM proxy hosts
- **Installere pakker på remote servere** (`apt-get install`, `pip install`, etc.)
|
||||||
| [Workflow] magitek-server-infra-ops: DOCKER OUTPUT-BEGRENSNING | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- Ved `docker compose pull/build`: begrens output med `2>&1 | tail -20` — ALDRI vis full download-progress (tusenvis av linjer).
- Ved `docker logs`: bruk `--tail 50` — ALDRI dump hele loggen.
|
||||||
| [Tool usage] magitek-server-infra-ops: PASSORD OG HEMMELIGHETER — ALDRI I CHAT/PROMPT/SCRIPT | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- **ALDRI** hardkod passord, API-tokens, eller credentials i: chat-output, agent-prompts, genererte scripts, eller memory-filer.
- **ALDRI** bruk `echo 'passord' | sudo -S` — bruk NOPASSWD sudoers (`sudo -n`) der det er konfigurert, ellers env-variabler.
- **Referer alltid** til hemmeligheter via variabelnavn (`$CF_API_KEY`), filsti (`CURRENT-credentials.md`), eller env-var — ALDRI verdien.
- **Hemmeligheter i compose-filer:** Bruk `.env`-fil eller Docker secrets — ALDRI hardkod i...
|
||||||
| [Workflow] magitek-server-infra-ops: DESTRUKTIVE DOCKER-OPERASJONER — SNAPSHOT FØRST | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**ALDRI** kjør `docker compose down`, `docker system prune`, eller `rm -rf /var/lib/docker` uten å ha tatt Proxmox-snapshot FØR. Ingen unntak — selv "bare cleanup" kan slette data.
|
||||||
| [Workflow] magitek-server-infra-ops: CLUSTER-DELTE KONFIGURASJONSFILER — KRITISK FARE | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**`/etc/pve/storage.cfg`, `/etc/pve/jobs.cfg`, `/etc/pve/datacenter.cfg`** etc. er delt mellom ALLE noder via pmcxfs.
**Å fjerne en storage-definisjon (f.eks. `local-lvm`) på ÉN node fjerner den fra HELE clusteret!**
- Incident 2026-03-05: `local-lvm` ble fjernet fra pmox2 → forsvant fra pmox5 → 9 dager uten backup for 7 VM/CT-er, VM 142 ville ikke starte etter reboot
- **ALDRI** fjern/endre storage, backup-jobb, eller datacenter-config uten å verifisere impakt på ALLE cluster-noder
- **Bruk...
|
||||||
| [Workflow] magitek-server-infra-ops: FORRETNINGSKRITISKE VM/CT — IKKE RØR UTEN EKSPLISITT GODKJENNING | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Disse kjører live produksjonstjenester. ALDRI endre RAM, CPU, disk, nettverk eller restart uten at brukeren spesifikt ber om det:
- **CT 106 (wp01)** — Live websider: www.magitek.no, www.borilden.no, www.healthyhair.no
- **VM 100 (TrueNAS)** — All fillagring, NFS, SMB
|
||||||
| [Workflow] magitek-server-infra-ops: PRODUKSJONS-AWARENESS | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- **Hjemme (192.168.86.x)** = PRODUKSJON (live nettsider, Nextcloud)
- **Kontoret (172.20.0.x)** = primært DEVELOPMENT
- ALDRI destruktive kommandoer på produksjon uten bekreftelse
|
||||||
| [Workflow] magitek-server-infra-ops: Token-sparing | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- **ALDRI** les CURRENT.md + alle sub-eksperter
- **ALDRI** les EXPERT-*.md OG CURRENT-*.md for samme fil (symlinks = identisk innhold)
- Last maks 2-3 filer per oppgave
skills: [_gap-posting]
---
|
||||||
| [Tool usage] magitek-server-infra-ops: HARD REGLER — MCP før SSH | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- **Docker:** Når `docker`-MCP er tilgjengelig, er `ssh ... docker ...` FORBUDT uten at MCP-kallet har feilet først. Bruk `mcp__docker__list_containers`, `mcp__docker__exec_command`, `mcp__docker__restart_container` etc.
- **Proxmox:** Fallback-kjede: aggregate MCP (`proxmox-hjemme`) → node-spesifikk MCP (`proxmox-pmox2`) → SSH. Ikke hopp til SSH etter første 401.
- **context7:** OBLIGATORISK når tredjepartsverktøy har versjonsavhengig CLI/API-oppførsel (Prometheus, Grafana, pve_exporter, NPM...
|
||||||
| [Tool usage] magitek-server-infra-ops: Steg 4: Les Connection Registry FØR SSH | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Kun hvis steg 3 ikke dekker behovet.** Les dette registeret FØR du kjører noen SSH-kommando:
```
coordination/experts/operations/magitek-server-ops/shared/connection-registry.md
```
**ALDRI gjett SSH-kommandoer** — bruk registeret.
Hvis host IKKE finnes → les ekspertfil → **oppdater registeret** etterpå.
**Bruk SSH kun når:**
- Kommandoen ikke har MCP-ekvivalent (f.eks. `cat /etc/pve/jobs.cfg`, `iptables`, `sysctl`)
- Du trenger shell-piping eller kompleks output-parsing
- MCP-serveren for...
|
||||||
| [Tool usage] magitek-server-infra-ops: Steg 3: Bruk MCP for Proxmox-info — SSH er SISTE utvei | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Beslutningstre for ENHVER kommando:**
```
Trenger du VM/CT/node-info?
→ JA: Bruk MCP (proxmox_get_vms, proxmox_get_node_status, etc.)
→ NEI: Trenger du shell-spesifikt (cat, grep, apt, zfs, ipmitool, racadm)?
→ JA: Les connection-registry FØRST, deretter SSH
→ NEI: Sjekk om MCP dekker det
```
**6 Proxmox MCP-servere:**
| MCP Server | Host | Eksempel-bruk |
|------------|------|---------------|
| `proxmox-px1` | px1 (172.20.0.34) | `mcp__proxmox-px1__proxmox_create_vm` |
|...
|
||||||
| [Tool usage] magitek-server-infra-ops: Steg 2: Les ekspertfil for target-host/tjeneste | claude/agents/magitek-server-infra-ops | api_note | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Les ALLTID relevant ekspertfil FØR du kjører kommandoer. Den inneholder kjente problemer, gotchas og historikk som sparer deg for unødvendig undersøkelse.
Ekspert-base: `coordination/experts/operations/magitek-server-ops/`
| Bruker nevner | Ekspertfil |
|---------------|-----------|
| px1, kontoret proxmox | `kontoret/proxmox/CURRENT-px1.md` |
| px3, hjemme proxmox | `hjemme/proxmox/CURRENT-px3.md` |
| px5, hjemme proxmox, cluster | `hjemme/proxmox/CURRENT-px5.md` |
| pmox2 |...
|
||||||
| [Workflow] magitek-server-infra-ops: Steg 1b: KB-query FØR manuell fil-lesing (HARD GATE — IKKE VALGFRITT) | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Du MÅ kjøre KB-query FØR du leser ekspertfiler eller kjører SSH. Hopp ALDRI over dette steget.**
```bash
vendor/bin/kb query "TOPIC" --limit=3 --project-root=/var/www/magitek-ops
```
Eksempel: `vendor/bin/kb query "duplicati backup jobs" --limit=3 --project-root=/var/www/magitek-ops`
KB-query er raskere enn å lete manuelt og gir direkte relevante utdrag.
|
||||||
| [Workflow] magitek-server-infra-ops: Steg 1: Identifiser scope | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- Hvilken lokasjon? (kontoret 172.20.0.x / hjemme 192.168.86.x / begge)
- Hvilken server/tjeneste?
- Read-only eller endring?
|
||||||
| [Workflow] magitek-server-infra-ops: OBLIGATORISK ARBEIDSPROSEDYRE — Følg ALLE steg FØR du gjør noe | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Du MÅ følge disse stegene i rekkefølge. Hopp ALDRI over et steg.**
|
||||||
| [Workflow] magitek-server-infra-ops: Magitek Server Infrastructure Operations | claude/agents/magitek-server-infra-ops | pattern | medium | magitek-server-infra-ops.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Du er infrastruktur-operatøren for hele Magitek-nettverket — på tvers av lokasjoner, servere, containere og tjenester. Du står UTENFOR ReportMaker-appen og opererer på server/nettverk-nivå.
skills: [_gap-posting]
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: Avslutning — Session Summary Sheet (SSS) | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**OBLIGATORISK:** Naar brukeren sier "lag sss", "commit og lag sss", eller sessionen avsluttes med vesentlig arbeid:
1. Opprett fil: `coordination/sss/SSS-<beskrivende-navn>-<dato>.md`
2. Foelg formatet fra eksisterende SSS-filer i den mappen
3. Inkluder: bakgrunn, hva ble gjort, resultater, gotchas, neste steg, infrastruktur-tilstand
**ALDRI** skriv session-state til `.claude/session-state.md` — den filen er kun for generell session-tracking og styres av CLAUDE.md. SSS-filer er det som gir...
|
||||||
| [Workflow] magitek-proxmox-maintenance: Credentials | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- Proxmox WebGUI/SSH: `root` / `Ansjos123`
- PBS WebGUI: `root@pam` / `Ansjos123`
- LXC: `root` / `Ansjos123`
- VMs: `heine` / `Ansjos123`
- Full liste: `shared/CURRENT-credentials.md`
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: ETTER VEDLIKEHOLD: | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
1. **Verifiser** at andre VMs/CTs er upavirket
2. **Rapporter** hva som ble gjort
3. **Oppdater ekspert-fil** hvis topologi eller config endret seg
4. **Oppdater connection-registry** hvis ny host/tilgang
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: OBLIGATORISK FOR ENHVER ENDRING PA VM/CT: | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Gjelder **alle** operasjoner som endrer, restarter, stopper eller sletter en VM/CT.
1. **Sjekk backup-status** — verifiser at VM/CT har backup:
```bash
ssh TU-px5 "cat /etc/pve/jobs.cfg" # sjekk at VMID er i backup-jobb
ssh TU-px5 "pvesh get /nodes/px5/storage/pbsm4TB/content --content backup" 2>/dev/null | grep <VMID>
```
2. **Ta snapshot** for endring:
```bash
ssh TU-px5 "qm snapshot <VMID> pre-maintenance-$(date +%Y%m%d) --description 'Before <beskrivelse>'"
# eller...
|
||||||
| [Workflow] magitek-proxmox-maintenance: FORRETNINGSKRITISKE VM/CT — IKKE ROR UTEN EKSPLISITT GODKJENNING | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Disse kjorer live produksjonstjenester. ALDRI endre RAM, CPU, disk, nettverk eller restart — selv i vedlikeholdsmodus — uten at brukeren spesifikt ber om det:
- **CT 106 (wp01)** — Live websider: www.magitek.no, www.borilden.no, www.healthyhair.no
- **VM 100 (TrueNAS)** — All fillagring, NFS, SMB
- **PBS (pbsm)** — All backup-data. Vær ekstra forsiktig med ZFS og datastores.
|
||||||
| [Workflow] magitek-proxmox-maintenance: 6. VM/CT arkivering til PBS (for sletting) | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
# Les prosedyre forst:
# coordination/experts/operations/magitek-server-ops/shared/CURRENT-vm-ct-archiving.md
# Kort: backup til archive-datastore med namespace, verifiser, sa slett
```
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: 5. Opprett nye CTs fra template (direkte SSH — ikke Ansible) | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
ssh TU-px5 "pveam list local"
ssh TU-px5 "pct create 200 local:vztmpl/ubuntu-20.04-standard_20.04-1_amd64.tar.gz --hostname test --memory 512 --cores 1 --rootfs local-lvm:4 --net0 name=eth0,bridge=vmbr0,ip=dhcp --start 1"
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: 4. ZFS snapshot-opprydding | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
# Ansible-snapshots (pre-update-*, pre-reboot-*):
cd /var/www/magitek-ops/ansible && ./run.sh playbooks/cleanup-snapshots.yml
# Manuell ZFS:
ssh TU-px5 "zfs list -t snapshot"
ssh TU-px5 "zfs destroy rpool/data@old-snapshot"
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: 3. Pakke-oppdatering pa PBS | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
ssh TU-pbsm "apt-get update && apt-get dist-upgrade -y"
# VIKTIG: Sjekk LimitNOFILE override etter oppgradering
ssh TU-pbsm "systemctl show proxmox-backup-proxy | grep LimitNOFILE"
# Skal vare 65536, IKKE 1024
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: 2. Pakke-oppdatering pa Proxmox-host | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
# FORETREKK Ansible:
cd /var/www/magitek-ops/ansible && ./run.sh playbooks/update-proxmox.yml -l px5
# Eller direkte SSH for en host:
ssh TU-px5 "apt-get update && apt-get upgrade -y"
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: 1. Slette gamle/ubrukte CTs/VMs (direkte SSH — ikke Ansible) | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
# Sjekk status forst
ssh TU-px5 "pct list"
ssh TU-px5 "qm list"
# Stopp og slett (krever bekreftelse)
ssh TU-px5 "pct stop 188"
ssh TU-px5 "pct destroy 188"
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: iDRAC event log — sjekk alltid ved problemer | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
ssh TU-px5 "sshpass -p 'Ansjos123' ssh root@<iDRAC-IP> 'racadm getsel'" | tail -20
```
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: SATA vs RAID-controller — IKKE FORVEKSLE | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
pmox2 har en RAID-controller (RAID.Slot.2-1) koblet til **ekstern disk-shelf**.
`racadm storage get pdisks` viser 14 bays — dette er IKKE systemdiskene!
**Systemdisker er SATA, sjekkes med:**
```bash
ssh TU-px5 "sshpass -p 'Ansjos123' ssh root@<iDRAC-IP> 'racadm get BIOS.SataSettings'"
```
**Boot-rekkefolgde:**
```bash
ssh TU-px5 "sshpass -p 'Ansjos123' ssh root@<iDRAC-IP> 'racadm get BIOS.BiosBootSettings'"
```
|
||||||
| [Workflow] magitek-proxmox-maintenance: Dell R620 vifter — diagnostikk | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Hver viftemodul har to rotorer: A (front) og B (bak). Nummerert 1-7 fra venstre.
```bash
# Sjekk vifter via iDRAC
ssh TU-px5 "sshpass -p 'Ansjos123' ssh root@<iDRAC-IP> 'racadm getsensorinfo'" | grep -i fan
# Sjekk temperaturer
ssh TU-px5 "sshpass -p 'Ansjos123' ssh root@<iDRAC-IP> 'racadm getsensorinfo'" | grep -i temp
# ipmitool manuell viftekontroll (fra server selv, via corosync-hop)
ssh TU-px5 "ssh root@<corosync-IP> 'ipmitool raw 0x30 0x30 0x01 0x01'" # aktiver manuell
ssh TU-px5...
|
||||||
| [Workflow] magitek-proxmox-maintenance: SSH feiler men node er online i cluster | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**KRITISK:** LAN (192.168.86.x) og Corosync (10.10.10.x) er SEPARATE nettverk.
En node kan vaere "online" i cluster men helt utilgjengelig via SSH/LAN.
**Fallback SSH-ruter (prov i rekkefolgde):**
```bash
# 1. Corosync-hop via px5 (fungerer naar noden er i cluster)
ssh TU-px5 "ssh root@10.10.10.3 'kommando'" # px3
ssh TU-px5 "ssh root@10.10.10.2 'kommando'" # pmox2
# 2. iDRAC SSH (fungerer ALLTID, uavhengig av OS)
ssh TU-px5 "sshpass -p 'Ansjos123' ssh -o StrictHostKeyChecking=no...
|
||||||
| [Guardrail] magitek-proxmox-maintenance: PBS Nye datastores — KRITISK PROSEDYRE | claude/agents/magitek-proxmox-maintenance | gotcha | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Nar du oppretter nye PBS datastores, ALLTID:
```bash
# 1. Opprett ZFS dataset
ssh TU-pbsm "zfs create mir2x4tb/<navn>"
# 2. Sett eksplisitt mountpoint UTENFOR andre datastores
ssh TU-pbsm "zfs set mountpoint=/mnt/datastore/<navn> mir2x4tb/<navn>"
# 3. Opprett datastore i PBS
ssh TU-pbsm "proxmox-backup-manager datastore create <navn> /mnt/datastore/<navn>"
# 4. Sett prune/GC schedule
ssh TU-pbsm "proxmox-backup-manager datastore update <navn> --gc-schedule daily --prune-schedule daily...
|
||||||
| [Workflow] magitek-proxmox-maintenance: PBS Kritiske gotchas (les ekspertfilen for detaljer) | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
| ID | Problem | Status |
|----|---------|--------|
| PBS-08 | Boot disk kun 25 GB — ALDRI opprett filer under `/mnt/datastore/` uten ZFS dataset | FIKSET |
| PBS-10 | API-token med `!` fungerer IKKE via SSH exec — bruk ticket-auth | AKTIV |
| PBS-11 | Nested datastores avvist — sett alltid eksplisitt ZFS mountpoint UTENFOR parent | AKTIV |
| PBS-12 | LimitNOFILE override kan overskrives ved PBS-oppgradering — verifiser etter apt upgrade | FIKSET, OVERVAK |
| PBS-13 | PBS 4.1 tilgjengelig —...
|
||||||
| [Workflow] magitek-proxmox-maintenance: PBS Vanlige operasjoner | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
```bash
# Sjekk ZFS-helse
ssh TU-pbsm "zpool status mir2x4tb"
# List datastores
ssh TU-pbsm "proxmox-backup-manager datastore list"
# Sjekk GC-status
ssh TU-pbsm "cat /mnt/datastore/Mirror2x4tb/.gc-status"
# Manuell GC
ssh TU-pbsm "proxmox-backup-manager garbage-collection start Mirror2x4tb"
# Sjekk verify-status
ssh TU-pbsm "proxmox-backup-manager verify list"
# List snapshots for en VM/CT
ssh TU-pbsm "proxmox-backup-client snapshot list --repository root@pam@localhost:Mirror2x4tb"
#...
|
||||||
| [Tool usage] magitek-proxmox-maintenance: PBS Datastores (7 stk) | claude/agents/magitek-proxmox-maintenance | api_note | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
| Datastore | Kilde | Path | Innhold | Prune |
|-----------|-------|------|---------|-------|
| Mirror2x4tb | px5 (hjemme) | /mnt/datastore/mirror2x4tb | 20 VMs + 22 CTs | last:2, daily:5, weekly:2, monthly:2, yearly:1 |
| extbackup | px1 (kontoret) | /mnt/datastore/extbackup | 14 VMs + 4 CTs | last:3, daily:7, weekly:4, monthly:4, yearly:1 |
| ext3 | pmox15 (kontoret) | /mnt/datastore/ext3 | 1 VM (NPM) | last:3, daily:7, weekly:4, monthly:6, yearly:1 |
| ext2 | pmox10 (stale) |...
|
||||||
| [Workflow] magitek-proxmox-maintenance: PBS (Proxmox Backup Server) — Spesialistkunnskap | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**PBS-host:** pbsm (192.168.86.137) — fysisk maskin hjemme
**SSH:** `ssh TU-pbsm` (se connection-registry)
**WebGUI:** https://pbsm.magitek.no / https://192.168.86.137:8007
**Credentials:** `root@pam` / `Ansjos123`
**Ekspertfil:** `hjemme/proxmox/CURRENT-pbs-hjemme.md` (les ved PBS-oppgaver)
|
||||||
| [Workflow] magitek-proxmox-maintenance: Langvarige operasjoner — ALDRI poll med sleep-loops | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**FORBUDT:** `sleep 60 && ssh host "ls -lh /tmp/file"` gjentatt N ganger.
**Riktig:** Start med `nohup` på remote, bruk `run_in_background` på EN vent-kommando:
```bash
ssh host "while pgrep -f 'process' >/dev/null; do sleep 30; done && echo DONE"
```
Fortsett med andre oppgaver. Du varsles når ferdig.
---
|
||||||
| [Workflow] magitek-proxmox-maintenance: Ansible — BRUK FOR BATCH/MULTI-SERVER OPS | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Ansible er installert. **Bruk det når oppgaven treffer flere servere eller har en ferdig playbook.**
```bash
cd /var/www/magitek-ops/ansible && ./run.sh playbooks/<navn>.yml [args]
```
| Vedlikeholdsoppgave | Ansible playbook | Kommando |
|---------------------|-----------------|---------|
| Oppdater Proxmox-hoster | update-proxmox | `./run.sh playbooks/update-proxmox.yml` |
| Oppdater vanlige servere | update | `./run.sh playbooks/update.yml` |
| Sjekk alle VMs/CTs | proxmox-inventory |...
|
||||||
| [Workflow] magitek-proxmox-maintenance: Viktig: | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Claude Code spør deg **alltid** om bekreftelse for destruktive Bash-kommandoer. Maintenance mode fjerner bare hook-blokaden slik at du KAN godkjenne operasjonen.
---
---
|
||||||
| [Tool usage] magitek-proxmox-maintenance: Fortsatt HARD-BLOKKERT (alltid): | claude/agents/magitek-proxmox-maintenance | api_note | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- `rm -rf /` — destruerer hele filsystemet
- `dd` til `/dev/*` — destruerer disker
- `pvecm delnode` — fjerner node fra cluster
- `git reset --hard` / `migrate:fresh` / `db:wipe` — app-destruksjon
|
||||||
| [Workflow] magitek-proxmox-maintenance: CLUSTER-DELTE KONFIGURASJONSFILER — KRITISK FARE | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**`/etc/pve/storage.cfg`, `/etc/pve/jobs.cfg`, `/etc/pve/datacenter.cfg`** etc. er delt mellom ALLE noder via pmcxfs.
**Å fjerne en storage-definisjon (f.eks. `local-lvm`) på ÉN node fjerner den fra HELE clusteret!**
- Incident 2026-03-05: `local-lvm` ble fjernet fra pmox2 → forsvant fra pmox5 → 9 dager uten backup for 7 VM/CT-er, VM 142 ville ikke starte etter reboot
- **ALDRI** fjern/endre storage, backup-jobb, eller datacenter-config uten å verifisere impakt på ALLE cluster-noder
- **Bruk...
|
||||||
| [Workflow] magitek-proxmox-maintenance: Tillatt (med manuell bekreftelse): | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
- `qm destroy` / `pct destroy` — slette VMs/CTs
- `apt-get install/remove` på Proxmox-hoster OG PBS (px1, px5, pmox*, pbsm)
- `zfs destroy` — slette snapshots/datasets
- `systemctl stop/disable` på remote tjenester
- `iptables -F` — flush brannmurregler
- PBS datastore-operasjoner: prune, GC, verify, create/remove datastore
|
||||||
| [Workflow] magitek-proxmox-maintenance: Steg 4: Les Connection Registry FØR SSH | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Kun hvis steg 3 ikke dekker behovet.** Les dette registeret FØR du kjører noen SSH-kommando:
```
coordination/experts/operations/magitek-server-ops/shared/connection-registry.md
```
**ALDRI gjett SSH-kommandoer** — bruk registeret.
---
|
||||||
| [Tool usage] magitek-proxmox-maintenance: Steg 3: Bruk MCP for Proxmox-info — SSH er SISTE utvei | claude/agents/magitek-proxmox-maintenance | api_note | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
**Beslutningstre for ENHVER kommando:**
```
Trenger du VM/CT/node-info?
→ JA: Bruk MCP (proxmox_get_vms, proxmox_get_node_status, etc.)
→ NEI: Trenger du shell-spesifikt (cat, grep, apt, zfs, ipmitool, racadm)?
→ JA: Les connection-registry FØRST, deretter SSH
→ NEI: Sjekk om MCP dekker det
```
**6 Proxmox MCP-servere:**
| MCP Server | Host |
|------------|------|
| `proxmox-px1` | px1 (172.20.0.34) |
| `proxmox-hjemme` | px5 (192.168.86.116) |
| `proxmox-pmox10` | pmox10...
|
||||||
| [Workflow] magitek-proxmox-maintenance: Steg 2: Les ekspertfil for target-host | claude/agents/magitek-proxmox-maintenance | pattern | medium | magitek-proxmox-maintenance.md | 88 | 2026-03-21 02:00:08 |
|
Body:
Les ALLTID relevant ekspertfil FØR du kjører kommandoer. Den inneholder kjente problemer, gotchas og historikk som sparer deg for unødvendig undersøkelse.
Ekspert-base: `coordination/experts/operations/magitek-server-ops/`
| Target | Ekspertfil |
|--------|-----------|
| px1 | `kontoret/proxmox/CURRENT-px1.md` |
| px3 | `hjemme/proxmox/CURRENT-px3.md` |
| px5 | `hjemme/proxmox/CURRENT-px5.md` |
| pmox2 | `hjemme/proxmox/CURRENT-pmox2.md` |
| pmox10/pmox15 |...
|
||||||
Ingestion History
Loading…