From b74fb40fe0b7da30559bf697507e35ef594acd13 Mon Sep 17 00:00:00 2001 From: xguefer Date: Fri, 15 Aug 2025 19:47:08 +0200 Subject: [PATCH] dobalndo el service de nginx para apolo --- apolo/kustomization.yaml | 8 + apolo/namespace.yaml | 6 + apolo/pvc/pvc-ejabberd-db.yaml | 15 ++ apolo/pvc/pvc-ejabberd-logs.yaml | 15 ++ apolo/pvc/pvc-postgres.yaml | 15 ++ apolo/tree | 1 + ingress-nginx/services/service-200.yaml | 17 ++ vm-windows-demo/readme.md.save | 216 ++++++++++++++++++++++++ 8 files changed, 293 insertions(+) create mode 100644 apolo/kustomization.yaml create mode 100644 apolo/namespace.yaml create mode 100644 apolo/pvc/pvc-ejabberd-db.yaml create mode 100644 apolo/pvc/pvc-ejabberd-logs.yaml create mode 100644 apolo/pvc/pvc-postgres.yaml create mode 100644 apolo/tree create mode 100644 ingress-nginx/services/service-200.yaml create mode 100644 vm-windows-demo/readme.md.save diff --git a/apolo/kustomization.yaml b/apolo/kustomization.yaml new file mode 100644 index 0000000..009b467 --- /dev/null +++ b/apolo/kustomization.yaml @@ -0,0 +1,8 @@ +apiVersion: kustomize.config.k8s.io/v1beta1 +kind: Kustomization +namespace: apolo +resources: + - namespace.yaml + - pvc-postgres.yaml + - pvc-ejabberd-db.yaml + - pvc-ejabberd-logs.yaml diff --git a/apolo/namespace.yaml b/apolo/namespace.yaml new file mode 100644 index 0000000..44ae3c0 --- /dev/null +++ b/apolo/namespace.yaml @@ -0,0 +1,6 @@ +apiVersion: v1 +kind: Namespace +metadata: + name: apolo + labels: + app.kubernetes.io/name: apolo diff --git a/apolo/pvc/pvc-ejabberd-db.yaml b/apolo/pvc/pvc-ejabberd-db.yaml new file mode 100644 index 0000000..e3e763f --- /dev/null +++ b/apolo/pvc/pvc-ejabberd-db.yaml @@ -0,0 +1,15 @@ +apiVersion: v1 +kind: PersistentVolumeClaim +metadata: + name: apolo-ejabberd-db + namespace: apolo + labels: + app.kubernetes.io/part-of: apolo + app.kubernetes.io/component: ejabberd +spec: + accessModes: + - ReadWriteOnce + storageClassName: ceph-rbd + resources: + requests: + storage: 10Gi diff --git a/apolo/pvc/pvc-ejabberd-logs.yaml b/apolo/pvc/pvc-ejabberd-logs.yaml new file mode 100644 index 0000000..c1e8e1b --- /dev/null +++ b/apolo/pvc/pvc-ejabberd-logs.yaml @@ -0,0 +1,15 @@ +apiVersion: v1 +kind: PersistentVolumeClaim +metadata: + name: apolo-ejabberd-logs + namespace: apolo + labels: + app.kubernetes.io/part-of: apolo + app.kubernetes.io/component: ejabberd +spec: + accessModes: + - ReadWriteOnce + storageClassName: ceph-rbd + resources: + requests: + storage: 5Gi diff --git a/apolo/pvc/pvc-postgres.yaml b/apolo/pvc/pvc-postgres.yaml new file mode 100644 index 0000000..e6082a3 --- /dev/null +++ b/apolo/pvc/pvc-postgres.yaml @@ -0,0 +1,15 @@ +apiVersion: v1 +kind: PersistentVolumeClaim +metadata: + name: apolo-pgdata + namespace: apolo + labels: + app.kubernetes.io/part-of: apolo + app.kubernetes.io/component: postgres +spec: + accessModes: + - ReadWriteOnce # Ceph RBD = RWO + storageClassName: ceph-rbd + resources: + requests: + storage: 50Gi diff --git a/apolo/tree b/apolo/tree new file mode 100644 index 0000000..e8a9b0a --- /dev/null +++ b/apolo/tree @@ -0,0 +1 @@ +Username: diff --git a/ingress-nginx/services/service-200.yaml b/ingress-nginx/services/service-200.yaml new file mode 100644 index 0000000..56b9a16 --- /dev/null +++ b/ingress-nginx/services/service-200.yaml @@ -0,0 +1,17 @@ +apiVersion: v1 +kind: Service +metadata: + name: ingress-nginx-controller-200 + namespace: ingress-nginx +spec: + type: LoadBalancer + loadBalancerIP: 192.168.200.10 + selector: + app.kubernetes.io/name: ingress-nginx + ports: + - name: http + port: 80 + targetPort: 80 + - name: https + port: 443 + targetPort: 443 diff --git a/vm-windows-demo/readme.md.save b/vm-windows-demo/readme.md.save new file mode 100644 index 0000000..2def3db --- /dev/null +++ b/vm-windows-demo/readme.md.save @@ -0,0 +1,216 @@ +# Demo Windows con KubeVirt: 2 NICs (Admin + Servicios), Dashboard e ISO Server + +Este README resume **qué hemos hecho** y **cómo lo hemos montado** para una demo funcional sobre **SUSE + Kubernetes** con **KubeVirt**: + +* Instalación/verificación de **KubeVirt + CDI**. +* Despliegue del **dashboard** (kubevirt-manager) en `kubevirt.c2et.net`. +* Despliegue de un **ISO Server** (HTTP + Samba) en `isoserver.c2et.net` y LB `192.168.0.105`. +* Creación de una **VM Windows** con **dos interfaces**: + + * **Admin** (pod network via Flannel) con `masquerade`. + * **Servicios** (Multus) asociada a tu NAD `default/br-srv`. + +> **Redes clave** +> +> * **Admin (Flannel)**: conectividad básica, DHCP interno del pod network, sin NAD. +> * **Servicios (Multus)**: `default/br-srv` (bridge + host-local IPAM 192.168.200.0/22). Aquí **no hay DHCP**: se configura IP **estática** en la VM. + +--- + +## 0) Requisitos comprobados + +En todos los nodos: + +```bash +egrep -o 'vmx|svm' /proc/cpuinfo | wc -l # > 0 +sudo modprobe kvm && sudo modprobe kvm_intel # (o kvm_amd) +ls -l /dev/kvm +sudo aa-status | head -n 5 +# containerd con SystemdCgroup=true; kubelet con cgroupDriver: systemd +``` + +--- + +## 1) KubeVirt + CDI + +Se instalaron **KubeVirt** y **CDI** (Containerized Data Importer) y se verificó: + +```bash +kubectl -n kubevirt get kv kubevirt -o jsonpath='{.status.phase}'; echo # Deployed +kubectl -n kubevirt get pods | egrep 'virt-|kubevirt-' +kubectl -n cdi get pods +``` + +> `virtctl` instalado en el jump host para operar VMs: + +```bash +virtctl version +``` + +--- + +## 2) Dashboard (kubevirt-manager) – `kubevirt.c2et.net` + +**Arquitectura** + +* `Deployment` con `kubevirtmanager/kubevirt-manager:1.4.0`. +* `Service` **ClusterIP** (`80 → 8001`). +* `Ingress` clase `nginx` + **cert-manager** (`letsencrypt-prod`), host `kubevirt.c2et.net`. +* `ServiceAccount` + `ClusterRoleBinding` a `cluster-admin` (para acceso al API). + +**Comandos de comprobación** + +```bash +kubectl -n kubevirt get deploy,svc,ingress | grep kubevirt-manager +kubectl -n kubevirt get endpoints kubevirt-manager +``` + +Acceso: `https://kubevirt.c2et.net/` + +--- + +## 3) ISO Server – `isoserver.c2et.net` (HTTP) + Samba `192.168.0.105` + +**Arquitectura** + +* `PVC` en **`ceph-rbd`** (**RWO**) `iso-pvc` (p. ej. 800Gi). +* `Deployment` con dos contenedores que **comparten el mismo PVC**: + + * `httpd:2.4` sirviendo `/usr/local/apache2/htdocs` (HTTP para CDI). + * `dperson/samba` exportando `/share` (subida de imágenes desde PC). +* `Service` **ClusterIP** `iso-server-http` para el Ingress. +* `Service` **LoadBalancer** `iso-server-samba` con `loadBalancerIP: 192.168.0.105` (MetalLB) para `\192.168.0.105\isos`. +* `Ingress` clase `nginx` en `isoserver.c2et.net` (sin forzar SSL para que CDI pueda usar HTTP si hace falta). + +**Uso** + +```bash +# Subir imagen por Samba +# Windows: \\192.168.0.105\isos +# Linux: +sudo mount -t cifs //192.168.0.105/isos /mnt/isos -o guest,vers=3.0 +cp ./Windows.iso /mnt/isos/ + +# Ver por HTTP +curl -I http://isoserver.c2et.net/Windows.iso +``` + +--- + +## 4) Demo VM Windows – 2 NICs (Admin + Servicios) + +**Manifests** (kustomize): + +``` +k8s-vm-windows-demo/ +├─ kustomization.yaml +├─ namespace.yaml +├─ data-volume.yaml # DV que descarga la ISO de Windows +└─ virtual-machine.yaml # VM con 2 NICs y 3 discos (ISO, VirtIO, rootdisk) +``` + +### 4.1 DataVolume + PVC del disco + +* **DataVolume** `windows-iso` desde `https://isoserver.c2et.net/Windows.iso` (o `http://` si hay problemas de CA). +* **PVC** `winhd` (ej. 60Gi) en `ceph-rbd` (RWO). + +Check del import: + +```bash +kubectl -n k8s-vm-windows-demo get dv,pvc +kubectl -n cdi get pods -w # importer hasta Succeeded +``` + +### 4.2 VirtualMachine (puntos clave) + +* **runStrategy: Manual** → arranque con `virtctl start`. +* **Discos**: + + * `cdromiso` (ISO Windows) como **CD-ROM** (`readonly`, `bootOrder: 1`). + * `virtiocontainerdisk` como **CD-ROM** con drivers VirtIO. + * `harddrive` (PVC `winhd`) como **disco del sistema** (`virtio`, `bootOrder: 2`). +* **Red**: + + * **admin** → `pod:{}` + `masquerade:{}` + `model: e1000e` (funciona OOTB en Windows). + * **servicios** → `multus: default/br-srv` + `bridge:{}` + `model: virtio` (requiere drivers en Windows). + +Arranque y acceso: + +```bash +virtctl start -n k8s-vm-windows-demo windows-demo +virtctl vnc -n k8s-vm-windows-demo windows-demo +# (o usar el dashboard) +``` + +Instalación: + +* Si el instalador no ve el disco: **Load driver** → `viostor`. +* Para la NIC de servicios (virtio): driver **`NetKVM`**. + +Post-instalación: + +* **Retira el CD** o ajusta `bootOrder` para que arranque del disco. +* Configura **IP estática** en la NIC **servicios** (no hay DHCP con host-local IPAM): + + * Ej.: `192.168.200.110/22`, gateway `192.168.200.1`, DNS el que uses. + +> **Windows 11**: si lo necesitas, activa **UEFI + TPM** y `features.smm`. + +--- + +## 5) Comandos útiles de validación + +```bash +# KubeVirt/CDI +kubectl -n kubevirt get kv kubevirt -o jsonpath='{.status.phase}'; echo +kubectl -n kubevirt get deploy,ds,pods | egrep 'virt-|kubevirt-' +kubectl -n cdi get pods + +# Dashboard +kubectl -n kubevirt get ingress kubevirt-manager +kubectl -n kubevirt get endpoints kubevirt-manager + +# ISO server +kubectl -n kubevirt get svc iso-server-http iso-server-samba -o wide +kubectl -n kubevirt get ingress iso-server +curl -I http://isoserver.c2et.net/ +smbclient -L 192.168.0.105 -N + +# Demo VM +kubectl -n k8s-vm-windows-demo get dv,pvc,vm,vmi +virtctl console -n k8s-vm-windows-demo windows-demo # si usas consola serial +virtctl vnc -n k8s-vm-windows-demo windows-demo +``` + +--- + +## 6) Problemas comunes y soluciones + +* **CDI falla con HTTPS (CA no confiable)** → usa `http://isoserver.c2et.net/...` o inyecta tu CA en el DV. +* **Sin IP en NIC de servicios** → esa red usa `host-local`: configura IP **estática** o monta un **DHCP** en `br-srv`. +* **Samba abierto** → añade credenciales en los args del contenedor `dperson/samba` o restringe el Ingress/NetworkPolicy. +* **RBD (ceph-rbd) es RWO** → no intentes RWX. Si necesitas RWX, usa una clase tipo **CephFS**. +* **MetalLB asigna otra IP** → verifica pools y fija `loadBalancerIP` dentro del pool disponible. +* **Windows 11 pide TPM** → habilita `tpm: {}` y boot UEFI (`firmware.bootloader.efi: {}`) + `features.smm`. + +--- + +## 7) Limpieza + +```bash +# Demo +kubectl delete ns k8s-vm-windows-demo +# (opcional) Elimina DV/PVC que ya no necesites +``` + +--- + +## 8) Próximos pasos (ideas) + +* Live migration en el CR de KubeVirt (con `blockMigration` si tu storage no es RWX). +* CPU pinning / HugePages para cargas exigentes. +* `cloudbase-init` o `unattend.xml` para automatizar instalaciones. +* SR-IOV para NICs de alto rendimiento en VMs. + +--- +