Private
Public Access
1
0

fix game
Some checks failed
Dynamic Branch Deploy / build-and-deploy (push) Failing after 8m17s

This commit is contained in:
Sebastian Unterschütz
2026-03-21 20:32:53 +01:00
parent f7df54431c
commit 188e9c2cc2
6 changed files with 420 additions and 101 deletions

View File

@@ -10,9 +10,11 @@ jobs:
build-and-deploy:
runs-on: ubuntu-latest
steps:
# 1. Code auschecken
# 1. Code auschecken (fetch-depth: 2 für git diff gegen den vorherigen Commit)
- name: Checkout Code
uses: actions/checkout@v3
with:
fetch-depth: 2
# 2. Variablen vorbereiten (MIT HAUPT-DOMAIN LOGIK)
- name: Prepare Environment Variables
@@ -21,37 +23,33 @@ jobs:
# 1. Repo und Branch Namen säubern
# Voller Pfad für Docker Image (z.B. "user/escape-teacher")
FULL_IMAGE_PATH=$(echo "${{ gitea.repository }}" | tr '[:upper:]' '[:lower:]')
# Nur der Projektname für K8s (z.B. "escape-teacher")
REPO_LOWER=$(echo "$FULL_IMAGE_PATH" | cut -d'/' -f2)
# Branch Name säubern (Sonderzeichen zu Bindestrichen)
BRANCH_LOWER=$(echo "${{ gitea.ref_name }}" | tr '[:upper:]' '[:lower:]' | sed 's/[^a-z0-9-]/-/g')
# 2. Logik: Ist es der Haupt-Branch?
if [ "$BRANCH_LOWER" = "main" ] || [ "$BRANCH_LOWER" = "master" ]; then
# PRODUKTION:
# URL ist direkt die Domain (ohne Subdomain)
APP_URL="${{ env.BASE_DOMAIN }}"
# Namespace ist nur der Projektname (ohne Branch-Suffix)
TARGET_NS="${REPO_LOWER}"
echo "Mode: PRODUCTION (Root Domain)"
else
# ENTWICKLUNG:
# URL ist repo-branch.domain.de
APP_URL="${REPO_LOWER}-${BRANCH_LOWER}.${{ env.BASE_DOMAIN }}"
# Namespace ist repo-branch
TARGET_NS="${REPO_LOWER}-${BRANCH_LOWER}"
echo "Mode: DEVELOPMENT (Subdomain)"
fi
# Image Tag (Commit Hash)
# Image Tag (Commit Hash) und stabiler Branch-Tag
IMAGE_TAG="${{ gitea.sha }}"
BRANCH_TAG="${TARGET_NS}-latest"
# Debug Ausgabe
echo "DEBUG: Branch: $BRANCH_LOWER"
echo "DEBUG: Namespace: $TARGET_NS"
echo "DEBUG: URL: $APP_URL"
echo "DEBUG: Branch-Tag: $BRANCH_TAG"
# In Gitea Actions Environment schreiben
echo "FULL_IMAGE_PATH=$FULL_IMAGE_PATH" >> $GITHUB_ENV
@@ -59,9 +57,34 @@ jobs:
echo "TARGET_NS=$TARGET_NS" >> $GITHUB_ENV
echo "APP_URL=$APP_URL" >> $GITHUB_ENV
echo "IMAGE_TAG=$IMAGE_TAG" >> $GITHUB_ENV
echo "BRANCH_TAG=$BRANCH_TAG" >> $GITHUB_ENV
# 3. Kaniko Build
# 3. Prüfen ob ein Image-Rebuild nötig ist
- name: Detect Source Changes
run: |
# Beim allerersten Commit gibt es kein HEAD~1 → immer bauen
if ! git rev-parse HEAD~1 >/dev/null 2>&1; then
echo "NEEDS_BUILD=true" >> $GITHUB_ENV
echo "→ Erster Commit, Image wird gebaut"
exit 0
fi
CHANGED=$(git diff --name-only HEAD~1 HEAD)
echo "Geänderte Dateien:"
echo "$CHANGED"
# Rebuild wenn Source-Code, Dockerfile oder Assets geändert wurden
if echo "$CHANGED" | grep -qE '(^Dockerfile$|^go\.(mod|sum)$|^(cmd|pkg|assets_raw)/)'; then
echo "NEEDS_BUILD=true" >> $GITHUB_ENV
echo "→ Quelldateien geändert Image wird neu gebaut"
else
echo "NEEDS_BUILD=false" >> $GITHUB_ENV
echo "→ Keine Quelländerungen Image-Build wird übersprungen"
fi
# 4. Image bauen und pushen (NUR wenn NEEDS_BUILD=true)
- name: Build and Push with Kaniko
if: env.NEEDS_BUILD == 'true'
uses: aevea/action-kaniko@v0.12.0
with:
registry: ${{ env.REGISTRY }}
@@ -72,7 +95,34 @@ jobs:
cache: true
extra_args: --skip-tls-verify-pull --insecure
# 4. Setup Kubectl (Interner Trick)
# 5. Stabilen Branch-Tag aktualisieren (NUR nach erfolgreichem Build)
# Damit weiß der nächste Nicht-Build-Push welches Image er verwenden soll.
- name: Tag as branch-latest
if: env.NEEDS_BUILD == 'true'
run: |
skopeo copy \
--src-creds="${{ gitea.actor }}:${{ secrets.PACKAGE_TOKEN }}" \
--dest-creds="${{ gitea.actor }}:${{ secrets.PACKAGE_TOKEN }}" \
--src-tls-verify=false \
--dest-tls-verify=false \
"docker://${{ env.REGISTRY }}/${{ env.FULL_IMAGE_PATH }}:${{ env.IMAGE_TAG }}" \
"docker://${{ env.REGISTRY }}/${{ env.FULL_IMAGE_PATH }}:${{ env.BRANCH_TAG }}"
# 6. Deploy-Image festlegen
# - Build passiert: SHA-Tag verwenden (exakt dieser Stand)
# - Build übersprungen: Branch-Latest-Tag verwenden (letztes gebautes Image)
- name: Set Deploy Image
run: |
if [ "$NEEDS_BUILD" = "true" ]; then
DEPLOY_IMAGE="${{ env.REGISTRY }}/${{ env.FULL_IMAGE_PATH }}:${{ env.IMAGE_TAG }}"
echo "→ Deploy mit neuem Image: $DEPLOY_IMAGE"
else
DEPLOY_IMAGE="${{ env.REGISTRY }}/${{ env.FULL_IMAGE_PATH }}:${{ env.BRANCH_TAG }}"
echo "→ Deploy mit bestehendem Image: $DEPLOY_IMAGE"
fi
echo "DEPLOY_IMAGE=$DEPLOY_IMAGE" >> $GITHUB_ENV
# 7. Setup Kubectl
- name: Setup Kubectl
run: |
curl -LO "https://dl.k8s.io/release/$(curl -L -s https://dl.k8s.io/release/stable.txt)/bin/linux/amd64/kubectl"
@@ -82,49 +132,51 @@ jobs:
mkdir -p $HOME/.kube
echo "${{ secrets.KUBE_CONFIG }}" > $HOME/.kube/config
chmod 600 $HOME/.kube/config
# Internal DNS Trick (für Kommunikation innerhalb des Clusters)
sed -i 's|server: https://.*:6443|server: https://kubernetes.default.svc:443|g' $HOME/.kube/config
# 5. Deploy to Kubernetes
# 8. Deploy to Kubernetes
- name: Deploy to Kubernetes
run: |
# Namespace erstellen (falls nicht existiert)
kubectl create namespace ${{ env.TARGET_NS }} --dry-run=client -o yaml | kubectl apply -f -
# Vollen Image Pfad bauen
FULL_IMAGE_URL="${{ env.REGISTRY }}/${{ env.FULL_IMAGE_PATH }}:${{ env.IMAGE_TAG }}"
# 1. Ingress anpassen (Hier wird die URL eingesetzt!)
# Ingress und App-Manifest anpassen
sed -i "s|\${APP_URL}|${{ env.APP_URL }}|g" k8s/ingress.yaml
# 2. App Deployment anpassen (Image)
sed -i "s|\${IMAGE_NAME}|$FULL_IMAGE_URL|g" k8s/app.yaml
sed -i "s|\${IMAGE_NAME}|${{ env.DEPLOY_IMAGE }}|g" k8s/app.yaml
# Anwenden
echo "Deploying Resources to Namespace: ${{ env.TARGET_NS }}"
echo "Deploying to Namespace: ${{ env.TARGET_NS }} (Image: ${{ env.DEPLOY_IMAGE }})"
kubectl apply -f k8s/pvc.yaml -n ${{ env.TARGET_NS }}
kubectl apply -f k8s/nats.yaml -n ${{ env.TARGET_NS }}
kubectl apply -f k8s/redis.yaml -n ${{ env.TARGET_NS }}
kubectl apply -f k8s/app.yaml -n ${{ env.TARGET_NS }}
kubectl apply -f k8s/cilium-netpol.yaml -n ${{ env.TARGET_NS }}
kubectl apply -f k8s/ingress.yaml -n ${{ env.TARGET_NS }}
# HPA (Autoscaling) nur für Main/Master Branch aktivieren
# Wir vergleichen den Namespace mit dem Repo-Namen
# Wenn Namespace == RepoName, dann sind wir im Main Branch
# HPA nur für Main/Master Branch
if [ "${{ env.TARGET_NS }}" == "${{ env.REPO_NAME }}" ]; then
echo "Main Branch detected: Applying HPA (Autoscaling)..."
echo "Main Branch: Applying HPA..."
kubectl apply -f k8s/hpa.yaml -n ${{ env.TARGET_NS }}
else
echo "Feature Branch: Skipping HPA."
# Optional: HPA löschen, falls es versehentlich da ist
kubectl delete hpa escape-game-hpa -n ${{ env.TARGET_NS }} --ignore-not-found
fi
# Force Update (damit das neue Image sicher geladen wird)
kubectl rollout restart deployment/escape-game -n ${{ env.TARGET_NS }}
# Pod nur neu starten wenn ein neues Image gebaut wurde
# Bei reinen k8s-Änderungen reicht kubectl apply, kein Restart nötig
if [ "$NEEDS_BUILD" = "true" ]; then
kubectl rollout restart deployment/escape-game -n ${{ env.TARGET_NS }}
fi
# 6. Summary
# 9. Summary
- name: Summary
run: echo "🚀 Deployed successfully to https://${{ env.APP_URL }}"
run: |
if [ "$NEEDS_BUILD" = "true" ]; then
echo "🔨 Image neu gebaut und deployed: ${{ env.DEPLOY_IMAGE }}"
else
echo "⚡ Image-Build übersprungen (keine Quelländerungen)"
echo "📦 Bestehendes Image verwendet: ${{ env.DEPLOY_IMAGE }}"
fi
echo "🚀 Deployed to https://${{ env.APP_URL }}"