KI-Coding im Aufwind: Sicherheit first – Vertrauen bleibt fragil

Gamer

30. September 2025

Lesezeit: 6 Min.

KI-Coding im Aufwind: Sicherheit first – Vertrauen bleibt fragil

KI-gestützte Softwareentwicklung ist in der Breite angekommen. Laut einer neuen Google-Cloud-Umfrage setzen inzwischen sehr viele Tech-Profis im Arbeitsalltag auf KI-Tools – der Anteil ist im Vergleich zum Vorjahr deutlich gestiegen. Gleichzeitig bleibt das Vertrauen in die Qualität und Sicherheit der KI-Ausgaben verhalten. Für dich als IT-Verantwortliche:r bedeutet das: Tempo ja, aber nur mit klaren Guardrails und einem belastbaren Security-Fundament.

Was die neue Umfrage tatsächlich zeigt – und was daraus folgt

Die jüngste Erhebung von Google Cloud macht sichtbar, was viele Teams bereits erleben: KI-Assistenten in IDEs, Chatbots für Code-Reviews und automatisierte Test-Generatoren sind in der Softwareentwicklung zum Standard geworden. Der Sprung in der Nutzung innerhalb eines Jahres unterstreicht den Produktivitätsdruck – und den Wunsch, Routineaufgaben wie Boilerplate-Code, Test-Skeletten oder Dokumentation zu beschleunigen.

Gleichzeitig bleibt die Skepsis gegenüber der Verlässlichkeit der KI-Ausgaben bestehen. Entwickler:innen berichten von plausibel klingenden, aber fehlerhaften Snippets, veralteten Abhängigkeiten oder unsauberen Sicherheitsmustern. Kurz: KI hebt die Taktzahl, doch Security, Compliance und Code-Qualität brauchen eine neue, klare Governance.

Für Sicherheitsverantwortliche liegt hier eine Chance: Wer jetzt DevSecOps-Praktiken, KI-spezifische Richtlinien und technische Guardrails etabliert, kombiniert Geschwindigkeit mit belastbarer IT-Sicherheit – und reduziert Risiken von Zero-Day-Ausnutzung, Supply-Chain-Angriffen und Compliance-Verstößen.

Risikoanalyse: Von Halluzinationen bis Supply-Chain

Codequalität und Schwachstellen

Große Sprachmodelle (LLMs) generieren Code auf Basis statistischer Muster. Das führt zu drei typischen Risiken:

  • Unsichere Patterns: Fehlende Eingabevalidierung, unzureichende Fehlerbehandlung, anfällige SQL-Statements oder unsichere Deserialisierung tauchen häufiger auf – eine Steilvorlage für SQLi, SSRF oder RCE.
  • Veraltete Standards: KI schlägt gelegentlich APIs oder Crypto-Verfahren vor, die deprecatet oder unsicher sind.
  • Überzeugende Fehler: Halluzinationen wirken „richtig“, bis SAST/Tests das Gegenteil beweisen. Ohne sauberen Review-Prozess werden solche Schwächen schnell produktiv.

Keywords: Secure Coding, OWASP

Daten- und IP-Schutz

Prompts enthalten nicht selten proprietären Code oder sensible Konfigs. Ohne saubere Richtlinien drohen Data Leakage, IP-Verlust und Datenschutzprobleme (DSGVO, Auftragsverarbeitung, Datenresidenz). Prüfe bei Anbietern: Logging, Retention, Trainingsnutzung, Verschlüsselung, Tenant-Isolation, regionale Verarbeitung und Rollen-/Rechte-Modelle.

Keywords: Data Privacy, Compliance

Abhängigkeiten und Lizenzen

KI ergänzt gerne Bibliotheken. Damit steigen Risiken durch Typosquatting, ungepatchte CVEs und Lizenzkonflikte (z. B. Copyleft in proprietären Projekten). Eine SBOM, Software Composition Analysis (SCA) und ein strukturiertes Lizenz-Review sind Pflicht.

Keywords: SBOM, Supply-Chain-Security

Prompt-Injection, Datenvergiftung und Missbrauch

LLMs können über manipulierte Eingaben und Quellen (Readme, Doku, RAG-Quellen) „überredet“ werden, unsicheren Code zu produzieren. Ebenfalls kritisch: Abfluss von Secrets in Prompts oder das unreflektierte Übernehmen von Code mit versteckten Backdoors.

Keywords: Prompt Injection, RAG Security

Wusstest du? LLM-Ausgaben sind probabilistisch. Dass Antworten „sicher“ klingen, heißt nicht, dass sie korrekt oder sicher sind. Behandle KI-Code wie Input aus einer unbekannten Quelle – mit denselben Prüfungen.

Security-Governance für KI-gestützte Entwicklung

Policies und Compliance klar definieren

  • AI Acceptable Use Policy: Welche Daten dürfen in Prompts? Keine Secrets, keine personenbezogenen Daten, keine unveröffentlichten Strategien. Definiere Safe/Restricted/Forbidden-Datenkategorien.
  • Transparenz & Audit: Prompts/Outputs revisionssicher protokollieren. Klare Aufbewahrungsfristen und Löschkonzepte – inkl. DSAR/Betroffenenrechten.
  • Standards: An NIST AI RMF, ISO/IEC 27001 und (wo relevant) ISO/IEC 42001 ausrichten; OWASP Top 10 for LLM Applications berücksichtigen.
  • Lizenz- und Urheberrecht: Verbindliche Vorgaben zu Open-Source-Lizenzen und Code-Herkunft; Freigabeprozesse etablieren.

Vertiefe das Thema in unseren Beiträgen zu Security Awareness und Zero-Day-Absicherung.

Technische Guardrails: DevSecOps erweitert

  • Enterprise-LLM: Nutzung von mandantenisolierten, nicht-trainierenden Enterprise-Tiers oder On-Prem/Private-Cloud-Setups. PII-/Secret-Filter vor dem Prompt, Response-Scanner nach dem Output.
  • Pipeline-Gates: SAST, DAST, SCA, IaC- und Container-Scanning, Secrets-Detection als verpflichtende Gates. Mindest-Coverage, Quality-Profile und „Fail fast“-Regeln.
  • Provenance & Integrity: SBOM, signierte Artefakte (z. B. Sigstore), SLSA-Levels, Dependency-Review und Verified-Publisher-Policies.
  • Sandboxing & Egress-Kontrollen: Ausführung von KI-generiertem Code nur in isolierten Umgebungen. Netzwerk-Policies, Egress-Filter und restriktive IAM-Profile.
  • Human-in-the-Loop: Code-Owner-Prinzip, verpflichtende Reviews für KI-Beiträge, Pairing von Senior Dev + KI, Rollback-Pläne.

Weitere Leitfäden findest du in unserer DevSecOps-Checkliste und bei unseren Phishing-Simulationen zur Stärkung der Team-Resilienz.

Best Practices: Was du jetzt konkret tun kannst

Für Entwickler:innen

  • Prompten mit Sicherheitskontext: Fordere explizit sichere Patterns an (z. B. „verwende parametrisierte Queries, Input-Validation, sichere Defaults“).
  • Tests erzwingen: Lass dir Unit-, Property-Based- und Fuzz-Tests generieren – und führe sie aus. Automatisiere Security-Tests in der Pipeline.
  • Linters & Policies: IDE-Integration von Lintern, Secret-Scannern und Policy-as-Code (z. B. für IaC) aktivieren.
  • Abhängigkeiten pinnen: Version Ranges einschränken, „Known Good“-Listen nutzen, verifizierte Publisher bevorzugen.
  • Lizenzen prüfen: KI-Vorschläge zu OSS-Komponenten immer mit SCA und Lizenz-Check absichern.

Keywords: Secure Coding, Secrets Scanning

Für Security- und IT-Teams

  • LLM-Governance-Plattform: Zentraler Zugriff, Audit, PII/Secret-Redaction, Content-Filter, Model-Routing nach Sensitivität.
  • Monitoring & Detection: Telemetrie für KI-Nutzung, Anomalieerkennung bei ungewöhnlichen Prompt-Mustern, Secret-Leak-Alerts.
  • Least Privilege & Zero Trust: Strikte IAM-Profile, kurzlebige Tokens, Härtung von Dev-Umgebungen und Build-Servern.
  • Vulnerability Management: Schnelle CVE-Workflows, Patch-Kadenz, Risikobewertung mit Exploitability-Fokus.
  • Red Teaming für LLM: Prompt-Injection-Tests, Data-Poisoning-Szenarien, Guardrail-Stresstests.

Keywords: Zero Trust, Vulnerability Management

Für Führungskräfte

  • Policy zuerst: Bevor skaliert wird, Pilot mit klaren Metriken (Defect Density, MTTR, Vulnerability Drift) aufsetzen.
  • Awareness investieren: Kombiniere KI-Tool-Rollout mit Awareness-Trainings und sicheren Coding-Guidelines.
  • Vendor Risk Management: Datenschutz, Zertifizierungen, DPAs, Architektur-Reviews und Exit-Strategien prüfen.
  • Transparenz: Kennzeichne KI-generierten Code im Repo (Commit-Tags), um künftige Audits zu erleichtern.

Keywords: Security Awareness, Governance

Beispiel aus der Praxis (fiktiv)

Ein SaaS-Team lässt sich von einem KI-Assistenten eine IAM- und S3-Richtlinie für ein neues Feature generieren. Die Policy ist funktional, aber zu permissiv („s3:GetObject“ auf einen breiten Ressourcenpfad). Ein IaC-Scanner schlägt Alarm, bevor das Terraform-Change-Set ausgerollt wird. Nachjustiert wird auf Least-Privilege, ergänzt um Bucket-Policies mit TLS-Enforcement und Block Public Access. Ergebnis: Feature in Time, Risiko minimiert.

Ein zweites Team übernimmt einen von der KI vorgeschlagenen Crypto-Snippet mit veralteten Parametern. Der Security-Gate (SAST + Crypto-Linter) blockiert den Merge, schlägt moderne Defaults und ein rotierendes Key-Management vor. Auch hier gilt: Die KI beschleunigt – der Guardrail verhindert technische Schulden und potenzielle Ransomware-Einfallstore.

Pro & Contra: KI-Tools in der Entwicklung

Pro

  • Schneller bei Boilerplate, Tests, Doku
  • Ideen und Alternativen in Sekunden
  • Unterstützung bei Refactoring und Reviews
  • Onboarding neuer Teammitglieder

Contra

  • Halluzinationen und veraltete Patterns
  • Lizenz- und Compliance-Risiken
  • Supply-Chain-Exposure durch neue Abhängigkeiten
  • Datenabfluss über unsichere Prompts

Fazit: KI sicher skalieren – jetzt Guardrails setzen

Die KI-Welle in der Entwicklung ist Realität. Der Produktivitätsgewinn ist greifbar, doch ohne belastbare Sicherheitsmechanismen bleiben Vertrauen und Qualität fragil. Setze deshalb auf einen strukturierten Mix aus Governance (Policies, Audits, Compliance), Technik (SAST/DAST/SCA, SBOM, Secrets-Filter, Enterprise-LLM) und Kultur (Reviews, Security Awareness, klare Rollen). So bringst du Geschwindigkeit und Sicherheit in Einklang – und reduzierst das Risiko von Phishing-basierten Zugängen, Supply-Chain-Angriffen und Zero-Day-Folgeschäden.

Call-to-Action: Starte mit einem 30-Tage-Pilot: Definiere deine AI-Policy, aktiviere Pipeline-Gates, pilotiere ein Enterprise-LLM mit Logging und schule das Team. Unsere DevSecOps-Checkliste hilft beim schnellen Setup; mehr Praxis gibt es im Security-Blog.

Tags: DevSecOps, AI Security, Secure Coding, LLM, IT-Sicherheit