AI-Coding boomt – doch fehlendes Vertrauen birgt Sicherheitsrisiken

Gamer

30. September 2025

Lesezeit: 6 Min.

AI-Coding boomt – doch fehlendes Vertrauen birgt Sicherheitsrisiken

AI-unterstützte Softwareentwicklung ist in der Breite angekommen – aber das Vertrauen in die Ergebnisse hinkt hinterher. Laut einer neuen Google-Cloud-Umfrage setzen inzwischen 90 % der Tech-Profis am Arbeitsplatz auf AI-Tools, ein Plus von 14 Prozentpunkten gegenüber dem Vorjahr. Für die IT-Sicherheit ist dieser Spagat aus rasantem Einsatz und verhaltenem Vertrauen ein Weckruf.

Wenn generative Modelle Code schreiben, Tests generieren oder Pull Requests kommentieren, steigt nicht nur die Geschwindigkeit – auch das Risiko unsauberer Abhängigkeiten, Halluzinationen und versteckter Schwachstellen wächst. Wie du das Produktivitätspotenzial hebst, ohne deine Angriffsfläche zu vergrößern, zeigen die folgenden Strategien.

Was die Zahlen bedeuten – und warum sie für IT-Sicherheit zählen

Die Kernaussage der aktuellen Umfrage: AI beim Coden ist nicht mehr Experiment, sondern Standard. Gleichzeitig bleibt die Skepsis gegenüber der Korrektheit und Sicherheit der Ergebnisse hoch. Das Spannungsfeld birgt typische Gefahren für IT-Sicherheit und Governance:

  • Halluzinierter Code: LLMs erfinden Bibliotheken, Parameter oder Beispiele. Ergebnis: nicht kompilierbarer Code, Sicherheitslücken, unsichere Defaults.
  • Unsichere Abhängigkeiten: Automatisch vorgeschlagene Packages können veraltete Versionen mit Zero-Day– oder N-Day-Schwachstellen enthalten.
  • Prompt- und Datenlecks: Sensible Informationen in Prompts oder Telemetrie können ungewollt die Organisation verlassen.
  • Overreliance: Zu viel Vertrauen in scheinbar korrekten AI-Output schwächt Reviews, Threat Modeling und Security Awareness.

Für CISOs und Engineering-Leads heißt das: Produktivität darf nicht auf Kosten von Ransomware-Resilienz, Supply-Chain-Sicherheit oder Compliance gehen. Die gute Nachricht: Mit klaren Guardrails lässt sich beides verbinden.

Wusstest du? Die OWASP-Community führt Prompt Injection, Trainingsdaten-Vergiftungen und Insecure Output Handling als Kernrisiken bei LLM-Anwendungen. Das betrifft nicht nur Chatbots – auch AI-gestützte Dev-Workflows sind anfällig, wenn Ausgaben ungeprüft in Code, Build-Skripte oder Dokumentation fließen.

Vom Vertrauensloch zum Sicherheitskonzept: die wichtigsten Risikofelder

1) Modellrisiken: Halluzinationen und Bias im Entwicklungsalltag

Keywords: Halluzinationen, IT-Sicherheit

Modelle optimieren auf Wahrscheinlichkeiten, nicht auf Wahrheit. Ein plausibel klingender Codevorschlag kann unsichere Kryptoparameter (z. B. schwache Hashes) enthalten oder unsichere Funktionen empfehlen. Setze daher auf Human-in-the-Loop, verpflichtende Code-Reviews und Tests – AI darf beschleunigen, aber nie das letzte Wort haben.

2) Software-Supply-Chain: Abhängigkeiten, SBOM und Signaturen

Keywords: SBOM, Supply-Chain

AI-Tools referenzieren gerne populäre Snippets und Pakete – nicht immer die sichersten. Erzwinge Dependency Policies, Signaturprüfung (Sigstore), Reproducible Builds und eine SBOM pro Release. Automatisiere VEX-Einschätzungen, um verwundbare, aber nicht ausnutzbare Komponenten zu kennzeichnen.

3) Daten- und Geheimnisschutz: PII, Schlüssel und IP

Keywords: Data Loss Prevention, Secrets

Prompts sind Daten. Nutze Data Loss Prevention (DLP) vor der Modellanfrage, entferne PII und API-Keys, und arbeite mit unternehmensgehosteten Modellen oder strikten Privacy-Einstellungen. Ergänze Secrets Scanning in CI/CD, um versehentliche Leaks sofort zu stoppen.

4) Angriffsvektoren: Prompt Injection, Insecure Output Handling

Keywords: Prompt Injection, Zero-Day

Wenn AI generierten Inhalt weiterverarbeitet (z. B. generiert ein Tool README-Dateien, die Builds beeinflussen), wird daraus ein Einfallstor. Entkoppel Ausgaben von ausführbarem Kontext, treat output as untrusted, und nutze Sandboxen sowie strikte Parser. Das reduziert das Risiko, dass ein eingeschleuster Befehl in der Pipeline landet.

Praxisbeispiel: Wie Guardrails Fehlerkosten halbieren

Keywords: Secure SDLC, SAST/DAST

Beispiel aus der Praxis: Ein Dev-Team lässt sich von einem AI-Assistenten ein Auth-Module erzeugen. Der Code funktioniert, verwendet aber veraltete JWT-Konfigurationen und deaktivierte Prüfungen für aud und exp. In der ersten Iteration hätte dies eine unautorisierte Token-Nutzung ermöglicht.

Die Lösung: verpflichtende SAST-Prüfung, AI-Policy (keine Sicherheitsentscheidungen ohne Review), Standard-Library-Whitelist, sowie eine CI-Gate-Stufe, die unsichere Krypto-Parameter blockt. Ergebnis: Der Fix wurde vor dem Merge erkannt; die Gesamtzeit bis zum sicheren Release blieb unverändert, aber das Risiko einer Ausnutzung sank signifikant.

Pro und Contra: AI-Coding-Assistenten im Security-Check

Keywords: Security Awareness, Code-Qualität

Pro

  • Schnellere Prototypen und Tests
  • Konsistente Boilerplates und Style Guides
  • Automatisierte Hinweise auf Off-by-One-Fehler und Null-Checks
  • Erhöhte Security Awareness durch Inline-Empfehlungen

Contra

  • Scheinpräzision: plausibler, aber unsicherer Code
  • Intransparente Quellenlage und Lizenzfragen
  • Risiko von Abhängigkeits-Drift und Supply-Chain-Umwegen
  • Potenzielle Datenabflüsse über Telemetrie/Prompts

Handlungsempfehlungen: So hebst du Produktivität ohne Sicherheitslücke

1) Richtlinien & Governance

  • Definiere eine unternehmensweite AI-Policy: zulässige Tools, Datenklassen, Logging, Prompt-Richtlinien.
  • Führe Human-in-the-Loop ein: AI-Vorschläge sind Vorschläge – kein Merge ohne Review.
  • Orientiere dich an NIST AI RMF und dem OWASP Top 10 für LLM-Anwendungen.

2) Secure SDLC & Pipeline-Härtung

  • SAST/DAST/SCA verbindlich in CI/CD, inklusive Secrets Scanning und Dependency Pinning.
  • SBOM pro Build und Signaturen für Artefakte (z. B. Sigstore/Fulcio/Rekor).
  • Trenne generierten Content von ausführbarem Kontext, nutze Sandboxen und Strict Parsing.

3) Daten- und Identitätsschutz

  • DLP-Filter vor der Modellabfrage: keine PII, keine Schlüssel in Prompts.
  • Fein granularer Zugriff (Just-in-Time, Just-Enough) für AI-Integrationen in Repos und Secrets.
  • Isoliere AI-Entwicklungsumgebungen und logge Modellzugriffe revisionssicher.

4) Teams befähigen

Ausblick: Vertrauen aufbauen heißt Security-by-Design etablieren

Der AI-Coding-Boom ist gekommen, um zu bleiben. Die Vertrauenslücke schließt sich nicht durch mehr Modelle oder größere Kontexte, sondern durch Security-by-Design, klare Richtlinien und messbare Qualitäts-Checks. Unternehmen, die heute Guardrails in ihren Secure SDLC integrieren, minimieren das Risiko von Ransomware-Eskalationen, Supply-Chain-Angriffen und Reputationsschäden – und heben gleichzeitig die Produktivität.

Du möchtest deine AI-Dev-Pipeline sicher aufstellen? Starte mit klaren Policies, schalte Sicherheitsprüfungen scharf und trainiere dein Team – wir unterstützen dich mit Awareness-Programmen und praxisnahen Security-Blogbeiträgen.


Tags: AI Security, Secure SDLC, Supply-Chain-Security, OWASP LLM, Security Awareness