🤖 ChatGPT unter dem EU AI Act

Welche Risikoklasse hat ChatGPT? Was muss OpenAI tun? Und was müssen SIE als Unternehmen beachten, wenn Sie ChatGPT einsetzen?

Der EU AI Act (in Kraft seit August 2024, Übergangsfristen bis 2026) klassifiziert KI-Systeme in Risikoklassen. ChatGPT ist als "General Purpose AI" (GPAI) ein Sonderfall — die Risikoklasse hängt davon ab, WIE es eingesetzt wird.

Risikopyramide: Wo steht ChatGPT?

Risikoklassifizierung

Unannehmbares Risiko

Unannehmbares

Beispiele: Social Scoring, manipulative KI

ChatGPT: Nein. ChatGPT fällt nicht in diese Kategorie.

Hohes Risiko

Hohes

Beispiele: Kreditscoring, Bewerbungsscreening, medizinische Diagnostik

ChatGPT: Potenziell JA — wenn ChatGPT in Hochrisiko-Bereichen eingesetzt wird (z.B. HR-Screening, medizinische Beratung).

Begrenztes Risiko (Transparenzpflicht)

Begrenztes

Beispiele: Chatbots, Deepfakes, generierte Texte

ChatGPT: JA. ChatGPT ist ein "AI system that interacts with humans" → Transparenzpflicht.

Minimales Risiko

Minimales

Beispiele: Spamfilter, Videospiel-KI

ChatGPT: Nein — ChatGPT ist komplexer als minimales Risiko.

Pflichten für OpenAI (und Sie!)

Transparenzpflicht

Nutzer müssen wissen, dass sie mit einer KI interagieren. OpenAI muss klar kennzeichnen.

Status: Teilweise erfüllt — ChatGPT sagt "I'm an AI", aber nicht immer prominent.

Kennzeichnung generierter Inhalte

KI-generierte Texte, Bilder, Audio müssen als solche erkennbar sein.

Status: Problematisch. ChatGPT-Texte sind nicht automatisch als KI-generiert markiert.

Technische Dokumentation

OpenAI muss dokumentieren, wie das Modell trainiert wurde, welche Daten verwendet wurden.

Status: GPT-4 Technical Report existiert, ist aber unvollständig nach EU-Standards.

Risikomanagement (bei Hochrisiko-Einsatz)

Wenn ChatGPT in Hochrisiko-Bereichen eingesetzt wird, gelten strenge Auflagen.

Status: Verantwortung liegt beim ANWENDER, nicht nur bei OpenAI. Wer ChatGPT für HR nutzt, muss selbst Compliance sicherstellen.

Copyright & Training Data

Transparenz über Trainingsdaten. Insbesondere: Wurde urheberrechtlich geschütztes Material verwendet?

Status: Hochproblematisch. Klagen laufen. EU AI Act fordert Transparenz, die OpenAI bisher nicht vollständig liefert.

KI-Analyse

Das GPAI-Problem: ChatGPT ist ein "General Purpose AI Model" — es kann für alles eingesetzt werden. Das macht die Klassifizierung schwierig: ChatGPT als Chatbot = begrenztes Risiko. ChatGPT als medizinischer Berater = hohes Risiko. Dasselbe Tool, verschiedene Risikoklassen.

Verantwortung teilt sich: OpenAI als Anbieter muss Transparenz und Dokumentation liefern. Aber: Wenn SIE als Unternehmen ChatGPT für Hochrisiko-Zwecke einsetzen (z.B. HR-Screening), sind SIE der "Deployer" — und die Compliance-Pflichten liegen bei Ihnen.

Timeline: Transparenzpflichten gelten ab August 2025. Hochrisiko-Anforderungen ab August 2026. Unternehmen haben JETZT Zeit, ihre ChatGPT-Nutzung zu klassifizieren.

Ist Ihre KI-Nutzung EU-AI-Act-konform?

Risikoklassifizierung und Pflichten-Check.

AI-Act-Analyse starten →

Inspiriert von Europäische Union — EU AI Act