Welche Risikoklasse hat ChatGPT? Was muss OpenAI tun? Und was müssen SIE als Unternehmen beachten, wenn Sie ChatGPT einsetzen?
Der EU AI Act (in Kraft seit August 2024, Übergangsfristen bis 2026) klassifiziert KI-Systeme in Risikoklassen. ChatGPT ist als "General Purpose AI" (GPAI) ein Sonderfall — die Risikoklasse hängt davon ab, WIE es eingesetzt wird.
Beispiele: Social Scoring, manipulative KI
ChatGPT: Nein. ChatGPT fällt nicht in diese Kategorie.
Beispiele: Kreditscoring, Bewerbungsscreening, medizinische Diagnostik
ChatGPT: Potenziell JA — wenn ChatGPT in Hochrisiko-Bereichen eingesetzt wird (z.B. HR-Screening, medizinische Beratung).
Beispiele: Chatbots, Deepfakes, generierte Texte
ChatGPT: JA. ChatGPT ist ein "AI system that interacts with humans" → Transparenzpflicht.
Beispiele: Spamfilter, Videospiel-KI
ChatGPT: Nein — ChatGPT ist komplexer als minimales Risiko.
Nutzer müssen wissen, dass sie mit einer KI interagieren. OpenAI muss klar kennzeichnen.
Status: Teilweise erfüllt — ChatGPT sagt "I'm an AI", aber nicht immer prominent.
KI-generierte Texte, Bilder, Audio müssen als solche erkennbar sein.
Status: Problematisch. ChatGPT-Texte sind nicht automatisch als KI-generiert markiert.
OpenAI muss dokumentieren, wie das Modell trainiert wurde, welche Daten verwendet wurden.
Status: GPT-4 Technical Report existiert, ist aber unvollständig nach EU-Standards.
Wenn ChatGPT in Hochrisiko-Bereichen eingesetzt wird, gelten strenge Auflagen.
Status: Verantwortung liegt beim ANWENDER, nicht nur bei OpenAI. Wer ChatGPT für HR nutzt, muss selbst Compliance sicherstellen.
Transparenz über Trainingsdaten. Insbesondere: Wurde urheberrechtlich geschütztes Material verwendet?
Status: Hochproblematisch. Klagen laufen. EU AI Act fordert Transparenz, die OpenAI bisher nicht vollständig liefert.
Das GPAI-Problem: ChatGPT ist ein "General Purpose AI Model" — es kann für alles eingesetzt werden. Das macht die Klassifizierung schwierig: ChatGPT als Chatbot = begrenztes Risiko. ChatGPT als medizinischer Berater = hohes Risiko. Dasselbe Tool, verschiedene Risikoklassen.
Verantwortung teilt sich: OpenAI als Anbieter muss Transparenz und Dokumentation liefern. Aber: Wenn SIE als Unternehmen ChatGPT für Hochrisiko-Zwecke einsetzen (z.B. HR-Screening), sind SIE der "Deployer" — und die Compliance-Pflichten liegen bei Ihnen.
Timeline: Transparenzpflichten gelten ab August 2025. Hochrisiko-Anforderungen ab August 2026. Unternehmen haben JETZT Zeit, ihre ChatGPT-Nutzung zu klassifizieren.
Risikoklassifizierung und Pflichten-Check.
AI-Act-Analyse starten →Inspiriert von Europäische Union — EU AI Act