Künstliche Intelligenz (KI) ist aus Unternehmen nicht mehr wegzudenken – von Automatisierung über Kundeninteraktion bis hin zu personalisiertem Marketing. Doch mit der wachsenden Nutzung steigt der regulatorische Druck. Der AI Act, die weltweit erste umfassende EU-Verordnung zu KI, soll Transparenz, Fairness und Sicherheit gewährleisten – und setzt damit international neue Standards. Unternehmen müssen nun prüfen: Erfüllen unsere KI-Anwendungen die neuen regulatorischen Anforderungen?
Wann gilt der AI Act?
Der AI Act wurde am 1. August 2024 verabschiedet. Die Umsetzung erfolgt schrittweise:
- Ab 2. Februar 2025: Verbot besonders riskanter KI-Systeme (z. B. Social Scoring).
- Ab August 2025: Transparenzpflichten für begrenzte Risiko-KI (z. B. Kennzeichnung von KI-generierten Inhalten).
- Ab 2026/2027: Strengere Regeln für Hochrisiko-KI.
Unternehmen, die den AI Act nicht einhalten, riskieren hohe Geldstrafen[1]. Frühzeitige Maßnahmen sind daher essenziell.
Welche KI-Anwendungen betrifft der AI Act?
Unternehmen setzen KI bereits für Lead-Generierung, personalisierte Werbung oder Chatbots ein. Auch KI-gestützte Content-Erstellung – etwa mit ChatGPT oder Google Gemini – sowie automatisierte Entscheidungen im Vertrieb fallen unter den AI Act. Die Verordnung gilt für alle KI-Systeme, die in der EU genutzt oder verkauft werden – unabhängig davon, wo sie entwickelt wurden.
Damit soll sichergestellt werden, dass KI
- verlässlich (technisch stabil und nachvollziehbar),
- fair (diskriminierungsfrei) und
- transparent (klar erkennbar für Nutzer) eingesetzt wird.