Am 2. Februar 2025 ist der EU AI Act in die nächste Phase übergegangen, wodurch wichtige Bestimmungen für Unternehmen in Kraft getreten sind. Diese Entwicklung hat erhebliche Auswirkungen auf die Nutzung und Entwicklung von Künstlicher Intelligenz (KI) innerhalb der Europäischen Union.
Wesentliche Neuerungen ab Februar 2025
1. Verbotene KI-Praktiken
Bestimmte Anwendungen von KI, die als unannehmbares Risiko eingestuft werden, sind nun untersagt. Dazu gehören Systeme, die:
- Emotionserkennung am Arbeitsplatz einsetzen,
- soziales Scoring von Individuen durchführen,
- Nutzer durch KI-gesteuerte Manipulationen zu erheblichen finanziellen Entscheidungen drängen.
Diese Verbote zielen darauf ab, die Grundrechte der Bürger zu schützen und ethische Standards im Umgang mit KI zu gewährleisten.
2. Strenge Regulierung für Hochrisiko-KI
Unternehmen, die KI-Systeme in sensiblen Bereichen wie dem Finanzsektor, Gesundheitswesen oder in der öffentlichen Verwaltung einsetzen, müssen ab sofort strengere Vorschriften beachten. Dazu gehören:
- Umfassende Dokumentationspflichten zur Nachvollziehbarkeit von KI-Entscheidungen,
- Transparenzvorgaben, um sicherzustellen, dass Nutzer und Betroffene über den Einsatz von KI informiert sind,
- Menschliche Aufsicht, um kritische Entscheidungen nicht ausschließlich automatisierten Systemen zu überlassen.
3. Förderung der KI-Kompetenz:
Unternehmen sind verpflichtet, sicherzustellen, dass ihre Mitarbeiter über ausreichende Kenntnisse im Umgang mit KI verfügen. Dies umfasst das Verständnis der Chancen und Risiken von KI sowie die Fähigkeit, deren Auswirkungen auf Geschäftsprozesse und die Gesellschaft zu bewerten. Praktisch bedeutet dies die Implementierung von Schulungsprogrammen und die Etablierung interner Richtlinien für den verantwortungsvollen Einsatz von KI.
Auswirkungen auf Unternehmen
Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen nun:
- Risikomanagement etablieren: Ein effektives System implementieren, das potenzielle Gefahren identifiziert und mindert.
- Transparenz gewährleisten: Sicherstellen, dass KI-Systeme nachvollziehbar und ihre Entscheidungen überprüfbar sind.
- Dokumentation führen: Umfassende Aufzeichnungen über die Entwicklung, den Einsatz und die Überwachung von KI-Systemen führen.
- Menschliche Aufsicht sicherstellen: Mechanismen einrichten, die eine Kontrolle durch Menschen über KI-Entscheidungen ermöglichen, insbesondere in sensiblen Bereichen.
Die Nichteinhaltung dieser Vorschriften kann zu hohen Strafen führen, einschließlich Geldbußen in Millionenhöhe oder prozentualer Anteile des weltweiten Jahresumsatzes.

Praxisbeispiel: IBM watsonx und die neue Regulierungslandschaft
Ein Beispiel für die Anpassung an diese neuen Vorschriften ist die Plattform IBM watsonx. Unternehmen nutzen watsonx zunehmend, um KI-Modelle nicht nur zu entwickeln, sondern auch zu überwachen und deren Compliance sicherzustellen. Die Plattform bietet Funktionen zur Erklärbarkeit von KI-Entscheidungen, sodass Unternehmen die geforderte Transparenz nachweisen können. Gerade in regulierten Branchen wie dem Finanz- oder Gesundheitswesen kann der Einsatz von Lösungen wie watsonx helfen, die EU-Vorgaben effizient zu erfüllen.
Fazit
Der EU AI Act markiert einen bedeutenden Schritt in der Regulierung von Künstlicher Intelligenz innerhalb der Europäischen Union. Unternehmen sind nun gefordert, ihre KI-Systeme und -Prozesse zu überprüfen und anzupassen, um den neuen gesetzlichen Anforderungen gerecht zu werden. Dies erfordert Investitionen in Schulungen, die Überarbeitung interner Prozesse und gegebenenfalls die Entwicklung neuer Compliance-Strategien. Durch proaktives Handeln können Unternehmen nicht nur rechtliche Risiken minimieren, sondern auch das Vertrauen ihrer Kunden und Partner in den verantwortungsvollen Einsatz von KI stärken.
Für weitere Informationen zum Einsatz von KI in Ihrem Unternehmen stehen wir Ihnen gerne zur Verfügung – kontaktieren Sie uns!