
Der AI Act: Europas neues Gesetz für Künstliche Intelligenz
Mit dem zunehmenden Einsatz wachsen jedoch auch die Risiken: automatisierte Entscheidungen, die Menschen benachteiligen, fehlerhafte Diagnosen oder täuschend echte Falschinformationen. Die Europäische Union reagiert darauf mit dem AI Act, einem europaweiten Gesetz, das seit 2024 den Einsatz von KI regelt. Es ist das erste umfassende Regelwerk seiner Art weltweit. Ziel ist es, Vertrauen zu schaffen, Grundrechte zu schützen und gleichzeitig Innovation zu ermöglichen.
KI-Regulierung in Europa – Stand 2025
Bis 2024 gab es keine einheitlichen Regeln für Künstliche Intelligenz. Unternehmen, Behörden und Privatpersonen setzten die Technologie ein, ohne dass klar war, welche Grenzen gelten und was erlaubt ist. Der AI Act soll diese Lücke schließen und europaweit klare Vorgaben schaffen. Dabei gilt: Nicht jede KI ist gleich riskant, weshalb Systeme nach Risikoklassen eingeteilt werden – von „verboten/unzulässig“ bis „geringes Risiko“.
Einige Regeln des AI Acts sind bereits in Kraft. Unzulässige Anwendungen wie Social Scoring oder bestimmte biometrische Überwachungssysteme sind verboten. Nationale Behörden, die künftig die Einhaltung überwachen, werden europaweit eingerichtet. Unternehmen sind aufgefordert, sich bereits jetzt einen Überblick über ihre KI-Nutzung zu verschaffen: Welche Systeme laufen intern, welche über externe Anbieter?
Blick nach vorn: 2026 und 2027
Die Umsetzung erfolgt gestaffelt. Ab 2026 gelten für Hochrisiko-Systeme umfassende Nachweis- und Dokumentationspflichten: Betreiber müssen sicherstellen, dass ihre Systeme sicher, nachvollziehbar und korrekt eingesetzt werden. Ab 2027 kommen verpflichtende Prüfverfahren hinzu. Hersteller und Betreiber müssen dann nachweisen, dass ihre KI-Systeme diskriminierungsfrei arbeiten, keine unkontrollierten Risiken bergen und durchgängig überwacht werden.
Als „hochrisikobehaftet“ gelten KI-Anwendungen, die erhebliche Folgen für Menschen oder die öffentliche Sicherheit haben können. Zum Beispiel:
Gesundheitswesen
Diagnose- und Therapiesysteme, Patienten-Triage, Medikamentenempfehlungen
Sozialwesen
KI bei Sozialleistungsentscheidungen, Risikoeinschätzung in Jugend- oder Pflegehilfe
Kirche
Bewerbermanagement in Kitas/Schulen, Spenden- und Finanzverwaltung
Industrie/Produktion
Predictive Maintenance, Qualitätskontrolle, Prozesssteuerung in sensiblen Anlagen
Transport/Logistik
Routenplanung, autonome Fahrzeuge, Lager- und Verkehrssteuerung
Finanzwesen
Kreditwürdigkeitsprüfungen, Betrugserkennung, automatisierte Risikobewertung
Betreiber oder Hersteller – wer trägt welche Verantwortung?
Der AI Act unterscheidet klar zwischen Herstellern und Betreibern. Hersteller müssen ihre Produkte gesetzeskonform gestalten – inklusive Sicherheitsupdates, Transparenzpflichten und Konformitätsbewertungen. Betreiber, also die Unternehmen, die KI einsetzen, tragen die Verantwortung für den richtigen Einsatz. Das betrifft nahezu alle: vom Krankenhaus mit Diagnosetools über das Industrieunternehmen mit vorrauschauender Wartung bis hin zum Mittelständler, der Chatbots oder KI-gestützte Cloud-Dienste nutzt. Auch „einfache“ Anwendungen wie Chatbots oder automatische Übersetzungen fallen unter den AI Act, hier vor allem mit Transparenzpflichten: Nutzer müssen wissen, dass sie mit einer Maschine interagieren oder Inhalte von einer KI erstellt wurden.
Unternehmen können mit einfachen Schritten beginnen, um vorbereitet zu sein:
Wie sollten Unternehmen Hochrisiko-Systeme handhaben?
1.Bestandsaufnahme
Welche Anwendungen nutzen wir? Wo steckt bereits KI drin, auch in externen Lösungen wie Office-Paketen oder Cloud-Diensten?
2.Risikoeinschätzung
Welche Systeme könnten Hochrisiko sein, weil sie Entscheidungen mit Folgen für Menschen oder Sicherheit treffen?
3.Zuständigkeiten festlegen
Wer ist im Unternehmen verantwortlich? Oft ist eine enge Zusammenarbeit von IT, Compliance und Fachabteilungen sinnvoll.
4.Dokumentation
Festhalten, wofür die KI genutzt wird, welche Daten verarbeitet werden und welche Grenzen das System hat.
5.Kontrolle und Überwachung
Regelmäßige Tests durchführen, Einsatz im laufenden Betrieb beobachten, Fehlfunktionen oder Auffälligkeiten dokumentieren.
6.Menschliche Aufsicht
Entscheidungen mit größerer Tragweite sollten nie allein einer KI überlassen werden.
7.Datenschutz sicherstellen
Datenqualität prüfen, Herkunft nachvollziehen und Einhaltung der DSGVO gewährleisten.
8.Verträge prüfen
Bei externen Anbietern sicherstellen, dass Pflichten aus dem AI Act vertraglich berücksichtigt sind.
Handlungsempfehlungen für Unternehmen
Unternehmen können bereits heute wichtige Schritte unternehmen, um auf die Anforderungen des AI Act vorbereitet zu sein. Dazu gehört zunächst, einen umfassenden Überblick über alle im Betrieb eingesetzten KI-Systeme zu schaffen und eine erste Einschätzung vorzunehmen, welche dieser Systeme ab 2026 oder 2027 als Hochrisiko eingestuft werden könnten. Gleichzeitig sollten Verantwortlichkeiten klar benannt und die Führungsebene informiert werden, um Transparenz und Zuständigkeiten sicherzustellen. Auch die IT-Sicherheitsmaßnahmen müssen angepasst werden, denn Angreifer setzen selbst zunehmend KI-Technologien ein. Zudem ist es wichtig, Verträge mit Software- und Cloud-Anbietern zu prüfen, um die Pflichten aus dem AI Act rechtlich abzusichern.
eccyber empfiehlt daher, früh zu starten: Eine aktuelle Bestandsaufnahme verhindert Zeitdruck später. Dabei sollten Unternehmen breit denken und nicht nur Hochrisiko-Systeme, sondern auch Alltagsanwendungen wie Chatbots oder Übersetzungen prüfen. Prozesse und Nachweise sollten rechtzeitig vorbereitet und aufgebaut werden, damit ab 2026 und 2027 eine rechtskonforme Umsetzung möglich ist. Wichtig ist außerdem, kontinuierlich informiert zu bleiben und Entwicklungen sowie Fristen aktiv zu verfolgen.
Fazit
Der AI Act betrifft nicht nur große Technologieunternehmen. Nahezu jedes Unternehmen ist Betreiber von KI-Anwendungen, sei es in kritischen Prozessen oder in alltäglichen Tools. Wer jetzt beginnt, seine Systeme zu erfassen und Risiken einzuschätzen, ist für die kommenden Jahre vorbereitet. Das schafft nicht nur Rechtssicherheit, sondern auch Vertrauen bei Kunden, Geschäftspartnern und Aufsichtsbehörden.