7. August 2024

AI Act tritt in Kraft: Was Sie über die KI-Verordnung wissen müssen

AI Act tritt in Kraft: Was Sie über die KI-Verordnung wissen müssen

Seit dem 1. August 2024 ist der AI Act in Kraft und reguliert Künstliche Intelligenz (KI) in der EU! Diese bedeutende Verordnung gilt direkt in allen Mitgliedstaaten der Europäischen Union und stellt einen wichtigen Schritt in der Regulierung und Kontrolle von KI-Systemen dar. In diesem Beitrag werfen wir einen detaillierten Blick auf die wichtigsten Aspekte des AI Act und was er für Unternehmen und Entwickler bedeutet.

Was ist der AI Act?

Der AI Act ist ein umfassendes Gesetz, das entwickelt wurde, um die Nutzung und Entwicklung von KI-Systemen in der EU zu regeln. Er basiert auf einem risikobasierten Ansatz, bei dem KI-Systeme in verschiedene Risikoklassen eingeteilt werden. Diese Einteilung bestimmt die spezifischen Anforderungen und Fristen, die für jedes Risikolevel gelten. Der AI Act zielt darauf ab, sicherzustellen, dass KI-Systeme sicher und ethisch verwendet werden, indem er klare Regeln für die Entwicklung, den Einsatz und die Überwachung von KI- Technologien festlegt.

Die Risikoklassen des AI Act

Der AI Act unterteilt KI-Systeme in verschiedene Risikoklassen, die jeweils unterschiedliche Anforderungen und Fristen mit sich bringen. Diese Klassifizierung reicht von niedrigem Risiko bis hin zu hohem Risiko. Je höher das Risiko, desto strenger die Vorschriften. Hier sind die Hauptkategorien:

  1. Minimales Risiko: Systeme mit minimalem Risiko für die Rechte und Sicherheit der Menschen, wie etwa grundlegende KI-Anwendungen in der Kundenbetreuung.
  2. Wachsendes Risiko: Anwendungen, die potenziell Risiken bergen, jedoch nicht unmittelbar bedenklich sind, wie etwa KI-gestützte Empfehlungsalgorithmen.
  3. Hohes Risiko: KI-Systeme, die erhebliche Auswirkungen auf die Sicherheit und Rechte der Menschen haben, wie etwa KI in der Gesundheitsversorgung oder in der Strafverfolgung.
  4. Unzulässiges Risiko: Systeme, die als zu riskant eingestuft werden und daher verboten sind, wie etwa solche, die Menschen manipulieren oder ausnutzen.

Generative KI und der AI Act

Ein besonders heiß diskutiertes Thema ist die sogenannte generative KI, zu der Systeme wie ChatGPT gehören. Diese Art von KI, die in der Lage ist, menschenähnliche Texte zu generieren oder komplexe Inhalte zu erstellen, wird unter dem Begriff GPAI –  General Purpose AI – zusammengefasst.

Als die Verordnung entworfen wurde, existierten generative KI-Systeme noch nicht in der heutigen Form, weshalb ihre spezifischen Regelungen später hinzugefügt wurden. Die Integration von GPAI in den AI Act erforderte spezielle Verhandlungen und Anpassungen. Besondere Vorschriften gelten daher für diese Art von KI, um ihre ethische Nutzung zu gewährleisten und potenzielle Missbrauchsmöglichkeiten zu minimieren.

Besondere Anforderungen für GPAI

Generative KI unterliegt strengen Auflagen, die unter anderem folgende Punkte umfassen:

  • Transparenz: Nutzer müssen darüber informiert werden, dass sie mit einer KI kommunizieren. Dies soll verhindern, dass Menschen fälschlicherweise glauben, sie hätten es mit einem Menschen zu tun.
  • Sicherheitsstandards: GPAI-Systeme müssen strenge Sicherheitsüberprüfungen bestehen, um sicherzustellen, dass sie keine schädlichen oder irreführenden Inhalte produzieren.
  • Ethik und Datenschutz: Der Umgang mit personenbezogenen Daten und ethischen Fragestellungen ist besonders kritisch. Die Verordnung stellt sicher, dass Datenschutzrichtlinien eingehalten und ethische Grundsätze beachtet werden.

Auswirkungen auf Unternehmen und Entwickler

Für Unternehmen und Entwickler bedeutet die Einführung des AI Act erhebliche Veränderungen. Unternehmen müssen ihre KI-Systeme möglicherweise anpassen, um den neuen Vorschriften zu entsprechen. Dies kann zusätzliche Kosten und Zeitaufwand bedeuten, insbesondere für die Anpassung an die spezifischen Anforderungen der Risikoklassen und die Implementierung von Compliance-Maßnahmen.

Entwickler müssen sicherstellen, dass ihre KI-Systeme alle Anforderungen des AI Act erfüllen, einschließlich derjenigen für GPAI, falls ihre Systeme unter diese Kategorie fallen. Dies erfordert möglicherweise zusätzliche Schulungen und Anpassungen in den Entwicklungsprozessen.

Fazit

Der AI Act stellt einen bedeutenden Schritt in der Regulierung von Künstlicher Intelligenz in der EU dar. Durch die Einführung eines risikobasierten Ansatzes und spezieller Regelungen für generative KI-Systeme schafft die Verordnung einen Rahmen, der sowohl die Innovation im Bereich KI fördert als auch die Sicherheit und ethische Nutzung gewährleistet. Unternehmen und Entwickler sollten sich frühzeitig mit den neuen Anforderungen vertraut machen und entsprechende Maßnahmen ergreifen, um den neuen Vorschriften gerecht zu werden.

 

Consent Management Platform von Real Cookie Banner