AI Act – Brauchen wir einen Goldstandard für Künstliche Intelligenz?

Das Thema rund um den AI Act, in dem die Europäische Union (EU) den Einsatz und die Entwicklung im Bereich der Künstlichen Intelligenz (KI) regulieren möchte, sorgt aktuell für viel Diskussionsstoff. Diese Regulierung sorgt nicht nur in der Start-up-Szene für ein unwohles Gefühl, sondern auch in vielen Unternehmen und Verbänden.

Im Kern geht es darum, dass es einen risikobasierten Ansatz in vier Stufen gibt. Je höher das Risiko einer KI-Anwendung, desto strenger wird diese reguliert.

  • Unannehmbares Risiko: Systeme, von denen eine eindeutige Bedrohung ausgehen, wie z.B. Social Scoring oder Systeme, die manipulativer Natur sind.
  • Hohes Risiko: Systeme, von denen eine Gefährdung auf die Sicherheit oder Grundrechte der EU-Bürger ausgehen.
  • Geringes Risiko: Systeme, die in unkritischen Lebensbereichen zum Einsatz kommen, wie z.B. Chatbots.
  • Minimales Risiko: Spamfilter, Computerspiele usw.

Ich denke, es ist sinnvoll, solche Diskussionen zu führen und entsprechende Regularien auszuarbeiten. Die Schwierigkeit dabei wird sein, eine Balance zu finden, die einerseits die Innovationsfähigkeit und andererseits einen definierten Schutz der Bürger gewährleistet.

Das größte Problem, welches wir in diesem Zusammenhang als Unternehmen sehen, ist die breite Definition des Begriffs KI. Der Gesetzesentwurf beinhaltet neben Konzepten des Maschinellen Lernens auch statistische Ansätze, Such- und Optimierungsverfahren. Dies hat zur Folge, dass dadurch fast jede Software, die aktuell entwickelt wird, automatisch eingeschlossen werden könnte.

Wie auch immer der AI Act aussehen wird, verfolgen wir den Ansatz, das Verhalten einer KI-Lösung so weit wie möglich aus Anwendersicht nachvollziehbar darzustellen: KI-Lösungen sind oft Blackbox-Lösungen. Es ist auch aus Entwicklersicht nicht immer möglich, die KI komplett zu verstehen. Aber genau hier müssen die Lösungsanbieter Alternativen entwickeln, damit die Anwender zumindest das Verhalten und die Grenzen der KI nachvollziehen und für sich einordnen können. Diesen Ansatz verfolgen wir bei Datalyxt von Anfang an und setzen dies auch im Rahmen von SdbHub beim Auslesen oder Datenextraktion aus SDBs um. Nur Transparenz schafft ein Grundvertrauen in eine neue Technologie.

Auch im Rahmen des Forschungsprojektes KARL, das durch das Bundesministerium für Bildung und Forschung (BMBF) gefördert wird, arbeiten wir mit weiteren Unternehmen und Forschungspartnern daran, das Verhalten der KI erklärbar und transparent dem Anwender gegenüber zu präsentieren.