Trust KI - Der vertrauenswürdige Podcast

In der neuesten Folge unseres Podcasts diskutieren wir mit dem Experten und Fachanwalt Dr. Lutz Martin Keppeler  über die bevorstehende Umsetzung des AI Acts und dessen Auswirkungen auf Unternehmen. Wir sprechen über die Dringlichkeit, sich auf die neuen Regelungen vorzubereiten. Wir klären, was Hochrisiko-KI ist und welche Unternehmen davon betroffen sein könnten. Der Experte erklärt die Herausforderungen, die Unternehmen dabei haben, sich richtig zu kategorisieren, und betont die Notwendigkeit einer sorgfältigen rechtlichen Beratung. Außerdem beleuchten wir, wie sich der AI Act auf Forschungseinrichtungen auswirkt und welche Besonderheiten es bei international tätigen Unternehmen gibt.  

Links:

Das Projekt TrustKI
https://vertrauenswuerdigkeit.com/

What is Trust KI - Der vertrauenswürdige Podcast?

Das Projekt TrustKI konzentriert sich auf die Entwicklung einer Plattform zur Bewertung der Vertrauenswürdigkeit von künstlicher Intelligenz. Die zunehmende Komplexität dieser Technologie erschwert es den Menschen, sie zu verstehen und zu bewerten. Wir sprechen mit Expertern, Wissenschaftlern und Anwendern über das Vertrauen in Künstliche Intelligenz.

Michael Voregger:

Trust KI der Podcast über künstliche Intelligenz und Vertrauenswürdigkeit. Mit dieser Frage beschäftigt sich das Institut für Internetzicherheit an der Westfälischen Hochschule in Gelsenkirchen im Rahmen des Forschungsprojekts Trust KI.

Ulla Coester:

Mein Name ist Ulla Coester ich bin Projektleiterin des Forschungsprojektes Trust KI.

Michael Voregger:

In dieser Folge unseres Podcasts spricht Ulla Köster mit dem Experten Lutz Hicking über die bevorstehende Umsetzung des AI Acts und dessen Auswirkungen auf Unternehmen.

Ulla Coester:

Ja Lutz, schön, dass Du heute da bist, mit mir über das Thema AI Act zu diskutieren. Was denkst Du denn, ist das Wichtigste, worüber wir uns als Erstes unterhalten müssten im oder im Rahmen des AI Acts?

Lutz Martin Keppeler:

Tja, dass der AI Act kommt und dass eben da gar nicht mehr so viel Übergangszeit existiert. Das heißt, viele müssen sich jetzt bewusst werden, was bedeutet das? Fällt meine KI Nutzung da drunter? Und was hab ich da für Aufgaben? Was hab ich für To dos?

Lutz Martin Keppeler:

Weil am Ende des Tages muss ich die zu irgendeinem Zeitpunkt umgesetzt haben, sonst drohen Bußgelder.

Ulla Coester:

Was denkst Du denn, was sind die größten Schwierigkeiten, die so auf die Unternehmen zukommen werden?

Lutz Martin Keppeler:

Tja, man muss sich erst mal klarmachen, betreibe ich eigentlich eine Hochrisiko KI oder bin ich Hersteller 1 Hochrisiko KI? Nur dann wird's eigentlich richtig interessant und nur dann kommen richtig viele Aufgaben auf mich zu. Das heißt, das ist eigentlich so die die erste Frage, die man einmal durchgehen muss.

Ulla Coester:

Was muss ich denn als Unternehmen machen, herauszufinden, ob ich Betreiber 1 Hochrisiko KI bin?

Lutz Martin Keppeler:

Das hat der Gesetzgeber nicht unbedingt sehr einfach gestaltet. Also es gibt einmal den Begriff KI selbst, da können wir vielleicht gleich noch mal drüber diskutieren, weil das ja durchaus interessant ist, was ist eigentlich KI, was nicht? Und dann gibt's nebenher die Frage Hochrisiko KI ist, dass wenn ich eine Tätigkeit ausübe mit der KI, die unter in 1 Anlage genannt ist. Da gibt's also die Anlage 1 und die Anlage 3 und da gibt's 2 unterschiedliche Konzepte. In der Anlage 1 werden also verschiedene EU Richtlinien genannt, die bisher auch schon eine CE Zertifizierung von verschiedenen Devices erfordern.

Lutz Martin Keppeler:

Und dann wird gesagt, wenn eine KI eine Sicherheitskomponente von so einem Gerät ist, was unter die EU Richtlinie fällt, also da steht etwa die Maschinenrichtlinie. Und wenn ich also eine KI habe, die eine Sicherheitskomponente von 1 Maschine ist, die unter die Maschinenrichtlinie fällt, dann wäre das eine Hochrisiko KI. Da geht's nicht nur die Maschinenrichtlinie, da geht's auch Fahrstühle, Fahrstuhlrichtlinie, da geht's die Spielzeugrichtlinie faszinierenderweise, aber heutzutage gibt's ja auch ganz schön viel smartes Spielzeug, sodass das sodass das richtig ist. Also das ist das das eine Konzept. Und dann gibt's das zweite Konzept.

Lutz Martin Keppeler:

Das ist die Anlage 3. Da werden eben verschiedene Tätigkeiten genannt, die mit KI ausgeführt werden. Und da wird's für viele Unternehmen dann schon interessanter. Also da steht zum Beispiel, wenn man im HR Bereich KI einsetzt und die KI einsetzt, Personal auszuwählen, Personal zu bewerten, Personal, ja, die Entwicklung von Personal zu begleiten. Und da KI einsetzt, dann ist das eine Hochrisiko KI Nutzung.

Lutz Martin Keppeler:

Das ist, glaube ich, das Beispiel, was die meisten Unternehmen oder größere Unternehmen jedenfalls treffen wird, was man vielleicht auf Anhieb gar nicht so sehr vermutet. Also nicht nur der Hersteller 1 entsprechenden KI im Personalbereich, sondern auch der der Nutzer. Der Betreiber heißt es jetzt wahrscheinlich im Deutschen, im Englischen heißt es deployer. Der betreibt dort dann eine Hochrisiko KI und muss sich dann entsprechend anschauen, was das bedeutet.

Ulla Coester:

Das klingt ja alles sehr komplex. Wie sind denn eure Erfahrungen jetzt mit Unternehmen? Also haben Unternehmen Schwierigkeiten, sich da irgendwie zu kategorisieren oder braucht man da sehr viel Beratung?

Lutz Martin Keppeler:

Ja, man ist absolut noch in der Findungsphase. Und das liegt auch daran, dass die Behörden, die das hinterher umsetzen werden in den Nationalstaaten, noch gar nicht überall benannt sind. Also in Deutschland ist etwa noch unklar, welche Behörde den AI Act oder vielleicht sogar welche Behörde den AI Act umsetzen werden. Da war mal kurzzeitig im Gespräch, ob das vielleicht die Datenschutzaufsichtsbehörden tun. Die Spanier haben etwa eine eigene AI Behörde gegründet.

Lutz Martin Keppeler:

Gibt's also verschiedene Ansätze und wir erinnern uns zurück an die Datenschutzgrundverordnung. Da war es natürlich hilfreich, dass die Datenschutzaufsichtsbehörden zu diesen abstrakten Klauseln der DSGVO dann irgendwann so herausgegeben haben in Deutschland, aber auch auf EU Ebene, wo man sich dann orientieren konnte auch als Unternehmen. Und das fehlt eben völlig. Man muss sich das noch mal klarmachen, der Datenschutzgrundverordnung, da war vieles neu, aber man konnte wenigstens sagen, es gibt Datenschutzrechtler, es gibt seit 20 Jahren Datenschutzaufsichtsbehörden oder länger. Es gibt Datenschutzbeauftragte, es gibt Leute, es gibt Leute an der Uni, die lehren Datenschutzrecht.

Lutz Martin Keppeler:

Das da gab's sozusagen eine professionelle Szene. Die hatte plötzlich viel mehr zu tun als vorher. Aber es war schon klar, wer sind denn die richtigen Fachleute, die jetzt da was tun? Und das ist ja beim AI Act ganz anders, weil da gibt's bisher noch keinen Professor, der AI Recht leert. Es gibt noch keinen AI Beauftragten.

Lutz Martin Keppeler:

Es gibt noch nicht sozusagen die Anwälte, die das seit 20 Jahren machen und es gibt erst recht keine Behörde, die das irgendwie seit 20 Jahren macht. Insofern entsteht jetzt hier ganz viel auf grüner Wiese. Und das ist sone schwierige Findungsphase für die Unternehmen. Also man muss jetzt schauen, entweder man fällt eindeutig drunter und dann muss man sich schon dran orientieren. Und wenn es son Grenzfall ist, das ist wirklich schwierig, wie man sich jetzt verhalten soll.

Lutz Martin Keppeler:

Also dann muss man irgendwie schon mal mit 'n bisschen Aufwand in die Richtung gehen, aber man sollte noch nicht zu viel Aufwand betreiben, weil je nachdem, wie's ausgelegt wird, fällt man vielleicht doch nicht drunter.

Ulla Coester:

Was sind denn die anderen beiden Risikoklassen, wo wir jetzt grade schon drüber sprechen? Und ja genau, wie schaffen es Unternehmen, sich da einzufinden? Und vor allen Dingen, ist es da nicht auch 'n Stück weit eine Auslegungssache der beauftragten Anwälte, also wenn wenn's ja noch keine eindeutigen Richtlinien gibt?

Lutz Martin Keppeler:

Unsere Aufgabe ist es, zu sagen, wir haben hier den Wortlaut und schauen uns anhand der Erwägungsgründe, wie das wahrscheinlich ausgelegt wird und schauen uns an, was das Unternehmen macht. Und können dann sagen, ja, wir halten es für für sehr wahrscheinlich, dass es nicht runterfällt. Oder folgende Argumente sprechen aber dafür, dass es da drunter fällt. Und hier halten wir's eher für wahrscheinlich, dass ein Richter oder ein Behördenmitarbeiter dann mal dieses Argument stark gewichtet und und sagt, ja, das ist eine KI, die als Hochrisikoki hier da drunter fällt. Man muss sagen, dass fragen noch nicht so ganz viele Unternehmen ganz intensiv aktuell.

Lutz Martin Keppeler:

Viele warten eher noch darauf, welche Behörde wird denn da jetzt eingesetzt? Das liegt auch daran, weil man ja recht großzügige Übergangsfristen dann noch haben wird. Es gibt einige Regeln im KI Act, die gelten dann schon nach 6 Monaten. Aber das sind nur die Regeln zu der verbotenen KI, wo man also sagt, das ist eine KI Nutzung, die ist gesellschaftlich so kritisch, die wollen wir gar nicht haben. Also ein Social Scoring System nach chinesischem Vorbild oder so was.

Lutz Martin Keppeler:

Oder eine Videoüberwachung, die also gleichzeitig mit Internetressourcen abgleicht und dann mit Identifikation durchführt und das zu strafrechtlichen Zwecken macht. Also solche Dinge sind verboten und die sind die sind auch recht genau beschrieben und die sind nach 6 Monaten sind diese Regeln anwendbar. Die übrigen Regeln sind aber ganz überwiegend erst nach 24 Monaten anwendbar, sodass die Unternehmen jetzt grade noch halbwegs entspannt sagen können, wir haben ja noch 'n bisschen Zeit. Und die Kunst ist es, den Punkt dann nicht zu verpassen, weil es ja auch einen großen Aufwand bedeutet, dann entsprechend alle Regeln der KI Verordnung umzusetzen. Darf man jetzt also nicht 2 Jahre lang sagen, wir haben ja noch ganz viel Zeit, sondern muss da den richtigen Zeitpunkt erwischen.

Lutz Martin Keppeler:

Und der, würde ich mal sagen, ist spätestens Anfang nächsten Jahres, je nachdem, welche wie umfangreich die KI Projekte sind, die man selber als Unternehmen hat.

Ulla Coester:

Eine interessante Frage in diesem Kontext ist für mich auch, betrifft der AI Act eigentlich nur Unternehmen oder hat der auch eine Relevanz für die Forschung?

Lutz Martin Keppeler:

Der ist, so wie er formuliert, ist erst mal nicht unternehmensbezogen. Das heißt, auch staatliche Stellen, die KI nutzen, universitäre Einrichtungen, die KI nutzen, größenunabhängig können da drunter fallen. Es gibt allerdings eine Ausnahme, die vorne im Artikel 2, der da ist Anwendungsbereich, die die vom Anwendungsbereich ausgenommen ist. Und das ist reine Forschung und Entwicklung mit KI und und Entwicklung von KI. Die soll also ausgenommen werden.

Ulla Coester:

Und was bedeutet das?

Lutz Martin Keppeler:

Ja, das bedeutet, wenn ich sozusagen die HR Software einsetze als Unternehmen oder wenn ich sie als Hersteller entwickle und auf den Markt bringe, dann unterfall ich voll dem AI Act. Wenn ich aber diese Software jetzt nehme als Forscher und auseinandernehme und sie analysiere und und und schaue, wie könnte man sie verbessern, wenn ich Tests damit auch durchführe rein zu Forschungszwecken, dann unterfällt es nicht dem AI Act. Wobei diese Sache mit den Testungen eben son bisschen tricky ist, da kommt's auch wieder auf den Wortlaut an. Da hat man einen reinen Sandbox Test, der eigentlich keine Personen dann betrifft am Ende, dann hat man dann auch relativ viele Freiheiten. Wenn man natürlich son son Livetest durchführt mit echten Personen, dann kann das doch der KI Verordnung dann schon unterfallen.

Ulla Coester:

Boah, also müssten Universitäten und Forschungseinrichtungen sich dann auch an Rechtsanwälte wie euch wenden, da nicht irgendwie gegen Gesetze oder gegen den AI Eck zu verstoßen.

Lutz Martin Keppeler:

Ja, das kommt drauf an, was man vorhat. Also Testung hieße ja, man hat eine KI selber aufgebaut oder sich ein Open Source Projekt genommen. Die reine Entwicklung 1 1 Open Source KI, die jetzt auch noch nicht fürn speziellen Anwendungsfall direkt einsetzbar wäre, ja. Also das das reine Modell als Open Source, das kann kann jederzeit entwickelt werden. Und das unterfällt dann nicht dem KI Eck.

Lutz Martin Keppeler:

Ja, der Forscher muss sich eben überlegen, was tut er da? Wenn er wenn er wenn er ein abstraktes Paper dazu macht und das analysiert, ist das völlig ungefährlich. Wenn er anfängt, es selber zu verbessern, zu trainieren, mit anderen Daten zu trainieren, mal schauen, was dabei rauskommt. Beim Anwenden spätestens wär er mit drin. Und dann ist die Frage, wo fängt Anwenden an, wo wo hört Testen auf sozusagen und und wie strukturiert man das Testen, dass es dann nicht da drunter fällt?

Lutz Martin Keppeler:

Ich nehme mal an, genauso wie an den meisten Unis es ja dann am Ende irgendwelche Fachleute gibt, die ein bisschen was von Patentrecht verstehen. Sollte es dann in Zukunft an den meisten Unis auch jemanden geben, der da ein paar Sätze zu sagen kann und sagen kann, in welchen Zweifelsfällen müssen wir hier eher einen Fachmann fragen?

Ulla Coester:

Es gibt ja auch das Thema Dol use jetzt vielleicht noch nicht mal so im negativen Sinne. Es kann ja sein, dass Du eine KI Anwendung für ganz harmlose Zwecke anwendest oder aber auch hoch risikobehaftete Zwecke. Wie wie sieht da eigentlich der Fall aus?

Lutz Martin Keppeler:

Das ist noch nicht vollständig geklärt. Das kann man anhand des Wortlauts auch noch nicht so richtig sagen. Also diese hochkritischen Einsatzzwecke sind schon relativ spezifisch beschrieben. Also ein, wo man sagt, ich hab hier die Sicherheitskomponente im Fahrstuhl oder in der Maschinenrichtlinie, Das macht man ja nicht aus Versehen und das ist dann nebenher noch ein anderer Use Use Use Use. Und genauso ist mit der HR Software.

Lutz Martin Keppeler:

Also andere Beispiele wären Prüfung von Kreditwürdigkeit. Also Use passiert da nicht aus Versehen, sagen wir mal so. Das heißt, der Hersteller baut es schon so, dass es zu diesen ein und trainiert es schon so, dass es zu diesem Einsatzzweck da ist. Das glaube, dass das Thema wird auf der Ebene unterschieden. Wenn ich sozusagen Hersteller bin und will eine harmlose Variante rausbringen, dann muss ich eben 2 Produkte, die können sozusagen grundsätzlich auf demselben Code basieren, aber müssen dann vielleicht anders trainiert werden.

Lutz Martin Keppeler:

Die haben eine andere Nutzeroberfläche, haben andere Einsatzzweck, sodass klar ist, ein KI Produkt kann benutzt werden, aber eben nicht zu diesen kritischen Anwendungsfällen.

Ulla Coester:

Ja Lutz, aber alte Frage haben wir jetzt noch gar nicht geklärt. Was ist eigentlich KI?

Lutz Martin Keppeler:

Ja, genau. Also es gibt ja nicht nur hochkritische KI, sondern allgemein KI und die ist auch definiert im AI Act. Und da ist die die Gesetzgebungsgeschichte eben interessant. Also zuerst hat man gesagt, wir verweisen auf eine Anlage und da schreiben wir bestimmte Technologien rein und sagen, wenn diese Technologien genutzt werden, dann ist es KI. Und dann stand da aber nicht nur Large Language Model, weil KI ist ja auch mehr vielleicht.

Lutz Martin Keppeler:

Und dann standen da aber Algorithmen Typen, wo dann wo dann andere Informatiker gesagt haben, ja, aber das benutze ich doch schon immer und das ist aber eigentlich im Kern nicht KI, sondern nur im Randbereich vielleicht. Und dann hat man gesagt, ja, sone rein technische Auflistung von Algorithmentypen führt hier in die Irre. Wir müssen das abstrakter fassen, also ein autonomes System, was selbstständig Entscheidungen treffen kann, die nicht von System, was selbstständig Entscheidungen treffen kann, die nicht vordeterminiert sind. Man fängt dann an, als abstrakt zu formulieren. Und dann war das aber schwierig, das abstrakt zu definieren.

Lutz Martin Keppeler:

Also zu einem Entwurf hat dann mal Professor geschrieben, na ja, wenn ich das jetzt mal streng anwende, ist meine elektrische smarte Zahnbürste, die also ganz autonom drucksensitiv reagiert, fällt da jetzt plötzlich drunter. Dann hat man also irgendwie jetzt son bisschen einen Spagat versucht bei 1 abstrakten Definition gelassen und hat in den Erwägungsgründen ganz viel reingeschrieben, was jetzt da drunter fallen soll. Da steht dann also typischerweise Large Language Models und so weiter. Das heißt, das ist auch richtig gefährlich, das haben viele Unternehmen wahrscheinlich noch nicht entdeckt, dass manch eine statistische Anwendung, von der man vielleicht nie auf die Idee käme, dass sie KI sein könnte, ja, kann aber je nach Auslegung von diesem KI Begriff eben doch plötzlich dem AI Act unterfallen.

Ulla Coester:

Und es wird ja jetzt viel auch schon über AG oder Singularity diskutiert. Dieses Thema wird ja im AI Act noch gar nicht irgendwie abgegolten, oder?

Lutz Martin Keppeler:

Richtig, also es gibt keine spezifischen Schutzmechanismen. Der Begriff Super KI oder Signularity oder so was ist nicht ist nicht definiert und es gibt keine Regeln, die sagen, wenn wenn eine KI mal so und so gut wird, dann ist sie plötzlich auch doch verboten. Der KI gilt ja deswegen auch als fortschrittlich, man, weil er angefangen hat, als ChatGPT noch nicht bekannt war. Deswegen ist sozusagen General Purpose AI am Anfang nicht berücksichtigt worden. Und das ist sozusagen der der fortschrittlichste Begriff, den man da findet, General Purpose AI, die eben darauf gemünzt ist, dass ChatGPT erfasst ist.

Lutz Martin Keppeler:

Weil ChatGPT ist ja an sich nicht dazu gemacht, jetzt unseren HR Use Case zu haben oder ein Social Scoring System zu zu unterstützen oder Kreditwürdigkeit zu prüfen, sondern ist eben eine allgemeine Anwendung, die aber eben auch kritisch ist, weil sie so viele Anwendungszwecke hat. Deswegen hat man also Sonderregeln zu General Purpose AI verfasst. Das ist aber sozusagen das Fortschrittste, was da gibt.

Ulla Coester:

Ist denn schon die oder AG berücksichtigt oder kann die berücksichtigt werden durch den AI Act?

Lutz Martin Keppeler:

Das ist als Idee oder als Definition oder als Regel nicht im AI Act vorhanden. Vielleicht liegt es auch daran, dass Ray Kurzweil nicht im Europäischen Parlament sitzt und da mitschreibt. Der AI Act sieht also keine Bremse vor, die irgendwann sagt, eine KI ist irgendwann so hoch entwickelt, dass man jetzt aufhören sollte, sie zu entwickeln sozusagen. Das das gibt's in keiner Form, muss man sagen. Das Modernste am AI Act ist, dass man General Purpose KI reguliert hat.

Lutz Martin Keppeler:

Und das zielt ab auf ChatGPT und ähnliche Formate. Und da ist die Idee, der Gesetzgebungsprozess hat begonnen und erst danach kam ChatGPT für die Öffentlichkeit heraus. Und dann hat man eben festgestellt, ChatGPT ist auch riskant und sollte reguliert werden, fällt aber natürlich an sich jetzt nicht per Definition unter einen dieser hochkritischen Anwendungsfälle. Es ist eben keine HR Software und es dient nicht primär der Bonitätsprüfung. Das ist vielleicht sone halbe Antwort auf die Dual Use Frage, ja, weil weil sozusagen das ist ja Multiple Use.

Lutz Martin Keppeler:

Und deswegen hat man hat man gesagt, dieses General Purpose AI braucht dann trotzdem son bisschen eigene Regeln, auch wenn es nicht zu Hoch Risikozwecken eingesetzt wird. Und das ist sozusagen das der fortschrittlichste Punkt, der erwischt wurde während der Gesetzgebungstätigkeit. Und weitergehende Ideen zur Ausbremsung von Singularity Themen sind aber im AI Act nicht vorhanden.

Ulla Coester:

Jetzt ist natürlich die Frage, also es gibt deutsche Unternehmen, die in den USA zum Beispiel agieren und es gibt US Unternehmen, die in Deutschland agieren. Wie wie ist denn da die Gesetzeslage? Also müssen die deutschen Unternehmen, die jetzt zum Beispiel auf den US Markt wollen, trotzdem diese Anforderungen aus dem AI Act erfüllen?

Lutz Martin Keppeler:

Das ist schwierig, weil das weil das Neuland ist, wie wir eben gesagt haben und es eben in keiner anderen Jurisdiktion auf auf auf der Welt sonst gibt. Da ist die EU Kommission auch sehr stolz drauf, das das Parlament auch. Na ja, auf diesen Stolz treffen jetzt die Unternehmen. Die können sich jetzt einerseits sagen, ich könnte in der EU forschen, ich kann Open Source in der EU machen und bringe das dann aber in Amerika oder China auf den Markt oder oder sonst wo auf der Welt. Also so käme man raus, aber das ist natürlich auch nicht richtig verlockend sozusagen.

Lutz Martin Keppeler:

Also wer auch immer in Europa eine KI auf den Markt bringen will, die nach dem AI Act eine Hochrisiko KI ist, und sei es ein amerikanisches Unternehmen, sei es ein chinesisches Unternehmen, sei es ein europäisches Unternehmen, der muss sich dann hier in Europa an den AI Act halten, und zwar erst mal auch in dem Land, wo er mit dem Vertrieb beginnt sozusagen. Und das kann aber auch heißen, wenn ich eine weltweit verfügbare Download- oder Portalwebseite habe, von der aus ich meine Software zugänglich mache, ja, dann kann es sein, dass ich das vielleicht in Brasilien tue und eine eine für eine gute Idee halte und es ist aber auch, weil es englischsprachig ist, in in der EU vollständig verfügbar. Na ja, dann unterfällt man im Zweifelsfall in der EU, dem AI Act. Ob dann wirklich eine Behörde hingeht und versucht, einem brasilianischen Unternehmen, welches keine der Pendants in Europa hat, Rechtsfolgen aufzuerlegen. Das sehen wir dann, wenn's die Behörden mal wirklich gibt.

Lutz Martin Keppeler:

Aber so wär es der Regel nach gehandhabt.

Ulla Coester:

Also müssen wir uns hier in Europa keine Sorgen machen, dass wir demnächst keine internationale KI Software mehr zur Verfügung gestellt bekommen, weil halt die Beschränkung eventuell für diese Unternehmen zu hoch ist.

Lutz Martin Keppeler:

Es kann natürlich absolut sein, dass sich Unternehmen sagen, wir sind uns nicht so sicher, ob wir das alles erfüllen. Wir prüfen erst mal, ob wir das erfüllen. Das wird erst mal noch nicht in der EU freigeschaltet. Und vielleicht kommen Sie dann zu dem zu dem Schluss, na, wir haben's alles jetzt schon so schön gebaut, es läuft alles mit den Testdaten. Die Anforderungen an Test- und Validierungsdaten und und die Anforderungen an Training und die Anforderungen an Logfiles, so wie sie da stehen im AI Act, die erfüllen wir gar nicht.

Lutz Martin Keppeler:

Das ist uns zu anstrengend, das lassen wir mal, das für die EU umzubauen. Das kommt mit der nächsten Version vielleicht. Mal gucken, je nachdem, wie gut's läuft. Also das ist durchaus denkbar, dass dann AI Anwendungen, die kritisch sind, in Amerika verfügbar sind und in Europa nicht. In den in UK schon.

Lutz Martin Keppeler:

Und dann freuen sich die Briten vielleicht.

Michael Voregger:

Wir werden das Thema künstliche Intelligenz und Vertrauen natürlich noch weiter vertiefen. Es wird also weitere Podcast dazu geben. Bis dahin, danke und tschüs.