Das Projekt TrustKI konzentriert sich auf die Entwicklung einer Plattform zur Bewertung der Vertrauenswürdigkeit von künstlicher Intelligenz. Die zunehmende Komplexität dieser Technologie erschwert es den Menschen, sie zu verstehen und zu bewerten. Wir sprechen mit Expertern, Wissenschaftlern und Anwendern über das Vertrauen in Künstliche Intelligenz.
Zum Thema künstliche Intelligenz gibt es täglich Neuigkeiten und spannende Entwicklungen. Unternehmen setzen die KI bereits im Alltag ein, zum Beispiel bei der Auswahl von Bewerbern. Die Technologie wird schon in naher Zukunft viele Bereiche unseres Alltags verändern. Dabei spielt der Faktor Vertrauen eine entscheidende Rolle. Mit dieser Frage beschäftigt sich das Institut für Internetzicherheit an der Westfälischen Hochschule in Westfälischen Hochschule in Gelsenkirchen im Rahmen des Forschungsprojekts QAS KI.
Ulla Coester:Mein Name ist Ulla Köster, ich bin Projektleiterin des Forschungsprojektes Trust KI. Ja, guten Morgen, Herr Pieper. Schön, dass wir uns heute über den AI Act unterhalten können. Ein sehr spannendes Thema, weil wir sind ja jetzt endlich auf der Zielgerade, nach langem Ringen haben sich die 3 Parteien auf eine Einigung treffen können, zu 1 Einigung treffen können. Wie wird es jetzt weitergehen Ihrer Ansicht nach?
Ulla Coester:Wie wird, was wird nach der finalen Abstimmung erfolgen?
Fritz-Ulli Pieper:Genau. Sie haben's grad schon gesagt, ein wichtiger Schritt muss ja noch gemacht werden. Das Europäische Parlament muss über den finalen Text abstimmen. Das wird aktuell aber eher als Formsache angesehen. Es war ja in den Trilogverhandlungen quasi durch Unterhändler vertreten, die mitverhandelt haben.
Fritz-Ulli Pieper:Dabei geht man jetzt davon aus, dass am zehnten, elften April wahrscheinlich die finale Abstimmung stattfinden wird. Und dann ist der AI Act quasi mit 'nem kurzen Übergangszeitraum gilt er. Und dann werden ja, Übergangsfristen sozusagen sind ja reguliert worden. Verbotene Systeme müssen nach 'nem bestimmten Zeitraum, nach 6 Monaten dürfen nicht mehr betrieben werden, müssen abgeschaltet werden. Dann nach 12 Monaten gibt's wiederum einen Schritt, wo die Pflichten für Hochrisiko KI Systeme dann anwendbar sind.
Fritz-Ulli Pieper:Die sind dann zu beachten und nach 24 Monaten gibt's dann auch noch mal, also es gibt sozusagen, man kann einfach verkürzt sagen, es gibt unterschiedliche Zeiträume, wo dann diverse Pflichten nach und nach Anwendung finden.
Ulla Coester:Okay, das hört sich jetzt erst mal kompliziert an. Aber allgemein, wie ist Ihr Eindruck? Kann man mit der mit dem erzielten Kompromiss leben? Also ich sag mal so, die Reaktionen nach dem Kompromiss,
Fritz-Ulli Pieper:die Reaktionen nach dem Kompromiss, die waren überwiegend eigentlich so, niemand war so richtig megahappy. Das liegt, glaub ich, einfach daran, dass es sehr, sehr weitgehend in Richtung Kompromiss ging in vielen Vorschriften. Keiner hat also wirklich das bekommen sozusagen, wo früher ins Rennen gegangen ist. Viele Regelungen auch sozusagen zum Beispiel in Bezug auf die Gesichtserkennung, die biometrische, da gab's ja Extrempositionen und und da wurde sozusagen den Mittelweg gewählt. Das war bei vielen Regelungen am Ende so.
Fritz-Ulli Pieper:Ich finde, das ist halt das Wesen 1 Kompromisses, auch in solchen politischen beziehungsweise regulatorischen Verhandlungen, dass man von seiner eigenen Position abrückt und sich irgendwo treffen muss, dass beide 'n bisschen verloren und 'n bisschen gewonnen haben. So, das ist erst mal okay. Und dann haben am Ende eigentlich auch alle gesagt, jetzt haben wir's hinter uns, jetzt ist es, wie es ist und machen wir's Beste draus sozusagen. Von daher denke ich, ist es eigentlich 'n vernünftiges Outcome aus auf der Basis, mit der man so gearbeitet hat.
Ulla Coester:Also kommen wir jetzt mal von dem internationalen Standpunkt auf den deutschen Standpunkt, können in Deutschland alle Unternehmen damit leben? Also ich war jetzt nicht nur die großen Unternehmen, sondern auch die Start ups.
Fritz-Ulli Pieper:Ja, also das ist eine sehr gute Frage. Das betrifft eigentlich nicht nur Deutschland, der AI Egg ist ja in Ordnung mit den einen europäischen Ländern anwendbar. Aber natürlich trifft's auch deutsche Unternehmen. Und es ist richtig, dass das 'n ziemliches regulatorisches Monstrum ist, wo man je nachdem, unter welche Kategorie man fällt und wie viel KI Systeme man als Unternehmen einsetzt, egal ob groß oder klein, 'n sehr großen Umsetzungsaufwand haben wird, ja. Also personell, finanziell administrativ, das muss alles im Unternehmensalltag irgendwie integriert und umgesetzt werden und das ist schon 'n ganz erheblicher Aufwand.
Fritz-Ulli Pieper:Bezüglich Start ups gibt's 'n paar Ausnahmevorschriften. Die sind jetzt aber nicht so umfassend, dass ich sagen würde, das macht 'n kleinen Unterschied, aber keinen signifikant großen Unterschied aus.
Ulla Coester:Genau. Aber werden jetzt deutsche Unternehmen, weil das heißt ja, hieß ja am Anfang son Stück weit, wirklich dadurch Wettbewerbsnachteile haben, also jetzt gegenüber amerikanischen Unternehmen oder chinesischen Unternehmen?
Fritz-Ulli Pieper:Tja, das wird, glaub ich, erst die Zukunft zeigen. Es gibt zumindest ja auch sozusagen das Argument, dass man sagt, eine durchdachte, wenn auch umfassende, aber trotzdem solide Regulierung kann halt auch dazu beitragen, dass ein gemeinsames sozusagen Level playing field für alle Player im Markt, für Anbieter, für Nutzer, besteht europaweit, sodass halt dieses sone einheitliche Handhabe, einheitliche Vorschriften bestehen, an denen man sich orientieren kann. Das kann ja insoweit auch einen Vorteil sein. Ob das jetzt wirklich dazu führt, zum Beispiel dieser Umsetzungsaufwand und diese ganzen Vorgaben, die man umsetzen muss, dass andere in anderen Ländern das nicht machen müssen und das muss, dass andere in anderen Ländern das nicht machen müssen und dass das automatisch zu 'nem Wettbewerbsvorteil führt, das weiß ich nicht, ist schwer zu sagen. Bei der Datenschutzgrundverordnung, da war's ja 'n bisschen ähnlich.
Fritz-Ulli Pieper:Da haben sich auch alle riesig aufgeregt, dass das son umfassendes Compliance Monster ist und sehr viel Umsetzungsaufwand erzeugt, also 'n bisschen vergleichbar insofern. Und da hat sich teilweise ja auch gezeigt, dass andere Länder das dann als Vorlage sozusagen genommen haben, so dieser Brussels Effekt eingetreten ist und auch orientiert an der DSGVO eigene Regulierung eingeführt haben.
Ulla Coester:Mhm.
Fritz-Ulli Pieper:Und das würde ich fast auch erwarten, dass andere Länder das bei KI genauso machen, weil man das jetzt auch schon sieht. Viele, viele Länder, Brasilien, USA sogar, für die ist total ungewöhnlich, reden auch schon über die Regulierung von KI. Und da könnte man vielleicht dann annehmen, wenn man son bisschen in die Glaskugel schauen möchte, dass das gar kein so schlechter Schritt von der EU war, da vorne mit dabei zu sein, auch wenn viel geschimpft wird, ne. Wir sind Meister in Regulieren. Das kann sich eben auch positiv auswirken.
Ulla Coester:Ja, eigentlich war's ja 'n Stück weit die Intention, hervorzuheben, dass KI menschenzentriert sein soll. Aber trotzdem gibt's ja, glaub ich, auch einige Rechtsunsicherheit im AI Act. Zum Beispiel sagen ja einige, dass die Definition von KI viel zu weit gefasst ist. Also wie sehen Sie das?
Fritz-Ulli Pieper:Ja, genau. Also das ist mit Sicherheit so, würd ich schon sagen. Die Definition von KI Systemen, also erst mal vielleicht so orientiert sich aktuell an 1 bereits bekannten Definition, die die OECD schon länger benutzt. Das ist vielleicht erst mal gut, weil man dann was genommen hat, was man kennt, wo andere vielleicht auch schon mitgearbeitet haben. Die Herausforderung mit dieser Definition ist, dass sie genau in der Tat sehr, sehr weit ist, ne.
Fritz-Ulli Pieper:Es wird halt im Prinzip wird drauf abgestellt, dass es 'n Softwaresystem ist, was mit Autonomie funktioniert, bestimmten Output generieren soll. Und das wird auch nicht weiter eingegrenzt, ne. Es gab ja mal noch son Annex im Rahmen des Gesetzgebungsverfahren, wo gesagt wurde, welche Methoden technischer Art, statistischer Art et cetera zugrunde gelegt werden müssen, damit's als KI System gilt. Das hat man quasi getilgt und jetzt ist es nur noch ein Wort, Ungetüm, was KI System zu definieren ist. Und das ist eben sehr breit, hat sehr viele sozusagen auslegungsbedürftige Bestimmungen drin, die nur im Einzelfall noch mal konkretisiert werden müssen und wo sich definitiv Fragen stellen werden.
Fritz-Ulli Pieper:Ja, fall ich jetzt drunter oder nicht? Kann mein System das oder nicht? Ist es die Reichweite, die definitiv vorsieht oder nicht so, wie mein System funktioniert? Und das erzeugt auf jeden Fall Rechtsunsicherheit. Ich weiß noch nicht, ob das sozusagen 'n Punkt ist, wo man sagen würde, die Nutzerzentriertheit geht 'n bisschen verloren.
Fritz-Ulli Pieper:Das ist vielleicht dann eher die Frage, das ist ja Produktregulierung letztlich, die KI Verordnung. Und das Produkt KI System wird ja umfassend reguliert, insbesondere im High Risk Bereich oder auch bei verbotenen Systemen. Und das kann Nutzern, Kunden, Verbrauchern am Ende schon immer noch zugutekommen, auch wenn's bei der Rechtsanwendung sozusagen Unsicherheiten gibt.
Ulla Coester:Mhm. 'N gutes Stichwort. Sie haben ja jetzt die Risikoklasse Hochrisiko schon angesprochen. Glauben Sie eigentlich wirklich, dass das greifen wird, also jetzt auch wieder im Sinne des Nutzers, also unter dem Aspekt Nichtschädigungsprinzip? Oder glauben Sie eher, dass die Unternehmen versuchen werden, da sich drumherum zu lavieren und eher niedriger eingruppiert, niedriger eingruppiert zu werden.
Fritz-Ulli Pieper:Ja, also wenn ich 'n Unternehmen Geschäftsführer wäre oder Head of KI in 'nem Unternehmen oder Head of Regulatory, was auch immer, dann würd ich es auf jeden Fall versuchen. Aber ich würd das gar nicht als verwerflich ansehen, sondern die Verhandlungen zum finalen Entwurf haben ja selbst vorgesehen, es ist also sozusagen ein Verhandlungsergebnis über den über die Dauer der Verhandlung, dass ein Hochrisikosystem nur vorliegt, wenn es a bestimmte, einem bestimmten Bereich zuzuordnen ist und wenn es bestimmte Merkmale erfüllt und wenn es besonders weitgehend großen Impact bei der Verarbeitung von von KI Daten jetzt haben kann, so. Und grade so dieser letzte Punkt, diese Ausstiegsschwelle, wo man auch selber beurteilen kann, falle ich unter diese Risikoparameter, unter diese Prämissen? Ich würde sagen, das ist aus Sicht 1 Unternehmens, 1 An Anbieters total valide zu prüfen, zu gucken, fall ich da drunter oder gibt es Möglichkeiten, wie ich meine Organisation oder mein KI System gestalte, dass es eben nicht mehr als Hochrisikosystem gilt oder dass es eben nicht mehr insoweit als Hochrisikosystem gilt, dass 'n Teil dieser Vorschriften, die dann anwendbar wären, für mich nicht mehr anwendbar sind. Das ist am Ende, ich sag mal, eine schwierige rechtliche, regulatorische, technische, vor allem auch Prüfung, aber das muss man halt machen, da muss man durchaus auch nicht einfach.
Fritz-Ulli Pieper:Aber wenn das Ergebnis dann lautet, dann fall ich eben raus aus dem Anwendungsbereich, dann ist es sozusagen auch nicht schlimm, dass man kein Hochrisiko KI System mehr ist, weil das einfach die Systematik der Verordnung dann widerspiegelt sozusagen.
Ulla Coester:Genau, aber das hört sich jetzt natürlich sehr wenig ethisch an, weil eigentlich sollte ja auch 'n Stück weit wirklich damit erreicht werden, dass dass Unternehmen eigentlich 'n Rahmen haben, aus dem sie heraus eigentlich ethische agieren könnten, weil weil alle halt die gleichen Bedingungen erfüllen müssen. Und jetzt hört sich's eher so an, dass man eigentlich versuchen kann, sich darum herumzulavieren. Mhm.
Fritz-Ulli Pieper:Ja, also so wollt ich's jetzt nicht verstanden wissen. Ich sag mal so, also das Thema Ethik find ich eine große Frage, wie das im KI Verordnungsentwurf überhaupt Niederschlag gefunden hat. Also es gibt ja zum Beispiel diverse Transparenzvorschriften, ne, so dass man darauf achten muss, dass Nutzer informiert sind, dass sie mit 'ner KI interagieren et cetera, dass oder Vertrauenswürdigkeit auch erzeugt wird durch einige dieser Pflichten. Das hat ja schon auch irgendwie 'n Ethikblick so drauf. Und ich glaube, dass die Verordnung jetzt sozusagen ein wie son wie sone Checkliste vorsieht, die ich abhaken muss, ob ich ein Hochrisikosystem bin oder einsetze, das auch nicht unethisch sozusagen, weil man hat ja im Rahmen der Gesetzgebung, des Gesetzgebungsverfahrens gesagt, wir haben, natürlich abstrakt, weil anders geht's nicht, ne, aber wir haben ein Bild vor Augen von Hochrisikosystemen, die ganz bestimmte Anforderungen erfüllen müssen, die besonders strenger reguliert sein sollen, ja.
Fritz-Ulli Pieper:Und nur wenn ein solches vorliegt, dann greift auch die strenge Regulierung. Aber wenn es nicht vorliegt, dann greift eine weniger strenge Regulierung. Und das finde ich jetzt per se erst mal nicht unethisch. Es kommt dann wirklich im Detail drauf an, wie gehe ich damit sozusagen als Unternehmen?
Ulla Coester:Was jetzt im AI reguliert worden ist, ist die generative AI. Halten Sie's für richtig, dass diese nicht
Fritz-Ulli Pieper:halte ich auf jeden Fall für richtig. Also man muss dazu sehen, als die Kommission erstmals den Entwurf für die KI Verordnung veröffentlicht hat, war April 21. Und das war so gesehen lange vor dem vor der großen Veröffentlichung von ChatGPT und dann auch den Bekanntwerden weiterer Large Language Models, die es alle so gibt und an denen gearbeitet wird und wo dieser Hype ja sozusagen allgegenwärtig plötzlich war. Das heißt, das konnte man initial noch gar nicht bei der Regulierung berücksichtigen. Das ist quasi in die Verhandlungen, das Thema ist quasi so in die Verhandlung reingespült worden.
Fritz-Ulli Pieper:Und dann hat man natürlich aber schon gemerkt, was fürn Riesenimpact das hat. Und dann hat sich gesagt, das müssen wir direkt mitregulieren, ja. Und dann war so die Frage, wie denn eigentlich, ja. Und das ist ein schönes Beispiel letztlich für diese diese Einigung, diese Politische, die da gefunden wurde. Am Ende hat man ja eigentlich, jetzt mal verkürzt gesagt, Folgendes gemacht.
Fritz-Ulli Pieper:Man hat gesagt, es gibt General Purpose AI Models und es gibt generell Purpose AI Systeme, die halt son breiten Anwendungsbereich haben oder als Model eine ganz bestimmte Rechenoperation, Flops eben erfüllen und damit entweder 'n hohes systemisches Risiko darstellen oder eben dann dadrunter nicht, ja. Und anhand dieser Aufteilung und Kategorisierung hat man dann auch 'n abgestuftes Regulierungskonzept erarbeitet. Also son bisschen eigentlich wie den risikobasierten Ansatz für in Anführungszeichen normale KI Systeme. Und das fand ich eigentlich auch erst mal 'n sinnvollen Ansatz, dass man sagt, da hat man sich auch wirklich Gedanken drüber gemacht, natürlich am Ende auch 'n Kompromiss gefunden, aber das wirkt erst mal ganz vernünftig.
Ulla Coester:Kann man das begrenzte Risiko wirklich nur durch die die durch die Rechenleistung bestimmen? Also eigentlich weiß man doch noch gar nicht, was die jetzt wirklich für für für Auswirkungen haben. Also man kann auch gar keine Folgenabschätzung jetzt auch im Sinne der Gesellschaft treffen über diese ai und handelt das jetzt eigentlich relativ kurz ab, nur durch die Rechenleistung.
Fritz-Ulli Pieper:Find ich 'n superwichtigen, guten Punkt auch. Auf der anderen Seite hat man ja auch in der Praxis gesehen, was diese Rechenleistung oder diese diese Lernleistung, was sie für Unterschiede machen kann im Output, ja. Also bei bei GPT-vier im Vergleich zur GPT-3 0.5, ne, mit Halluzinationen et cetera pp, das ist in der Anwendung am Ende merkt man schon 'n Unterschied so. Also das ist mit Sicherheit eine valide ein valide Anknüpfungspunkt, an dem man das anknüpfen kann. Ich weiß nicht, ob's ehrlich gesagt, ob's der Einzige ist oder sein muss, ob's nicht noch mehr geben muss.
Fritz-Ulli Pieper:Dann muss man aber auch zu sagen, sie sagen's ja selbst, ne, man ist da im Prinzip nur son bisschen am Anfang, also zumindest im Hinblick auf die Entwicklung in in Zusammenschauen mit der Regulierung. Und da dann erst mal zu sagen, das ist 'n Anknüpfungspunkt, an dem wir uns orientieren können, wo wir auch schon Erfahrungen mit haben, denen wir da als als Grundlage ansetzen und erst mal nicht zu viel dazu zu regulieren und überzuregulieren vielleicht sogar, das das finde ich auch erst mal nachvollziehbar. Es soll ja auch so sein, dass regelmäßig geguckt wird, wie funktioniert die Regulierung nach KIVO? Müssen wir da was anpassen? Die Kommission hat einige handwerkliche Werkzeuge sozusagen zur Verfügung gestellt bekommen, dass die mit Entscheidungen im Nachgang Konkretisierungen vornehmen können.
Fritz-Ulli Pieper:Da muss man jetzt erst mal klar gucken, was in der Praxis passiert und ob das auch dann wirklich so sinnvoll ist. Aber fürs Erste, denk ich, ist das schon vertretbar.
Ulla Coester:Okay, also heißt das, es ist noch nicht endgültig entschieden, wie damit verfahren wird, sondern es wird jetzt so Schritt für Schritt angepasst.
Fritz-Ulli Pieper:Gut, also so wie's jetzt geregelt ist, ist es, ne. Also diese, ich weiß nicht, diese Flops 25 Uhr c, 10 Uhr 25, das ist jetzt eine der wesentlichen Parameter für die Einordnung als systemische als GPA Modell mit systemischem Risiko. Das ist so. Das ist auch gesetzlich jetzt so festgelegt. Genau, aber ich das ich mag nicht ausschließen, dass man in Zukunft da auch noch mal Hand anlegt sozusagen.
Ulla Coester:Vielen Dank.
Fritz-Ulli Pieper:Danke, Hartmut Schriftfreund, vielen Dank.
Michael Voregger:Wir werden das Thema künstliche Intelligenz und Vertrauen natürlich noch weiter vertiefen. Es wird also weitere Podcast dazu geben. Bis dahin, danke und tschüs.