Das Projekt TrustKI konzentriert sich auf die Entwicklung einer Plattform zur Bewertung der Vertrauenswürdigkeit von künstlicher Intelligenz. Die zunehmende Komplexität dieser Technologie erschwert es den Menschen, sie zu verstehen und zu bewerten. Wir sprechen mit Expertern, Wissenschaftlern und Anwendern über das Vertrauen in Künstliche Intelligenz.
Zum Thema künstliche Intelligenz gibt es täglich Neuigkeiten und spannende Entwicklungen. Unternehmen setzen die KI bereits im Alltag ein, zum Beispiel bei der Auswahl von Bewerbern. Die Technologie wird schon in naher Zukunft viele Bereiche unseres Alltags verändern. Dabei spielt der Faktor Vertrauen eine entscheidende Rolle. Mit dieser Frage beschäftigt sich das Institut für Internetzicherheit an der Westfälischen Hochschule in Westfälischen Hochschule in Gelsenkirchen im Rahmen des Forschungsprojekts Trust KI.
Michael Kühne-Schlinkert:Ja, ich bin Michael König Linkert, Gründer und Geschäftsführer von Catulo. Und Catulo hilft Unternehmen dabei, ihre KI zu skalieren. Denn immer, wenn ich meine KI eben ausm Labor raus bewegen möchte, dann kommen muss ich mir ganz vielen Fragen auseinandersetzen, wie darf ich überhaupt die Daten entsprechend über die Grenze bringen oder darf ich wollen meinen Kunden überhaupt ihre Daten geben? Oftmals dort die Antwort nämlich nein und da können wir helfen.
Michael Voregger:Was meinen Sie mit nein? Warum könnte das Problem sein?
Michael Kühne-Schlinkert:Viele Produktionsdaten fallen tatsächlich unter die Exportkontrolle. Man kann beispielsweise mit 1 Steuerung von Siemens theoretisch auch eine russische Rakete betreiben und deswegen dürfen diese Produktionsdaten gar nicht erst überhaupt Europa verlassen. Genauso wenig dürfen die Produktionsdaten nach China nach Deutschland kommen entsprechend. Genauso gibt's eben auch einfach sehr viele Kunden, die in ihren Produktionsdaten ein Geschäftsgeheimnis sehen, deswegen sagen, ah, fühl mich da jetzt nicht so wohl, wenn ich die rausgebe. Und dann kommt das Ganze ins Stocken.
Michael Voregger:Für wen ist das jetzt gedacht, was Sie machen?
Michael Kühne-Schlinkert:Wir konzentrieren uns vor allem eben auf die Industrie aktuell, spezialisiert vor allem auf Semikonductor und Electronics. Hängt einfach damit zusammen, dass da das Problem sehr, sehr groß ist. Wir arbeiten auch mit vielen anderen Industrien zusammen, eben beispielsweise Prozessindustrie, haben viele Kunden im Spritzkursumfeld genauso mit relativ breit, also dann für sich immer Produktionsprozesse, wo eben Daten geheim bleiben müssen, da können wir helfen.
Michael Voregger:Ja, geheim ist vielleicht auch 'n gutes Stichwort. Es gibt ja auf der europäischen Ebene jetzt 'n neues Gesetz, den AI Act. Ist das für Sie eine wichtige Geschichte oder spielt das keine Rolle?
Michael Kühne-Schlinkert:Ja, das ist 'n unglaublich wichtiges Zeichen. Also der EUI Act ist 'n sehr guter Schritt in die richtige Richtung. Wir hatten da ja das Glück, dass wir das Europaparlament dazu auch beraten dürfen bezüglich nicht auf unsere Technologie. Und wir sehen das als eine sehr große Möglichkeit, einfach mehr Vertrauen zu schaffen. Also Vertrauen ist generell für uns 'n Riesenthema, da wenn wir unsere Plattform eben zwischen den Kunden und nachher deren Endkunden schalten, muss man uns vertrauen, dass wir eben nichts machen.
Michael Kühne-Schlinkert:Deswegen sind solche Gesetze oder eben auch Standardisierungen wie die ISO 42001 eben sehr, sehr gute Schritte, die genau in die richtige Richtung gehen.
Michael Voregger:Vertrauenswürdigkeit, Vertrauen in KI. Kann man KI vertrauen, ist das für Sie auch 'n Punkt, wenn Sie Ihre Arbeit machen oder Produkte entwickeln in dem Rahmen?
Michael Kühne-Schlinkert:Da spielen ganz viele Faktoren rein, eben zum einen, wer hat überhaupt das Modell entwickelt und auf welchen Standards basiert dieses Modell? Und man sollte, ist, glaub ich, diese Frage 'n bisschen mit differenzierter betrachten, man sollte nicht jedem KI Modell blind seine Daten anvertrauen. Deswegen ist Gesetze und Standards gibt, denn ich kann eben Daten anonymisieren, ich kann auch Modelle anonymisieren und wenn ich auch kontrolliere, was ich mit diesem Modell machen kann, kann ich meine Daten sehr sicher halten. Wenn ich vollen Zugriff auf Modell hab, dann kann ich ganz, ganz viele Informationen, die da drin sind, da hat man ja ganz viele Medien drüber gehört, kann ich rekonstruieren. Und das, da muss man aber wissen, wer betreibt denn das und wer steckt dahinter?
Michael Kühne-Schlinkert:Und das ist eben genau etwas, wo wir eben auch unterstützen und eben dabei helfen, dass eben nicht einfach solche Daten wieder rekonstruiert werden können.
Michael Voregger:Wann gibt das Unternehmen und wie sieht so die Perspektive aus?
Michael Kühne-Schlinkert:Uns gibt's seit 2018. Wir sind ursprünglich mal im Serviceumfeld gestartet und machen jetzt so das, was wir machen mit Fokus auf eben Privacy AI seit circa 3 Jahren. Perspektive sieht sehr gut aus, genau. Wir skalieren grade mit Siemens weltweit, was sehr schön ist mit einem einen anderen großen Unternehmen unterwegs und merken vor allem, dass im zum ganzen Electronics- und dem Kontaktumfeld Umfeld grade sehr, sehr viel Bedarf da entsteht und das
Michael Voregger:gut abgeht.
Michael Kühne-Schlinkert:Was ich mir 'n bisschen wünschen würde, dass generell für die Industrie mehr wirklich tatsächlich in die Praxis umbringen. Viele mit denen zusammenarbeiten machen einen einen Proof of Concept und dann verlahmt es und das ist dann tatsächlich 'n Problem generell für unsere Industrie, wo ich mir wünschen, dass es schneller vorangeht.
Michael Voregger:Wir werden das Thema künstliche Intelligenz und Vertrauen natürlich noch weiter vertiefen. Es wird also weitere Podcast dazu geben. Bis dahin, danke und tschüs.