Das Projekt TrustKI konzentriert sich auf die Entwicklung einer Plattform zur Bewertung der Vertrauenswürdigkeit von künstlicher Intelligenz. Die zunehmende Komplexität dieser Technologie erschwert es den Menschen, sie zu verstehen und zu bewerten. Wir sprechen mit Expertern, Wissenschaftlern und Anwendern über das Vertrauen in Künstliche Intelligenz.
SchwASK I, der Podcast über künstliche Intelligenz und Vertrauenswürdigkeit. Mit dieser Frage beschäftigt sich das Institut für Internetzicherheit an der Westfälischen Hochschule in Gelsenkirchen im Rahmen des Forschungsprojekts Trust KI. Mein Name ist Ulla Köster, ich bin Projektleiterin des Forschungsprojektes Trust KI. In unserer neuesten Podcast Episode haben wir Christian Rupp von ProSOTS Härtenarztgast. Er gibt einen Einblick in die Rolle der künstlichen Intelligenz im öffentlichen Sektor.
Christian Rupp:Christian Rupp, Chief Digital Officer bei ProSOTS in Härten. ProSOTS Härten ist der fachgrößte Fachverfahrenshersteller in Deutschland, ist zu 100 Prozent im Besitz der Stadt Härten und wir liefern die Software oder die Beratung, die KI in die Kommunen im Bereich vor allem soziale Sicherheit, Umwelt und Bauen.
Michael Voregger:Jetzt gibt's ja eine Reihe von verschiedenen KI Lösungen auf dem Markt. Was hat denn Ihr Unternehmen mit KI Anwendungen zu tun?
Christian Rupp:Wir haben gemeinsam mit dem Deutschen Forschungsinstitut für künstliche Intelligenz eine Innovation Mind gegründet als Forschungseinrichtung für KI im öffentlichen Sektor, weil gerade Vertrauen natürlich ein wesentliches Argument ist, wenn ich künstliche Intelligenz einsetze, gerade im öffentlichen Bereich, dann will sowohl der öffentliche Bereich das Vertrauen haben, dass da was da rauskommt, dass ich dem vertrauen kann, aber natürlich auch der Kunde, der Bürger, der Unternehmer braucht dieses Vertrauen.
Michael Voregger:Welche KI Lösungen kommen denn da zum Einsatz und wie finden Sie denn das richtige Produkt, das auch dann zu Ihren Kunden passt, die ja auch aus dem kommunalen Bereich, aus dem Bereich des öffentlichen Sektors kommen?
Christian Rupp:Also wir nutzen natürlich andere, aber wir sind natürlich auch dabei oder bemüht zu schauen, welche KI passt denn am besten zu unserer Software dazu und da sind wir jetzt, ich sage mal, im Experimentierstatus, welche da am besten dazu passt und welche eingebaut
Michael Voregger:werden kann. Wie können Sie dabei die Vertrauenswürdigkeit der Anwendung, die Sie auswählen, garantieren, also der KI Anwendung?
Christian Rupp:Ich glaub, die wichtigste Frage vorweg ist immer, welches Problem will ich denn damit überhaupt lösen? Dann kommt eben schon die Frage, was da rauskommt, kann ich denn überhaupt vertrauen? Und das kann ich nur, wenn auf einerseits die Datenqualität stimmt, die ich also mit der ich trainiere und das Zweite ist natürlich auch, dass ich's intern sehr, sehr oft ausprobiert habe, sodass eben möglichst wenig Halluzinationen vorkommen und wenn, dass ich die möglichst schnell auch wieder korrigieren kann.
Michael Voregger:Beim Einsatz von KI geht's ja auch immer Vertrauen in die Anwendung. Gibt's da ein zentrales Element, das für die Vertrauenswürdigkeit besonders wichtig ist?
Christian Rupp:Ich glaub, es ist eben, wie reagiere ich auf User Feedback? Wie reagiere ich auch auf auf Fehler? Also ich glaub, das ist diese Fehlerkultur, dass eigentlich gerade im Softwarebereich keine hundertprozentig, sagen wir mal, Lösung da ist, sondern dass es einfach immer wieder upgedatet werden muss, immer wieder neu trainiert werden muss, gerade im KI Bereich und dass ich halt einfach auch einen oder First Level Support hab, wenn die KI nicht mehr weiter weiß, wo ist denn überhaupt dann noch die Möglichkeit anzurufen, eine Mail hinzuschicken, dass ich also quasi auch hier ganz klar der KI sage, bis dorthin ist quasi die Unterstützung und ab da ist dann der Mensch wieder noch mehr im zentralen Mittelpunkt, als es vorher auch schon ist. Also Human in the Loop ist ein ganz wesentlicher Aspekt natürlich.
Michael Voregger:Es geht ja auch immer Daten, das können auch sehr sensible Daten sein. Wie lässt sich denn beim Einsatz von KI garantieren, dass die Daten sicher sind?
Christian Rupp:Das eine ist natürlich, dass ein Unternehmen, was das anbietet, natürlich ganz genau Bescheid weiß über Datenschutz und welche Daten verwendet werden oder wie auch mittels KI Daten gesäubert werden können. Also es gibt ja auch Anwendungen, wo ich zum Beispiel Gerichtsurteile im Internet veröffentliche und vorher mit der KI die personenbezogenen Daten rausgefiltert hab, damit ich sehr als offene Daten zur Verfügung stellen kann. Und das andere ist natürlich Training bei den Anwendern, bei den Kunden, dass auch die wissen, wenn ich jetzt KI einsetze, wenn ich ein GPT Modell verwende, welche Daten sollte ich denn tun, die ich's nicht dort hochladen? Oder ich weiß also, dass das noch in meinem eigenen Umfeld passiert.
Michael Voregger:Es geht ja nicht nur immer positive Effekte beim Einsatz von KI, es gibt auch Gefahren. Was sind denn aus Ihrer Sicht die größten Gefahren, die hier zu nennen sind und auf die man achten sollte?
Christian Rupp:Also ich glaub, die Herausforderungen sind ganz einfach, dass dass ich halt den Mitarbeiter dahin schule, welche Daten solltest Du tunlichst, nicht hochladen oder welche sollten tunlichst in unserem eigenen Umfeld bleiben, bis hin natürlich, aber das ist durch den AI Eike in Zukunft geregelt, dass ich halt Gesichtserkennung und solche Dinge nur dem Militär oder der Polizei überlasse, ne.
Michael Voregger:Der AI Act der Europäischen Union regelt ja die Anwendung von künstlicher Intelligenz. Ist das für die Unternehmen eher ein Problem oder vielleicht sogar ein Vorteil?
Christian Rupp:Also ich glaub Regeln sind gut, wenn sie nicht zu früh da sind, den Innovationsgeist zu bremsen oder die Abwanderung in anderen Ländern. Ich glaub, er ist jetzt rechtzeitig gekommen, einmal eine Richtlinie zu haben. Jetzt liegt's an den Mitgliedstaaten zu entscheiden, wie schnell und in welchen Bereichen sie quasi das in nationales Recht überführen. Und in Deutschland, die Herausforderung gibt's eben einen AI Act und ein AI Office oder gibt's das halt 16 oder 9, ne.
Michael Voregger:Vertrauenswürdigkeit kostet in diesem Fall ja auch Geld. Wird denen genügend investiert, Vertrauenswürdigkeit auch sicherzustellen?
Christian Rupp:Auch das ist wieder eine Frage, welches Problem ich lösen will. Wenn ich jetzt sag, ich will zum Beispiel dieses Problem lösen, dass meine Webseite noch nicht barrierefrei ist, also Leichte Sprache zum Beispiel. Da gibt's schon einige Anbieter, die wenig Geld mir eine Lösung zur Verfügung stellen. Wenn ich sag, ich will jetzt mein eigenes GPT oder LLM entwickeln und betreiben, das wird natürlich dann schon teurer und das ist dann die Frage, rechnet sich's überhaupt für dieses Problem oder ist es etwas, wo zum Beispiel das Land dann allen kommunalen Einrichtungen zur Verfügung stellt?
Michael Voregger:Wer hat aus Ihrer Sicht denn die größte Verantwortung dafür, dass KI Anwendungen auch vertrauensvoll vertrauensvoll vertrauenswürdig dann auch eingesetzt werden?
Christian Rupp:Ich glaub, alle sind gefordert, auch der Nutzer ist gefordert, immer wieder zu hinterfragen, was tut er denn hier oder kann ich dem was Ergebnis, das da rauskommt, überhaupt trauen? Also diese ganzen Bereiche der der Fake News zum Beispiel. Es gibt ja auch schon eigene Detektoren, wo ich erkennen kann, ist zum Beispiel eine Fake Nachricht oder ist das Bild verändert worden? Also ich glaub, das liegt bei allen Ebenen, sowohl bei der Politik oder Gesetzgeber als auch bei der Verwaltung und auch bei den Anbietern, aber auch bei den Nutzern. Das ist eine Frage der der Kompetenz natürlich, aber es ist auch eine Frage des immer wieder Hinterfragens, Kann denn das, was da rauskommen, auch wirklich stimmen?
Michael Voregger:Das Forschungsprojekt Fast KI an der Westfälischen Hochschule beschäftigt sich ja mit Vertrauenswürdigkeit bei KI Anwendungen. Wie sinnvoll ist das aus Ihrer Sicht?
Christian Rupp:Also ich glaub, es ist zumindest eine ganz wichtige Initiative, dass ich eben so eine Plattform habe, dass ich dort nachschauen kann, wer sind die Anbieter? Kann ich diesem Vertrauen? Was gibt's überhaupt? Kann natürlich dann fortgesetzt werden in Handbüchern, in Checklisten. Also das sind so mögliche Weiter Entwicklungsmöglichkeiten zu unserer Plattform bis hin vielleicht wirklich zu einem Trust System, einem Gütesiegel für Karriereanwendung.
Michael Voregger:Wir werden das Thema künstliche Intelligenz und Vertrauen natürlich noch weiter vertiefen. Es wird also weitere Podcast dazu geben. Bis dahin, danke und tschüs.