Trust KI - Der vertrauenswürdige Podcast

Der Faktor Vertrauen hat in der digitalen Welt eine große Bedeutung und das gilt aktuell ganz besonders für den Einsatz von Künstlicher Intelligenz. Das Projekt Trust KI an der Westfälischen Hochschule beschäftigt sich mit der Vertrauenswürdigkeit von KI-Anwendungen. Das Projekt zielt darauf ab, Vertrauenswürdigkeitskriterien für KI-Systeme zu definieren und zu ermitteln, ob diese Kriterien für die Anwenderunternehmen ausreichend sind. Ethik und Sicherheit sind wichtige Anliegen der Nutzer, die von den Herstellern berücksichtigt werden müssen. Michael Voregger spricht mit der Projektleiterin Ulla Coester und Professor Norbert Pohlmann vom Institut für Internetsicherheit.

Links:

Das Projekt TrustKI
https://vertrauenswuerdigkeit.com/ 

What is Trust KI - Der vertrauenswürdige Podcast?

Das Projekt TrustKI konzentriert sich auf die Entwicklung einer Plattform zur Bewertung der Vertrauenswürdigkeit von künstlicher Intelligenz. Die zunehmende Komplexität dieser Technologie erschwert es den Menschen, sie zu verstehen und zu bewerten. Wir sprechen mit Expertern, Wissenschaftlern und Anwendern über das Vertrauen in Künstliche Intelligenz.

Speaker 1:

Zum Thema künstliche Intelligenz gibt es täglich Neuigkeiten und spannende Entwicklungen. Unternehmen setzen die KI bereits im Alltag ein, zum Beispiel bei der Auswahl von Bewerbern. Die Technologie wird schon in naher Zukunft viele Bereiche unseres Alltags verändern. Dabei spielt der Faktor Vertrauen eine entscheidende Rolle. Mit dieser Frage beschäftigt sich das Institut für Internetzicherheit an der Westfälischen Hochschule in Gelsenkirchen im Rahmen des Forschungsprojekts Trust KI.

Speaker 1:

Ich spreche heute mit der Projektleiterin Ulla Köster und mit Professor Norbert Pohlmann über das Vertrauen in der digitalen Welt. Mein Name ist Michael Voregger. Es geht hier ein spezielles Projekt hier an der Hochschule, an der Westfälischen Hochschule, aber von daher würd ich Sie bitten, noch mal kurz zu sagen, wer Sie sind und warum Sie heute hier sind.

Speaker 2:

Mein Name ist Ulla Köster. Ich bin Projektleiterin bei dem Projekt, bei dem Forschungsprojekt Trust KI, Vertrauenswürdigkeitsplattform für KI Lösungen und Datenräume. Und wir sind heut hier, über das Thema Vertrauen und natürlich über unser Forschungsprojekt zu sprechen.

Speaker 3:

Ja, mein Name ist Norbert Pumann. Ich bin Informatikprofessor für Cybersicherheit und Leiter des Instituts für Internetzicherheit, wo genau dieses Projekt angesiedelt ist.

Speaker 1:

Ja, es geht ein Projekt. Und das Projekt beschäftigt sich mit mit Vertrauen. Vertrauen ist ja bekanntermaßen eine sehr harte Währung eigentlich. Warum dieses Projekt? Was verbirgt sich dahinter?

Speaker 2:

Verbirgt sich dahinter? Vertrauen ist eigentlich keine harte Währung, finde ich, sondern Vertrauen ist eigentlich superschwer zu definieren. Aber Vertrauen ist natürlich notwendig, insbesondere im Kontext der KI, weil wenn die Menschen nicht vertrauen, der dem KI Hersteller oder der KI Lösung vertrauen können, dann wird es auch nicht möglich sein für die Menschen, diese KI Lösung zu Und wie wir alle wissen, wir brauchen ja KI schon allein aufgrund des Fachkräftemangels in den Unternehmen. Und von daher ist es natürlich unglaublich wichtig, dass Vertrauen geschaffen wird zu KI Lösungen.

Speaker 1:

Wie ist das Projekt aufgebaut? Wie gehen Sie an die Sache heran? Wie wollen Sie das feststellen, ermitteln, Vertrauen herstellen?

Speaker 3:

Vielleicht einmal ganz grundsätzlich, also die Idee ist ja 'n Stück, dass wir als Gesellschaft wissen, dass KI notwendig ist. Und wir wissen aber auch, dass die Amerikaner und Chinesen eigentlich mehr Geld investieren, also noch nicht mal die Staaten, also da ist Europa eigentlich auch ganz gut aufgestellt, Deutschland auch, aber die Unternehmen. Also sagen wir, Microsoft investiert ja jetzt es geht viel mehr Geld rein. Und genau, die Idee ist, dass wir uns damit auseinandersetzen, dass die Vertrauenswürdigkeit vielleicht ein Aspekt ist, der uns hier in Europa oder insbesondere in Deutschland ermöglicht, uns gegen die Übermacht, also über die Übermacht der Konkurrenz halt entsprechend durchsetzen zu können. Und genau, und das versuchen wir halt.

Speaker 3:

Und unsere Idee ist dabei, dass wir Vertrauenswürdigkeitskriterien definiert haben, die wir halt entsprechend glauben im Rahmen eines Modelles, dass sie uns helfen, dass sie umsetzen, ist eine Studie, wo wir Anwender, die KI also in ihrem Unternehmen anwenden wollen auf ganz unterschiedlichen Ebenen und ganz unterschiedliche Größen von Firmen, dass wir die fragen, ob die Kriterien, die wir uns überlegt haben, ob die gut genug sind, das, was wir vorhaben, damit auch umsetzen zu können.

Speaker 1:

Warum wurde diese Art der Vorgehensweise gewählt und nicht was anderes? Wie sind Sie darauf gekommen?

Speaker 3:

Genau, wir haben's theoretisch ja schon seit Jahren damit auseinandergesetzt. Und wir glauben, dass wir über die Befragung der Unternehmen einfach 'n guten Hinweis kriegen, ob das, was wir dann in unserer Vertrauenswürdigkeitsplattform zur Verfügung stellen wollen, dass das dann wirklich von den Unternehmen auch getragen wird, die's brauchen. Also dass sie sagen, die Kriterien sind wirklich hilfreich für mich, Vertrauen aufzubauen und damit eher KI zu nutzen. Und was kann man besser tun, als die zu fragen, die nachher die Entscheidung treffen müssen.

Speaker 1:

Gibt's denn da schon Ergebnisse, was die Firmen oder die Unternehmen oder die Anwender interessiert?

Speaker 2:

Also ich möcht eigentlich noch mal 'n ganz kurzen Schritt zurückgehen. Wir haben natürlich vorher eine fundierte Recherche und Untersuchungen gemacht zum Thema Vertrauen an sich. Darauf basieren natürlich die die ganzen Kriterien auch, die wir entworfen haben und auch das generelle Modell zur Vertrauenswürdigkeit. Gibt's schon Tendenzen, die sich abzeichnen. Aber ich möcht noch nicht so viel über die Studie verraten, weil ich denke mal, das sollten zu 'nem späteren Zeitpunkt dann machen.

Speaker 2:

Das ist auch valide, wenn wir die komplette Studie ausgewertet haben und dann wirklich auch mit guten Ergebnissen nach draußen gehen können.

Speaker 1:

Kann man jetzt schon 'n bisschen verraten, was so die Bedürfnisse der Nutzer sind oder sein könnten?

Speaker 2:

Auf jeden Fall, Ethik spielt eine Rolle bei den Nutzern. Also sie wollen schon auch sehen, dass die Unternehmen sich damit auseinandersetzen, was die Gesellschaft für Anforderungen im Bezug auf Moral hat. Und das soll natürlich auch 'n Stück weit in den Unternehmen abgebildet werden. Und Sicherheit ist 'n ganz großes Thema. Also Anwenderunternehmen möchten darüber informiert werden, welche Maßnahmen KI Hersteller, Unternehmen umhalt ihre ihre Forschungsabteilung insbesondere entsprechend abzusichern gegen Angriffe von außen.

Speaker 1:

Was sind denn so die Vorgaben, die man da haben kann, wenn man sagt, man möchte künstliche Intelligenz ethisch einsetzen? Und vielleicht, welche Befürchtungen bestehen da?

Speaker 2:

Ja, also die Befürchtungen bestehen natürlich, dass die Unternehmen unethisch handeln, also zum Beispiel bestimmte Maßnahmen ergreifen, die eigentlich nicht der der Moral der Gesellschaft entsprechen. Also zum Beispiel dass man immer noch als Nutzer eine gewisse Autonomie, also dass man immer noch als Nutzer eine gewisse Autonomie haben möchte bei dem Einsatz von KI Lösungen, dass man halt auch tatsächlich wissen möchte, wie die Modelle trainiert worden sind und mit welchen Daten die KI Hersteller da agieren. Also das sind so Fragen, die halt ganz stark in den ethischen Bereich gehen.

Speaker 1:

Das würde ja auch den Bereich Datenschutz betreffen. Das heißt, die Konkurrenten sind ja schon genannt worden, die's da gibt, auch andere Nationen, die auch mit dem Datenschutz anders umgehen. Das ist ja in Deutschland und in Europa ein bisschen restriktiver geregelt. Kann man denn unter diesen Gesichtspunkten, also wenn man jetzt mal KI programmieren möchte oder nutzen möchte, überhaupt erfolgreich gegen die anderen was unternehmen, also gegenüber China oder den USA, die mit dem Datenschutz ja nicht so groß ist, eine große Einschränkung haben?

Speaker 2:

Wir beurteilen das immer unserer Perspektive heraus. Also ich denk mal schon, dass sich auch in anderen Nationen Anwender oder auch Hersteller Gedanken machen zu Datennutzung, nur halt anders als wir. Aber wir sind ja auch grade für Amerika 'n großes Vorbild im im puncto Datenschutz. Also ich hab schon viele Gespräche geführt in dem Bereich. Da wurde durchaus gesagt, also dass dass grade Deutschland 'n Vorbild ist in puncto Datenschutz und da auch genau entsprechend das in Amerika umgesetzt wird.

Speaker 2:

Und ich meine, das Gleiche erwarten wir ja eigentlich auch von der Vertrauenswürdigkeit der KI Lösungen. Also dass das vertrauenswürdige KI Lösung, einnehmen.

Speaker 1:

Jetzt hat ja die Studie oder das Projekt auch 'n Motto, Menschen wollen vertrauen können, auch in der digitalen Welt. Das heißt ja son bisschen, dass bisher oder im Moment in vielen Bereichen son Vertrauen in die digitale Entwicklung nicht nicht da ist.

Speaker 3:

Dass wir ja als Kind gewohnt sind oder gelernt haben, Vertrauen zu Menschen aufzubauen, also zur Mutter, zum Vater, zu den Geschwistern, zur Familie oder nachher zu den Lehrern, zu den anderen Schulkindern. Genau, das ist quasi 'n interpersonelles Vertrauen. Wir reden miteinander, wir stehen uns gegenüber. Und wir haben ja mit der Digitalisierung ja sowieso die Herausforderung, dass wir jetzt einem Dienst trauen müssen, den wir eigentlich gar nicht einschätzen können. Und wir sehen halt den Trend, dass der die Dienste, die wir im Internet zur Verfügung gestellt bekommen, immer komplexer werden, weil immer mehr Software eingebunden wird und immer mehr Dienstleister zusammengeschaltet werden.

Speaker 3:

Und die Komplexität ist mit dem Thema KI natürlich noch mal viel größer, weil wir KI, weil ja die Idee von KI ja ist, dass ich aus Daten Wissen generiere, das nicht so richtig nachvollziehen können. Und genau, deswegen brauchen wir eine neue Art des Vertrauens. Also wir müssen versuchen, dieses interpersonelle Vertrauen irgendwie durch andere Mechanismen umzusetzen, damit wir wieder vertrauen können. Und das ist ja genau unsere Aufgabe, die wir halt erforschen wollen, welche Aspekte brauchen Menschen für KI Systeme oder welche Aspekte müssen zur Verfügung gestellt werden, damit wir auch bei KI Systemen Vertrauen aufbauen können?

Speaker 1:

Jetzt ist ja der erste Schritt, diese Umfrage, die demnächst beendet wird. Dann gibt's halt Ergebnisse, was sind dann die nächsten Schritte, wie wird's dann beendet wird, dann gibt's halt Ergebnisse. Was sind dann die nächsten Schritte? Wie wird's denn weitergehen?

Speaker 2:

Wir werden diese Ergebnisse mit den Herstellern dann diskutieren. Also spiegeln also die die Wünsche, die eigentlich die die Anwenderunternehmen haben an die KI Hersteller, wie die realisiert werden können. Also es es wird ja teilweise schon sehr intensiv nachgefragt oder beziehungsweise die Antwort darauf soll gegeben werden in Details des Unternehmens und auch in die KI Lösungen, die vielleicht KI Hersteller nicht unbedingt preisgeben möchten. Und dann müssen wir halt gucken, wie wir das austarieren können, also die Ansprüche, die berechtigten, vielleicht berechtigten Ansprüche der Anwenderunternehmen zu spiegeln mit den KI Herstellern.

Speaker 1:

Dazu müsste man ja wahrscheinlich in die Programmierung ja, der Anbieter von KI hineinschauen können. Das ist wahrscheinlich 'n Problem, das würden Sie ja wahrscheinlich nicht so gerne öffnen.

Speaker 2:

Genau. Also wir gehen nicht in Richtung ai, sondern wir gehen halt den Schritt darüber, also dass der Hersteller, der KI Hersteller erst mal vertrauenswürdig ist und dass die Vertrauenswürdigkeit des Herstellers dann auch auf die KI Lösung abgespiegelt wird. Und natürlich gehen wir nicht so tief in die Details der der KI Lösung rein, dass irgendwelche Geheimnisse verraten werden müssen, also sondern werden halt allgemeine Fragen gestellt zur KI Lösung.

Speaker 3:

Das ist ja auch son bisschen die Idee, dass wir die Unternehmen dahingehend fragen, welche Kompetenzen sie zum Beispiel haben, ja. Also haben die Unternehmen KI Experten? Haben die Unternehmen Datenexperten, die dann halt wissen, welche Daten genommen werden und ob die Daten überhaupt so gut sind, dass man da Wissen draus generieren kann. Also es geht darum, trau ich dem Hersteller das zu? Und dann geht's darum, ist der Hersteller auch zuverlässig, indem er halt auch meine Bedürfnisse als Anwender im Blick hat und ob er die umsetzt und ob er halt schaut, dass er mir den Dienst halt auch langfristig und immer qualitativ hochwertig zur Verfügung stellt.

Speaker 3:

Also wir versuchen, das über andere Dinge halt entsprechend umzusetzen, weil am Ende ja nur wenige Experten in der Lage sind, festzustellen, ob die Programmierung nachher gut gelungen ist oder nicht. Das wird der Anwender sowieso nicht tun können. Also von nachher brauchen wir die Information nicht. Oder der Hersteller hat eine Zertifizierung umgesetzt nach irgendwelchen Kriterien, die dann meinetwegen die TÜVs geprüft haben. Und das wird natürlich dann bei uns mit berücksichtigt und ist natürlich auch 'n wichtiger Aspekt, eine Vertrauenswürdigkeit darstellen zu können.

Speaker 1:

Ja, in der Öffentlichkeit wurd ja auch schon mal diskutiert oder wird noch diskutiert, dass auch in den Algorithmen, die es gibt, die ja Programmierer dann auch machen, durchaus dann menschliche Einschätzungen mit hineinfließen und die möglicherweise Probleme machen. Also bei Bewerbungen, wenn KI eingesetzt wird, dass zum Beispiel Frauen vielleicht nicht so gut abschneiden oder ältere Menschen. Das lässt sich aber dann so wahrscheinlich schwer überprüfen.

Speaker 3:

Ja, das aber 'n anderer Aspekt. Also da haben wir natürlich die Problematik, dass ich, hatte ich eben schon mal gesagt, also KI arbeitet immer so, dass ich Daten habe und aus den Daten 'n bisschen generiere. Aber wenn ich jetzt in der Vergangenheit überproportional viele Männer eingestellt habe, dann agiert die KI auch so. Und dann hat die KI gelernt, Männer sind mehr wert als Frauen, weil sie in der Vergangenheit sich öfters beworben haben und öfters angestellt worden sind. Und das ist Daten künstlich so manipulieren, dass ich sage, ich will genau diesen Effekt nicht haben?

Speaker 3:

Genau das müssen die Hersteller von KI Anwendungen transparent darstellen, damit ich als Anwender, der das nutzt, genau weiß, wie das System arbeitet und damit ich genau einschätzen kann, ob ich bestimmte Effekte halt nutzen möchte oder nicht.

Speaker 2:

Diese Fragen werden natürlich auch in dem ethischen Teil abgefragt. Und genau, also das geht ja den

Speaker 1:

Und Vertrauenswürdigkeit, das ist ja auch auf der Seite des Projektes mal beschrieben worden, soll dann ja auch vielleicht möglicherweise durch einen Index dargestellt werden. Wie kann denn so was aussehen?

Speaker 3:

Die grundsätzliche Idee dabei ist, dass natürlich die Hersteller, die, sagen wir mal, eine gleiche Lösung anbieten, möglicherweise unterschiedliche Kriterien haben, zum Beispiel bei dem Zutrauen, also wie viel Experten sie haben und wie sie damit umgehen, wie viel Betriebsmittel haben oder im Bereich der Integrität, wie ihre ethischen Wertvorstellungen sind, die sind unterschiedlich. Und unsere Idee ist, dass wir über das Indexsystem, dem der Anwendungs- oder dem Anwendungsunternehmen die Möglichkeit geben, diese Unterschiede optisch dargestellt zu bekommen. Also wir wollen schon darstellen, wo sind die Unterschiede, wo sind die gleich? Das soll eine Hilfestellung sein, dass ich dann als Firma, die was aussuchen möchte und diese vertrauenswürdigste Firma haben möchte, meine Prioritäten nennen kann und sagen kann, also die Aspekte sind mir besonders wichtig und das Indexsystem mir dabei hilft, diese dann zu erkennen.

Speaker 1:

Wie kann man sich das konkret vorstellen? Ist das dann ein ein Zahlensystem oder wie wird das dann noch mal dargestellt?

Speaker 3:

Genau, wir werden das über 'n Zahlensystem machen, aber über auch Darstellungskomponenten, weil es ja relativ komplex ist, erforschen wir grade, mit welchen Methodiken wir als Mensch, also dann als Mensch, der für eine Anwendungsfirma diese Entscheidung treffen möchte, welche Darstellungskomponenten uns am besten helfen, diese Entscheidung oder diese Unterschiedlichkeit erst mal auf einer Skala oder so erkennen zu können. Und dann kann ich natürlich tiefer einsteigen. Weil das ja auch wieder 'n komplexes Thema ist, versuchen wir diese Komplexität durch 'n Indexsystem für den Anwender so einfach wie möglich in Scheipr zu machen.

Speaker 1:

Son Index funktioniert ja auch so, dass eine Gewichtung vorgenommen wird, also welche Bereiche stärker mit einfließen und welche nicht. Ist das schon noch offen oder wie wird das dann gehandhabt?

Speaker 2:

Da sind wir ja ganz am Anfang erst bei der Entwicklung des Indexsystems. Also da, find ich, sollten wir jetzt noch nicht so tief einsteigen.

Speaker 1:

Wir wollen heute auch nicht alles verraten.

Speaker 2:

Genau. Es soll

Speaker 1:

aber auch eine Diskussion angestoßen werden. Das heißt also, die verschiedenen Punkte, Vertrauen haben wir ja schon grad gesprochen in die KI. Das, was in der Gesellschaft im Moment auch noch diskutiert wird, ist ja auch das Thema Kontrolle von künstlicher Intelligenz. Soll das geregelt werden? Soll das nicht geregelt

Speaker 2:

sind wir ja da schon auf dem besten Wege, 'n Stück weit Kontrolle in den KI Bereich zu bringen. Aber das haben wir natürlich auf unserer Plattform auch vor, den Diskurs zu starten, also mit Anwenderunternehmen, mit Herstellerunternehmen, mit Verbänden, da wirklich auch zu erforschen, wie das wie die Moral in der Gesellschaft entwickelt ist oder was Verantwortung von der Gesellschaft kommen, die aufgenommen werden müssen. Da seh ich unsere Plattform auch ganz exponiert, an exponierter Stelle, dass man wirklich da den Diskurs kann.

Speaker 3:

Kann man auch noch erwähnen, dass unser Ansatz eigentlich mehr dahingeht, dass wir versuchen, die Hersteller dazu zu motivieren, so transparent wie nur möglich zu sein. Also genau, es geht nicht darum, dass wir sie kontrollieren wollen, sondern dass sie transparent sind und wir sehen, was sie tun. Und ich glaube halt, wenn ein Hersteller auch mal irgendwas tut, wo wir sagen können, das gefällt uns nicht ganz so gut, aber er das gut darstellt und wir nachvollziehen können, das ist vielleicht doch eine gewisse Notwendigkeit, dann haben, bauen wir trotzdem mehr Vertrauen auf. Also genau, ich glaub, es geht Transparenz und Klarheit. Es geht darum, dass wir Vertrauen aufbauen und das dann nutzen und nicht kontrollieren.

Speaker 3:

Kontrollieren.

Speaker 1:

Jetzt ist natürlich die Frage, wir haben das vorhin schon kurz thematisiert, es gibt halt viele Unternehmen, die KI entwickeln anbieten aus anderen Ländern, von anderen Kontinenten. Wie sieht's denn in Deutschland Europa aus? Gibt's denn da überhaupt so viele Anwenderanbieter im Moment, die das da auch betreiben?

Speaker 3:

Also wir haben in Deutschland, in Europa, glaub ich, eine relativ große Forschungsgemeinschaft, die halt letztendlich sehr stark im Bereich der KI Forschung sind. Ich glaub, da brauchen wir uns nicht zu verstecken, das funktioniert ganz gut. Genau, der große Unterschied zu anderen Ländern wie zwischen den Amerikanern ist, dass die Unternehmen weniger investieren. Also genau, also die Gefahr bei uns ist eigentlich mehr, dass die guten Leute, die sehr gut KI beherrschen, von den Amerikanern eingekauft werden und dann halt nach Amerika wandern und dort zu arbeiten, weil sie dort große Gehälter bekommen und dort halt diesen großen Unternehmen, den Monopolisten helfen, sich in den KIs besonders ja, zu positionieren. Und und und wir eigentlich viel zu wenig investieren oder selbstbewusst sind, zu sagen, wir können selber Produkte entwickeln und können die auch international verkaufen.

Speaker 3:

Also ich glaube, das ist noch eine Schwäche, die wir haben. Aber es liegt nicht daran, dass wir keine Kompetenzen hier zur Verfügung haben.

Speaker 2:

Wir haben auch eine andere Herangehensweise als zum Beispiel amerikanische Start up Unternehmen, die ja tatsächlich erst mal auch mit der Lösung nach vorne gehen, auch wenn man sich vielleicht nicht ganz sicher ist, ob das jetzt wirklich im Sinne der Gesellschaft eine gute Idee ist. Und dann sagen, ja, okay, wenn diese ist, haben wir halt Pech gehabt, wenn man's nicht mehr einfangen kann. Und wir in Europa und in Deutschland überlegen erst mal, was es für Folgen haben könnte. Ich meine, das ist eigentlich eine bessere Lösung, weil wir sehen ja wirklich also, dass die Prozesse nicht mehr revidierbar sind und dass dann natürlich auch Folgen für die Gesellschaft durchentstehen können, die heute noch gar nicht absehbar sind, weil wir ja gar nicht die langfristige Erfahrung haben, was passieren könnte. Also von daher ja, find ich also den Ansatz, dass man sich vorher Gedanken macht, eigentlich gar den schlechteren.

Speaker 2:

Das bedeutet natürlich auch, dass wir halt nicht so transparent nach außen unsere Leistung darstellen wie jetzt zum Beispiel eine OpenAI oder so,

Speaker 3:

die halt direkt mit dem allen

Speaker 1:

nach draußen geht. Jetzt geht's ja in dem

Speaker 2:

Forschungsprojekt auch über mit dem allen nach draußen geht.

Speaker 1:

Jetzt geht's ja in dem Forschungsprojekt auch über einen längeren Zeitraum. Wie ist das terminiert? Wie wird das ablaufen? Also wir haben, das hat jetzt grade begonnen oder schon vor einigen Monaten begonnen. Wie wird das weitergehen?

Speaker 2:

Das Projekt wird noch bis Ende zweitausendfünfundzwanzig gehen. Dann werden wir sehen, wie's weitergeht.

Speaker 3:

Der Ablauf ist so, dass wir jetzt in den, sagen wir mal, nächsten anderthalb Jahren wahrscheinlich daran arbeiten, son ersten guten Prototypen zu erstellen. Und wir werden dann mit den Herstellern gemeinsam oder wir werden die Hersteller dabei unterstützen, sich dann halt auch Transparenz nach unseren Vertrauenswürdigkeitskriterien darzustellen. Und werden dann immer wieder halt auch mit den Anwendern gemeinsam überlegen, das so über unser Indexsystem oder über unser Reputationssystem so aufzubauen, dass es dann wirklich auch einen Mehrwert für alle hat. Und genau, am Ende wollen wir dann im Dezember zweitausendfünfundzwanzig damit fertig sein und überlegen natürlich auch jetzt schon die ganze Zeit und glauben halt auch, dass wir das nachhaltig lange zur Verfügung stellen können, also dass es eine darüber dann die KI in Deutschland dann auch darüber dann die KI in Deutschland dann auch besonders einfach

Speaker 1:

Das heißt also, es wird danach auch weitergehen, soll weitergehen. Ja. Man muss man sich den Gedanken machen, weil das ist alles sehr schnell im Moment, sehr schnelllebig, dass man zu spät kommt, dass man jetzt vielleicht beeilen müsste mit einem solchen Projekt? Oder ist das, ist genug Zeit aus Ihrer Sicht?

Speaker 3:

Also ich glaube, wenn wir 'n gutes System haben, dann brauchen wir uns nicht beeilen, dann wird halt Qualität im Sinne der Nachhaltigkeit dann halt auch der Erfolg sein. Also ich glaub, ich glaub, wir brauchen's da nicht zu verstecken. Ich glaube, wir gehen das sehr professionell an und wir denken das sehr nachhaltig. Also von daher mach ich mir da jetzt grad keine Sorgen.

Speaker 2:

Ich denke mal auch, dass wir eigentlich genau am richtigen Zeitpunkt sind, weil jetzt ist der Open, der der AI Act relativ abgeschlossen. Und jetzt müssen die Unternehmen sich damit beschäftigen, wie man diese ganzen Anforderungen umsetzen kann. Und da ist unsere Plattform natürlich perfekt für geeignet, da auch die Hilfestellung zu geben. Und zum anderen, denk ich mal, sind wir ja nicht eine Institution, die halt festzemitiert irgendwas festlegt, sondern wir sind ja auch an neue Entwicklungen im Bereich KI. Also von daher denk ich mal, grade weil's 'n Forschungsprojekt ist, sind wir da also gut aufgestellt.

Speaker 1:

Wird das denn erst am Ende nutzbar sein, dieser Index oder wird man während dieser Zeit bis zwanzig fünfundzwanzig dann auch schon das einsetzen können?

Speaker 2:

Jeden Fall.

Speaker 1:

Und nur in Deutschland oder ist das auch, sag ich mal, weitergedacht für Europa oder auch für internationale?

Speaker 3:

Genau, wir haben das jetzt erst mal auf eine deutschsprachige Plattform konzentriert. Und wenn wir aber merken, dass das gut funktioniert, werden wir sie natürlich auch internationalisieren.

Speaker 2:

Macht ja auch für Europerinnen, weil gilt ja für alle der gleiche AI Act, von daher

Speaker 1:

Aus meiner Sicht wären wir schon am Ende, ich würde Sie auch noch mal kurz bitten, vielleicht eine Erwartung oder eine Hoffnung zu äußern. Was meinen Sie denn, was am Ende bei rauskommt zwanzig fünfundzwanzig mit künstlicher Intelligenz, mit Vertrauen, mit der Diskussion über die Problematik des Einsatzes künstlicher Intelligenz?

Speaker 2:

Also ich erwarte sehr viel davon, also gerade auch bei der KI, also dass da 'n stärkeres Bewusstsein für entwickelt wird. Und ich halte diese Entwicklung eigentlich auch für logisch, weil wir sehen das ja auch beim Datenschutz. Also eigentlich begrüßen die Konsumenten den Datenschutz ja auch, weil jeder möchte seine Privatsphäre wahren. Und ich denke mal, bei der KI wird es genau das Gleiche sein und da halt besonders im Vordergrund stehen wird die Ethik, dass halt die Moral der Gesellschaft bei dem Einsatz von KI berücksichtigt wird.

Speaker 3:

Also ich glaube auch, dass in der fortschreitenden Digitalisierung das Thema Vertrauen enorm wichtig ist, weil wenn wir nicht vertrauen, werden wir in der fortschreitenden Digitalisierung nicht mehr mitspielen wollen. Von daher glaub ich, dass wir richtig gut und erfolgreich damit werden können, damit halt die Digitalisierung tatsächlich auch in der Zukunft weiterhin erfolgreich sein kann.

Speaker 1:

Ja, vielen Dank. Das war's für heute. Wir werden das Thema künstliche Intelligenz und Vertrauen natürlich noch weiter vertiefen. Es wird also weitere Podcast dazu geben. Bis dahin, danke und Tschüs.