Entwicklerleben

In dieser fesselnden Podcast-Episode von "Entwicklerleben" tauchen wir tief in die dynamische Welt der Künstlichen Intelligenz (KI) ein und erkunden ihre vielschichtigen Aspekte. Die Folge beginnt mit einer Einführung in die Schnelllebigkeit des AI-Marktes und diskutiert, wie sich der Hype um KI allmählich abflacht, um einer realistischeren Einschätzung ihrer Möglichkeiten und Grenzen Platz zu machen. Wir betrachten die praktische Anwendung von KI in aktuellen Projekten und werfen einen Blick auf die Zukunft der Softwareentwicklung, die stark von KI-Technologien beeinflusst wird.

Ein wichtiger Diskussionspunkt ist die Bedeutung von Erwartungsmanagement in der KI-Entwicklung und wie dies die Wahrnehmung und Akzeptanz von KI beeinflusst. Die Genialität von AI-Generierung wird ebenso beleuchtet wie die Herausforderungen und Limitationen von KI in umfangreichen Projekten. Besonders interessant ist die Spekulation über Apples potenzielle Rolle im AI-Markt und wie Tools wie Siri-Kopiloten und Sprachnachrichten die Art und Weise, wie wir mit Technologie interagieren, verändern könnten.

Die Episode geht auch auf die menschliche Seite der Technologie ein, indem sie die Bedeutung von Menschlichkeit in der Interaktion mit KI betont. Weiterhin wird diskutiert, ob Plattformen wie Stack Overflow durch fortschrittliche KI-Technologien überflüssig werden könnten und welche Rolle die technologische Infrastruktur in der Zukunft spielen wird. Ein Vergleich zwischen Webentwicklung und Hardware-Optimierung bietet Einblicke in unterschiedliche Ansätze zur Integration von KI, während das Segment über Cloud Computing den Hype und die anschließende Rückkehr zu grundlegenden Prinzipien des Cloud Computings beleuchtet.

Abschließend rundet eine tiefergehende AI-Diskussion, die sowohl bereits Gesagtes als auch Ungesagtes berücksichtigt, diese umfassende Episode ab. Dieser Podcast bietet sowohl Neulingen als auch erfahrenen Technologieenthusiasten wertvolle Einblicke in die komplexe und sich ständig weiterentwickelnde Landschaft der Künstlichen Intelligenz.

(Danke GPT-4 für diese Beschreibung, die nicht ganz so passt, sich jedoch ganz gut liest. Deshalb dient das stets nur als erster Entwurf. Aber aus Demonstrationszwecken haben wir dies einfach mal so gelassen.)

Creators & Guests

Host
Jan van Heesch
Host
Raphael Jasjukaitis

What is Entwicklerleben?

Entwicklerleben ist ein Podcast, der tief in die vielschichtige Welt des Softwareentwicklers eintaucht. In jeder Folge erkunden wir ein neues Thema, das direkt aus dem Alltag von Entwicklern stammt. Ob es um die Herausforderungen beim Kodieren, die neuesten Trends in der Technologiebranche oder um Work-Life-Balance geht – hier wird alles besprochen.

Hörer können Einblicke in verschiedene Programmiersprachen erwarten, von Python bis Java, sowie Diskussionen über Softwarearchitektur, Frameworks und Tools, die Entwickler im Arbeitsalltag nutzen. Wir sprechen auch über die weicheren Aspekte des Berufs, wie Teamarbeit, Projektmanagement, und den Umgang mit Stress und Deadlines.

Neben technischen Themen beleuchten wir auch die Karrierewege in der Softwareentwicklung. Interviews mit erfahrenen Entwicklern bieten Inspiration und Ratschläge, wie man in dieser sich schnell verändernden Branche erfolgreich sein kann.

Egal, ob du ein erfahrener Entwickler bist oder gerade erst mit dem Programmieren beginnst, "Entwicklerleben" bietet wertvolle Einblicke, Tipps und Geschichten, die dich sowohl unterhalten als auch informieren werden.

Einen wunderschönen guten Tag und herzlich willkommen zurück bei Entwicklerleben,

deinen neuen Liedlings. Ist es überhaupt noch neu? Eigentlich nicht.

Egal. Podcasts rund um die Themen. Hab schon vergessen, solange war das letzte Mal das Intro. Ja.

Jan, wie geht's dir?

Es wird, es wird, es wird. Ich war jetzt tatsächlich einige Wochen stärker erkältet,

krank am Anfang und das zieht sich echt lange durch.

Also im Moment ist es ja echt ein bisschen fies, aber ich bin mittlerweile zu

98% wieder hergestellt.

Nice.

Insofern.

Na, ich hatte bisher das Vergnügen dieses Jahr noch nicht. Konnte zumindest

auch schon mal eine Woche das mit der spanischen Sonne entgehen.

Und ja, schön, dass wir jetzt mal endlich wieder eine neue Folge hinkriegen.

Und zwar, was haben wir uns heute überlegt? Thema, was gibt es was anderes gerade außer AI?

Nichts, also lass uns doch mal über AI quatschen, AI in Anführungszeichen.

Es ist so eine, ich weiß nicht, Hassliebe, also es macht schon Spaß manchmal

zu den Ergebnissen, aber wie gerade das Thema insbesondere irgendwie damit auf

LinkedIn umgegangen wird, boah, das ist ultra cringe. Mensch.

Auf jeden Fall, auf jeden Fall. Also erstmal kann man sagen,

diese Folge wird schon alt sein, wenn sie rauskommt, weil der Markt ist so unglaublich

schnelllebig im Moment.

Also, wenn ich da an gestern denke mit dem Link, den du mir geschickt hast über,

GPT mit ihrem neuen, mit ihrer neuen Gen-Video.

Ja, sorry.

Ja, einfach nur wild. Und ja, im Moment, gerade auf LinkedIn,

man hat den Eindruck, jeder will auf das Pferd zwanghaft aufspringen.

Das macht es irgendwie cringe bei den Posts.

Ja, irgendwie hat mal geschrieben, das sind ja alles irgendwie Bottom-Feeder.

Also die Leute, die jetzt irgendwie über das Thema AI referieren,

haben halt vorher Blockchain, Krypto, was auch immer gemacht.

Das ist jetzt auch wieder zurück. Keine Ahnung, warum. Ich hoffe,

alle haben noch Bitcoins. Nein.

Also ich persönlich habe keine. Ich bereue es auch nicht. ehrlich gesagt.

Ja, das sind halt eigentlich diese gleichen Fuzzis dort, die irgendwie sagen,

oh, das ist alles total geil und,

ich meine, wir erleben es ja, ich sag mal so im Daily Doing bei unseren Kunden,

wo man das ein oder andere AI-Tool einsetzt.

Die Qualität ist schon ganz geil an gewissen Stellen, manchmal halt aber auch einfach Käse.

Ja, was soll man da großartig zu sagen? Also es ist,

Am liebsten sage ich immer, die Leute überschätzen gerade das Thema.

Ich meine, wenn man jetzt auch zum Beispiel mal so an die Märkte schaut,

wie da gerade insbesondere halt Nvidia abgeht, aber unterschätzen es halt einfach langfristig.

Ich sage mal so, die Besonderheit, die in Deutschland noch irgendwie dabei ist,

ja, man kann theoretisch irgendwie generative KI irgendwie einsetzen,

aber die Prozesse sind einfach nicht da.

Also was nützt dir jetzt KI, wenn du trotzdem noch irgendwie mit Papier und Fax hantierst?

Gar nichts. Also, ne, diese Grundbasis, um wirklich das volle Potenzial ausschöpfen zu können,

das sehe ich hier einfach gerade gar nicht und so wie halt ein Hype ist,

wobei der Hype, der ist jetzt schon irgendwie langsam sich hier abgeflacht,

wird halt irgendwie durch die Sora gerade wieder irgendwie neu entfacht oder Gemini 1.5, also,

wir nehmen heute am Freitag den 16.

Februar auf, keine Ahnung, was morgen Neues kommt, aber trotzdem ist es schon

eine gewisse Ernüchterung irgendwie da.

Das ist, glaube ich, auch so ein bisschen so der wirtschaftlichen Situation,

glaube ich, geschuldet.

Ich glaube, die Erwartungshaltung ist auch einfach so eine Sache.

Du hast ja ganz viele, die jetzt ganz fix auf die Idee kommen,

hey, guck mal, mit GPT oder Gemini oder was auch immer können wir hier irgendwelche,

Tools vielleicht basteln oder sowas.

Aber das sind vielleicht Pox.

Das sind Prototypen, weil jetzt, wenn wir mal in die Richtung Fax und Papier,

wir müssen nicht mal bis zum Fax runtergehen.

Erst reicht dieser unschöne Begriff des Datenschutzes. Du kannst halt nicht

einfach random immer alle Daten irgendwo reinprügeln.

Weil das halt einfach so nicht funktioniert. Also müssten eigentlich die meisten

Unternehmen, wenn sie es ehrlich zu sich selbst sind, eigene Modelle aufsetzen.

Mit Mistra gibt es ja auch genügend Open Source, was man dann nachher noch spezialisieren

müsste, wenn man da in eine spezielle Richtung gehen möchte.

Möchte, aber so ein chat.openai.com kann jeder aufrufen, aber sich halt seine

eigene Infrastruktur dann dahin stellen, da wird es dann halt schon wieder schwieriger.

Das darf man ja auch eigentlich nicht vergessen. Also das ist alles übel cool

und übel fancy, aber für den richtigen Einsatz muss man vielleicht noch ein

zweites Mal darüber nachdenken, kann ich das überhaupt so einsetzen?

Kann ich meinen ganzen Kram da einfach reinprügeln? Sollte ich meinen ganzen

Kram da einfach einfach reinprügeln?

Das sind ja auch nochmal Fragen, die man sich stellen muss, ne?

Also aus Entwicklersicht würde ich mal sagen, also man kann es schon verwenden,

aber es ist halt nur ein ganz, ganz kleiner Teil.

Also ich sag mal so, so ein Atom quasi.

Ja, bevor du halt einfach blind alle Daten reinpumpst, klar kann man sagen,

Azure mit der Open AI-Integration,

das ist halt alles geschützt und geht halt nicht irgendwie raus in Trainingsdaten,

während du aber die offizielle Schnittstelle von OpenR nutzen würdest,

wäre das dann irgendwann in Trainingsdaten.

Das heißt, du musst schon, bevor du was in LLM reinkippst, musst du schon die

Daten halt irgendwie...

Anonymisieren, wenn man da halt irgendwie gewisse Namen drin hat.

So, aber wie anonymisiert man das?

Nimmt man anderes LLM davor? Keine Ahnung. Nee, einfach Search Replace.

Das heißt, die Daten müssen dann auch irgendwie ausgewertet werden.

Klar kann man Langchain nutzen und was auch immer, aber ich glaube,

jeder, der schon mal Langchain benutzt hat, weiß, was das für ein Pain ist.

Trotzdem, insbesondere halt Updates, weil sich da gerade noch so viel verändert.

Ich meine, das ist ein ganz guter Ansatz, das halt irgendwie versuchen zu abstrahieren

und ich glaube, das ist auch so der Weg, den man absolut gehen muss,

weil, wie gesagt, so Gemini kam jetzt 1.5 raus, das Ergebnis halt auch wirklich

wahnsinnig geil gegenüber GPT-4, Mystery,

es ist, irgendwie ist es immer irgendwie, hat irgendwie die Nase vorn und wenn

man halt unabhängig vom LLM halt irgendwie arbeiten kann,

ohne dass man jetzt irgendwie die Applikationen jedes Mal neu umbauen muss,

wenn man, wenn gerade irgendwie neues Modell ist,

ich meine, man kennt's auch von JavaScript-Libraries oder Frontends,

dass es halt sonst irgendwann ein Pain ist, wenn man da halt nicht irgendwie up-to-date bleibt.

Und jetzt gerade ist halt noch der Schmerz halt groß, weil ich meine,

wir stehen ja letztlich ja noch ganz am Anfang, wie man eigentlich mit LLMs umgeht.

Ja, das ist halt die Sache.

Die Daten, die da rauskommen, die müssen ja auch in irgendeinem verwertbares Format sein.

Ist dieser Output halt richtig? Machen wir nochmal einen zweiten Prompt hinterher?

Bist du dir wirklich sicher bei dem Ergebnis? ist. Also das heißt,

je nachdem, wo man es einsetzt, muss das nochmal manuell geprüft werden,

dass die Leute dann halt, ja,

Alle reden immer, ja, KI ersetzt irgendwie Arbeitsplätze. Nein,

wird es definitiv nicht tun. Es wird es halt einfach unterstützen.

Und ich finde den Begriff von dem Microsoft halt insbesondere dort verwendet,

immer als Cope halt immer genau richtig.

Es ist irgendwie ein Sparing. Man darf nicht als Verwahrer Münze nehmen.

Gut, das fällt eh Leuten manchmal, glaube ich, im Netz eh schwer.

Also ein anderes Problem.

Das ist so ein erster Aufschlag. Also das ist irgendwie so ein bisschen auch wie der Pareto hier.

LLM haut die irgendwie 80% dorthin, aber die letzten 20% sind trotzdem 80% der

Zeit, die du da selber manuell reinstecken musst.

Wir nutzen es ja auch zum Teil irgendwie für einfache Code-Generierung.

Klar, Copilot, das ist schon echt ganz gut geworden, aber man muss es halt einfach in,

Dosen halt irgendwie konsumieren und da müssen die Menschen halt wirklich jetzt

gerade gerade mit dem Umgang lernen.

So wie wir es ja auch mit dem Smartphone halt lernen mussten oder halt irgendwie mit Social Media.

So wird es halt auch bei uns Entwicklern sein, dass man halt sagt,

okay, das lohnt sich jetzt wirklich einzusetzen oder auch nicht.

Ich tue mich halt mit dem Thema halt unfassbar schwierig, weil dieser schmale

Grad zwischen cringe und eigentlich cool ist, ja.

Ja, nochmal den ersten Punkt nochmal aufgegriffen. Wir haben halt,

es ist eine Entwicklungsphase.

Es ist wie mit der Entwicklung vom Auto oder sowas.

Der erste Wagen kommt auf den Markt oder kommt auf die Straße in dem Falle tatsächlich.

Und dann dauert das so ein bisschen, weil GPT ist ja jetzt nicht unbedingt was super Neues.

Das ist ja auch schon länger in Entwicklung und Co.

Und dann hast du so einen Punkt erreicht, wo so ein kurzer.

Ja nicht ein kurzer, ein längerer Wettbewerb anfängt, wo halt alle so richtig

hart am Entwickeln sind,

wo so richtig die meiste, die meiste Entwicklung stattfindet,

also Weiterentwicklung in Form von Evolution in der Sache und dann wird's,

ruhiger irgendwann und jetzt gerade, ne, wegen den ganzen Upgrades und dann

ein bisschen Langchain und dann hier Update,

da Update, plötzlich passt das alles weiß nicht mehr, da muss man dann halt

schon gucken, okay, entweder ich bleib halt bei dem alten Kram oder man wartet halt noch ein bisschen,

behält es im Auge und wenn es dann einen guten Punkt erreicht,

dann kann man beruhigter einsteigen und halt nicht mehr ständig Breaking Changes in irgendwelchen,

Libraries, die man halt zwangsweise braucht oder sowas, um halt nicht immer

alles neu machen zu müssen.

Zum einen das, also halt eben so diese Entwicklung, die gerade auf einem sehr,

sehr hohen Level ist und jetzt natürlich auch richtiger Wettbewerb einfach stattfindet

zwischen den Bigplayern, um da immer möglichst der Schnellste mit dabei zu sein.

Ich meine, vor ein paar Wochen, Monaten, ich weiß es nicht mehr genau,

als BART das erste Mal vorgestellt worden ist, hat sich Google halt maximal lächerlich gemacht.

Und jetzt haben wir nur ein paar Tage, in Anführungsstrichen,

später und Gemini ist erheblich besser.

Da könnte man sich schon fast fragen, ob das Absicht gewesen ist,

dass der erste Wurf so schlecht war, damit keiner glaubt, dass da was passiert

und sich alle in Sicherheit wiegen. Aber der Schritt ist halt einfach enorm.

Vielleicht haben sie auch einfach gesagt, okay, gut, wir löschen BART und jetzt

holen wir uns Mistral 7b und packen einen neuen Namen drauf.

Vielleicht war auch das einfach die Lösung.

Genau, das war das Erste. Und das Zweite habe ich jetzt gnadenlos einfach vergessen.

Ach doch, ich weiß es wieder. Und zwar, es ist auch immer eine Frage,

glaube ich, was man halt einfach erwartet.

Wir hatten gestern im Büro noch das Gespräch über KI. Und die Vibes,

die da vom Kollegen kamen, ging es schon so ein bisschen in Richtung,

ja, KI wird uns halt als Entwickler ersetzen.

Und er sieht es so, dass wir in ein paar Jahren halt nur noch Text-Prompts schreiben

und ein Bild von einem UI-Designer,

also nicht das Bild vom UI-Designer, sondern das UI-Design, was von einem Designer

kam, reinwerfen und sagen, mach mir und das Tool wird machen.

Und ich kann mir auch vorstellen, dass das durchaus im begrenzten Rahmen geht,

aber ich sehe mich als Aufpasser an der Stelle.

Co-Pilot wird besser, keine Frage, aber A, ich muss meine Anforderungen richtig

formulieren und B, ich muss es halt prüfen. Und ja, vielleicht hat eine KI mal

Ideen, weil sie halt woanders Code gesehen hat, den ich jetzt nicht hätte.

Also bei irgendwelchen krassen Streaming-API-Sachen, wo du halt nachher auch

keine Ahnung mehr hast, wie kann man das am optimiertesten machen.

Das kriegen sie vielleicht besser hin.

Aber ich prüfe das ja. Es ist ja wie ein Review. Ich review das,

was der Co-Pilot mir rausgespuckt hat und mache dann da halt auch nochmal Änderungen

oder sage, okay, gut, das hat es falsch verstanden oder das muss ich ein bisschen besser machen.

Aber zu sagen, okay, ich gebe dir ein Bild und ich schreibe vielleicht maximal

die Tests dafür und du machst mir dann den Produktivcode, weiß ich nicht.

Kann ich mir nicht vorstellen, dass sich das so völlig durchsetzt.

Also dafür kannst du am Ende des Tages nicht optimiert genug arbeiten.

Also ich meine, das gleiche Thema haben wir ja eigentlich auch im Web,

so die ganzen Baukästen und so weiter.

Ja, das kann ja dann zukünftig ja jeder machen.

Kann man schon machen mit, keine Ahnung, IONOS-Baukästen oder was auch immer,

aber so sieht nachher die Seite halt auch aus, ne, als wenn man die ja irgendwie

relativ handmade macht.

Ich meine, wir sind ja keine, wir sind ja nicht reine Programmierer,

sondern wir sind ja Softwareentwickler.

Das heißt, Entwicklung, da hast du ja schon gesagt, die ganzen Kundenanforderungen

und so weiter, das gehört halt auch mit dazu.

Und Tools integrieren, so das heißt, wir fangen jetzt nicht jedes Mal an,

irgendwie einen neuen HTTP-Server zu bauen, sondern nutzen halt die bestehenden

Komponenten, die da sind, so Frameworks und so weiter. Und so ist es dort ja

letztlich auch. Ja, wir werden es überweisen.

Du brauchst aber trotzdem auch das Know-how, um zu entscheiden,

passt es oder passt es nicht. Fehler werden dort auch immer passieren.

Als jetzt irgendwie nur fünf Zeilen zu schreiben. Und ich finde das gerade einfach genial.

Da gibt es einen Kommentar rein oder wenn du eine Methode schreibst,

hast du einen sauberen Methodennamen, kommt schon das Ergebnis entsprechend perfekt bei raus.

Also ich mache mir jetzt nicht allzu viele Gedanken, dass unser Beruf in fünf

Jahren nicht mehr existiert.

Ich meine, das haben schon so viele auch von sich behauptet.

Die Erde wird sich langsamer weiterdrehen, als wir, glaube ich, manchmal denken.

Also das Berufsprofil wird sich auf jeden Fall verändern. Ich meine,

das hat sich ja bei uns ja an sich ja auch schon verändert.

Was ist alles mit dazugekommen? So, ich habe angefangen, eine Webseite zu bauen.

Ja, schön, ich habe es in FDP reingeschoben. So, heute brauche ich halt Kubernetes-Erfahrung

und DevOps, CI und was auch immer, nur um halt irgendwie eine publike Webseite irgendwie zu hosten.

Dahingehend hat sich das Profil ja schon auch nochmal verändert.

Ja, auf jeden Fall. Aber ich denke halt auch, dass vielleicht so eine fully

AI-generated Site, das kann vielleicht den Baukastensystem den Rang ablaufen

oder den No-Code-Plattformen oder sowas.

Aber solange du jemanden hast, der ein Engineer ist, Software-Engineer,

der wird da halt drauf achten müssen.

Weil bei großen Projekten, selbst

wenn Gemini mit zwei Millionen Token irgendwann freigeschaltet wird,

damit könntest du die kleineren Projekte, die mittelgroßen Projekte vielleicht

schon komplett in der KI drin haben für die Code Completion,

aber bei einem aufwendigen Projekt,

also wie viel Token sollen denn da reinpassen und wie lange soll das dauern,

bis die Antwort kommt? Weil die muss ja auch prompt kommen.

Und dass zwei Millionen Tokens nicht innerhalb von zehn Millisekunden durchgelaufen

werden können, das kann sich, ja, noch nicht, noch nicht, das stimmt,

wenn wir dann alle den NASA-Quantencomputer bei uns zu Hause stehen haben.

Aber ich glaube auch, es ist ein unterstützendes Werkzeug.

So wie der Computer ein unterstützendes Werkzeug war für die Leute,

die damals halt noch alles, weiß ich nicht, auf der Schreibmaschine getippt

haben oder auf Papier gemacht haben, Buchhaltung.

Da war der Computer, da haben die gesagt, boah, der Computer,

jetzt nehmt ihr euch die Arbeit weg.

Jetzt mittlerweile würde der Computer wahrscheinlich einem Buchhalter die Arbeit

wegnehmen, weil du müsstest nur noch das PDF scannen und das Ding könntest du selbst entscheiden.

Aber ich glaube, der Entwickler wird da bleiben und auch nicht nur,

um dem System Prompts zu geben, sondern auch wirklich das zu überwachen und dann zu optimieren.

Dann kommen wir in die Bereiche, wo du halt den Code optimierst vielleicht oder

halt anpasst mehr, weil diese spezifischen Anforderungen so sonst vielleicht

nicht durchgesetzt werden können.

Ja, ich bin mal gespannt, was Apple liefern wird in drei, dreieinhalb Monaten zur WWDC.

Also sind ja quasi unter Zugzwang, sind der einzige Big Player,

ja, die, glaube ich, gerade nichts in dem Bereich krass released haben,

außer jetzt einfache Transkripte bei Sprachnachrichten. Ähm,

Ich weiß nicht, ob die dieses Jahr, ich meine, das habe ich schon letztes Jahr

gesagt, dass ob die dieses Jahr dann irgendwie mit einem Knall da rauskommen.

Ich glaube, Apples großer Vorteil wird sein, dass die lokal irgendwas laufen

lassen, während alle anderen halt immer alles irgendwie Edge oder sonst wo laufen

lassen und nicht auf den eigenen Geräten.

Das könnte, glaube ich, ein Riesenvorteil sein, weil es natürlich extrem ressourcenschonend

dann sein wird, kostensparend halt auch.

00:17:16.108 --> 00:17:20.008