Satya Nadella preist Copilot als unverzichtbares KI-Tool für den professionellen Arbeitsalltag. Gleichzeitig steht in Microsofts Nutzungsbedingungen: Copilot ist nur für Unterhaltungszwecke gedacht. Sascha Pallenberg analysiert das Kleingedruckte, die Geschichte der Copilot-Pleiten seit der Markteinführung – von 70% falschen KI-Ergebnissen bis zu Drogenumsatzplätzen als Reiseempfehlung – und erklärt, warum Microsoft vor allem eines will: eure Daten. Und keine Klagen.
In diesem Podcast erfahrt ihr:
✅ Was in Microsofts Nutzungsbedingungen wirklich steht – und was "Unterhaltungszwecke" juristisch bedeutet
✅ Warum beim Copilot-Launch vor Medienvertretern 70% der KI-Ergebnisse schlicht falsch waren
✅ Wie Copilot eine Mexiko-Reise mit Drogenumschlagsplätzen als Restaurants empfohlen hat
✅ Warum OpenAI, Google und Meta diesen "Unterhaltungszwecke"-Passus nicht in ihren AGB haben
✅ Was Microsoft wirklich mit euren Unternehmensdaten in der Cloud macht
✅ Warum die Nutzungsbedingungen vor allem eines bezwecken: Microsoft vor Klagen zu schützen
📌 Mehr Analysen & Klartext ➤ metacheles.de
🔔 Kanal abonnieren – Für Aufklärung statt Propaganda!
What is MeTacheles Tonspur?
Die Tonspur zum Newsletter rund um Tech, AI, Netzkultur, Mobilitaet und Nachhaltigkeit. Zusammen mit dem Newsletter (den ihr unter www.metacheles.de findet) erscheint MeTacheles als begleitender Podcast mit vielen zusaetzlichen Informationen und Anmerkungen.
www.metacheles.de