{"type":"rich","version":"1.0","provider_name":"Transistor","provider_url":"https://transistor.fm","author_name":"MeTacheles Tonspur","title":"Microsoft Copilot - Diese Nutzungsbedingungen sind ein Skandal","html":"<iframe width=\"100%\" height=\"180\" frameborder=\"no\" scrolling=\"no\" seamless src=\"https://share.transistor.fm/e/3fe17721\"></iframe>","width":"100%","height":180,"duration":1364,"description":"Proton-Drive Angebot 👉 https://t.ly/ProtonDriveProton-Mail Angebot 👉 https://t.ly/protonme🚨 Microsoft Copilot – \"Nur zur Unterhaltung\": Das Kleingedruckte, das alles ändertSatya Nadella preist Copilot als unverzichtbares KI-Tool für den professionellen Arbeitsalltag. Gleichzeitig steht in Microsofts Nutzungsbedingungen: Copilot ist nur für Unterhaltungszwecke gedacht. Sascha Pallenberg analysiert das Kleingedruckte, die Geschichte der Copilot-Pleiten seit der Markteinführung – von 70% falschen KI-Ergebnissen bis zu Drogenumsatzplätzen als Reiseempfehlung – und erklärt, warum Microsoft vor allem eines will: eure Daten. Und keine Klagen.In diesem Podcast erfahrt ihr: ✅ Was in Microsofts Nutzungsbedingungen wirklich steht – und was \"Unterhaltungszwecke\" juristisch bedeutet ✅ Warum beim Copilot-Launch vor Medienvertretern 70% der KI-Ergebnisse schlicht falsch waren ✅ Wie Copilot eine Mexiko-Reise mit Drogenumschlagsplätzen als Restaurants empfohlen hat ✅ Warum OpenAI, Google und Meta diesen \"Unterhaltungszwecke\"-Passus nicht in ihren AGB haben ✅ Was Microsoft wirklich mit euren Unternehmensdaten in der Cloud macht ✅ Warum die Nutzungsbedingungen vor allem eines bezwecken: Microsoft vor Klagen zu schützen📌 Mehr Analysen & Klartext ➤ metacheles.de 🔔 Kanal abonnieren – Für Aufklärung statt Propaganda!","thumbnail_url":"https://img.transistorcdn.com/afIc3RnqFXGWSdFCftbVdJ08g3nyg4Zn-SWyhmCWsns/rs:fill:0:0:1/w:400/h:400/q:60/mb:500000/aHR0cHM6Ly9pbWct/dXBsb2FkLXByb2R1/Y3Rpb24udHJhbnNp/c3Rvci5mbS9zaG93/LzQ4ODg1LzE3MDU4/MDQ1MTUtYXJ0d29y/ay5qcGc.webp","thumbnail_width":300,"thumbnail_height":300}