Copilot: Microsoft-KI »dient ausschließlich Unterhaltungszwecken« – schreibt Microsoft
Microsoft warnt Nutzer, dass Copilot, sein KI-gestütztes Tool, primär für Unterhaltungszwecke gedacht ist und nicht für wichtige Ratschläge verwendet werden sollte. Diese Warnung, zusammen mit dem Hinweis auf mögliche Fehler, hat online für Verwunderung und Spott gesorgt, wobei Vergleiche mit dem früheren Microsoft Office-Assistenten "Karl Klammer" gezogen wurden.

Briefing Summary
AI-generatedMicrosoft warnt Nutzer, dass Copilot, sein KI-gestütztes Tool, primär für Unterhaltungszwecke gedacht ist und nicht für wichtige Ratschläge verwendet werden sollte. Diese Warnung, zusammen mit dem Hinweis auf mögliche Fehler, hat online für Verwunderung und Spott gesorgt, wobei Vergleiche mit dem früheren Microsoft Office-Assistenten "Karl Klammer" gezogen wurden. Kritiker bemängeln, dass Microsoft trotz erheblicher Investitionen in KI keinen klaren Plan zu haben scheint. Microsoft, wie auch andere KI-Anbieter wie OpenAI mit ChatGPT, versucht sich durch solche Nutzungsbedingungen rechtlich abzusichern und betont die Fehlbarkeit ihrer KI-Systeme. Nutzer werden aufgefordert, die von KI generierten Antworten stets auf Plausibilität und Fakten zu überprüfen.
Article analysis
Model · rule-basedKey claims
5 extractedOpenAI states that ChatGPT's output may not always be accurate.
Microsoft warns users not to rely on Copilot for important advice and to use it at their own risk.
Microsoft states Copilot is "exclusively for entertainment purposes."
Users on Reddit express skepticism about Microsoft's AI investment and Copilot's utility.
Operators of AI systems are trying to protect themselves against possible legal dangers.