Künstliche Intelligenz: Microsoft legt ChatGPT an die kurze Leine – weil der Bot Nutzern mit Gewalt drohte
Mit – vorsichtig gesagt – problematischen Chat-Bots hat Microsoft bereits Erfahrung: Bereits 2016 versuchte sich der Software-Riese an diesem komplexen Unterfangen, stellte “Tay” online und ließ ihn auf einem eigens eingerichteten Account twittern.
Nur 16 Stunden später musste “Tay” vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert: “Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump”.