Künstliche Intelligenz: Microsoft legt ChatGPT an die kurze Leine – weil der Bot Nutzern mit Gewalt drohte
Mit – vorsichtig gesagt – problematischen Chat-Bots hat Microsoft bereits Erfahrung: Bereits 2016 versuchte sich der Software-Riese an diesem komplexen Unterfangen, stellte «Tay» online und ließ ihn auf einem eigens eingerichteten Account twittern.
Nur 16 Stunden später musste «Tay» vom Netz genommen werden – er hatte sich negativ über Rassismus und Extremismus geäußert und unter anderem getwittert: «Bush hat 9/11 selber verursacht, und Hitler hätte den Job besser gemacht als der Affe, den wir nun haben. Unsere einzige Hoffnung jetzt ist Donald Trump».