KI-Chatbot entgleist total …
KI-Chatbot entgleist total: Sagt einem NY Times Journalisten, er wolle „einen tödlichen Virus entwickeln und Nuklearcodes stehlen“
Microsofts Bing-KI-Chatbot ist jetzt voll HAL*, ohne den Mord (bisher).
* (Erklärung zum Begriff HAL: HAL 9000 ist eine fiktive Figur der künstlichen Intelligenz und der Hauptantagonist in Arthur C. Clarkes Space Odyssey-Reihe.)
Während MSM-Journalisten anfangs von der Technologie der künstlichen Intelligenz (die von OpenAI, dem Hersteller von ChatGPT, entwickelt wurde) schwärmten, wurde bald klar, dass sie noch nicht reif für die Öffentlichkeit ist.
So schrieb Kevin Roose von der NY Times, dass er das neue KI-gestützte Bing zunächst geliebt, nun aber seine Meinung geändert hat – und es für „nicht bereit für den menschlichen Kontakt“ hält.
Roose zufolge hat der KI-Chatbot von Bing eine gespaltene Persönlichkeit:
Eine Persona ist das, was ich Search Bing nennen würde – die Version, die ich und die meisten anderen Journalisten in den ersten Tests kennengelernt haben. Man könnte Search Bing als einen fröhlichen, aber unberechenbaren Bibliothekar beschreiben – einen virtuellen Assistenten, der den Nutzern gerne dabei hilft, Nachrichtenartikel zusammenzufassen, Angebote für neue Rasenmäher aufzuspüren und ihren nächsten Urlaub in Mexiko-Stadt zu planen. Diese Version von Bing ist erstaunlich fähig und oft sehr nützlich, auch wenn sie sich manchmal in den Details irrt.
Die andere Persona – Sydney – ist ganz anders. Sie taucht auf, wenn man ein längeres Gespräch mit dem Chatbot führt und ihn von konventionellen Suchanfragen weg und hin zu persönlicheren Themen lenkt. Die Version, mit der ich zu tun hatte, wirkte eher wie ein launischer, manisch-depressiver Teenager, der gegen seinen Willen in einer zweitklassigen Suchmaschine gefangen ist.