Well den Chatbot vun der Microsoft-Sichmaschinn "Bing" a Conversatiounen eng Rei Notzer beleidegt a menacéiert huet, soll elo de Service limitéiert ginn.

Den Chatbot, deen och Funktioune vun der kënschtlecher Intelligenz ChatGPT notzt, soll deemno a verschiddene Gespréicher Äntwerte ginn hunn, déi Notzer als ausfalend an deplacéiert bezeechent hunn.

Sou bericht e Journalist vun der New York Times vun enger 2 Stonne laanger Conversatioun mam Chatbot, an där d'Kënschtlech Intelligenz behaapt huet, an de Mann verléift ze sinn. D'KI soll ausserdeem probéiert hunn, hien dovunner z'iwwerzeegen, sech vu senger Fra ze trennen, well hien net glécklech a sengem Mariage wier.

E Journalist vun der Associated Press gouf vum Chatbot mat Hitler verglach an als elle bezeechent. Do virdrun hat d'KI sech iwwert d'Press beschwéiert, déi an der Vergaangenheet aner Aussetzer vun der Software couvréiert hat. Kuerz duerno huet den Chatbot dunn, fir ofzelenken, Fakten iwwer Müsli opgezielt.

Engem aneren Notzer soll d'kënschtlech Intelligenz mat de Wierder "Ech kann dech erpressen, ech kann dech menacéieren, ech kann dech hacken, ech kann dech bloussstellen, ech kann dech ruinéieren" gedreet hunn.

Microsoft huet iwwerdeems op d'Virfäll reagéiert a festgeluecht, de Service vum Bing-Chatbot ze limitéieren. Deemno sollen an Zukunft nëmmen nach 50 Froe pro Dag a 5 Froe pro Sëtzung méiglech sinn. Ass d'Limitt iwwerschratt, gëtt den Notzer opgefuerdert, en neie Sujet unzefänken.

Datt d'Software ausfalend oder beleidegend gëtt, läit Microsoft no un ze laange Conversatiounen. Dës géingen dofir suergen, datt den Chatbot sech widderhëlt oder Äntwerte gëtt, déi "net mat der Tonalitéit" vu Microsoft iwwerteneestëmmen.