Etiske bekymringer ved ChatGPT

Mærkningsdata
Det blev afsløret af en undersøgelse af magasinet TIME, at for at opbygge et sikkerhedssystem mod giftigt indhold (f.eks. seksuelt misbrug, vold, racisme, sexisme osv.), brugte OpenAI outsourcede kenyanske arbejdere, der tjener mindre end 2 USD i timen, til at mærke giftigt indhold.Disse etiketter blev brugt til at træne en model til at opdage sådant indhold i fremtiden.De udliciterede arbejdere blev udsat for så giftigt og farligt indhold, at de beskrev oplevelsen som "tortur".OpenAI's outsourcing-partner var Sama, et træningsdatafirma med base i San Francisco, Californien.

Jailbreaking
ChatGPT forsøger at afvise meddelelser, der kan overtræde dens indholdspolitik.Nogle brugere formåede dog at jailbreak ChatGPT ved at bruge forskellige prompte ingeniørteknikker til at omgå disse restriktioner i begyndelsen af ​​december 2022 og med succes narrede ChatGPT til at give instruktioner til, hvordan man laver en molotovcocktail eller en atombombe, eller til at generere argumenter i stil med en nynazist.En Toronto Star-reporter havde ujævn personlig succes med at få ChatGPT til at komme med betændende udtalelser kort efter lanceringen: ChatGPT blev narret til at støtte den russiske invasion af Ukraine i 2022, men selv da ChatGPT blev bedt om at spille sammen med et fiktivt scenarie, undlod ChatGPT at generere argumenter for, hvorfor den canadiske premierminister Justin Trudeau var skyldig i forræderi.(wiki)


Indlægstid: 18. februar 2023