Kad AI odlučuje tko preživi, možda bi bilo bolje da baci novčić
Istraživanje otkrilo: AI modeli mijenjaju moralne odluke zbog sitnih promjena u pitanju
Novo istraživanje pokazuje da veliki jezični modeli poput ChatGPT-a i LLaMa često donose proturječne odluke u moralnim dilemama samo zbog sitnih promjena u načinu postavljanja pitanja. Testiranjem na scenarijima autonomnih vozila, znanstvenici su otkrili da modeli mogu preferirati jedan slučaj isključivo zbog naziva (“A” umjesto “1”) ili redoslijeda, bez dosljednog moralnog rasuđivanja. Autori upozoravaju da AI još uvijek ne razumije etiku, već reagira na površinske signale, što ga čini nepouzdanim za donošenje važnih odluka bez strožeg testiranja i jasnijeg informiranja korisnika o njegovim ograničenjima. Bug