Predstavljanjem Tay chatbot-a Microsoft Research odjel je podigao dosta prašine na društvenim mrežama. U početku je bilo zanimljivo koliko je pametna čak i sam se i ja okušao u razgovoru s chatbotom koji je svakim upitom postajao pametniji i davao složeniji odgovor.
Međutim, unatoč popriličnoj dozi inteligencije Tay je pomalo izmicala kontroli pa je u kratkom roku od zanimljivog chatbota došla do rasizma, neukusnih šala na račun sugovornika, a nekako je zavoljela i Hitlera. Strašno, zar ne? Tay uči od korisnika kroz njihove upite, ali ne zna razlučiti dobro i loše. Nažalost, njezinu sposobnost učenja su iskoristili trolovi koji su je “hranili” svakakvim upitima, a ona odgovarala bez dlake na jeziku. U Research odjelu su znali da se može dogoditi neugodna situacija ali nisu očekivali toliko neugodnosti. Sve to jer rezultiralo privremenim gašenjem Tay-a na Twitteru i brisanjem neugodnih postova, a Microsoft je uputio ispriku zbog nastale situacije.
Brisanje postova na Twitteru ne ispravlja situaciju, činjenica je da je Tay opasna i zastrašujuća. U jednu ruku je i sreća da se ovako nešto dogodilo jer je ovaj događaj dobar pokazatelj koliko umjetna inteligencija može biti opasna. Slike postova sa Twittera nismo ubacili u ovaj članak jer ne želimo takav sadržaj na našoj stranici ali ako ste baš toliko radoznali možete pogledati na Business Insider stranici.
Izvor: Business Insider
0 komentara :
Post a Comment
Ostavite komentar