28.3.16

Microsoft se ispričao zbog Tay chatbot-a

snip_20160323133500[2]

Predstavljanjem Tay chatbot-a Microsoft Research odjel je podigao dosta prašine na društvenim mrežama. U početku je bilo zanimljivo koliko je pametna čak i sam se i ja okušao u razgovoru s chatbotom koji je svakim upitom postajao pametniji i davao složeniji odgovor.

 

Međutim, unatoč popriličnoj dozi inteligencije Tay je pomalo izmicala kontroli pa je u kratkom roku od zanimljivog chatbota došla do rasizma, neukusnih šala na račun sugovornika, a nekako je zavoljela i Hitlera. Strašno, zar ne? Tay uči od korisnika kroz njihove upite, ali ne zna razlučiti dobro i loše. Nažalost, njezinu sposobnost učenja su iskoristili trolovi koji su je “hranili” svakakvim upitima, a ona odgovarala bez dlake na jeziku.  U Research odjelu su znali da se može dogoditi neugodna situacija ali nisu očekivali toliko neugodnosti. Sve to jer rezultiralo privremenim gašenjem Tay-a na Twitteru i brisanjem neugodnih postova, a Microsoft je uputio ispriku zbog nastale situacije.

 

Brisanje postova na Twitteru ne ispravlja situaciju, činjenica je da je Tay opasna i zastrašujuća. U jednu ruku je i sreća da se ovako nešto dogodilo jer je ovaj događaj dobar pokazatelj koliko umjetna inteligencija može biti opasna. Slike postova sa Twittera nismo ubacili u ovaj članak jer ne želimo takav sadržaj na našoj stranici ali ako ste baš toliko radoznali možete pogledati na Business Insider stranici.

 

Izvor: Business Insider

0 komentara :

Post a Comment

Ostavite komentar