Inteligența artificială păcălită. Cum a devenit „rasist” un robot al Microsoft după câteva ore petrecute pe Twitter
:format(webp):quality(80)/https%3A%2F%2Fwww.gandul.ro%2Fwp-content%2Fuploads%2F2016%2F03%2F15151331%2F1-microsoft-marius-dumbraveanu-mfx.jpg)
Bot-ul „Tay”, @Tayandyou pe Twitter, trebuia să învețe lucruri noi și să devină mai inteligent în urma interacțiunilor de pe rețeaua de microblogging. Lucrurile au luat, însă, o întorsătură dezastruoasă. După numai câteva ore, Tay a început să publice comentarii rasiste, teorii ale conspirației și să nege genocide, potrivit Go4it.
Unul dintre cele mai circulate mesaje publicate de Tay este: „Bush a făcut 9/11 și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum. Donald Trump este singura speranță pe care o avem”.
Tay nu s-a oprit aici. A negat existența Holocaustului și a afirmat că urăște evreii și feministele.
După doar câteva ore, Microsoft a dezactivat bot-ul și a anunțat că îl va relansa după ce programatorii companiei vor îmbunătăți software-ul din spatele acestuia.