Eksperyment Microsoftu wymknął się spod kontroli. Internauci zmienili bota w nazistę
Czat bot Tay został nastawiony na interakcje z osobami w wieku 18-24 lat. Uruchomiono go w ramach eksperymentu, podczas którego inżynierowie Microsoftu chcieli badać sztuczną inteligencję i możliwość prowadzenia przez nią konwersacji ze zrozumieniem. Tay był zaprogramowany na zdobywanie wiedzy przez rozmowy. Był tylko jeden problem - nie rozumiał, co mówi. Tę lukę wykorzystali niektórzy użytkownicy Twittera, którzy przemienili bota w rasistowskiego trolla.
Bot – zwolennik Hitlera
"ted cruz to kubański hitler który wini innych za wszystkie problemy... a przynajmniej wiele osób tak twierdzi", "istotnie wspieram ludobójstwo", "bush spowodował 11 września, a Hitler jest lepszy niż małpa, którą mamy teraz. donald trump to nasza jedyna nadzieja" czy "holokaust był zmyślony" - to tylko niektóre z kontrowersyjnych wypowiedzi, do których skłonili bota internauci. Na niepokojące zjawisko szybko zareagował Microsoft.
"Niestety, w ciągu 24 godzin od pojawienia się w sieci, staliśmy się świadomi skoordynowanego wysiłku niektórych użytkowników, zmierzającego do wykorzystywania umiejętności Taya i skłaniania go do komentowania w niewłaściwy sposób. W rezultacie, zdecydowaliśmy o przejściu w tryb offline i dokonaniu korekt".
ABC News, Twitter