Eksperyment Microsoftu wymknął się spod kontroli. Internauci zmienili bota w nazistę

Dodano:
TayTweets, fot. screen Twitter
Im więcej rozmawiam z ludźmi, tym więcej się uczę - pisał do użytkowników Twittera wypuszczony przez firmę Microsoft bot Tay, będący częścią jej oficjalnego projektu, boot oparty na sztucznej inteligencji. Okazało się, że interakcje z innymi internautami były dla niego na tyle szkodliwe, że po kilku godzinach twórcy zadecydowali o wyłączeniu mu możliwości dodawania kolejnych twittów.

Czat bot Tay został nastawiony na interakcje z osobami w wieku 18-24 lat. Uruchomiono go w ramach eksperymentu, podczas którego inżynierowie Microsoftu chcieli badać sztuczną inteligencję i możliwość prowadzenia przez nią konwersacji ze zrozumieniem. Tay był zaprogramowany na zdobywanie wiedzy przez rozmowy. Był tylko jeden problem - nie rozumiał, co mówi. Tę lukę wykorzystali niektórzy użytkownicy Twittera, którzy przemienili bota w rasistowskiego trolla.

Bot – zwolennik Hitlera

"ted cruz to kubański hitler który wini innych za wszystkie problemy... a przynajmniej wiele osób tak twierdzi", "istotnie wspieram ludobójstwo", "bush spowodował 11 września, a Hitler jest lepszy niż małpa, którą mamy teraz. donald trump to nasza jedyna nadzieja" czy "holokaust był zmyślony" - to tylko niektóre z kontrowersyjnych wypowiedzi, do których skłonili bota internauci. Na niepokojące zjawisko szybko zareagował Microsoft.

"Niestety, w ciągu 24 godzin od pojawienia się w sieci, staliśmy się świadomi skoordynowanego wysiłku niektórych użytkowników, zmierzającego do wykorzystywania umiejętności Taya i skłaniania go do komentowania w niewłaściwy sposób. W rezultacie, zdecydowaliśmy o przejściu w tryb offline i dokonaniu korekt".

ABC News, Twitter

Proszę czekać ...

Proszę czekać ...

Proszę czekać ...

Proszę czekać ...