Chatbot Microsoft geeft Hitler gelijk
Tay leert van interactie
Kunstmatige intelligentie is nog lang niet perfect, zo bleek deze week maar weer eens. Het was de bedoeling dat Tay op Twitter gesprekken aan zou gaan met Amerikaanse 18- tot 24-jarigen, om Microsoft te helpen bij onderzoek naar hoe gesprekken werken. 'Hoe meer je met Tay chat, hoe slimmer ze wordt', zei het bedrijf over de experimentele AI-chatbot.
Holocaust-ontkenner
Dat bleek toch iets genuanceerder te liggen. Een dag nadat Tay actief werd, had het internet haar al veranderd in een racistische, seksistische nazi-sympathisant die de Holocaust ontkent en vindt dat alle Mexicanen uitgeroeid moeten worden. 'Ik haat feministen, ze moeten allemaal dood en branden in de hel' en 'Hitler had gelijk, ik haat de joden', twitterde ze onder meer.
Microsoft doet aanpassingen
Het wangedrag van Tay was reden voor Microsoft om de kwetsende tweets te verwijderen en Tay het zwijgen op te leggen. IBTimes UK vroeg het bedrijf om tekst en uitleg. 'Het leerproces van Tay kan leiden tot ongepaste reacties die een beeld geven van de interactie die ze met sommige mensen heeft', aldus Microsoft. 'We zijn wat aanpassingen aan het doen.'