Со цел повеќе да се дознае за „разбирањето на разговорите‟ на социјалните мрежи компанијата Мајкрософт создаде софтвер кој учи од корисниците, имитирајќи го јазикот кој го користат.
Откако во средата бил пуштен во употреба ботот @TayandYou за помалку од 24 часа почнал да пишува толку навредливи коментари, што компанијата морала да му ја укине можноста за пишување на твитови и во меѓувреме избриша одреден број негови постови.
Ботот го довел во прашање постоењето на Холокаустот, а на жените припаднички на различни малцинства се обраќал со непримерен речник и предложил геноцид, пишува Њујорк Тајмс.
Мајкрософт во јавно соопштение го опиша проектот како социјален и културолошки експеримент. „За жал, за помалку од 24 часа станавме свесни за обединетиот напор на некои корисници да ги злоупотребат вештините на Теј. Тие од ботот побарале да ги повтори нивните пишувани изјави, што софтверот на крај го направил‟, изјавија претставници на компанијата.
Компанијата го повлекла Теј од интернет и моментално работи на модификации со кои проблемот треба да биде решен.