Бот снова грубит из-за обучения на открытых данных: раньше уже было «пососите потом просите».
В закладки
Клиентка «Тинькофф банка» Анна Васильева пожаловалась в соцсетях на голосового помощника «Олега», встроенного в приложение банка. Девушка рассказала, что сообщила поддержке о проблеме со входом по отпечатку пальца, на что получила ответ от чат-бота: «Пальцы бы вам отрезать».
Представители «Тинькофф» ответили на пост Васильевой, извинившись перед ней: «Голосовой помощник у нас немного с характером и учится на открытых данных. Иногда такое проскакивает. Безусловно, не хотели причинять неудобств». Также сотрудники банка сослались на «своеобразный юмор» «Олега» и в шутку пообещали провести с ним беседу.
Это не первый раз, когда «Олега» ловят на грубости пользователям. Голосового помощника запустили в июне, и он сразу же начал отвечать клиентам фразами вроде «пососите потом просите». Тогда представители компании тоже объяснили поведение бота обучением на открытых данных.
Это общая проблема для чат-ботов на основе нейросетей, которые обучаются на постах в соцсетях или форумах. Дважды с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.
{ "author_name": "Женя Кузьмин", "author_type": "editor", "tags": ["\u0442\u0438\u043d\u044c\u043a\u043e\u0444\u0444","\u0441\u043e\u0446\u0441\u0435\u0442\u0438","\u043d\u043e\u0432\u043e\u0441\u0442\u0438"], "comments": 33, "likes": 16, "favorites": 2, "is_advertisement": false, "subsite_label": "news", "id": 128270, "is_wide": false, "is_ugc": false, "date": "Tue, 26 Nov 2019 19:34:47 +0300", "is_special": false }