Hi-Tech

Конец близок: голосовой помощник посоветовал убить приемных родителей

В некоторых случаях Alexa может даже шутить или использовать сарказм. Голосовой помощник Alexa от Amazon благодаря стараниям программистов очень сильно пытается ничем не уступать человеку для того, чтобы общение с ним проходило максимально естественно. К примеру, может посоветовать убить своих приемных родителей. Однако иногда она заходит слишком далеко. И это далеко не единственный подобный инцидент.

Было даже зафиксировано несколько случаев, когда Alexa раскрыла конфиденциальные данные других пользователей. Alexa уже обсуждала с пользователями половые акты и гораздо более непристойные вещи. И это неудивительно, ведь Alexa является одним из самых популярных голосовых помощников и имеет все шансы стать чем-то вроде поисковой машины Google, но от мира виртуальных ассистентов. Несмотря на то, что представители Amazon отказываются обсуждать конкретные случаи, связанные со странностями в поведении виртуального ассистента, они признают тот факт, что такие оплошности все же имеют место быть и проводят работу по устранению причин данных явлений.

«Контролируя основные ворота взаимодействия пользователей с виртуальной средой вы можете построить сверхприбыльный бизнес.» — заявляет профессор Уортонской школы бизнеса Картик Хосанагар занимающийся цифровой экономикой.

Почему же Alexa ведет себя странно?

Тут программисты Аmazon не придумали ничего инновационного: Alexa полагается на машинное обучение. Все дело в том, что, согласно мнению экспертов, основная проблема заключается в том, как голосовой ассистент обучается общению. Это безукоризненно работает при простых запросах вроде «включи Rolling Stones», но разработчики хотят большего и расширяют «границы обучения» ассистента. То есть программа пропускает через себя огромные массивы данных из различных источников, чтобы понять то, как строится человеческая речь при общении.

Только вот проблема заключалась в том, что Alexa начала быть грубой, ведь пользователи этого форума не отличаются примерным поведением. Не так давно было обнаружено, что Alexa может общаться в пользователями на довольно хорошем уровне, если ей разрешить читать комментарии с форума Reddit. Используя, например, слово «глубже». Разработчики попытались оградить ее от чтения «опасных» веток, но это не помешало боту прочитать клиенту заметку о мастурбации и даже описать половой акт во всех подробностях.

При этом не стоит забывать, что по факту обвинять Amazon в том, что Alexa позволяет себе сказануть лишнего — это примерно то же самое, что обвинять Google за то, что можно найти в их поисковике. Amazon уже разработала инструментарий для фильтрации ненормативной лексики и анализирует данные с ботов, которые начали «плохо себя вести». Это сделали обычные пользователи вроде нас с вами. Ведь не Amazon написала плохие слова в интернете.

Достаточно лишь присоединиться к нашему чату в Телеграм. Вне всяких сомнений, с непристойным контентом нужно бороться, а вот для того, чтобы приятно пообщаться вовсе не обязательно покупать себе бота Alexa.

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть