Hi-Tech

Разработан самый опасный искусственный интеллект в мире: что он умеет?

Самый опасный искусственный интеллект

Предполагалось, что он будет переводить тексты на другие языки, отвечать на вопросы и выполнять другие полезные задачи, однако исследование показало, что он может быть крайне опасным и использоваться злоумышленниками для массового обмана людей. Компания OpenAI, одним из основателей которой является Илон Маск, объявила о создании продвинутого искусственного интеллекта для написания оригинальных текстов на заданную тему. В связи с этим, компания решила показать публике только его ограниченную версию, а оригинал хранить под строжайшим секретом.

Написанные на них тексты ложатся на основу новых материалов на заданную человеком тему: например, искусственный интеллект может сочинить целое эссе о положительных сторонах переработки мусора или фентези-рассказ в стиле «Властелина колец». Компьютерная модель получила название GPT-2 и была обучена на основе 8 миллионов веб-страниц. Однако, исследователи также обнаружили, что система отлично справляется с написанием ложных новостей о знаменитостях, катастрофах и даже войнах.

Из-за того, что он может быть использован для неконтролируемого создания фальшивых новостей и публикаций в социальных сетях, его было решено не публиковать в открытом доступе и хранить в секрете. На данный момент полная версия инструмента для генерации текста доступна только разработчикам и некоторым авторам MIT Technology Review.

Примером фальшивой новости поделилось издание ScienceAlert:

Майли Сайрус была поймана за воровство в магазине на Голливудском бульваре

На певице был черный балахон с надписью «Blurred Lines» спереди и «Fashion Police» на спине. 19-летняя певица была снята на камеру, и охранники вывели ее из магазина.

Почитать текст небольшого эссе о минусах переработки мусора можно почитать в блоге OpenAI.

Например, на одном из этапов тестирования система написала про огонь, горящий под водой. Разработчики признают, что языковая модель на данный момент не идеальна: система иногда допускает повтор некоторых фрагментов текста, неестественное переключение тем и сбои моделирования мира.

Некоторые критики уверены, что технология никакой опасности не несет, и компания просто привлекает к себе внимание. По словам директора по политике Open AI Джека Кларка, спустя пару лет такой алгоритм способен превратиться в опасное оружие массового ввода людей в заблуждение.

Обсудить тему подробнее можно в нашем Telegram-чате. Свое мнение об опасном искусственном интеллекте пишите в комментариях.

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть