Hi-Tech

Каких опасностей нужно ожидать от искусственного интеллекта в 2019 году

Список составил журнал MIT Technology Review.

В закладки

Беспилотный автомобиль Uber

Но 2018 год показал, что ИИ может принести много вреда задолго до того, как это случится. Раньше было модно беспокоиться насчёт сверхумных машин, берущих под контроль мир. Самые современные алгоритмы здорово преуспевают в восприятии — классифицировании изображений и обработке речи — однако восхищение прогрессом скрывает, как далеко мы находимся от создания инструментов, не уступающих человеку по развитию.

Более того, 2018 год показал, что сбои дают даже самые продвинутые ИИ-системы, а их бездумное применение может иметь пугающие последствия.

1. Аварии с беспилотными автомобилями

Вывести на рынок свои разработки спешат и традиционные автопроизводители, и масса различных стартапов. В ходе расследования смертельной аварии с беспилотником Uber специалисты выяснили, что ошибки в программе автомобиля можно было избежать.

Тем не менее даже её машины способны ездить далеко не везде и не в любую погоду. Наибольшего успеха добилась Waymo, дочерняя компания Alphabet, запустившая сервис беспилотного такси в прошлом году.

Автопарк Waymo

Но пешеходы и водители не подписывались на эксперименты, поэтому ещё одна серьёзная авария в 2019 году может изменить отношение властей. Чего ожидать в 2019 году: регуляторы в США и других странах заняли пассивную позицию из страха встать на пути инноваций, намекая, впрочем, что существующие правила безопасности могут быть ослаблены.

2. Политические манипуляции

Дискуссия показала, как можно манипулировать алгоритмами, отбирающими новости для социальных медиа. В марте прошлого года активно обсуждалось влияние Facebook на американские выборы.

«Удали Facebook», потеря $60 млрд капитализации…

Что происходит с социальной сетью после скандала с утечкой данных 50 млн пользователей.

vc.ru

Во время слушаний в Сенате глава Facebook Марк Цукерберг заявил, что ИИ можно обучить блокированию вредного контента, хотя сейчас такие системы далеки от полноценного понимания значения текста, изображения или видео.

Подготовка к президентским выборам в США, которые пройдут в 2020 году, также может вызвать появление новых средств дезинформации, работающих на ИИ, включая вредоносных чат-ботов. Чего ожидать в 2019 году: заявления Цукерберга пройдут проверку во время выборов в двух крупнейших африканских странах: ЮАР и Нигерии.

3. Мирные алгоритмы

Работники опасались, что это сотрудничество может стать роковым шагом к автономным смертоносным ударам беспилотников. В прошлом году оформилось движение за мирный ИИ — когда сотрудники Google узнали, что руководство фирмы поставляет технологии для анализа записей с дронов Военно-воздушным силам США. В ответ на протесты Google свернула проект и создала для ИИ этический код.

Google отказалась от участия в конкурсе…

#новость #google

vc.ru

Тем не менее военное использование ИИ только набирает силу, а компании вроде Amazon и Microsoft не против в этом помочь. Учёные и крупные фирмы поддержали кампанию по запрету автономного оружия.

Чего ожидать в 2019 году: несмотря на увеличение расходов на ИИ Пентагоном, активисты надеются на превентивный запрет автономного вооружения со стороны ООН.

4. Наблюдение

Кроме того, распознавание лица позволяет разблокировать телефон и автоматически отмечать пользователя на фотографиях в соцсетях. Способность ИИ распознавать лица привела к тому, что многие страны развёртывают системы наблюдения.

Систему слежения для китайского правительства разрабатывает компания SenseTime

В некоторых государствах, особенно в Китае, распознавание лиц активно используется полицией. Подобные технологии — мощный способ вторгнуться в личное пространство людей, а необъективность обучающих данных, вероятно, поставит дискриминацию на поток. Amazon продаёт технологии Иммиграционной службе США и другим правоохранительным структурам.

Полиция Китая начала использовать солнцезащитные…

Устройства уже помогли арестовать семерых преступников и 26 владельцев поддельных документов.

vc.ru

И всё же в этом году, возможно, власти возьмутся за предварительное регулирование. Чего ожидать в 2019 году: распознавание лиц появится в автомобилях и веб-камерах и будет использоваться как для определения эмоций, так и для определения личности.

5. Поддельные видео

В дополнение к этому, компания Nvidia, производящая графические процессоры, продемонстрировала возможности генеративно-состязательных сетей, которые могут создать фотореалистичные лица с заданными параметрами. Быстрое распространение deepfake-видео в прошлом году показало, с какой лёгкостью ИИ производит поддельные ролики: порно, мэшапы и даже клеветнические кампании.

Все лица сгенерированы специалистами Nvidia

Генерация фотореалистичных изображений с помощью…

Мы ещё на шаг ближе к фейковому будущему с помощью нейронной сети SIMS.

vc.ru

DAPRA протестирует новые методы обнаружения поддельных видео. Чего ожидать в 2019 году: по мере развития deepfake-технологий люди, вероятно, начнут попадать в ловушку. Но поскольку такие разработки тоже полагаются на ИИ, это будет игра в кошки-мышки.

6. Алгоритмическая дискриминация

Согласно исследованию, проведённому в MIT Media Lab, алгоритмы компьютерного зрения, обученные на ассиметричных данных, распознают женщин и людей с тёмным цветом кожи хуже, чем белых мужчин. В прошлом году необъективность отыскали во множестве коммерческих инструментов.

Reuters: Amazon разработала ИИ для поиска…

Проблема оказалась в выборке, по которой обучалась система, — большинство резюме в ней от…

vc.ru

С проблемой необъективности связано и слабое разнообразие в изучении ИИ: женщины занимают в лучшем случае 30% рабочих мест и менее 25% преподавательских должностей в ведущих университетах.

Результаты исследования MIT Media Lab

Одна из главных международных конференций по машинному обучению пройдёт в 2020 году в Эфиопии, так как африканские учёные, изучающие предрассудки в данных, могут столкнуться с проблемами при получении виз. Чего ожидать в 2019 году: появление алгоритмов обнаружения и преодоления необъективности, вывода точных данных из данных необъективных.

#технологии

Показать больше

Похожие статьи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть