Хабрахабр

[Перевод] Мы не можем доверять ИИ-системам, построенным на одном лишь глубоком обучении

И заодно приглашение к дискуссии. Этот текст — не результат научного исследования, а одно из многих мнений относительно нашего ближайшего технологического развития.

Но он также считает, что избыточное увлечение этой методикой может привести к её дискредитации. Гари Маркус, профессор Нью-Йоркского университета, уверен, что глубокое обучение играет важную роль в развитии ИИ.

С точки зрения технологий, глубокое обучение может успешно подражать решению задач на восприятие, которые выполняет наш мозг: например, распознавание изображений или речи. В своей книге Rebooting AI: Building artificial intelligence we can trust Маркус, по образованию невролог, который построил карьеру на передовых исследованиях в сфере ИИ, обращается к техническим и этическим аспектам. Чтобы создать более продвинутые интеллектуальные машины, способные решать более широкий круг задач — их часто называют общим искусственным интеллектом — глубокое обучение необходимо комбинировать с другими методиками.
Если ИИ-система на самом деле не понимает свои задачи или окружающий мир, это может привести к опасным последствиям. Но для решения иных задач, вроде понимания разговоров или определения причинно-следственных связей, глубокое обучение не годится. Таких примеров уже было множество: определители неподобающих выражений, которые легко обмануть; системы для поиска работы, которые постоянно дискриминируют; беспилотные автомобили, которые попадают в аварии и иногда убивают водителя или пешехода. Даже малейшие неожиданные изменения в окружении системы могут привести к её ошибочному поведению. Создание общего искусственного интеллекта — это не просто интересная исследовательская проблема, у неё есть множество совершенно практических применений.

Они считают, что мы ещё далеки от создания общего ИИ, но уверены, что рано или поздно его удастся создать. В своей книге Маркус и его соавтор Эрнест Дэвис выдвигают выступают за другой путь.

Специализированные версии уже созданы и приносят немало пользы. Для чего нам нужен общий ИИ?

Но есть много задач, которые специализированный ИИ просто не в состоянии решить. Верно, и пользы будет ещё больше. Такие задачи вне возможностей специализированного ИИ. Например, понимание обычной речи, или общая помощь в виртуальном мире, или робот, помогающий в уборке и приготовлении пищи. Опыт показывает, что у такого ИИ до сих пор много проблем с поведением в аномальных ситуациях, даже при вождении, что весьма осложняет ситуацию. Ещё один интересный практический вопрос: можно ли с помощью специализированного ИИ создать безопасный автомобиль-беспилотник?

Неясно, подойдут ли для этого текущие технологии, ведь биология — сфера сложная. Думаю, все мы хотели бы получить ИИ, который способен помочь нам сделать новые масштабные открытия в медицине. Учёные понимают причинно-следственные связи во взаимодействии сетей и молекул, могут разрабатывать теории о планетах и так далее. Нужно быть готовым прочитать немало книг. А с общим ИИ мы смогли бы совершить революцию в науке, технологиях и медицине. Однако со специализированным ИИ мы не можем создать машины, способные к таким открытиям. На мой взгляд, очень важно продолжать работу над созданием общего ИИ.

Похоже, под «общим» вы понимаете сильный ИИ?

В отличие от, скажем, Го, в котором проблема не менялась последние 2000 лет. Говоря «общий» я подразумеваю, что ИИ сможет на лету обдумывать и самостоятельно решать новые задачи.

Это аналог человеческой способности; любой здравомыслящий человек может делать очень многое. Общий ИИ должен уметь принимать решения как в политике, так и в медицине. Это благодаря тому, что они имеют общее понимание мира и умеют читать, и поэтому могут внести свой вклад в очень широкий спектр занятий. Берёте неопытных студентов и через несколько дней заставляете их работать практически над чем угодно, начиная с юридической задачи и заканчивая медицинской.

Чтобы создать нечто достаточно надёжное, способное работать с постоянно изменяющимся миром, вам, возможно, потребует как минимум приблизиться к общему интеллекту. Взаимосвязь между таким интеллектом и сильным заключается в том, что не сильный интеллект, вероятно, не сможет решать общие задачи.

AlphaGo может прекрасно играть на доске 19x19, но его нужно переобучать для игры на прямоугольной доске. Но сейчас мы от этого очень далеки. А если виден лишь силуэт слона, система наверняка не сможет его распознать. Или возьмите среднестатистическую систему глубокого обучения: она способна распознать слона, если он хорошо освещён и видна текстура его кожи.

В своей книге вы упоминаете, что глубокое обучение не способно достичь возможностей общего ИИ, поскольку оно не способно на глубокое понимание.

Я сижу в номере отеля и понимаю, что вон там шкаф, там кровать, там телевизор, который необычно подвешен. В когнитивистике говорят о формировании различных когнитивных моделей. Также я понимаю, как они взаимосвязаны друг с другом. Я знаю все эти предметы, я не просто идентифицирую их. Они не идеальны. У меня есть идеи о функционировании окружающего мира. И на их основе я делаю немало умозаключений, которые становятся руководством для моих повседневных действий. Они могут быть ошибочны, но они весьма хороши.

Если вы получите достаточно данных, то может показаться, что у вас есть понимание, но на деле оно очень поверхностное. Другая крайность — что-то вроде игровой системы Atari, созданной DeepMind, в которой он запоминал, что ему нужно делать, когда видел пиксели в определенных местах на экране. Перемены ставят его в тупик. Доказательством тому является то, что если сдвинуть объекты на три пиксела, то ИИ играет гораздо хуже. Это противоположно глубокому пониманию.

Какие его преимущества нам нужно постараться использовать? Для решения этой проблемы вы предлагаете вернуться к классическому ИИ.

Преимуществ несколько.

Во-первых, классический ИИ на самом деле является фреймворком для создания когнитивных моделей мира, на основе которых можно потом делать выводы.

Сейчас в сфере глубокого обучения наблюдается странная тенденция, когда специалисты стараются избегать правил. Во-вторых, классический ИИ идеально совместим с правилами. Но есть задачи, которые были спокойно решены подобным образом, и на это никто не обращал внимание. Они хотят всё делать на нейросетях и не делать ничего такого, что выглядит как классическое программирование. Например, построение маршрутов в Google Maps.

Машинное обучение позволяет хорошо учиться на данных, но очень плохо помогает в отображении абстракции, которую представляет собой компьютерная программа. На самом деле нам нужны оба подхода. Очевидно, что нам нужно объединить оба подхода. Классический ИИ хорошо работает с абстракциями, но его целиком нужно программировать вручную, а в мире накоплено слишком много знаний, чтобы всех их запрограммировать.

И в первую очередь о концепции, базирующейся на упомянутой выше идее, что наше сознание состоит из множества различных систем, которые работают по-разному. Это связано с главой, в которой вы рассказываете о том, чему мы можем научиться у человеческого разума.

Аналогичные части ИИ должны быть спроектированы для решения различных задач, которые имеют различные характеристики. Думаю, есть другой способ объяснить это: каждая когнитивная система, которая у нас есть, действительно решает разные задачи.

Понять предложение — вовсе не то же самое, что распознать объект. Сейчас мы пытаемся использовать некие всё-в-одном технологии для решения задач, которые кардинально отличаются друг от друга. С когнитивной точки зрения это качественно разные задачи. Но люди пытаются в обоих случаях использовать глубокое обучение. Зачем ждать появления серебряной пули? Я просто поражен тем, как мало в сообществе специалистов по глубокому обучению ценят классический ИИ. Она недостижима, и бесплодные поиски не позволяют постичь всю сложность задачи создания ИИ.

Вы считаете, что в этом нам поможет глубокое обучение, классический ИИ или что-нибудь совершенно новое? Также вы упоминаете, что ИИ-системы необходимы для понимания причинно-следственных связей.

Оно не объясняет причины каких-то событий, а вычисляет вероятность события в заданных условиях. Это ещё одна сфера, для которой глубокое обучение не слишком подходит.

Вы смотрите некие сценарии, и вы понимаете, почему это происходит и что может произойти, если какие-то обстоятельства изменятся. О чём мы говорим? Это причинно-следственная связь. Я могу посмотреть на подставку, на которой стоит телевизор, и представить, что если я отрежу ей одну ногу, то подставка перевернётся и телевизор упадёт.

Он может представить, к примеру, что такое поддержка и что такое падение. Классический ИИ даёт нам для этого некие инструменты. Проблема в том, что классический ИИ по большей части зависит от полноты информации о происходящем, а я сделал вывод, всего лишь посмотрев на подставку. Но не стану перехваливать. У нас пока нет инструментов для реализации этого свойства. Я каким-то образом могу обобщать, представлять части подставки, которые мне не видны.

Каким образом это можно реализовать в ИИ? Ещё вы говорите о том, что у людей есть врождённое знание.

Она не фиксирована, природа создала первый, грубый черновик. В момент рождения наш мозг уже представляет собой очень тщательно продуманную систему. А затем обучение помогает нам пересматривать этот черновик в течение всей нашей жизни.

Новорождённый горный козёл уже через несколько часов способен безошибочно спускаться по склону горы. Грубый черновик мозга уже обладает определёнными возможностями. Весьма сложная система. Очевидно, что у него уже есть понимание трёхмерного пространства, своего тела и взаимосвязи между ними.

Трудно представить, как можно создать робота, хорошо функционирующего в мире без аналогичных знаний, с чего ему начинать, вместо того, чтобы начинать с чистого листа и учиться на длительном, огромном опыте. Отчасти поэтому я считаю, что нам нужны гибриды.

А с ИИ-системами нам придётся пойти другим путём. Что касается людей, то наше врождённое знание происходит из нашего генома, который эволюционировал долгое время. Частично это могут быть правила создания структур данных, которыми манипулируют эти алгоритмы. Частично это могут быть правила построения наших алгоритмов. И частично это могут быть знания, которые мы напрямую будем вкладывать в машины.

Почему вы выбрали именно этот критерий? Интересно, что в книге вы подводите к идее доверия и создания доверительных систем.

Мне кажется, мы проживаем странный момент истории, во многом доверяя ПО, которое не заслуживает доверия. Я считаю, что сегодня всё это представляет собой игру игру в мяч. Через сто лет ИИ оправдает наше доверие, а может быть и раньше. Думаю, свойственные нам сегодня беспокойства не будут вечными.

Не в том смысле, как опасается Илон Маск, а в том, что системы собеседования при приёме на работу дискриминируют женщин, причём вне зависимости от того, что делают программисты, потому что их инструменты слишком просты. Но сегодня ИИ опасен.

Не хочу, чтобы началась «зима искусственного интеллекта», когда люди осознают, что ИИ не работает и просто опасен, и не захотят это исправлять. Я хотел бы, чтобы у нас был более качественный ИИ.

Вы предполагаете, что можно построить заслуживающий доверия ИИ. В некотором смысле ваша книга действительно кажется очень оптимистичной. Просто нам нужно посмотреть в другом направлении.

Мы считаем, что все описанные нами проблемы могут быть решены, если шире посмотреть на то, какими должны быть правильные ответы. Верно, книга очень пессимистична в краткосрочной перспективе и очень оптимистична в долгосрочной. И мы думаем, что если это произойдёт, мир станет лучше.

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть