Главная » Hi-Tech » Думать как человек: что будет, если наделить машину теорией сознания

Думать как человек: что будет, если наделить машину теорией сознания

Шоу-матч, проходивший в рамках чемпионата мира по игре Dota 2 The International показал, что командное стратегическое мышление пока по-прежнему позволяет человеку одерживать верх над машиной. В прошлом месяце команда, состоящая из самообучаемых ИИ-игроков, потерпела феерическое поражение против профессиональных киберспортсменов.

Коллектив цифровых игроков, получивший название OpenAI Five, обучался игре в Dota 2 самостоятельно, методом проб и ошибок, соревнуясь между собой. Участвовавшие ИИ представляли собой несколько алгоритмов, разработанных компанией OpenAI, одним из учредителей которой является Илон Маск.

Общая сложность игры – это лишь один из факторов. В отличии от тех же шахмат или настольной логической игры го, популярная и быстроразвивающаяся многопользовательская игра Dota 2 рассматривается куда более серьезным полем для проверки искусственного интеллекта на прочность. Для победы необходимо иметь интуицию и понимание того, что следует ждать от соперника в следующий момент времени, а также адекватно действовать согласно этому набору знаний, чтобы общими усилиями прийти к общей цели — победе. Здесь недостаточно просто очень быстро кликать мышкой и раздавать команды персонажу, которым ты управляешь. У компьютера этого набора возможностей нет.

«Следующий большой шаг в развитии ИИ – взаимодействие», — говорит доктор Джун Ванг из Университетского колледжа Лондона.

На сегодняшний момент даже самый выдающийся компьютерный алгоритм глубокого обучения не имеет стратегического мышления, необходимого для понимания целей из задач своего оппонента, будь это другой ИИ или человек.

По мнению Ванг, для того чтобы ИИ смог преуспеть, ему необходимо обладать глубоким коммуникативным навыком, который берет свое начало из важнейшей когнитивной особенности человека – наличия разума.

Модель психического состояния как симуляция

Они начинают понимать, что у каждого есть то, во что он верит, свои желания, эмоции и намерения. К четырем годам дети как правило начинают понимать одну фундаментальную социальную особенность: их разум не такой, как разум остальных. В некотором роде их мозг начинает создавать внутри себя множественные симуляции самого себя, подставлять себя на место других людей и помещать внутрь иной среды. И, самое главное, представляя себя на месте других, они могут начать предсказывать дальнейшее поведение этих людей и объяснять их.

Понимание других — ключ к эффективной коммуникации и достижению общих целей. Модель психического состояния имеет важное значение в познании себя как человека, а также играет важную роль социальном взаимодействии. Как только нарушается способность использования модели психического состояния, например, такое происходит при аутизме, то естественные «человеческие» навыки, такие как возможность объяснения и воображения тоже ухудшаются. Тем не менее эта способность также может быть и движущей силой ложных убеждений – идей, которые уводят нас от объективной истины.

По мнению доктора Алана Уинфилда, профессора робоэтики из Университета Западной Англии модель психического состояния или «теория сознания» являются ключевой особенностью, которая однажды позволит ИИ «понимать» людей, вещи и других роботов.

«Идея внедрения симуляции внутрь робота – это на самом деле отличная возможность наделить его способностью предсказывать будущее», — говорит Уинфилд.

Вместо того, чтобы полагаться на обучение, Уинстон предлагает заранее программировать ИИ с внутренней моделью самого себя, а также окружения, которая позволит ответить на простые вопросы «что, если?». Вместо методов машинного обучения, в котором множественные слои нейронных сетей извлекают отдельные фрагменты информации и «изучают» огромные базы данных, Уинстон предлагает использовать иной подход.

Эта внутренняя модель по сути будет действовать как «механизм последствий», выступая в роли своего рода «здравого смысла», который поможет направить ИИ на дальнейшие правильные действия путем прогнозирования дальнейшего развития ситуации. Например, представим, что по узкому коридору двигаются два робота, их ИИ могут провести симуляцию результатов дальнейших действий, которые предотвратят их столкновение: повернуть налево, направо или продолжить движение прямо.

Предвидя поведение окружающих, робот успешно прошел по коридору без столкновений. В исследовании, опубликованном ранее в этом году Уинстон продемонстрировал прототип робота, способного достигнуть таких результатов. Тем не мене Уинстон доказал, что его метод внутренней симуляции работает: «это очень мощная и интересная начальная точка в развитии теории искусственного разума», заключил ученый. На самом деле в этом нет ничего удивительного, отмечает автор, но у «внимательного» робота, использующего моделированный подход к решению задачи, прохождение коридора заняло на 50 процентов больше времени.

Внутренняя модель самого себя и других позволит такому ИИ проводить моделирование различных сценариев, и, что более важно, определять конкретные цели и задачи при каждом из них. Уинстон надеется, что в конце концов ИИ получит способность описывать, мысленно воспроизводить ситуации.

Модель «черного ящика» при использовании глубинного обучения – это на самом деле настоящая проблема, стоящая на пути доверия к таким системам. Это существенно отличается от алгоритмов глубинного обучения, которые в принципе не способны объяснить почему они пришли к тому или иному выводу при решении задачи. Особенно острой эта проблема может стать, например, при разработке роботов-сиделок для больниц или для пожилых людей.

Затем он мог бы определить подходящие решения и, объяснив эти решения человеку, уже выполнял бы возложенную на него задачу. ИИ вооруженный моделью психического состояния мог бы ставить себя на место своих хозяев и правильно понимать то, что от него хотят. Чем меньше неопределенность в решениях, тем больше было бы к таким роботам доверия.

Модель психического состояния в нейронной сети

Вместо того, чтобы заранее программировать алгоритм механизма последствий, они разработали несколько нейронных сетей, которые демонстрируют подобие модели коллективноого психологического поведения. Компания DeepMind использует другой подход.

Сам ToMNet представляет собой коллектив из трех нейронных сетей: первая опирается на особенности выбора других ИИ согласно их последним действиям. ИИ-алгоритм «ToMnet» может обучаться действиям, наблюдая за другими нейтронными сетями. Коллективный результат работы двух нейросетей поступает третьей, которая предсказывает дальнейшие действия ИИ, основываясь на ситуации. Вторая формирует общий концепт текущего настроя – их убеждений и намерений в определенный момент времени. Как и в случае с глубинным обучением, ToMnet становится эффективнее с набором опыта, следя за другими.

Каждый из этих ИИ обладал своей особенностью: один был «слепым» — не мог определить форму и расстановку в комнате. В одном из экспериментов ToMnet «наблюдал» за тем, как три ИИ-агента маневрируют в цифровой комнате, собирая разноцветные коробки. Третий мог и видеть, и запоминать. Другой был «склеротиком»: он не мог запомнить свои последние шаги.

Например, «слепой» постоянно двигался только вдоль стен. После обучения ToMnet начал прогнозировать предпочтения каждого ИИ, наблюдая за его действиями. Алгоритм также смог правильно предсказывать дальнейшее поведение ИИ и, что более важно, понимать то, когда ИИ сталкивался с ложным представлением окружения. ToMnet это запомнил.

Агенты с нормальным зрением быстро адаптировались к новой планировке, однако «близорукий» продолжал следовать своим изначальным маршрутам, ложно полагая, что он по-прежнему находится в старом окружении. В одном из тестов команда ученых запрограммировала один ИИ на «близорукость» и изменила планировку комнаты. ToMnet быстро отметил эту особенность и точно предсказал поведение агента, поставив себя на его место.

В то же время по мнению специалиста, еще очень рано говорить о том, что эти ИИ развили искусственную модель психического состояния. По мнению доктора Элисон Гопник, специалиста в области возрастной психологии Калифорнийский университет в Беркли, не принимавшей участия в этих исследованиях, но ознакомившейся с выводами, эти результаты действительно показывают, что нейронные сети имеют удивительную способность осваивать различные навыки самостоятельно, через наблюдение за другими.

Эта скованность в определенных рамках делает ToMnet менее эффективным в предсказании поведения в радикально новых средах, в отличии от тех же детей, которые могут адаптироваться к новым ситуациям. По мнению доктора Джоша Тенебаума из Массачусетского технологического института, также не принимавшего участия в исследовании, «понимание» ToMnet прочно связано с контекстом среды обучения – той же комнатой и специфическими ИИ-агентами, чья задача сводилась к собиранию коробок. Алгоритм, по мнению ученого, не справится с моделированием действий совершенно иного ИИ или человека.

И по мере того как они будут продолжать улучшать этот навык, все лучше и лучше понимая друг друга, наступит время, когда машины смогут понимать всю сложность и запутанность нашего собственного сознания. В любом случае работа Уинстона и компании DeepMind демонстрирует, что компьютеры начинают проявлять зачатки «понимания» друг друга, даже если это понимание пока лишь рудиментарно.

Как вы думаете, смогут ли машины обрести когнитивные человеческие навыки? Поделитесь своим мнением в нашем Telegram-чате.


Оставить комментарий

Ваш email нигде не будет показан
Обязательные для заполнения поля помечены *

*

x

Ещё Hi-Tech Интересное!

На Земле находят куски Марса. Как они тут оказались?

Солнечная система может быть жестоким местом, в котором падают астероиды и летают кометы, но планеты сами кажутся слишком большими и массивными, чтобы как-то в этом участвовать. Когда планеты вращаются вокруг Солнца, разделенные хорошим расстоянием, мы думаем, что они совсем не ...

Ученые из MIT рассказали, что же может отвечать за развитие интеллекта

К примеру, если сравнивать строение головного мозга людей и наших самых близких по родству существ приматов, отличий найдется не так уж и много. Несмотря на то, что нервная система человека и других млекопитающих изучена уже достаточно хорошо, то, как работают ...