Hi-Tech

Роботы-убийцы — это уже не фантастика, а реальность

До киборгов-убийц нам еще далеко, но вот роботы уже вполне могут нанести вред человеку

Оружие, создаваемое оборонными компаниями, становится умнее, к нему подключают системы искусственного интеллекта, роботы обретают полную автономность и так далее. Стоит признать, что робототехника за последние годы шагнула довольно далеко. По крайней мере, так считают представители PАХ, некоммерческой организации, базирующейся в Нидерландах и выступающей за мир во всем мире. А это означает, что робот-убийца может стать реальностью раньше, чем мы думаем. Об этом они сообщили в своем докладе, опубликованном в журнале Quartz.

Зачем создавать роботов-убийц?

Этот тревожный признак специалисты РАХ назвали «третьей революцией в войне» после изобретения пороха и атомной бомбы. Роботы-убийцы предназначены для принятия решений о лишении жизни или сохранении ее самостоятельно, без человеческого контроля. Но некоторые страны, в том числе США, Китай и Российская Федерация, до сих пор не приняли мер по данному вопросу. Как активисты, так и государства призывают к созданию свода международных правил, регулирующих создание подобного оружия, или даже прямого запрета на его исплозование.

В их число входят американские оборонные фирмы Lockheed Martin, Boeing и Raytheon, китайские государственные конгломераты AVIC и CASC, израильские фирмы IAI, Elbit и Rafael, российский Ростех и турецкая STM. Специалисты РАХ выявили по меньшей мере 30 мировых производителей оружия, которые не имеют политики против разработки вышеобозначенных видов систем вооружения.

— сказал автор доклада Фрэнк Слипер. До тех пор, пока государства не договорились коллективно создать какой-то режим регулирования или, в идеале, превентивный запрет, есть вероятность, что компании будут разрабатывать и производить, а в конечном итоге и использовать оружие, которое не имеет достаточного человеческого контроля.

Проблема именно в том, что такие системы могут стать неподконтрольны человеку. Активисты не считают при этом, что военное применение той или иной системы искусственного интеллекта является проблемой. Выскажитесь в комментариях и в нашем чате в Телеграм. А какое мнение имеете вы по данному вопросу?

А STM, турецкая государственная оборонная компания, уже вовсю производит оснащенного искусственным интеллектом робота под названием KARGU. К примеру, американские военные уже разрабатывают пушку с искусственным интеллектом, которая будет самостоятельно выбирать и поражать цели, а также танки с искусственным интеллектом, которые, смогут «идентифицировать и поражать цели в три раза быстрее, чем любой человек». Сообщается, что Турция намерена использовать KARGU в Сирии. В комплекте с возможностями распознавания лиц, KARGU может автономно выбирать и атаковать цели, используя координаты, предварительно выбранные оператором.

Группа задается вопросом о том, каким образом это оружие будет проводить различие между военными и гражданскими лицами. PAX больше всего обеспокоены потенциальным развертыванием ИИ в наступательных системах, которые будут выбирать и атаковать цели самостоятельно, без человеческого надзора. У тому же, юристы до сих пор не знают, кто будет нести ответственность, если автономное оружие нарушит международное право.

Турецкий беспилотник KARGU выслеживает цель и уничтожает ее, падая сверху, как «камикадзе»

При этом в отличие от Google или Amazon, которые столкнулись как с публичной, так и с внутренней реакцией на свою работу над военными системами, компании вроде Lockheed Martin и Raytheon, имеют дела исключительно с военными, поэтому они сталкиваются с минимальной реакцией со стороны партнеров, а также со стороны обычных людей, так как большинство разработок до определенного момента остаются засекреченными.

Читайте также: Почему невозможно создать мыслящего робота?

Группа заявила, что компании-производители могут сыграть решающую роль в этом, и должны выступить против производства полностью автономного летального оружия. В то время как развитие автономного оружия продолжается, РАХ считают, что еще есть возможность предотвратить возможную катастрофу. Но полностью отказываться от ИИ никто не призывает. Что касается систем вооружения с поддержкой искусственного интеллекта, то представители РАХ заявлют, что оборонные фирмы должны следовать некому своду правил, который еще предстоит разработать.

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть