В других СМИ
Загрузка...

В бой пойдут«аватары» и киборги

Мировое сообщество занялось проблемой смертельных автономных роботов с искусственным интеллектом
09 апреля 2018, 14:12
Реклама
В бой пойдут«аватары» и киборги
© wikimedia.com

9 апреля в ООН начался очередной раунд обсуждения проблематики смертельных автономных роботов - LARS (Lethal autonomous robotics). Дискуссия ведется уже несколько лет, но пока говорят не о полном запрете таких разработок, а о частичном - для определенных типов летального автономного вооружения, способного убивать без участия человека.

Не открывайте ящик Пандоры

Накануне более 50 ведущих мировых светил объявили бойкот KAIST - Корейскому институту передовых технологий (престижный и ведущий учебно-исследовательский университет Южной Кореи, - ред.) за создание лаборатории по разработке вооружений с использованием искусственного интеллекта. Особую тревогу экспертов вызвало подписание соглашения о сотрудничестве между KAIST и южнокорейской оружейной компанией Hanwha Systems.

Эта фирма занимается разработкой мощных видов вооружений, в том числе - кассетных авиабомб, запрещенных в соответствии с Конвенцией ООН по кассетным боеприпасам. Правда, Южная Корея эту конвенцию не подписала.

«Создание автономного вооружения приведет к третьей революции в военном деле (после изобретения пороха и ядерного оружия, - ред.). Подобные технологии позволят вести более стремительные, разрушительные и масштабные военные конфликты», - отмечают авторы открытого письма.

По их мнению, эти технологии «имеют потенциал превращения в оружие террора». Диктаторы и террористы смогут использовать их против невинных групп населения, игнорируя любые этические аспекты.

«Это настоящий ящик Пандоры, закрыть который будет практически невозможно», - утверждают они.

Кстати, еще в июле 2015 года на 24-й Международной объединенной конференции по искусственному интеллекту в Буэнос-Айресе более 1000 участников этого форума подписали открытое письмо против «гонки вооружений в области военного применения ИИ» и за запрет «наступательного автономного оружия».

«Конец этой технологической траектории ясен: автономное оружие станет новым «автоматом Калашникова». Ключевой вопрос для человечества сейчас состоит в том, начинать ли гонку вооружений в области военного применения ИИ, или отказаться от этого» - говорилось в этом обращении.

Кому принимать решение: жить или не жить?

Роботы, уничтожающие противника по своему искусственному разумению, это уже не фантазии из «Звездных войн», а вполне реальная тема для военных стратегов. Эксперты категорически отвергают мысль, что такое автономное оружие снизит количество человеческих жертв во время военных конфликтов. Киборги, напротив, будут склонны открывать огонь раньше, чем это сделали бы люди, что приведет к еще большим и неоправданным жертвам.

Не следует забывать и о полной неурегулированности правовых норм, связанных с применением LARS.

Профессор международного права из Университета Нотр-Дам (США) Мэри Эллен О’Коннелл полагает, что необходимо срочно разработать и утвердить международные юридические правила, ограничивающие возможности боевого применения кибер-солдат.

«Что произойдет, если искусственный интеллект выйдет из-под контроля компьютера и начнет самосовершенствоваться? Или в работу системы вмешается хакер? Как в этом случае будет вести себя LARS на поле боя или во время операции в районах с мирным население? - спрашивает она. - Что скажут родственники и друзья невинно погибших от неконтролируемых атак смертельных автономных роботов?».

Она убеждена, что в ходе боевых столкновений решение о том, кому суждено жить, а кто подлежит уничтожению, должна принимать не машина, а человек. По ее мнению, сопротивление возможному применению LARS в обществе будет только расти.

Другого мнения придерживается бывший майор американских вооруженных сил, профессор права из Дюкского университета (США, Северная Каролина) Чарльз Данлэп.

«Спросите у родственника американского солдата, погибшего при выполнении воинского долга, не лучше ли было послать в бой киборга? Тогда бы не пришлось получать похоронку. Мне ясно, что он ответит», - говорит экс-майор.

Он считает, что для LARS не следует разрабатывать новые правовые нормы, а следует лишь модернизировать ту же действующую Женевскую конвенцию.

Женевская конвенция 1949 года - это фундаментальные международные договоры в области гуманитарного международного права, определяющие правила защиты людей при вооруженных конфликтах - солдат, раненых и военнопленных, а также гражданских лиц.

Профессор Данлэп также полагает, что на поле боя LARS надежнее и полезнее, чем солдат.

«Военнослужащие во время боя находятся в состоянии стресса и совершают много ошибок. Женевская конвенция требует от них надежной защиты мирного населения, а как раз с этим лучше справятся роботы с искусственным интеллектом, не подверженные эмоциям», - считает он.

Что же такое автономное оружие?

Автономное оружие может выбирать и поражать цели без вмешательства человека. Это военная вооруженная платформа, перемещающаяся по воздуху, земле или воде, снабженная разнообразными сенсорами, датчиками и устройством искусственного интеллекта, способная по своему усмотрению, без контроля со стороны человека, ориентироваться и передвигаться на местности, находить цель и переходить к уничтожению живой силы и техники противника в соответствии с оперативно-тактическими планами своего командования.

Изыскания по проблематике LARS идут практически во всех развитых странах. Дальше других продвинулись США, Китай, Южная Корея, Япония, ведущие страны Евросоюза.

Американцы начали работы по созданию искусственных когнитивных (когниция - процесс, с помощью которого происходит обработка информации нашим сознанием, - ред.) роботов на принципиально новом электронном компоненте – мемристоре. В частности, компания Hewlett-Packard, один из пионеров этого направления, еще в 2008 году прогнозировала появление ассоциативно думающих вычислительных систем в 2015 году.

Ставилась задача отказаться от традиционной компьютерной «фон-неймановской» архитектуры в пользу кортикоморфных структур (схожих с процессами, протекающих в коре головного мозга человека). Кстати, мемристорные микросхемы созданы и в России - в Тюменском государственном университете.

Впрочем, скептики полагают, что реально работающие когнитивные вычислительные системы, а значит и боевые роботы с искусственным интеллектом, появятся лишь в конце нынешнего века. Им, конечно, виднее, но технический прогресс движется столь стремительно, что наперед загадывать сложно.

«Аватар», управляемый человеком

Американский аналитик Самуэль Бендетт из CNA (Center for Naval Analyses) утверждает, что в России активно ведутся работы над созданием систем искусственного интеллекта, однако текущий уровень исследований значительно уступает западным и китайским.

«Западные и китайские усилия в настоящее время значительно опережают российские инициативы с точки зрения финансирования, инфраструктуры и практических результатов, - полагает эксперт. - Но российское правительство явно нацелено интегрировать имеющиеся академические и промышленные ресурсы, чтобы добиться прорыва в искусственном интеллекте - и вполне может его достичь».

Вице-премьер Дмитрий Рогозин сообщил, что проблемой боевых роботов занимается Фонд перспективных исследований во главе с Виталием Давыдовым.

Управлять российским антропоморфным (человекоподобным, - ред.) воином-«аватаром» сможет оператор, одетый в специальный копирующий костюмом. Находясь в безопасном месте, человек с помощью «системы 3D-зрения» виртуально окажется на линии огня. Такой подход позволит быстрее принимать решения и передавать их боевому роботу в опасной обстановке, где счет идет на секунды.

Однако если условия ведения боя имеют ограничения по качественной радиосвязи, то воин-«аватар» должен принимать решения самостоятельно. Для этого его необходимо оборудовать системой «технического зрения», он должен иметь в своем управляющем компьютере сложнейшие алгоритмы, позволяющие распознавать образы и вырабатывать адекватные решения. Речь идет об элементах искусственного интеллекта. Фактически перед разработчиками продвинутого боевого робота стоят те же задачи, что и перед американскими или китайскими  инженерами, осуществляющими исследования в этой области.

Реклама
ВЫСКАЗАТЬСЯ Комментарии
Реклама