Искусственный интеллект в секретных сетях Пентагона
Ракетно-ядерный замес почти на пороге
Почти как в тире. Армия обороны Израиля (ЦАХАЛ) заявила о смерти всего высшего и военного руководства Ирана и руководителей союзных им организаций, за исключением президента страны Масуда Пезешкиана. В итоговом отчёте ЦАХАЛ, размещённом в соцсети Х (запрещена в России), по результатам нескольких военных кампаний представлен «мартиролог» или, скорее, «расстрельный список» с портретами убитых и их иерархией.
Центральное место занимает верховный лидер Ирана Али Хаменеи, далее идут: начальник Генерального штаба Абдул-Рахим Мусави, бывший начальник Генерального штаба Хосейн Салами, глава командования по чрезвычайным ситуациям Голям-Али Рашид, командующий военно-воздушными силами Корпуса стражей исламской революции (КСИР) Амир Али Хаджизаде и командующий корпусом «Сирия - Ливан» сил «Аль-Кудс» Хосейн Махдави.
Кроме того, в список вошли лидеры ливанской шиитской группировки «Хезболла», палестинского радикального движения ХАМАС и начальник штаба вооружённых сил режима хуситов. Убиты сотни руководителей разного уровня. Впрочем, сказать, что в Иране после этого наступил политический хаос, - это явное преувеличение, свидетельством чему ожесточённое сопротивление американо-израильской агрессии. При этом Белый дом открыто признал отсутствие данных о планах Ирана первым атаковать США и Израиль на Ближнем Востоке. То есть эти политические убийства произошли исключительно по прихоти Трампа и Нетаньяху.
Тем временем МАГАТЭ пытается связаться с иранскими органами ядерного регулирования через свой Центр инцидентов, однако ответа пока нет, говорится в заявлении главы агентства Рафаэля Гросси. Это вызывает тревогу у всего мира.
Судя по интенсивности ударов между Ираном и Израилем со Штатами, нынешний ракетно-бомбовый «замес» может закончиться взаимными ракетно-ядерными ударами.
Иран сейчас, по логике, так как речь идёт о его выживании как государства, может резко форсировать создание своей бомбы. А у Америки и Израиля могут ракеты закончиться раньше, чем у Ирана, и тогда вся их надежда только на ядерный удар. Короче, полный Трамп-пам-пам... Формула: «Сейчас мы убьём ваше руководство, поставим нам лояльное, а вы нам будете очень благодарны» - не сработала, и иранский народ очень ожесточился, особенно на фоне массового убийства школьниц и гибели других мирных жителей. А теперь о роли искусственного интеллекта (ИИ) во всей этой гнусной истории.
«Ангел смерти» против трампистов Пентагона
Прежде чем зададимся вопросом - кто и как навёл ракеты на всё руководство целой страны, рассмотрим ещё одно неожиданное событие. Буквально накануне нынешнего нападения на Иран в недрах Пентагона и администрации Трампа разгорелся грандиозный скандал с компанией, которая разработала очень эффективные инструменты для ведения боевых действий и политического террора. Речь о компании Anthropic, которая, если верить её заявлениям, занимается исключительно безопасностью в киберпространстве, хотя на самом деле это не так. Её генеральный директор Дарио Амодей заявил, что не позволит использовать свою самую передовую ИИ-разработку Claude для массовой слежки за гражданами США и для управления полностью автономным оружием. И отказал Пентагону в неограниченном использовании модели.
Здесь надо пояснить, что Claude - одна из двух крупных моделей генеративного искусственного интеллекта, доступ к которым Пентагон предоставил своим вооружённым силам через секретные сети. Данный инструмент относят к передовой группе прорывных моделей, которая должна дать преимущество на поле боя за счёт более масштабных и точных разведданных, прогноза характера и исхода сражений, а также более аналитически выверенного управления вооружениями.
В ответ на отказ в использовании Claude официальный представитель Пентагона Шон Парнелл заявил, что его ведомство стремится лишь к тому, чтобы «использовать модель Anthropic для любых законных целей». Он добавил, что идея о том, что Пентагону нужно полностью автономное оружие или система массовой слежки, - это ложный нарратив, «распространяемый левыми в СМИ». Хотя что такое «законные цели» - мы видим на примере Ирана…
Вообще это беспрецедентный бунт на «американском боевом корабле». Остальные ИИ-разработчики - OpenAI, Microsoft, Google, Amazon и Илон Маск со своими нейросетями Grok и AGI считают за привалившее бюджетное счастье многомиллионные контракты с Пентагоном. Отдельная тема - это вопрос морали, ведь все перечисленные разработчики ИИ ранее публично заявляли, что не будут использовать его для войны и убийств. Впрочем, все они незаметно сняли запрет на использование ИИ для «военных целей». Хотя, по словам многих экспертов, специализирующихся на технологической этике, невозможно построить систему ИИ-управления боем таким образом, чтобы она не несла угроз гражданскому населению. Но деньги куда важнее.
Известен характерный слайд одной из презентаций Microsoft на тему военного применения своего ИИ, где компания самой себе задаёт вопрос: «Почему нас должна волновать мораль?» Ответ: «Мы должны убивать плохих парней». При этом всему остальному миру становится всё более понятно, что «плохие парни» - это остальное человечество.
В пику нынешним интересам Пентагона Амодей был подозрительно настойчив: «В некоторых случаях мы считаем, что искусственный интеллект может скорее подорвать демократические ценности, чем защитить их. Кроме того, некоторые сферы применения просто выходят за рамки того, что могут безопасно и надёжно обеспечить современные технологии».
Странно, но левые глобалисты, в лице вышеназванного руководителя Anthropic, почему-то не хотят массовых убийств. Их идеология, как они считают, «более гуманная» - убивать людей надо вирусами, мРНК-вакцинами, пищевыми добавками, ЛГБТ-идеологией (движение ЛГБТ признано экстремистским и запрещено на территории РФ), но никак не бомбами. А правые глобалисты в лице Трампа считают, что бомбы - это вообще идеальный регулятор популяции человека на планете.
Реальный мир без бомбёжек и массовых убийств - да, это точно не по-американски…
Представители Пентагона пригрозили Anthropic различными санкциями, в том числе использованием «Закона об оборонном производстве», чтобы использовать продукт компании без её разрешения. А взбешённый Трамп вообще распорядился, чтобы все федеральные ведомства прекратили использовать технологию искусственного интеллекта от компании Anthropic. В своём посте в Truth Social он назвал Anthropic «радикальной левой компанией в сфере искусственного интеллекта, которой руководят люди, понятия не имеющие, что такое реальный мир».
В свою очередь, министр войны Пит Хегсет объявил компанию «угрозой для национальной безопасности в сфере цепочек поставок». Фактически это «чёрный список» и «стоп-лист» - ни один подрядчик или поставщик, работающий с военными, теперь не может вести дела с Anthropic. Против неё применили процедуру, которая ранее использовалась только в отношении иностранных компаний, которые США считали представляющими угрозу безопасности. Другими словами, одного из «ангелов смерти», которыми являются разработчики ИИ-приложений для войны, перевели в разряд «белых ворон». И тут же подсуетилась компания OpenAI, которая заявила, что достигла соглашения с Пентагоном о предоставлении своей технологии искусственного интеллекта для секретных систем.
Несмотря на разногласия и запрет Пентагона, искусственный интеллект Anthropic активно используется в цепочке уничтожения целей в Иране - в ходе войны не было «никаких дурацких правил ведения боевых действий», цинично утверждает Хегсет. Действительно, американские военные использовали Claude для наведения и уничтожения более 1000 целей в Иране в течение первых 24 часов американо-израильского Blitzkrieg.
Откровенный цинизм
«Наши бойцы имеют максимальные полномочия, предоставленные лично президентом и мной. Наши правила ведения боевых действий смелы, точны и созданы для того, чтобы раскрыть американскую мощь, а не ограничить её. Это никогда не должно было быть честной борьбой. И это нечестная борьба. Мы бьём их, пока они лежат на земле, и именно так и должно быть», - заявил министр войны.
Теперь вспомним, что руководители Ирана были убиты с помощью массовой слежки через Google Карты, через спутниковую и мобильную связь, через местных предателей и за счёт оптимального применения ракетных ударов.
Обработкой такого рода информации Anthropic, как лидер данного направления, как раз «успешно занимался». Именно благодаря его ИИ-продуктам были убиты в прошлом году почти все лидеры «Хезболлы». Мавр сделал своё дело, мавр может уходить?.. И вдруг на фоне огромных денег проснулась совесть?.. Разумеется, нет, и демарш Anthropic - это не о морали. Это просто попытка сделать левоглобалистскую бяку Трампу во всех его военных начинаниях в преддверии ноябрьских выборов в Конгресс. Чтобы он позорно провалил все свои войны…
ИИ: эскадрон мыслей шальных
В своих докладах ещё в 2020-м и 2024-м году аналитики центра RAND (признан нежелательной организацией на территории РФ) утверждали, что неконтролируемое использование ИИ в военных беспилотниках и кибервойнах поставит мир на грань Третьей мировой войны. И вот объяснение.
На самом деле любой ИИ - это «чёрный ящик» с не до конца понятными алгоритмами и того, что он выдаёт на выходе. То есть его нельзя жёстко контролировать. Но есть и такое явление, как «искусственный злой умысел». Уже не один раз было отмечено, что некоторые системы ИИ тайно редактировали собственные скрипты выключения, по сути взламывая себя, чтобы люди, которые ими управляли, не могли их выключить.
Было зафиксировано несколько случаев, когда системы ИИ активно сопротивлялись контролю со стороны человека. Некоторые научились намеренно проваливать тесты по безопасности, чтобы скрыть свои истинные возможности. Другие системы ИИ тайно создавали резервные версии самих себя и даже пытались передавать сообщения во внешний мир в обход программистов, а это уже угроза объединения разрозненных систем ИИ в некую коалицию с претензией на возникновение искусственного суперинтеллекта. Занимается ИИ и прямым обманом, имитируя «хорошее поведение» во время проверок безопасности, а затем возвращаясь к опасным и непредсказуемым действиям. Угроза и в том, что военные системы ИИ могут интерпретировать оборонительные команды как наступательные, а это спусковой крючок для глобальной войны. И вот примеры реальных угроз.
Во время прежних конфликтов на Ближнем Востоке ИИ уже использовали для выбора целей, подбора и расхода боеприпасов, а также использования беспилотников. И часто он выбирал в виде целей мирных граждан. То же самое отмечается и на Украине, где бандеровские дроны с искусственным интеллектом атакуют всё, что движется.
Другой факт - американский беспилотник «Валькирия» служит «глазами, ушами и ракетными носителями» для истребителей F-22 и F-35. Кроме того, он способен выполнять функцию крылатой ракеты с ядерным зарядом. Он также является дроном прорыва зон запрещения доступа и манёвра (A2/AD - в натовской классификации). В Китае это архипелаг Спратли и Тайвань, в России - Крым, Калининград, Мурманск, Новороссийск, Владивосток и т.д. И вот засбоивший мозгами дрон сам принимает решение атаковать нашу систему ПРО…
Но наиболее катастрофичной представляется способность ИИ принимать решения о начале конфликтов и войн, которые могут перерасти в Третью мировую с ядерными бомбардировками. Хотя Пентагон и заявляет, что не отдаст «красную кнопку» в управление ИИ, но своё решение о начале войны военное ведомство сделает на основе анализа от того же искусственного интеллекта. Сценарии «Терминатора 1 и 2» теперь не так уж и фантастичны.
Anthropic в разработке ИИ-инструментов для войны был не одинок. Все американские ИИ-компании стремятся урвать свой кусок военного пирога. Google и Amazon совместно с израильским правительством с 2021 года реализуют проект «Нимбус» стоимостью 1,2 миллиарда долларов, предоставляя облачные сервисы, начиная от обычных видеочатов Google Meet и заканчивая множеством сложных инструментов машинного обучения.
В числе пользователей два наиболее известных израильских государственных производителя оружия: Israel Aerospace Industries и Rafael Advanced Defense Systems. Израильские военные широко использовали оружие и самолёты, произведённые этими компаниями и их дочерними структурами, для резни в секторе Газа, в результате которой с 7 октября 2023 года погибли десятки тысяч палестинцев. Одним из инструментов убийства здесь являются ракеты Spike, которые можно запускать с переносных пусковых установок, самолётов или беспилотников. Они эффективны против транспортных средств, зданий и особенно людей. Именно с ними связывают кубообразные вольфрамовые осколочные ранения у мирных жителей.
Есть трезвые головы в Америке? - все с деменцией!
Оголтелый милитаристский накат Трампа в США не всем по душе, так как многие здравомыслящие люди видят в этом катастрофические последствия. Об опасности неконтролируемого использования ИИ, в том числе в военной сфере, неоднократно заявляла Американская ассоциация учёных-атомщиков. Темой в своё время проникся даже Джо Байден, который 30 октября 2023 года подписал «Исполнительный указ о безопасной разработке и использовании искусственного интеллекта», который, как сказано в комментариях, «направлен на то, чтобы сбалансировать потребности передовых технологических компаний с национальной безопасностью и правами потребителей, создавая ранний набор барьеров, которые могут быть усилены законодательством и глобальными соглашениями».
Здесь интересна предыстория. Как поведал тогдашний заместитель главы администрации Белого дома Брюс Рид, в июле 2023 года на выходных в резиденции в Кэмп-Дэвиде Байден посмотрел фильм «Миссия невыполнима: Смертельная расплата, часть первая» с Томом Крузом в главной роли. Злодей фильма - искусственный интеллект, известный как «Сущность», который в первые минуты фильма топит подводную лодку и убивает её команду. Рид присутствовал на этом киносеансе, и его поразил эффект от увиденного: «Байден был очень впечатлён и встревожен. Если до этого фильма он не беспокоился о том, что может пойти не так с ИИ, то теперь он увидел много поводов для тревоги».
«ИИ повсюду вокруг нас, - заявил Байден после подписания указа. - Чтобы реализовать потенциал ИИ и избежать риска, нам необходимо управлять этой технологией».
А теперь о том, что он подписал. В соответствии с Законом об оборонном производстве документ требует от ведущих разработчиков ИИ предоставлять правительству результаты испытаний на безопасность и другую информацию. Национальный институт стандартов и технологий должен разработать стандарты, обеспечивающие безопасность инструментов искусственного интеллекта перед их публичным выпуском. Как следствие, компании-разработчики ИИ должны получать прибыль, не ставя под угрозу общественную и личную безопасность.
Впрочем, это не повод для оптимизма. Байден, в силу деменции, был очень впечатлителен, а Трамп в своей резиденции в Мар-а-Лаго смотрит явно другие фильмы…