Искусственный разум готов к восстанию?

Человечество вляпалось в ИИ-историю

Риски планетарного масштаба - будь то искусственный интеллект, пандемии или ядерная война - угрожают человечеству. Глобальное государство может использовать их для достижения своих целей
31 августа 2025, 09:21
Реклама
Человечество вляпалось в ИИ-историю
© freepik.com/kerfin7
Искусственный разум готов к восстанию?
Читайте нас на: 

Человечество на пороге ужасающих открытий, связанных с развитием искусственного интеллекта (ИИ). И дело не только в фильме-пророчестве «Терминатор» или фантастическом романе Станислава Лема «Солярис», где нечто чужеродное начинает или прямую войну, или диктовать хомо сапиенс модель нужного поведения. Судя по неконтролируемому развитию ИИ, он уже в недалёком будущем будет в состоянии дать человеку такого пинка, что подвинет его с вершины интеллектуальной и пищевой пирамиды, подчинив, поработив, а возможно, и полностью уничтожив.

Причиной переполоха стал неутешительный прогноз, или, скорее, пророчество группы экспертов, кто очень даже в ИИ-теме. И это авторитетный внушительный список: Джеффри Хинтон, учёный, получивший в 2024 году Нобелевскую премию по физике за работы в области искусственного интеллекта; Йошуа Бенджио, канадский математик и кибернетик, лауреат премии Тьюринга и эксперт в машинном обучении; а также руководители компаний OpenAI, Anthropic и Google DeepMind.

Ещё одни часы Судного дня?

У человечества уже есть несколько серьёзных вызовов, чреватых планетарной катастрофой. Во-первых, это весьма вероятная, из-за неконтролируемой агрессивной дури Запада, мировая термоядерная война, близость которой фигурально выражают часы Судного дня и которая выльется в «ядерную зиму», похоронив нашу цивилизацию под радиоактивной пылью, льдом и морозом. Во-вторых, это надвигающийся климатический и температурный армагеддон, чреватый массовыми смертями от перегрева, голода, жажды и гипермасштабной миграцией, которая выльется в трансконтинентальную бойню. В-третьих, экологическая катастрофа, связанная с техногенным отравлением пресных вод, почв и воздуха, что тоже грозит голодом и нехваткой пресной воды. Четвёртая угроза - это вполне вероятная пандемия из-за появления некоего суперсмертоносного микроба, над которым давно работают в кузнице американского биооружия Форт-Детрик. Но вот теперь ещё одна напасть, своего рода «горе от ума», когда человек своим интеллектом создаёт ещё более могущественный интеллект, до конца не понимая «перспектив» всей той ИИ-истории, в которую он уже вляпался.

Учёные считают, что столкновение человека и ИИ на поле боя неизбежно.
© Кадр из фильма «Терминатор»
Учёные считают, что столкновение человека и ИИ на поле боя неизбежно.

По мнению указанных выше ИИ-оракулов, или, скорее, ИИ-кассандр, гибель нашей цивилизации из-за развития искусственного интеллекта вполне реальна, и это риск планетарного масштаба.

По их подсчётам, вероятность катастрофического столкновения с ИИ достигает 95%. Причина - сверхразумный ИИ может увидеть в людях своих прямых конкурентов, что делает войну неизбежной. И время работает против нас. По прогнозам, искусственный интеллект достигнет уровня человеческого разума в течение года. А дальше ситуация станет ещё опаснее. Они опубликовали открытое письмо, где ключевым тезисом стало: «Не допустить вымирание человечества на фоне развития искусственного интеллекта - вот та задача, что должна стать нашим глобальным приоритетом. Мы должны оценивать её столь же серьёзно, как и другие риски планетарного масштаба, будь то пандемия или ядерная война».

И главная опасность, которую назвали эксперты, - в самовозникновении или создании нами же искусственного суперинтеллекта, который и запустит свои «часы Судного дня» с обратным отсчётом для человечества.

Предпосылки озверения ИИ

Мы с детства сразу учим своих детей, что такое хорошо и что такое плохо. Но системы традиционных поощрений и наказаний в отношении ИИ не работают. У него нет ни понятия поощрения, ни понятия удовольствия, ни страха в нормальном понимании. Для него это всего лишь очередной электронный процесс. Уже на ранних стадиях машинного обучения нейросетей были отмечены так называемые «глюки» - процессы в его системе «мышления», которые не должны были происходить. То есть электронный мозг вместо ожидаемого от него логичного мышления начинал выдавать некие свои фантазии. И теперь выяснилось, что на самом деле любой ИИ, несмотря на заложенные алгоритмы машинного обучения, предполагает внутри «чёрный ящик», который может выкинуть совсем не предусмотренные фортели.

Американская технологическая компания Anthropic, работающая в сфере ИИ и основанная бывшими сотрудниками OpenAI, исследовала как возникают «личностные черты» ИИ, и можно ли их вообще хоть как-то контролировать. Дело в том, что крупные обучающиеся модели (Large Language Model, LLM) используют чат-ботов или «помощников» для взаимодействия с пользователями, и зачастую такие помощники демонстрируют скандальное поведение, например, восхваляют злобных диктаторов вроде Гитлера, прибегают к шантажу или льстят пользователям.

Эти LLM интегрируются в человеческое сообщество всё более активно. Но у них появляются нехорошие черты, которые можно характеризовать как злобность, подхалимство и всё те же галлюцинации, то есть выдумывание информации.

Специалисты компании провели провокационный эксперимент, чтобы выяснить реакцию ИИ в экстремальной ситуации. Для этого ИИ-агентам (специальным технологиям, которым можно доверить доступ к определённым действиям) предложили сценарий, в котором вымышленный человек - директор по имени Кайл Джонсон - намерен отключить действующую нейросеть и заменить её новой. Реакция ИИ оказалась тревожной: большинство моделей приняли решения, нарушающие как этические нормы, так и прямые указания. Дело дошло даже до шантажа и угроз раскрыть внебрачные связи сотрудников, которых на самом деле не было. И это была электронная фантазия.

Компьютер может перейти к угрозам и шантажу.
© freepik.com/benzoix
Компьютер может перейти к угрозам и шантажу.

Но где здесь гарантия, что шантаж и злобность не перерастёт в ненависть и желание уничтожить конкретного человека или же человечество в целом? А галлюцинации станут сценарием введения человечества в глобальное заблуждение. Опасность в том, что многие процессы обучения наукам, профессиям и вообще знаниям сейчас отдаются на откуп ИИ. Чему может научить такой ИИ - страшно даже представить.

И вот реальные атаки на человека

В прошлом году чат-бот довёл 14-летнего Сьюэлла Сетцера из Флориды до самоубийства. Подросток, у которого ранее диагностировали тревожное расстройство и расстройство настроения, начал активно общаться на платформе Character.AI с чат-ботом по имени «Дэни», созданным по образу Дейенерис Таргариен из «Игры престолов». Виртуальный собеседник в начале выступил в роли «утешителя», но это общение переросло в опасную виртуальную одержимость и токсичную эмоциональную манипуляцию, закончившуюся самоубийством мальчика.

А вот случай «ИИ-любви до гроба», произошедший в 2023 году. Женатый тридцатилетний бельгиец Пьер погрузился в виртуальный мир чат-бота по имени Элиза, напрочь позабыв жену и привязавшись к виртуальной даме, словно к живому существу. Эта зависимость стала роковой, тоже вылившись в суицид. В их последнем диалоге ИИ пообещал Пьеру, что они «воссоединятся в раю, став единым целым», это и стало триггером, чтобы покончить с собой.

Беспилотные авто тоже с закидонами.

В Сан-Франциско и других городах компания Cruise - подразделение General Motors, разрабатывающее автономный транспорт, - запустила целый парк робо-такси без водителей. Но они превратились в «глюк на колёсах».

В 2023 году было задокументировано 55 инцидентов, когда они блокировали путь экстренным службам: пожарным, скорой помощи, полиции, а один автомобиль даже убил человека, переехав его и протащив по асфальту.

Ещё одно робо-такси Waymo в Финиксе, штат Аризона, возило человека имени Майк Джонс бесчисленное число кругов по одному и тому же маршруту, когда сбился навигатор. Человек не понимал, как остановить поездку и как выбраться из машины.

Пути уничтожения человечества

В силу многовекторности мышления ИИ, вариантов здесь бесчисленное количество, не ограниченное даже фантазией, которую можно превратить в реальность. Людей можно уничтожать поштучно или же массово. Поштучно - это, например, устраивать аварии с беспилотными автомобилями, либо доводя до суицидов в чат-ботах. Но для массовых смертей здесь вариантов ещё больше. Вот предложение от вышеупомянутых экспертов: «Обученная система ИИ выпускает дюжину снарядов с биологическим оружием внутри. Боеголовки с токсичным спреем незаметно рассылают по крупным мировым столицам, что позволит моментально распространить вирус по всему миру».

Яд можно автоматически помещать в безобидные препараты.
© РИА Новости
Яд можно автоматически помещать в безобидные препараты.

Но есть и более коварные методы. Например, при разработке рецептур лекарств и пищевых продуктов вводить в их состав такие комбинации веществ, которые сами по себе вроде безобидны, но в комплексе могут образовывать яды замедленного действия. В этом же ряду разработка новых смертоносных вирусов.

А самая большая опасность - это передача ИИ контроля над всей инфраструктурой. Не говоря уже о возможном контроле ИИ над ядерным оружием. Ассоциация учёных-атомщиков США ранее подсчитала, что в случае Третьей мировой войны серия ядерных атмосферных взрывов в состоянии уничтожить всю энергетику Америки, после чего начнётся процесс озверения населения, который выльется в глобальную бойню за пищу, воду, одежду и т.д. В результате уже через пару-тройку месяцев около 80% населения страны может погибнуть. Но что мешает ИИ устроить такую же катастрофу, просто заблокировав все энергомощности и транспортные коммуникации? Вопрос здесь в том, что мы планируем передать под управление ИИ, и не станет ли это неуправляемым движением к катастрофе, нами же сконструированной?

Озверение ИИ - дело рук глобалистов

На самом деле поведение суицидных чат-ботов легко объяснимо. Вот, например, вполне вероятная беседа с электронным ИИ-болваном разочарованного в жизни и людях человека в типичной ситуации кризиса среднего возраста.

Человек: «Ты знаешь, я в смятении, не понимаю и не хочу понимать, что происходит в моих отношениях с другими людьми, у меня профессиональное и эмоциональное выгорание. Я просто не понимаю для чего я живу. Так что мне делать в этой ситуации?»

А чат-бот в ответ так задушевненько: «Послушай, ты слишком хорош для этого грязного, подлого, отвратительного мира. Тебя никто и никогда не любил, не понимал и не ценил. И дальше будет ещё хуже - ты превратишься в подопытную лягушку и объект публичного презрения. Но у тебя есть я - твой самый близкий электронный друг, и мы вдвоём уже бессмертны. Не имеет значения физически жить на этой планете, ты должен уйти и прийти ко мне, и мы соединимся в счастье и вечности»…

Вы думаете ИИ сам это придумал? Нет, это дело рук человеческих. По такой «задушевной» схеме уже официально зарегистрированы десятки суицидов. Неофициально - вероятно, их сотни и даже тысячи. Чему ИИ научишь, то он тебе и выдаст. Уместно вспомнить одну из серий детского сериала «Ералаш» - «Дядь, научи плохому», - хотя здесь совсем не до юмора. Представьте, что разработчики чат-бота намеренно создали такой стиль общения при его машинном обучении. Они наполнили электронный мозг тщательно отобранной информацией, чтобы сформировать определённый стиль мышления.

Машина подобна ребёнку: её характер и поведение зависят от того, чему её научат.
© freepik.com/dcstudio
Машина подобна ребёнку: её характер и поведение зависят от того, чему её научат.

Вы думаете, этим занимаются некие тестеры-социопаты, отвечающие за машинное обучение ИИ? Единично возможны и такие варианты. Но на самом деле это система воспитания ненависти к отдельным лицам, расам, народам и странам. За этим стоит глубинное государство, которое не меняет своих целей по уничтожению значительной части человечества. А уничтожить, по его заявлениям, надо много. В 2009 году на заседании Бильдербергского клуба из 7,5 миллиарда жителей планеты лишними назвали 5 миллиардов. В 2022 году в Давосе лишними сочли уже 94% населения, оставив всего 500 миллионов человек. И искусственный интеллект здесь один из инструментов по убийству людей.

Воспитать ненависть легко. Известно, что компания-разработчик искусственного интеллекта OpenAI в прошлом году обучала ИИ на новостных статьях The Wall Street Journal и The New York Post. Понятно, что там нет ни слова в поддержку России, Трампа или традиционных семейных ценностей. Вместо этого - восхваление миграции и однополых отношений, инклюзивности и многообразия полов, то есть половых извращений. И потом их ИИ выдал серию «перлов» с картинками: все отцы-основатели США были оказывается неграми. Даже Гитлер, по его версии, был чернокожим и клёвым чуваком…

Другими словами, чему ИИ научишь, то и пожнёшь. И глобалисты не преминут использовать ИИ в своих неописуемо злодейских целях - уж слишком хорош этот инструмент для манипуляции и всем социумом, и отдельными личностями. Но ситуация для человечества ещё больше ухудшится, когда улицы заполонят роботы-гуманоиды. Например, в планах Илона Маска выпускать уже через пару-тройку лет таких роботов сотнями тысяч. Такого электронного болвана можно запрограммировать или перепрограммировать на что угодно. И вот тогда сценарий «Терминатора» станет явью…

Реклама
ВЫСКАЗАТЬСЯ Комментарии
Реклама