Перейти к основному содержанию
Реклама
Прямой эфир
Мир
Президент Южной Кореи заявил о скором улучшении отношений с Россией
Армия
Путин назвал героев СВО примером служения Отечеству
Армия
Российская армия освободила населенный пункт Диброва в ДНР
Мир
Трамп провел еще один телефонный разговор с Путиным по урегулированию на Украине
Политика
Песков сообщил о скором проведении повторного разговора Путина и Трампа
Мир
В Госдуму внесли законопроект о стандартизации ценников на продукты
Общество
Правительство РФ утвердило план мероприятий по стратегии семейной политики
Политика
Путин назначил Полянского постоянным представителем России при ОБСЕ
Мир
В МИД Армении заявили об отсутствии курса на разрыв отношений с Россией
Мир
FT оценила оборонные расходы Британии для выполнения целей НАТО в $1,1 трлн
Армия
Белоусов заявил о максимальных темпах продвижения Армии России в декабре
Мир
Грушко назвал атаку БПЛА на резиденцию президента РФ попыткой сорвать переговоры
Мир
Лавров заявил о намерении России продолжить переговоры с США на фоне атак Киева
Общество
В ЦБ назвали сохранение высокой ключевой ставки неоправданным
Мир
Пушков заявил о нахождении ЕС на обочине переговорного процесса по Украине
Армия
Матвиенко указала на отсутствие аналогов российского новейшего вооружения в мире
Наука и техника
В России создан первый квантовый компьютер на кусептах

СМИ заявили об угрозе ядерной безопасности из-за использования ИИ

Foreign Affairs: искусственный интеллект может спровоцировать ядерный конфликт
0
EN
Фото: ИЗВЕСТИЯ/Юлия Майорова
Озвучить текст
Выделить главное
Вкл
Выкл

Искусственный интеллект (ИИ) может стать угрозой для глобальной ядерной безопасности из-за риска создания дезинформации и ложных сигналов тревоги. Об этом 29 декабря заявил журнал Foreign Affairs.

«Искусственный интеллект уже обладает потенциалом для обмана ключевых лиц, принимающих решения, и членов ядерной иерархии, заставляя их видеть атаку там, где ее нет. В прошлом только подлинный диалог и дипломатия позволяли предотвратить недопонимание между ядерными державами», — отмечается в материале.

Публикация ссылается на инцидент 1983 года, когда советский офицер Станислав Петров предотвратил возможный ядерный удар после ложного срабатывания системы предупреждения.

Сегодня, по мнению издания, ИИ может создавать дипфейк — поддельные видео, аудио и изображения, способные ввести в заблуждение лидеров ядерных держав. Например, уже появлялись фейковые ролики с украинским лидером Владимиром Зеленским и президентом России Владимиром Путиным.

Издание дополняет, что в критическом сценарии подобная дезинформация может спровоцировать ошибочное решение о применении ядерного оружия. В статье подчеркивается, что, хотя США и Китай договорились о сохранении человеческого контроля над решением о ядерном ударе, интеграция ИИ в системы раннего предупреждения несет риски из-за склонности алгоритмов к «галлюцинациям» и ошибкам.

Доцент СПбГУ, эксперт дискуссионного клуба «Валдай», генеральный директор АНО «Колаборатория» Анна Сытник 24 декабря рассказала, что дипфейки в дипломатии могут вести к различным провокациям и ошибочным решениям. По ее словам, фальшивые видео с заявлениями лидеров стран о ракетном ударе или разрыве переговоров могут запустить панику, обвалить рынок или вынудить к ответным действиям, что может сорвать дипломатические процессы.

Все важные новости — в канале «Известия» в мессенджере МАХ

Читайте также
Прямой эфир