СМИ заявили об угрозе ядерной безопасности из-за использования ИИ
Искусственный интеллект (ИИ) может стать угрозой для глобальной ядерной безопасности из-за риска создания дезинформации и ложных сигналов тревоги. Об этом 29 декабря заявил журнал Foreign Affairs.
«Искусственный интеллект уже обладает потенциалом для обмана ключевых лиц, принимающих решения, и членов ядерной иерархии, заставляя их видеть атаку там, где ее нет. В прошлом только подлинный диалог и дипломатия позволяли предотвратить недопонимание между ядерными державами», — отмечается в материале.
Публикация ссылается на инцидент 1983 года, когда советский офицер Станислав Петров предотвратил возможный ядерный удар после ложного срабатывания системы предупреждения.
Сегодня, по мнению издания, ИИ может создавать дипфейк — поддельные видео, аудио и изображения, способные ввести в заблуждение лидеров ядерных держав. Например, уже появлялись фейковые ролики с украинским лидером Владимиром Зеленским и президентом России Владимиром Путиным.
Издание дополняет, что в критическом сценарии подобная дезинформация может спровоцировать ошибочное решение о применении ядерного оружия. В статье подчеркивается, что, хотя США и Китай договорились о сохранении человеческого контроля над решением о ядерном ударе, интеграция ИИ в системы раннего предупреждения несет риски из-за склонности алгоритмов к «галлюцинациям» и ошибкам.
Доцент СПбГУ, эксперт дискуссионного клуба «Валдай», генеральный директор АНО «Колаборатория» Анна Сытник 24 декабря рассказала, что дипфейки в дипломатии могут вести к различным провокациям и ошибочным решениям. По ее словам, фальшивые видео с заявлениями лидеров стран о ракетном ударе или разрыве переговоров могут запустить панику, обвалить рынок или вынудить к ответным действиям, что может сорвать дипломатические процессы.
Все важные новости — в канале «Известия» в мессенджере МАХ