Штучний інтелект загрожує ядерній безпеці: дослідження Стенфорда

Нова модель ШІ виявляє критичні вразливості в системах, що захищають ядерні арсенали. Дослідження Стенфорда підкреслює нові ризики для ядерної стратегії.

Штучний інтелект загрожує ядерній безпеці: дослідження Стенфорда

Вступ до нових загроз

Модель штучного інтелекту, що була представлена в квітні 2026 року компанією Anthropic, виявилася здатною виявляти критичні вразливості в цифрових системах, які відповідають за захист ядерних арсеналів. Це відкриття ставить під сумнів усталені уявлення про надійність систем управління ядерною зброєю, зазначають дослідники з Університету Стенфорда.

Ключові факти

  • Модель Mythos виявляє вразливості за менше ніж добу.
  • Ймовірність успіху в експлуатації вразливостей складає 72,4%.
  • ШІ виявило 27-річну помилку в коді OpenBSD.

Хронологія розробок

  1. Квітень 2026 року - випуск моделі Claude Mythos.
  2. Перше виявлення критичних 'дірок' у системах.
  3. Зростання занепокоєння серед експертів щодо кіберзагроз.

Порівняння показників вразливостей

ПоказникЗначенняНорма
Швидкість виявленняменше 24 годиндекілька днів
Ймовірність успіху72,4%50%
Кількість виявлених помилокчисленніодиниці

Висновки

Дослідження вказує на те, що нові технології штучного інтелекту можуть суттєво змінити ядерну політику, роблячи її менш передбачуваною. Експерти підкреслюють, що необхідно терміново переосмислити стратегії захисту в умовах зростаючих кіберзагроз.