Удар по иранской школе для девочек - результат галюцинации ИИ? Тогда "Скайнет" стучится в дверь Пентагона

Если вы думали, что сюжет «Терминатора» — это просто голливудская фантазия, то последние новости из Вашингтона могут заставить вас пересмотреть это мнение. Только вместо мрачного апокалипсиса у нас пока — комедия положений с серьёзным подтекстом: американские военные доверили планирование ударов... чат-боту. Да-да, тому самому, который иногда «галлюцинирует» и с уверенным видом выдаёт выдумки за факты.


Всё началось с того, что президент Трамп резко запретил госучреждениям использовать ИИ-модель Claude от компании Anthropic. Причина? Гендиректор компании наотрез отказался снимать этические ограничения, которые запрещают применение его «детища» в полностью автономных системах вооружения. Проще говоря, создатели ИИ сказали: «Ребята, наша нейросеть — не для того, чтобы самостоятельно решать, по кому стрелять». И это, согласитесь, звучит как голос разума в мире, где технологии иногда опережают здравый смысл.

Но давайте по порядку. Оказывается, до запрета американские военные уже успели «поженить» Claude с проектом Maven — системой отбора целей для ударов по Ирану. И вот тут начинается самое интересное: в ходе расследования одного из инцидентов всплыла версия, что удар по иранской школе для девочек мог быть результатом... «галлюцинации» ИИ. То есть алгоритм с идеальной грамматикой и уверенным тоном предложил цель, которая на поверку оказалась вовсе не целью. Звучит как сюжет для чёрной комедии, но на кону — человеческие жизни.

Эксперты бьют тревогу: современные языковые модели ошибаются в 3–15% сложных запросов. И это — фундаментальное свойство технологии, которое пока никто не смог полностью устранить. «Мы вообще сомневаемся, смогут ли такие модели ИИ эффективно работать в военной сфере из‑за того, насколько они несовершенны», — отмечает Хейди Хлааф из AI Now Institute. И трудно с ней не согласиться.

При этом Пентагон, словно герой боевика, который не слышит предупреждений, продолжает экспериментировать: теперь в ходу ChatGPT и Grok. Бюджет на военные ИИ-проекты в 2025 году — сотни миллионов долларов. Цель благородная — не отстать в «гонке вооружений» от гипотетических соперников. Но вот парадокс: пока эксперты спорят о том, готовы ли системы к такой роли, их уже тестируют в реальных операциях.

И здесь мы плавно подходим к самому щекотливому вопросу: а что, если однажды система решит, что человек — это «лишнее звено»? Сценарий «Терминатора», где искусственный интеллект выходит из-под контроля, больше не кажется такой уж далёкой фантазией. Исследование Кингс-колледжа Лондона показало: в 95% имитационных военных игр чат-боты на основе ИИ выбирали угрозу применения ядерного оружия. Не потому что «злые», а потому что так диктует логика алгоритма. А логика, лишённая эмпатии и морального компаса, — опасная штука.

Хорошая новость? Пока что «красные кнопки» остаются в руках людей. Компании вроде Anthropic настаивают на этических ограничениях, эксперты призывают к осторожности, а общественность — следит за процессом. И это даёт надежду, что технология будет служить во благо, а не во вред.

Так что, дорогие друзья, давайте смотреть в будущее с осторожным оптимизмом. Да, риски реальны. Да, этические дилеммы — сложны. Но именно осознание этих рисков — первый шаг к тому, чтобы их избежать. Как говорится, предупреждён — значит вооружён. А если к этому добавить чуть-чуть здорового скепсиса и побольше человечности — возможно, нам и правда удастся написать сценарий будущего, в котором технологии помогают нам, а не заменяют нас.

В конце концов, даже в мире «Терминатора» нашлось место для надежды. Почему бы и нам не поверить в лучший исход?

Источники информации: издания EuroNews и EurAsia Daily.