Создатели нейросети Claude подали в суд на Пентагон из-за имиджевых угроз

РЕН ТВ

В США разгорается грандиозный скандал, напрямую связанный с конфликтом на Ближнем Востоке. Anthropic – разработчик нейросети Claude – судится с Пентагоном. Программистам не нравится, что их впервые в истории американского бизнеса назвали "угрозой национальной безопасности". Эксперты говорят: именно Claude направила ракеты на школу в иранском городе Минаб. Как мир нейронок приводит к катастрофам – разбирался в сюжете РЕН ТВ корреспондент Николай Иванов.

Странное совпадение – иск компании Anthropic к властям в тот момент, когда в самих Штатах начали понимать: удар по школе в иранском Минабе мог быть нанесен из-за ошибки искусственного интеллекта.

Совесть замучила создателей ИИ только сейчас, когда в Иране американскими ударами разрушены 65 школ, почти 8000 домов. И "вдруг" глава корпорации Anthropic решил провести красные линии для Пентагона: оказывается, нельзя использовать их нейросеть Claude для превращения искусственного интеллекта в автономное оружие – когда дрон, например, сам выбирает цель и принимает решение бомбить.

"Что будет, если вместо 10 миллионов живых солдат у вас будет 10 миллионов дронов, управляемых ИИ? Может получиться ситуация, когда очень небольшое число людей или даже один человек держит руку на кнопке и управляет этими 10 миллионами дронов", – говорил генеральный директор Anthropic Дарио Амодей.

Второе "нельзя" для Пентагона от айтишников – это тотальная слежка. ИИ способен за секунды анализировать все транзакции, запросы в чат-ботах и сопоставлять с GPS-координатами. И говорить: "этот человек – и есть цель".

"Нейронные сети, на которых строится искусственный интеллект, на самом деле очень несовершенные и неточные технологии. Они часто галлюцинируют и могут иметь точность всего 50% или даже ниже", – заявила ведущий научный сотрудник Исследовательского института в области ИИ Хайди Клафф.

Вот только говорят в Anthropic одно, а по факту – судятся не из-за отказа Пентагона ограничивать использование ИИ, не из-за мук совести из-за ударов с помощью нейросетей по гражданским объектам, а из-за того, что разгневанный министр войны Пит Хегсет повесил на Anthropic ярлык "угроза для цепочки поставок". Раньше так клеймили российских и китайских разработчиков. Бизнес, ничего личного.

"Возможно, они испугались этих рисков, то есть как бы потерять просто обычных, скажем так, гражданских пользователей. И больше заказчиков не будет", – говорит эксперт по кибербезопасности Алексей Курочкин.

Тем более, что Трамп приказал убрать Claude с компьютеров Пентагона в течение 6 месяцев. За полгода можно успеть развязать еще пару войн. Понятно: проверить – удален ли софт с секретных машин Пентагона – невозможно.

"Claude помогает идентифицировать цели, анализируя источники разведданных и говоря: "Эй, это цель. Вот где может находиться КСИР или иранское правительство". Если мы хотим вести эти войны, то мы должны использовать ИИ для идентификации целей", – заявил бывший конгрессмен Брэд Карсон.

Да и создатели ИИ выстраиваются в очередь, чтобы их нейросети послужили Пентагону. Open Ai с Chat GPT заключил контракт с Пентагоном на 200 млн долларов. Grok Илона Маска, гугловский Gemini – тоже активно работают на министерство войны.

"Если эту войну планировал искусственный интеллект или решение об этой войне принималось на неких выкладках искусственного интеллекта условного, то тогда мы видим очевидную так называемую галлюцинацию искусственного интеллекта, который не смог просчитать вполне себе очевидных последствий того, что сейчас происходит", – заявил эксперт Центра военно-политической журналистики Борис Рожин.

Вряд ли ошибки ценою в сотни человеческих жизней остановят использование ИИ. Война на Ближнем Востоке для Вашингтона – удобное поле для экспериментов.

РЕН ТВ в мессенджере МАХ – главный по происшествиям

Читайте на сайте