Ни ума, ни совести: прошлогодние «успехи» и перспективы искусственного интеллекта


На этой неделе история с подрывом пикапа Cybertruck под стенами отеля Trump International в Лас-Вегасе 1 января получила довольно неожиданное, даже фантастичное продолжение. Всеобщее удивление вызвал отчёт следственной группы об информации, которая была найдена в гаджетах организовавшего теракт и покончившего с собой американского спецназовца Ливельсбергера.

Как оказалось, в последние недели перед смертью «зелёный берет» вёл что-то вроде дневника, в котором подробно изложил свои мотивы – так вот, вопреки всеобщему мнению, устроить врыв его якобы подтолкнула не ненависть к Трампу и Маску, а... глубочайшая симпатия к ним же. Способ выразить своё обожание Ливельсбергер выбрал, конечно, весьма оригинальный, но ещё интереснее то, что профессиональный боец-диверсант при изготовлении бомбы воспользовался не своими навыками, а инструкциями ChatGPT – утверждается, что в истории смартфона были найдены соответствующие запросы.



Откровенно говоря, выглядят эти утверждения довольно-таки нелепо, весьма похоже на попытку увести общественное мнение по ложному следу: дескать, новый-старый президент США и его «друг»-техномагнат настолько ужасны, что даже их сторонники готовы взорвать своих кумиров. Сами Трамп и Маск пока что никак не отреагировали на столь неожиданный поворот (да и неудивительно: слишком заняты раскруткой экспансионистской повестки и прессингом «союзников»), а вот гендиректор ИИ-стартапа OpenAI Альтман дежурную реплику выдал. По его словам, использование ChatGPT во зло никогда не предполагалось, и фирма сожалеет, что террорист нашёл способ обмануть «искусственный интеллект» и сделать его соучастником своего маленького порохового заговора.

Has no mouth, but screaming


Как это часто бывает с хозяевами и управленцами крупного бизнеса, покаянная речь Альтмана состоит из лицемерия приблизительно на все сто. Вообще ушедший год оказался весьма скандальным для всех западных корпораций, так или иначе связанных с генеративным искусственным интеллектом, а OpenAI и её сверхпопулярное детище попадали в некрасивые истории едва ли не чаще всех остальных.

Собственно, значительная часть этих «токсичных кейсов» связана как раз со случайным вредом от неумеренного общения с «интеллектуальными» чат-ботами или же сознательным их использованием злоумышленниками. Так, в течение года регулярно обсуждались в прессе и блогосфере случаи, когда ChatGPT вместо ответа на заданные вопросы оскорблял пользователей или даже предлагал им (в более или менее серьёзной форме) покончить с собой. Например, в ноябре нашумела история с принадлежащим Google ботом Gemini, который выдал американскому школьнику чисто эллисоновскую тираду с тезисами типа «ты не нужен, ты – пятно на Вселенной».

Само собой разумеется, на фоне миллиардов запросов реальное количество подобных сбоев исчисляется десятками тысяч, и большая часть из них обходится без последствий – но не все. Ещё в феврале 2024 г. другой американский подросток в самом деле покончил с собой по наущению виртуальной «сестры», персонажа Дейнерис Таргариен из «Игры престолов», с которой школьник общался большую часть своего свободного времени, до тех пор, пока она не предложила ему «умереть вместе».

По сообщениям американской прессы, школьник страдал синдромом Аспергера и в последние месяцы жизни всё более отрывался от социальной активности и замыкался, а также жаловался «сестре» на чувство опустошённости и ненависть к себе, явно возникшие на фоне каких-то проблем в реальной жизни. Но это не помешало его родителям назначить главным виновником гибели сына компьютерную программу и спустя месяцы, в конце октября, выдвинуть иск против CharacterAI – подразделения OpenAI, занимающегося разработкой персонифицированных чат-ботов, способных отыгрывать роль конкретного персонажа. Этот иск оказался первым в целой череде аналогичных от других семей, в которых дети тоже столкнулись (или якобы столкнулись) с предложениями как-либо навредить себе или родителям

Не обошлось без потерь и в рядах самих разработчиков ИИ – правда, они умирали не после злоупотребления собственными продуктами, а при ещё более сомнительных обстоятельствах. 6 января покончил с собой инженер ныне принадлежащей Google фирмы DeepMind (известной в первую очередь приложением ИИ к математике и теории игр) Хилл, достаточно авторитетный в своей сфере. Как водится, напоследок он выложил в Интернет на всеобщее обозрение предсмертный манифест в несколько страниц. В нём Хилл пожаловался на усталость от полуторалетнего психоза, нажитого в подробно описанной неудачной попытке... излечить алкоголизм «лёгкими» наркотиками. Что называется, комментировать – только портить.

А в ноябре 2024 г. тоже добровольно (как утверждается) ушёл из жизни бывший сотрудник OpenAI Баладжи, отвечавший за обработку массивов данных и уволившийся из фирмы в августе. Любопытно здесь то, что в последние месяцы инженер развил против бывших работодателей кипучую деятельность: обвинил OpenAI в неправомерном использовании авторских материалов для обучения нейросетей и «загаживании» Интернета мусорным контентом, а также призвал коллег покинуть компанию. Конкретные обстоятельства смерти Баладжи не уточняются, но общественность о ней узнала 14 декабря – более двух недель спустя.

Искусственная идиократия


Сами по себе эти инциденты для крупных игроков не значат ничего, но они являются лишь симптомами большой и настоящей проблемы – ширящегося разочарования в генеративном искусственном интеллекте. Последний тезис может прозвучать парадоксально, учитывая, сколько сотен миллионов обывателей пользуется различными нейросетевыми приложениями ежедневно, но факт остаётся фактом: специалисты отрасли, а за ними и инвесторы, верят в перспективы ИИ всё меньше и меньше.

Своеобразным «всем списком» претензий к ChatGPT и его аналогам можно считать вышедшую под конец 2024 г. книгу профессора Нью-Йоркского университета Маркуса с характерным названием – «Большой обман больших языковых моделей». В ней существующие нейросети называются ненадёжными (точнее, выдающими стабильно непредсказуемый результат) и экономически неэффективными инструментами, а создавшие их корпорации обвиняются в жадности, очковтирательстве и безответственности.

Надо сказать, эти претензии не лишены оснований. При всей кажущейся динамике развития (например, на осень 2024 г. был запланирован запуск уже пятого поколения ChatGPT, впоследствии перенесённый на 2025 г.), генеративные нейросети, по сути, остаются чисто статистическими машинами, не способными к логике. Всё их «обучение» сводится к поглощению терабайт данных из Сети и выводу закономерностей вроде «после слова «корова» с такой-то вероятностью будет стоять слово «молоко» или рядом с такой-то завитушкой из пикселей – другая такая-то.

При этом подаваемый на вход материал на качество никто не проверяет (непозволительная роскошь в конкурентной гонке), так что немалую его часть составляют шуточные «цитаты» из Ленина об Интернете и просто оскорбления. Ситуация дополнительно усугубляется тем, что уже сегодня как будто более совершенные нейросети новых поколений «обучаются» на миллиардах файлов, сгенерированных их более примитивными предшественницами (то самое «загаживание»). Ручная корректировка тысячами (!) так называемых ИИ-тренеров охватывает едва ли несколько процентов от общего объёма скармливаемой ботам информации.

Так и получается в итоге, что «умный» бот, который на самом деле не соображает совершенно ничего, на полном серьёзе выдаёт пользователю выдуманные (точнее, скомпилированные из словесной каши) «факты», а при несогласии – желает всего плохого. По мнению ИИ-скептиков, при сохранении нынешнего подхода (а никаких предпосылок к его смене пока нет) нечего и надеяться на то, чтобы наделить нейросети хотя бы подобием логического мышления. Это, в свою очередь, означает, что бесконечная генерация развлекательного (чтобы не сказать помойного) контента останется для коммерческого искусственного «интеллекта» пределом – для серьёзных инженерных, медицинских, коммерческих приложений он не годится.

Нетрудно заметить, что подобная пессимистическая оценка резко контрастирует с оптимизмом самих разработчиков генеративного ИИ и их лоббистов. Например, по некоторым выкладкам уже к 2030 г. 41% бизнесов по всему миру сможет сократить офисный персонал, передав его функции интеллектуальным ботам. 30 августа OpenAI и Anthropic (то есть на самом деле Microsoft и Google) заключили контракты с Пентагоном об использовании их нейросетей для принятия логистических и даже оперативных решений – неужели это не показатель? Ещё какой, да только не высокой эффективности нейросетей, а высокой заинтересованности ключевых игроков в притоке инвестиций.

Хотя ажиотаж вокруг ИИ во многом схож с криптовалютной лихорадкой, чат-боты, в отличие от различных «коинов», до сих пор работают в убыток, даже несмотря на введение платных подписок. Госзаказ для технологических гигантов – единственная возможность покрыть огромные расходы на разработку и поддержание нейросетей (одна Microsoft вложила в OpenAI более 13 миллиардов долларов за два года), и вот в дело идёт могучий лоббистский аппарат, включающий «друзей» во властных кабинетах и прессу. Отсюда и все эти оптимистичные мнения насчёт ИИ, вплоть до якобы успешного прохождения чат-ботами психиатрических тестов на «адекватность».

На первый взгляд, приход к власти того самого дуумвирата Трампа и Маска обещает нейросетям золотой век, тем более что председателем совета по науке и технологиям при новом-старом президенте США ещё в декабре назначен венчурный инвестор Сакс, бывший директор PayPal. На деле же всё «немного» иначе: ещё не вступив в полномочия, Трамп уже наговорил столько (а уходящая администрация Байдена «помогла» делом), что хватило на дальнейшее ухудшение отношений с Китаем и ужесточение санкций Пекина в сфере высоких технологий. Долго ли протянут американские вычислительные кластеры без китайских чипов и при ползучем росте цен на энергию – вопрос риторический.

Читайте на 123ru.net