Супер-ИИ появится в 2027 году. Правда или нет?
Пока специалисты в области машинного обучения спорят о будущем искусственного интеллекта, бывший сотрудник компании OpenAI, подарившей миру ChatGPT, утверждает, что в мире началась гонка за общий ИИ (AGI). В своем объемном докладе исследователь Леопольд Ашенбреннер пишет, что на сегодняшний день ситуативной осведомленностью о технологии и о том, как ее достижения повлияют на будущее обладают всего несколько сотен человек, а жажда наживы заставляет разработчиков развивать AGI такими темпами, что они игнорируют все риски и ограничения. «Мы создаем системы, которые могут думать и обосновывать свои действия. К 2025/26 году они опередят многих выпускников университетов, а к концу десятилетия будут умнее нас с вами», – говорится в докладе. Неужели мы с вами и правда станем свидетелями появления суперинтеллекта? Давайте разбираться!
Общий искусственный интеллект (AGI) – область теоретических исследований искусственного интеллекта, которая стремится создать программное обеспечение с интеллектом, подобным человеческому, и способностью к самообучению.
В погоне за AGI
Предсказания о гибели кинематографа от рук генеративного ИИ меркнут по сравнению с предупреждениями о судьбе человечества, если ученые добьются своего в создании искусственного интеллекта общего назначения (AGI) – пока еще гипотетической системы, способной работать на человеческом или сверхчеловеческом уровнях. Мнения среди ученых, однако, сильно разнятся – первые считают AGI недостижимым, вторые предрекают его появление через десятилетия, а третьи и вовсе уверенны, что AGI появится до 2030 года.
Недавно бывший сотрудник компании OpenAI Леопольд Ашенбреннер, чьим детищем является ChatGPT, опубликовал большой доклад на 165 страниц, в котором описано развитие систем генеративного ИИ в ближайшие 10 лет. Может показаться, что Ашенбреннер преувеличивает, однако его слова заставляют задуматься: масштабы финансирования ИИ уже превосходят самые смелые ожидания.
Важно отметить, что Ашенбреннер не является членом какой-то секты или паникером, проповедующим конец света. Он, как и Илон Маск, солидарен с теми, кто призывает к большей «ситуативной» осведомленности о потенциале ИИ и к вмешательству на государственном уровне, чтобы ограничить власть компаний, владеющих ИИ.
Вам будет интересно: Нейросети уничтожат человечество. Правда или нет?
И хотя в докладе нет конкретных имен, речь, очевидно, идет об OpenAI, где Ашенбреннер отвечал за меры предосторожности в отношении разработки AGI. Уволили ученого в апреле этого года, по—видимому за критику руководства, которое, по его словам, «пренебрегает безопасностью ради денег». Представители OpenAI, в свою очередь, рассказали, что Ашенбреннер был уволен за утечку важной информации о готовности компании к внедрению AGI.
В свою защиту бывший сотрудник заявил, что информация, которой он поделился, была «абсолютно нормальной», поскольку основана на общедоступных данных. Он подозревает, что компания просто искала способ избавиться от него. Интересно, что руководители отдела, в котором работал Ашенбреннер также уволились.
Еще один бывший сотрудник OpenAI, Даниэль Кокотайло, солидарен с мнением Ашенбреннера и говорит, что OpenAI разрабатывает все более мощные системы искусственного интеллекта с целью в конечном итоге превзойти человеческий интеллект по всем параметрам. По его мнению, AGI станет либо лучшим, либо худшим событием в истории человечества, а доверие к руководству OpenAI постепенно пропадало в основном из-за безответственного отношения и пренебрежения безопасностью.
Гонка за AGI уже началась. К концу десятилетия у нас будет суперинтеллект в истинном смысле этого слова. Если нам повезет, мы вступим в тотальную гонку с другими странами, а если нет, может начаться мировая война, – говорится в докладе.
Чего хотят корпорации?
Чтобы лучше понимать сложившуюся ситуацию, напомним, что генеративный ИИ занимает важное место в технологической среде. Мы видели, что благодаря искусственному интеллекту такие компании, как Microsoft, стали самыми ценными в мире с рыночной стоимостью более 3 трлн долларов. Аналитики рынка связывают этот стремительный рост с тем, что компания быстро освоила технологическую новинку.
Даже NVIDIA находится на грани внедрения ИИ в свои iPhone после того, как недавно обогнала Apple и стала второй по стоимости компанией в мире из-за высокого спроса на графические процессоры для разработок в области ИИ, – говорят эксперты.
Microsoft и OpenAI, судя по всему, входят в число ведущих технологических компаний, которые вкладывают значительные средства в искусственный интеллект. Однако их партнерство вызвало споры, поскольку инсайдеры отмечают, что Microsoft превратилась в «прославленный ИТ-отдел для перспективных стартапов».
Хотите первыми узнавать самые последние новости из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!
Миллиардер и основатель SapceX Илон Маск, и вовсе говорит, что OpenAI, похоже, «фактически превратился в дочернюю компанию Microsoft с закрытым исходным кодом».
То, что между компаниями сложные партнерские отношения не является секретом, а последние разногласия, касающиеся OpenAI, не улучшают ситуацию. Как уже говорилось выше, после запуска GPT-4 несколько высокопоставленных сотрудников покинули OpenAI. И хотя причины их ухода в лучшем случае остаются неясными, Ян Лейке, бывший руководитель команды Ашенбреннера, заявил, что его беспокоит развитие искусственного интеллекта в компании.
Все это означает, что предсказать, по какой траектории будет развиваться искусственный интеллект в ближайшие несколько лет крайне трудно. При этом генеральный директор NVIDIA Дженсен Хуан указывает, что «мы, возможно, находимся на пороге следующей волны искусственного интеллекта». Он также утверждает, что робототехника – это следующая крупная отрасль, в которой доминируют самоуправляемые автомобили и человекоподобные роботы.
Не пропустите: Нейросети научились врать и делают это намеренно
К счастью, доклад Ашенбреннера дарит некоторое представление о том, что ждет нас в будущем. Его прогнозы, однако, довольно тревожны, а в некоторые из них верится с трудом.
Доклад Ашенбреннера, главное
- Вот основные выводы, сделанные в докладе из пяти глав и 165 страниц:
- Искусственный интеллект развивается семимильными шагами и к 2027 году у нас вместо чат-бота будет нечто, больше похожее на коллегу. К этому моменту нейросети смогут выполнять работу исследователя/инженера ИИ.
- Прогресс ИИ не остановится на человеческом уровне и мы быстро перейдем от AGI к совершенно сверхчеловеческим системам ИИ. Этот сверхразум, вероятно, появится уже к 2030 году.
- Ни одна команда профессионалов не справится с сверхчеловеческим ИИ. Прямо сейчас в мире всего несколько сотен человек, которые понимают, что нас ждет и насколько безумными могут стать грядущие события.
- Необходимые шаги, которые следует предпринять: немедленное и радикальное усиление безопасности лабораторий ИИ; строительство вычислительных кластеров AGI в США; готовность лабораторий ИИ сотрудничать с военными.
Что произойдет в 2027 году?
AGI к 2027 году выглядит поразительно правдоподобно. Для этого не нужно верить в научную фантастику, нужно просто верить в прямые линии на графике роста возможностей ИИ, — пишет экс-сотрудник OpenAI.
Итак, согласно докладу Ашенбреннера, развитие ИИ идет семимильными шагами и, если эта тенденция не изменится, то к 2027 году искусственный интеллект станет поразительно похож на человека. В его словах действительно есть смысл, ведь всего за четыре года – начиная с GPT-2 и заканчивая GPT-4 – ИИ прошел путь от дошкольника до умного старшеклассника. «Если проследить тенденции в области вычислений и эффективности алгоритмов, можно с уверенностью говорить о том, что к 2027 нас ожидает еще один качественный переход от «дошкольника к старшекласснику,»» – пишет Ашенбреннер.
Более того, по мнению бывшего сотрудника OpenAI, прогресс ИИ не остановится на уровне человека, так как в ближайшем будущем сотни миллионов ИИ смогут автоматизировать исследования в этой области, сократив десятилетие алгоритмического прогресса до года. Это означает, что переход от человеческого уровня к совершенно сверхчеловеческим системам ИИ произойдет очень быстро, а мощь — и опасность — суперинтеллекта будут колоссальными.
Поскольку доходы от ИИ быстро растут, триллионы долларов будут вложены в графические процессоры, центры обработки данных и наращивание мощности до конца десятилетия в результате «экстраординарного технократического ускорения», – говорится в докладе.
Назвать эти слова надуманными трудно, поскольку GPT-4 (который в лучшем случае называют слегка пугающим) уже превосходит профессиональных аналитиков и продвинутые модели искусственного интеллекта в прогнозировании будущих тенденций доходов без доступа к качественным данным. Однако существуют серьезные опасения по поводу энергоснабжения, из-за чего OpenAI рассматривает ядерный синтез как вероятную альтернативу в обозримом будущем.
В отчете также указано, что все больше корпораций присоединятся к борьбе за AGI и инвестируют триллионы долларов в разработку этих интеллектуальных систем. Все это происходит на фоне сообщений о том, что Microsoft и OpenAI инвестируют более 100 миллиардов долларов в проект под названием Stargate, чтобы избавиться от чрезмерной зависимости от графических процессоров NVIDIA.
Читайте также: Как нейросети влияют на климат и окружающую среду?
Переход к сверхчеловеческому ИИ
Ашенбреннер уверен, что когда человечество получит в свои руки AGI, оно не остановится и приступит к созданию еще более мощных алгоритмов, которые смогут не только сравниться с человеком, но и многократно превзойти его возможности. Этот переход, вероятно, произойдет после 2029 года, так как ИИ сможет автоматизировать и ускорить свои исследования и разработки. И так как все больше стран и учреждений по всему миру будут готовиться к внедрению AGI и появлению сверхчеловеческого ИИ, сектор получит больше корпоративного и государственного финансирования.
Не успеем мы оглянуться, как у нас в руках окажется сверхразум — системы искусственного интеллекта, намного более умные, чем люди, способные к новому, творческому, сложному поведению, которое мы даже не сможем понять. Возможно, даже небольшая цивилизация, насчитывающая миллиарды таких систем. Их мощь также будет огромной. Чрезвычайно сложные научные и технологические проблемы, над которыми человек застрял бы на десятилетия, покажутся им очевидными. Мы будем похожи на старшеклассников, которые застряли на физике Ньютона, в то время как они изучают квантовую механику, – предупреждает автор доклада.
Наконец, такие сверхразумы смогут сами тренировать еще более сложный искусственный интеллект. «Они с легкостью смогут писать миллионы строк сложного кода, сохранять всю кодовую базу в контексте и не будут тратить десятки лет (или больше) на проверку и перепроверку каждой строки кода на наличие ошибок и оптимизацию. Они будут превосходно компетентны во всех аспектах своей работы», — констатирует экс-сотрудник OpenAI.
Это интересно: Как найти любовь с помощью ChatGPT и искусственного интеллекта?
Все это означает, что весь научно-технологический прогресс, который человечество прошло за ХХ век, будет превзойден всего за одно десятилетие. Это, в свою очередь, обеспечит решающее и подавляющее военное превосходство стране, лидирующей в гонке ИИ-вооружений.
Использование сверхинтеллекта против оружия, существовавшего до его появление, будет напоминать столкновение современных военных с кавалеристами XIX века. Время, которое наступит сразу после появления сверхразума, будет одними из самых нестабильных, напряженных, опасных и необузданных периодов в истории человечества, — заключает бывший сотрудник OpenAI.
Автор доклада справедливо полагает, что страны будут принимать более строгие меры национальной безопасности для управления разработками в области искусственного интеллекта и контроля за ними. Однако международная конкуренция, особенно между США и Китаем, может усилиться и привести к «полномасштабной войне».
Подробнее о том, что будет, когда искусственный интеллект достигнет пика своего развития, мы рассказывали здесь, не пропустите!
Интеллектуальный взрыв и его последствия
К концу доклада тревога Ашербреннера становится все более заметной, так как ведущие национальные лаборатории искусственного интеллекта относятся к безопасности как к чему-то второстепенному. В настоящее время они, по сути, преподносят ключевые секреты AGI на блюдечке с голубой каемочкой, а ведь надежное управление системами искусственного интеллекта, которые намного умнее нас – нерешенная техническая проблема.
Надежное управление системами искусственного интеллекта, которые намного умнее нас, является нерешенной технической проблемой. И хотя это решаемая проблема, во время стремительного интеллектуального взрыва все очень легко может пойти наперекосяк.
По сути, ситуацию, которую экс-сотрудник OpenAI описывает в своем докладе, можно сравнить с созданием атомной бомбы, так как гонке за создание AGI на карту будет поставлено выживание современной цивилизации. В конечном итоге никто не знает, удастся ли нам избежать катастрофы и саморазрушения на этом пути.
К счастью (и Ашенбреннер это признает), современные разработки в области ИИ должны помочь ученым понять, какие именно процессы происходят в алгоритмах и попробовать сделать их «в достаточной мере интерпретируемыми», чтобы обеспечить безопасность.
Больше по теме: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?
В то же самое время многие эксперты и исследователи в области машинного обучения не разделяют опасений бывшего сотрудника OpenAI, полагая, что внедрение AGI не произойдет так быстро и будет двигаться в другом направлении. При этом мало кто из экспертов сомневается в том, что
искусственный интеллект в конечном итоге станет умнее людей, займет их рабочие места и превратит работу в хобби. По этим (и многим другим причинам) в академических кругах растет обеспокоенность по поводу последствий, которые ИИ может иметь для человечества.