Блог сайта «Газета.ru»

ИИ-эксперт Жук: разговор с ChatGPT на 20-30 вопросов стоит миру пол литра воды

Команда исследователей Google DeepMind представила новый метод обучения ИИ — JEST, который приведет к существенным изменениям в отрасли. По сравнению с предыдущими методами, новая технология позволит ускорить обучение ИИ и снизить энергопотребление в 10 раз. Эксперт по применению машинного обучения и искусственного интеллекта в области телекоммуникационных технологий и высокотехнологичного оборудования Андрей Жук рассказал "Газете.Ru" о принципе работы этой технологии и о том, как именно она повлияет на отрасль.

"Говоря простым языком, принцип работы нового метода заключается в том, что он обучает ИИ на основе целых "пакетов" данных, а не на отдельных примерах, как было в используемых до этого технологиях CLIP и BLIP. В соответствии с процессом JEST создается меньшая модель ИИ, которая оценивает и сортирует данные из самых качественных источников. Затем формируются "пакеты" данных наиболее релевантные для заданной тематики, с помощью которых малая модель ИИ обучает большую модель. Это похоже на то, как школьный учитель подбирает самые лучшие источники для обучения детей и составляет комплексную учебную программу, которая охватит все важные аспекты какой-то одной тематики. То есть JEST смотрит на данные, которые в него загрузили — комплексно, а не по отдельности, когда нужно было проводить много итераций для того, чтобы усвоить какой-то один тезис. И именно за счет этого происходит ускорение обучения ИИ и снижение потребляемой энергии в 10 раз", — объяснил он.

По словам эксперта, это важная веха в развитии искусственного интеллекта, поскольку экологический вред от огромного количества оборудования в дата-центрах уже и так колоссальный.

"Например, один запрос ChatGPT потребляет в 10 раз больше энергии, чем поисковый запрос Google. Потому что, чтобы выдать один корректный ответ на запрос, он сначала генерирует 10, и только потом выбирает среди них наилучший. Также средний "разговор" с ChatGPT на 20-30 вопросов "стоит" миру пол литра воды, которую дата-центры используют для охлаждения оборудования. Согласно отчету Goldman Sachs, к 2030 году дата-центры будут потреблять 3-4% всего электричества на планете. А в некоторых странах, например, в США этот показатель составит 8%", — рассказал специалист.

Жук отметил, что среди общего количества потребляемой энергии дата-центров, 20% приходится именно на работу ИИ. Причем если оставить в стороне экологический ущерб от производства чипов и цепочек поставок, аналитики различных компаний считают, что к 2028 году потребление ИИ-вычислений достигнет 13,5-20 гигаватт, а это больше, чем потребление энергии целой Исландии.

"А в 2023 году крупнейшие технологические компании Google и Microsoft потребили по 24 ТВт*ч электроэнергии каждая, что превышает энергопотребление более чем 100 стран", — подчеркнул эксперт.

Компании-гиганты озабочены такими показателями, поэтому бросают свои усилия на применение возобновляемой энергии в работе своих дата-центров. Google пошел еще дальше и поставил себе амбициозную цель — к 2030 году полностью перейти на "безуглеродную энергию" на всех своих предприятиях. Также сейчас набирают популярность "подводные дата-центры", когда оборудование погружается в прибрежные воды различных стран.

"Это позволяет существенно экономить энергию на охлаждении оборудования и сокращать издержки при его установке – как ни странно, но за земле это сделать сложнее и дороже. Эксперименты с "подводными дата-центрами" уже ставит Microsoft, а также появились предположения, что Amazon, Google и Facebook проводят собственные исследования по переносу своих дата-центров под воду", — подчеркнул он.

В связи со стремлением крупнейших технологических компаний минимизировать вред окружающей среде, новый метод обучения ИИ JEST — это еще один большой шаг к снижению потребления энергии, связанной со стремительным развитием искусственного интеллекта во всем мире.

"Вполне вероятно, что на горизонте полугода JEST будет активно применяться в Кремниевой долине, а также китайскими технологическими компаниями для ускорения разработки своих крупных ИИ-моделей. Однако несмотря на то, что технология значительно экономит энергию на этапе обучения ИИ, отрасли еще предстоит решить самую главную "экологическую" проблему — выдавать ИИ-ответы без создания десятков потенциальных ответов методом подбора и последующего выбора лучшего ответа под каждый запрос. Потому что именно на этот этап приходится 85% энергопотребления ИИ в центрах обработки данных", — резюмировал он.

 

Читайте на 123ru.net