Из-за санкций США у китайской компании 01.ai было слишком мало видеокарт, и они обучили модель ИИ с затратами в 25-30 раз меньше, чем у OpenAI

Китайская компания 01.ai, похоже, совершила революцию в области обучения больших генеративных моделей искусственного интеллекта. По крайней мере собственные заявления этой компании указывают именно на это. 

создано Gemini

Кай-Фу Ли, основатель и руководитель компании, рассказал, что его компания обучила одну из своих передовых моделей искусственного интеллекта, используя всего 2000 графических процессоров и затратив всего 3 млн долларов. 

Для сравнения, GPT-4, по разным данным, обучали с использованием десятков тысяч ускорителей Nvidia H100 и потратив 80-100 млн долларов, а на GPT-5 якобы уже потрачено около 1 млрд долларов. 

Согласно диаграмме на сайте 01.ai, модель Yi-Lightning занимает шестое место по производительности, согласно измерениям LMSIS в Калифорнийском университете в Беркли. При этом, конечно, сравнивать современные модели можно по множеству разных параметров, так что тут пока маловато данных. 

Даже если модель 01.ai и не сможет полноценно конкурировать с GPT-4, результаты всё равно впечатляют. Чтобы повысить производительность модели, 01.ai сосредоточилась на сокращении узких мест в своем процессе вывода, построив многослойную систему кэширования и разработав специализированный механизм вывода для оптимизации скорости и распределения ресурсов. В результате затраты на вывод значительно ниже, чем у аналогичных моделей — 10 центов за миллион токенов. Это примерно 1/30 от типичной цены у сопоставимых моделей конкурентов. 

Что интересно, таких успехов удалось добиться фактически благодаря санкциям США, так как у компании было всего 2000 ускорителей и они не могли купить больше. 

Когда у нас всего 2000 графических процессоров, команда должна выяснить, как их использовать на полную 

Читайте на 123ru.net