Дорогущие ИИ-чипы страдают от быстрого износа — GPU от AMD и Nvidia выдерживают всего 1–3 года
Пока стремящиеся активно развивать сферу искусственного интеллекта разработчики озабочены преимущественно нехваткой компонентов, некоторые из них высказываются на тему ограниченности эксплуатационного ресурса тех самых дорогих и дефицитных чипов. По расчётам специалистов Alphabet, серверные GPU при уровне загрузки 70 % живут от одного до двух лет, в крайнем случае — три.
На это мнение ссылается Tech Fund, поясняя, что высказывание принадлежит некоему высокопоставленному разработчику систем генеративного искусственного интеллекта Alphabet, который знаком с их спецификой эксплуатации. Даже если подходить к анализу проблемы с обывательской точки зрения, логика в таких заявлениях есть. Выделяя до 700 Вт, графические процессоры Nvidia, AMD и любого другого производителя для современных ускорителей вычислений имеют довольно скромную площадь кристалла, поэтому постоянное воздействие высоких температур способно достаточно быстро приводить к их физическому износу.
Продлить срок службы ускорителей вычислений можно, снизив их степень загрузки от типичных 60 или 70 %, но подобные меры натыкаются на экономические соображения разработчиков систем искусственного интеллекта. Недешёвые ускорители в условиях бурного развития отрасли должны максимально быстро приносить финансовую отдачу, а если недогружать их работой, то период амортизации затянется, а это уже не понравится инвесторам.
Израильские специалисты недавно предположили, что к концу десятилетия отрасль ИИ будет ежегодно генерировать до 5 млн тонн электронных отходов. Не все из них могут быть переработаны для повторного использования, поэтому проблема воздействия отрасли искусственного интеллекта на окружающую среду становится острее. Соответственно, быстрая выработка ресурса серверных GPU тоже усугубит ситуацию с утилизацией отходов.