В НИУ ВШЭ разработали новый метод сжатия больших языковых моделей

В Институте ИИиЦН ФКН НИУ ВШЭ разработали новый метод сжатия больших языковых моделей, таких как GPT и LLaMA, который позволяет уменьшить их объем на 25–36% без дополнительного обучения и значительной потери в точности.

Читайте на сайте