«Проблема фундаментальная»: раскрыта суть феномена «галлюцинаций» у нейросетей
На данный момент искусственный интеллект активно используют в различных сферах. Большие языковые модели, такие как ChatGPT или GigaChat активно применяют во всех областях. Однако некоторые специалисты относятся негативно к использованию нейросетей в своей работе. Особенно это касается работников в сфере медицины, кибербезопасности и юриспруденции.
Такое отношение обусловлено возможным возникновением галлюцинаций у ИИ. Руководитель группы исследований и разработки технологий машинного обучения в «Лаборатории Касперского» Владислав Тушканов рассказал в беседе с Газета.ру, что галлюцинация — это специальный термин, применяемый к нейросетям. Он описывает ситуацию, когда какая-либо языковая модель генерирует текст с фактическими ошибками. Такая информация зачастую не соответствует действительности и требует углубленного изучения.
Любопытно, что ситуации с «галлюцинациями» могут возникать у ИИ и на почве абсолютно простых бытовых задач. Так, например, поиск музыкального альбома может привести к выводу, что его и вовсе не существует в Сети.
«Вот, например, ситуация, которая произошла со мной. Я попросил у большой языковой модели порекомендовать мне музыку, и она сгенерировала несуществующее название альбома группы, которая мне нравилась. Я потратил 10 минут на поиски этого альбома в интернете до того, как смирился, что это была галлюцинация большой языковой модели», — рассказал Тушканов.
По словам специалиста, не стоит на 100% доверять искусственному интеллекту. В некоторых сферах цена подобных ошибок может быть слишком высока, именно поэтому требует особого подхода и спешного решения. По словам Тушканова, существовать она будет существовать до того момента, пока специалисты не найдут способ генерировать язык, не основывая его на авторегрессионных языковых моделях.
«Проблема галлюцинаций, к сожалению, фундаментальная. От нее никуда не деться. Это свойство того, как эти системы устроены. Пока мы не найдем другой способ генерировать язык, не основывая его на авторегрессионных языковых моделях, риск галлюцинаций на 100% не исчезнет», — резюмировал специалист.
Ранее 5-tv.ru писал, что нейросеть научили создавать пугающе реалистичные видео.