Страхи перед восстанием питаемых научной фантастикой машин оказались преувеличенными, по крайней мере на данный момент. Новое исследование , проведенное учеными из Технического университета Дармштадта и Университета Бата, показало, что современные большие языковые модели (LLM), такие как ChatGPT , не способны к самостоятельным действиям и выходу из-под контроля.
Ограничение современного ИИ
Хотя ИИ может приводить к негативным последствиям, таким как распространение фейковых новостей и цифровое загрязнение, исследование показало, что эти модели слишком ограничены в своих алгоритмах и не способны учиться без вмешательства человека.
"Наше исследование демонстрирует, что страх перед нежелательными и непредсказуемыми действиями моделей не обоснован", - отметил Хариш Тайяр Мадабуши, один из авторов исследования.
Человеческий фактор – главная угроза
Исследование подтвердило, что пока модели действуют в рамках заданного программирования, нет оснований для опасений. Однако ученые отмечают, что человеческий фактор может представлять большую угрозу, учитывая рост использования ИИ и связанных с этим проблем.
"Нам нужно сосредоточиться на рисках, которые могут возникнуть из-за использования этих технологий, а не на их потенциальных угрозах как самостоятельные системы", - подчеркнула Ирина Гуревич, руководитель исследования.