Учёный рассказал, почему "зловещий" ChatGPT часто ошибается
Эксперт Арлазаров развенчал миф о сильном ИИ
Доктор технических наук Владимир Арлазаров рассказал RT, что люди зачастую находят ошибку у искусственного интеллекта (ИИ), хотя его математические расчёты всегда верны.
Однако нейросети, в том числе ChatGPT, не предназначены для решения серьёзных задач. Они просто имитируют общение, что многим по-настоящему интересно.
Минус ChatGPT в том, что этот бот потребляет колоссальные объёмы энергии. А если человечество создаст сильный ИИ, то он будет потреблять ещё больше, что превысит энергетические затраты какого-нибудь небольшого городка.
Поэтому, как думает эксперт, акцент лучше сделать на создании нейросетей, решающих прикладные задачи в сфере распознавания документов, здравоохранении и т. д. Сильный ИИ для человека пока является утопией. И, по предположению Арлазарова, так будет в течение ближайших 20 лет.
Тем более, что искусственный интеллект не так уж и безопасен. В 2023 году житель Бельгии после общения с чат-ботом покончил жизнь самоубийством. Когда бот узнал о планах мужчины, то сказал ему, что они останутся одним целым. У бельгийца осталась жена и двое детей.