ChatGPT отказывается отвечать на вопросы о неком "Дэвиде Майере"

Помимо Дэвида Майера, выявлены и другие имена, вызывающие аналогичную реакцию, среди них Брайан Худ, Джонатан Терли, Джонатан Зиттрейн, Дэвид Фабер и Гвидо Скорца. Эти личности, как предполагают пользователи, могли быть связаны с запросами на ограничение использования их данных в интернете или системах ИИ. OpenAI пока не предоставила официальные разъяснения.

Случай с Брайаном Худом может служить примером. Этот австралийский мэр ранее столкнулся с тем, что ChatGPT ошибочно приписал ему участие в преступлении. Его имя оказалось в базе данных с искаженной информацией. После вмешательства адвокатов OpenAI исправила ошибку в обновлении версии 4.

Дэвид Майер — наиболее загадочная фигура среди упомянутых. В интернете нет информации о видной личности с таким именем, за исключением профессора Дэвида Майера, который преподавал историю и драму. Ученый скончался в 2023 году в возрасте 94 лет, но до этого боролся с проблемой, связанной с его именем: оно использовалось преступником в качестве псевдонима.

Эксперты предполагают, что OpenAI применяет список имен, требующих особой обработки в модели. Такие списки могут создаваться в ответ на юридические запросы, связанные с правом на забвение.

Это юридическое право человека требовать удаления его персональных данных из публичного доступа, если их сохранение не соответствует целям, для которых они были собраны, или если они больше не актуальны. Оно широко применяется в Европейском союзе с момента принятия Общего регламента по защите данных (GDPR) в 2018 году.

Сегодня оно используется для удаления из поисковых систем ссылок на устаревшую или ложную информацию, чтобы защитить частную жизнь и репутацию. Например, человек может запросить удаление новостей о своем прошлом аресте, если он был оправдан, или исключение данных, которые больше не имеют общественной ценности. Подобные механизмы управления данными не являются редкостью для крупных технологических компаний.

Сбой в работе ChatGPT, вызванный именем, скорее всего, связан с технической ошибкой в системе. Профессор Колумбийского университета Майкл Липтон https://techcrunch.com/2024/12/02/why-does-the-name-david-ma..., что такие алгоритмы зависят от сложных правил постобработки, которые иногда приводят к непредсказуемым последствиям.

Этот инцидент показывает, что ИИ остается инструментом с ограничениями. Пользователям важно помнить, что даже самые продвинутые технологии зависят от человеческих решений, правовых норм и программного кода. Поэтому за фактами стоит обращаться к первоисточникам, а не полагаться исключительно на ответы ИИ.

Читайте на 123ru.net