Калькулятор обреченности: не стоит спрашивать ИИ о жизни и смерти
Иногда искусственный интеллект действительно может стать вопросом жизни и смерти.
В прошлом году один мужчина из Бельгии свел счеты с жизнью после того, как его якобы подтолкнул к этому чат-бот. В Нидерландах ведутся дебаты о том, следует ли разрешить использование искусственного интеллекта для решения вопросов, связанных эвтаназией. В других странах исследователи используют искусственный интеллект для прогнозов вероятности, переживут ли онкологические больные на поздних стадиях следующие 30 дней.
Я на собственном опыте убедилась, что склонность задавать ИИ вопросы, имеющие жизненно важное значение, действительно существует. Узнав, что я занимаюсь компьютерными науками, профессор университета, в котором я была в командировке, сразу же спросила меня о жизни и смерти. Эта женщина не имела проблем с психическим здоровьем. Просто она боялась болезни Альцгеймера с возрастом и думала о модели искусственного интеллекта, способной определить время, когда когнитивные нарушения лишат ее способности принимать ответственные решения.
К счастью, я не часто сталкиваюсь с подобными вопросами. Но я встречаю немало людей, которые надеются, что новые технологии устранят экзистенциальную неопределенность. В начале года датские исследователи создали алгоритм, получивший название «калькулятор обреченности», который с точностью более 78% предсказывает вероятность смерти человека в течение четырех лет. Через несколько недель в сети появилось несколько ботов-подражателей, которые предсказывали даты смерти пользователей.
Идея о том, что продвинутый компьютер может сказать нам, когда мы умрем, не нова, вспомним научно-фантастические романы или фильмы ужасов. Однако именно сейчас, в эпоху ChatGPT, такие идеи кажутся более реалистичными, чем когда-либо. Впрочем, как ученый и специалист в области компьютерных технологий, я по-прежнему настроена скептически. Реальность такова, что, хотя ИИ способен на многое, не стоит путать его с хрустальным шаром для предсказаний.
Алгоритмические прогнозы, как и актуарные таблицы, полезны в совокупности: действительно, они могут подсказать, сколько людей умрет в обществе за определенный период времени. Но они не могут дать окончательного ответа на вопрос о продолжительности жизни каждого человека. Будущее не предопределено: здорового человека завтра может сбить автобус, а курильщик, который никогда не занимался спортом, может дожить до 100 лет.
Даже если бы модели ИИ могли делать значимые индивидуальные прогнозы, знания о здоровье постоянно меняются. Когда-то никто не знал, что курение вызывает рак. После того как мы выяснили это, прогнозы относительно здоровья кардинально изменились. Точно так же новые методы лечения могут сделать прежние данные устаревшими: по данным Фонда борьбы с муковисцидозом, средняя продолжительность жизни людей с этим заболеванием увеличилась более чем на 15 лет с 2014 года, а новые лекарства и генная терапия обещают еще большие успехи в будущем.
Если вам нужна определенность, это может показаться разочарованием. Однако чем больше я изучаю, как люди принимают решения с помощью данных, тем больше убеждаюсь, что неопределенность — это неплохо. Люди хотят ясности, но моя работа показывает, что человек может чувствовать себя менее уверенно и принимать худшие решения, когда ему дают больше информации, которой можно руководствоваться при выборе. Дурные предзнаменования вызывают чувство беспомощности, в то время как неопределенность (как известно каждому, кто играет в лотерею) может дать нам право мечтать о светлом будущем (и стремиться к нему).
Инструменты искусственного интеллекта, конечно, могут быть полезны в ситуациях с низкими ставками. Алгоритм рекомендаций — отличный способ найти новые сериалы для просмотра, а если он выберет неудачный, то всегда можно посмотреть что-то другое. Есть и более серьезные ситуации, в которых ИИ тоже полезен: например, бортовой компьютер истребителя может вмешаться, чтобы избежать столкновения, тогда прогнозирование ИИ может спасти жизнь.
Проблемы начинаются, когда мы видим, что инструменты ИИ заменяют, а не дополняют наши способности. Хотя ИИ хорошо справляется с выявлением закономерностей в данных, он не может заменить человеческое суждение. (Алгоритмы приложений для знакомств, например, печально известны как ужасные советчики по совместимости). Кроме того, алгоритмы склонны уверенно фабриковать ответы, а не признавать неопределенность, а также могут проявлять тревожные предубеждения, основанные на наборах данных, используемых для их обучения.
Какой вывод следует сделать? К лучшему или худшему, но мы должны научиться жить с неопределенностью в жизни, а возможно, и радоваться ей. Как врачи учатся терпеть неопределенность, чтобы заботиться о пациентах, так и нам приходится принимать важные решения, не зная точно, к чему они приведут.
Возможно, это неприятно. Но это именно то, что делает нас людьми. Как я предупреждала женщину, боявшуюся болезни Альцгеймера, искусственный интеллект не в состоянии оценить ценность одного прожитого мгновения. Проблемы, которые возникают в процессе жизни человека, — это не то, что нужно отдать на откуп бесчувственной модели.
Поэт Райнер Мария Рильке однажды сказал молодому писателю, что мы не должны пытаться избавиться от неопределенности. Нужно научиться любить сами вопросы. Трудно понять, сколько мы проживем, долго ли продлятся ли отношения или что ждет нас в жизни. Но искусственный интеллект не может ответить на эти вопросы за нас, и не стоит просить его об этом. Вместо этого давайте постараемся ценить тот факт, что самые трудные и значимые решения в жизни остаются за нами, и только за нами.
Сообщение Калькулятор обреченности: не стоит спрашивать ИИ о жизни и смерти появились сначала на Идеономика – Умные о главном.