Новости по-русски

Сэм Альтман: "Генеративный ИИ изменит общество, и мне немного страшно"

«Мы должны быть осторожны, - сказал Сэм Альтман в https://abcnews.go.com/technology/openai-ceo-sam-altman-ai-r... ABC News. – Я думаю, люди должны быть довольны, что мы немного напуганы».

В разговоре, посвященном недавнему https://hightech.plus/2023/03/15/openai-predstavila-gpt-4---... нового поколения языковой модели GPT-4 Альтман в очередной раз подтвердил свою https://hightech.plus/2023/02/21/glava-openai-pugayushie-ii-... относительно регулирования ИИ: оно необходимо, как и участие общества. Обратная связь пользователей ChatGPT помогает ограничить потенциальные негативные последствия. И добавил, что находится в «постоянном контакте» с правительством.

ChatGPT, появившийся в открытом доступе несколько месяцев назад, уже считается самым быстро растущим приложением в истории – количество активных пользователей перевалило за 100 миллионов. Для сравнения, Инстаграму потребовалось на этой три года, ТикТоку – девять месяцев.

Признавая успех своего продукта, Альтман, тем не менее, видит и определенные риски, связанные с его внедрением. «В особенности меня тревожит, что эти модели могут быть использованы для масштабной дезинформации, - сказал он. – Теперь, когда они научились лучше писать компьютерный код, их могут использовать для активных кибератак». Сами по себе они https://hightech.plus/2023/03/16/soosnovatel-openai-generati... , но могут стать мощным инструментом в руках людей.

«Другие люди могут не придерживаться таких ограничений, которые накладываем на себя мы, - добавил он. – Общество, я полагаю, обладает ограниченным запасом времени, чтобы понять, как на это реагировать, как это регулировать, как это использовать».

Возможность дезинформировать общество Альтман считает главной опасностью генеративных моделей. «То, о чем я пытаюсь предостеречь людей больше всего, я зову «проблемой галлюцинаций». Модель с уверенностью утверждает нечто, что считает фактом, хотя она выдумала все с начала и до конца», - сказал он.

Эта проблема заложена в природе модели: она создавалась для написания художественных текстов и использует принципы дедуктивного мышления, а не факты. GPT предсказывает следующее слово на основании огромного массива прочитанных предложений, где это слово используется. Со временем, как надеется Альтман и его коллеги, модель разовьет в себе способность к рассуждению и научится использовать интернет для того, чтобы отделить факты от вымысла. Например, GPT-4 на 40% чаще дает точную информацию, чем предыдущая версия. Однако и ее пока не следует использовать в качестве основного источника информации.

Еще одна опасность, исходящая от этой технологии – рост безработицы. По мнению Альтмана, в такая ситуация вполне вероятно возникнет, причем в самом ближайшем будущем. «Я думаю, через пару поколений человечество докажет, что способно отлично адаптироваться к крупным технологическим сдвигам. Но если такое происходит менее чем за десять лет, некоторые из таких сдвигов… Это меня тревожит больше всего», - заявил глава OpenAI.

Впрочем, Сэм Альтман убежден, что «творческий потенциал человечества безграничен, и мы найдем новую работу. Мы найдем, чем заняться».

 

Читайте на 123ru.net