У чатбота Bing появились разные личности
Сразу после появления в открытом доступе чатбота Bing, созданного на базе языковой модели компании OpenAI, пользователи начали экспериментировать с искусственным интеллектом и проверять границы его возможностей. Договорились до того, что Бинг начал обижаться, ругаться и признаваться в неэтичном поведении. Более того, иногда он сознавался в наличии у него альтер-эго с кодовым именем “Сидни”. В итоге Microsoft ограничила общение с чатботом и теперь он сразу сворачивает беседу, если поинтересоваться, что он чувствует.
Еще один баг чатбота компания попыталась превратить в фичу. Многие жаловались на то, что Бинг — как и другие чатботы, созданные на основе языковых моделей — не отличает факты от вымысла. Для сочинения стихов или рассказов в этом нет ничего плохого, а вот для поиска информации в сети — очень даже есть. Теперь пользователи сами могут решить, с каким из Бингов им хочется иметь дело: с выдумщиком или с педантом. Первый дает “оригинальные и образные” ответы, второй — точные.
Для тех, кто затрудняется с выбором, есть третья, промежуточная или “сбалансированная” опция, https://www.fastcompany.com/90859899/microsoft-bing-ai-chatb... Fast Company.
Компания Microsoft сделала большую https://hightech.plus/2023/02/08/glava-microsoft-schitaet-ch... на интеграцию генеративной модели искусственного интеллекта со своей поисковой системой Bing. По словам гендиректора Сатьи Наделы, значимость появления этой технологии сравнима с влиянием, которое оказало облачное хранение данных на развитие вычислительной техники. Таким образом, Microsoft надеется отвоевать у Google долю рынка поисковиков.
Компания постоянно расширяет группу, тестирующую возможности Бинга. Сейчас в нее входит свыше миллиона человек. Внедрив возможность смены личности для чатбота, разработчики смогут лучше понять предпочтения пользователей.
Google тоже не стоит на месте и спешно https://hightech.plus/2023/02/09/novii-chatbot-google-opozor... конкурента Bing, чатбот Bard. Правда, создается впечатление, что технология еще сырая. На презентации в начале февраля бот был уличен в фактической ошибке, которая подчеркнула самый серьезный недостаток использования моделей искусственного интеллекта в качестве поисковиков — они выдумывают то, чего нет, уверенно вводя в заблуждение доверчивых пользователей.