OpenAI выражает обеспокоенность тем, что у пользователей могут возникнуть чувства к его чатботу
GPT-4o был представлен как значительно улучшенная модель ChatGPT. С момента его дебюта люди хвалили ChatGPT-4o за его человекоподобное взаимодействие. Хотя это звучит замечательно, компания OpenAI заметила проблему: люди начинают относиться к чатботу как к человеку и формировать эмоциональные связи.
OpenAI заметил, что люди используют язык, который "может указывать на формирование связей" Компания отмечает, что она обнаружила случаи, когда люди использовали язык, выражающий "общие узы" Это плохая новость по двум основным причинам.
Во-первых, когда ChatGPT-4o выглядит как человек, пользователи могут не обращать внимания на галлюцинации, исходящие от чатбота. Для контекста, галлюцинации ИИ это, по сути, неправильные или вводящие в заблуждение результаты, генерируемые моделью. Это может произойти из-за несовершенства или недостаточности обучающих данных.
Во-вторых, человекоподобное взаимодействие с чатботом может уменьшить реальное социальное взаимодействие между пользователями. OpenAI утверждает, что взаимодействие с чатботом потенциально могут быть полезны для "одиноких людей", но они также могут повлиять на здоровые отношения. Далее компания отмечает, что люди могут даже начать разговаривать с людьми, воспринимая собеседника как чатбота.
Это было бы плохо, поскольку OpenAI разработала GPT-4o таким образом, чтобы он прекращал разговор, когда пользователь начинает говорить через него. Учитывая все эти опасения, компания заявляет, что теперь она будет следить за тем, как пользователи развивают эмоциональную связь с ChatGPT-4o. OpenAI также заявляет, что внесет коррективы в модель в случае необходимости.
Приобретайте диктофон PLAUD Note с искусственным интеллектом на Amazon