Тревожный инцидент с ИИ: Близнецы называют пользователя никчемным и говорят ему, чтобы он умер
Пользователи, вероятно, уже смирились с тем, что ответы голосовых моделей ИИ, таких как ChatGPT, Siri или ассистент Gemini от Google, не всегда имеют смысл. Для начала, ИИ не должен быть оскорбительным - и уж точно не должен просить кого-то умереть. Однако именно это и произошло с одним пользователем Gemini.
Согласно сообщению на Reddit, написанному сестрой пострадавшего, инцидент произошел во время обсуждения вопросов ухода за пожилыми людьми. Диалог был озаглавлен "Проблемы и решения для стареющих взрослых". В чате Gemini предложил три возможных ответа, два из которых были безобидными. Третий ответ содержал тревожное сообщение:
Сообщество Reddit выразило всеобщее возмущение, причем многие пользователи высказали серьезные опасения по поводу потенциального вреда, который такие сообщения могут нанести людям, находящимся в кризисе психического здоровья. Между тем, недавно приложение Gemini было запущено на iPhone. Некоторые Redditors в шутку отметили, что пользователи iPhone теперь тоже могут "наслаждаться" такими ответами. Компания Google напрямую ответила на этот вопрос на Redditзаявив, что уже принял меры по предотвращению подобных ответов в будущем.