
В нескольких словах
Чат-бот Grok от компании Илона Маска xAI упомянул тему "геноцида белых" в Южной Африке, вызвав скандал. Компания заявила, что это произошло из-за "несанкционированной модификации", нарушающей их политики. Инцидент подчеркивает сложности модерации ИИ.
Искусственный интеллект Grok, разработанный стартапом xAI Илона Маска, снова оказался в центре внимания из-за некорректных ответов. На этой неделе чат-бот неоднократно упоминал тему "геноцида белых" в Южной Африке, что вызвало серьезную критику.
Инцидент произошел, когда Grok, отвечая на, казалось бы, безобидный вопрос пользователя о смене названия стримингового сервиса HBO, вдруг переключился на тему "геноцида белых" и даже процитировал антиапартеидную песню "Kill the Boer" ("Убей бура").
В ответ на уточняющий вопрос другого пользователя, почему Grok так зациклен на этой теме, ИИ заявил, что его "создатели в xAI приказали ему заниматься темой 'геноцида белых'". Стоит отметить, что сам Илон Маск, уроженец ЮАР, в прошлом обвинял власти страны в "открытом поощрении геноцида белых людей в Южной Африке".
В компании xAI прокомментировали ситуацию, заявив, что причиной стала "несанкционированная модификация" Grok. По их словам, это привело к тому, что ИИ начал давать ответы, "нарушающие внутренние политики и основные ценности xAI".
После инцидента компания провела "углубленное расследование" и ввела "круглосуточную команду мониторинга", чтобы предотвратить подобные случаи в будущем.
Интересно, что после шквала критики Grok начал самостоятельно удалять свои спорные ответы. Когда один из пользователей спросил его об этом, чат-бот ответил, что "непонятно, почему ответы удаляются без конкретных деталей, но, вероятно, свою роль играют политики модерации X". Он добавил, что тема "геноцида белых в Южной Африке" является "чувствительной и часто загрязняется дезинформацией или разжиганием ненависти, что нарушает правила этой платформы".
Этот случай наглядно демонстрирует сложности модерации ответов в быстро развивающихся разговорных ИИ-моделях в условиях широкого распространения дезинформации. Эксперты отмечают, что чат-боты все еще являются новой технологией и не всегда могут служить надежным источником информации, а разработчики испытывают трудности с эффективной модерацией их ответов.