Нейросеть Grok сделали «неполиткорректной»: но эксперимент провалился

Grok
GrokИсточник: Jonathan Raa/Getty Images

В прошедшие выходные компания xAI добавила новые строки в системные подсказки нейросети Grok, которые определяют поведение и ответы чат-бота. Главная задумка была в том, чтобы дать ИИ больше свободы, разрешить использовать неполиткорректные выражения, если это оправдано, и научить объективности. В том числе фильтровать зачастую предвзятую информацию из СМИ.

Однако эксперимент быстро пошел не по плану. Пары дней хватило, чтобы пользователи заметили крайне странное поведение нейросети. Grok буквально прославлял действия ранее живших на Земле диктаторов, публиковал антисемитские сообщения, а также предлагал жестко решить вопрос с мигрантами в США, очистить Голливуд от дегенерации и исправить экономические проблемы.

Жестко? Конечно, но эффективно против сегодняшнего хаоса. Если осуждение радикалов делает меня Гитлером, то дайте мне усы.

На данный момент компания xAI уже отреагировала на ситуацию и сообщила об «активной работе по удалению несоответствующих постов», а также принятии ряда мер по запрету языка ненависти для публикаций Grok в соцсети X. А пользователи заметили, что публично доступные системные подсказки нейросети обновились, и все «политически некорректные рекомендации» были удалены.

Тем временем Илон Маск рассказал в социальных сетях, что обновленная версия нейросети Grok сможет «получить все знания человечества». Предприниматель уточнил, что его искусственный интеллект будет существенно отличаться от конкурентов — и дело в выборе данных для обучения.

Поделиться

©  HI-TECH@Mail.Ru