Anthropic начала советоваться с религиозными лидерами, чтобы «воспитать» мораль для Claude

Компания Anthropic расширяет необычный проект по поиску моральных ориентиров для своего чат-бота Claude. После серии закрытых встреч с христианскими лидерами представители компании вместе с сотрудниками OpenAI приняли участие в межрелигиозном круглом столе Faith-AI Covenant в Нью-Йорке, где обсуждали этику искусственного интеллекта с представителями сразу нескольких мировых религий.

Это продолжение более ранней инициативы Anthropic. В апреле компания организовала серию встреч и ужинов с 15 христианскими лидерами, чтобы обсудить «духовное развитие Claude» и получить советы по вопросам морали и поведения ИИ-систем.

Anthropic официально не объясняет, как именно подобные консультации будут использоваться при разработке Claude. Однако сама компания уже давно строит модель вокруг идеи так называемой «конституции» — набора этических принципов, которыми должна руководствоваться модель.

Проблема в том, что создать универсальную систему морали оказалось намного сложнее, чем ожидали разработчики генеративного ИИ. Внутри самой Anthropic признают: они опасаются, что попытки встроить в модель «достаточно хорошие» моральные ценности могут провалиться.

Именно поэтому компания начала искать внешние источники этических ориентиров — в том числе среди религиозных организаций.

Иллюстрация: Nano Banana

По данным Associated Press, встречи координирует швейцарская неправительственная организация Interfaith Alliance for Safer Communities. В будущем подобные мероприятия планируют провести в Китае, Кении и ОАЭ.

К обсуждениям также подключилась Джоанна Шилдс (Joanna Shields) — британский политик и бывший технологический руководитель, известная работой в сфере цифровой безопасности.

Пока что неясно, насколько подобные встречи реально влияют на поведение Claude. Компании не публиковали конкретных рекомендаций, полученных от религиозных лидеров, и не сообщали о прямом внедрении религиозных принципов в модель.

Но сама тенденция показывает, насколько ИИ-индустрия столкнулась с фундаментальной проблемой: современные языковые модели принимают решения в ситуациях, для которых невозможно заранее прописать жесткие правила.

Речь идёт не только о запретах на опасные ответы или токсичный контент. Разработчики пытаются научить модели действовать в морально неоднозначных ситуациях — например, когда разные ценности вступают в конфликт, а последствия ошибки могут быть серьезными.

Глава некоммерческой организации Humane Intelligence Румман Чоудхури (Rumman Chowdhury) считает, что технологические компании постепенно осознают невозможность создания универсальной этики. По ее словам, Кремниевая долина долгое время исходила из наивной идеи, что можно сформулировать единый набор моральных принципов для всех людей. «Теперь разработчики начинают понимать, что это практически недостижимо, и потому обращаются к религии как к одному из способов работы с серой зоной этических решений».

При этом Anthropic, судя по всему, не пытается превратить Claude в носителя конкретной религиозной доктрины. Скорее компания ищет общие моральные закономерности, которые могли бы помочь модели вести себя более предсказуемо и безопасно.

Но даже внутри индустрии остаётся открытым главный вопрос: способен ли искусственный интеллект вообще «усвоить» мораль — или же все эти попытки лишь создают иллюзию этического поведения у систем, которые на самом деле не понимают ни ценностей, ни последствий собственных решений.

©  iXBT