OpenAI будет тщательнее следить за безопасностью своих систем искусственного интеллекта

Совет директоров сможет блокировать выход не самых безопасных для общества разработок.

Принято считать, что к недавним потрясениям в руководстве OpenAI с изгнанием и последовавшим скорым возвращением генерального директора Сэма Альтмана (Sam Altman) привели, помимо прочего, и противоречия в отношении баланса безопасности предлагаемых клиентам языковых моделей и скорости их появления на рынке. По информации Bloomberg, утверждённая недавно схема выпуска новых языковых моделей внутри OpenAI призвана повысить их безопасность для общества.

open_AI_02.jpg

Источник изображения: Getty Images

Специальная экспертная группа будет ежемесячно оценивать опасность очередных языковых моделей OpenAI, давая рекомендации руководству и совету директоров и присваивая всем новым разработкам одну из четырёх степеней риска: низкую, среднюю, высокую или критическую. Только получившие оценку типа «низкая» или «средняя» языковые модели будут выпускаться на рынок. Даже если генеральный директор компании пожелает пропустить более рискованную модель, у совета директоров будет право наложить вето на такое решение. Представители OpenAI считают, что подобная практика внутренней экспертизы разработок была бы полезна всем участникам данного сегмента рынка, поскольку позволяет уберечь человечество не только от крупного финансового ущерба, но и от вреда здоровью людей и даже человеческих жертв.

©  overclockers.ru