Yahoo открыл модель машинного обучения для выявления неприличных изображений

Компания Yahoo объявила об открытии модели и кода для выявления изображений неприличного содержания с использованием методов глубинного машинного обучения. Представленные наработки позволяют идентифицировать изображения категории NSFW, которые неудобно смотреть в присутствии других людей (в текущем виде модель натренирована на выявление порнографии). Готовая модель для классификации подобных материалов опубликована под лицензией BSD и опробована в использовании с открытыми фреймворками машинного обучения Caffe и CaffeOnSpark.

На основании проверки система присваивает изображению вес в диапазоне от 0 до 1, который оценивает вероятность порнографического содержания. Значения менее 0.2 указывают на то, что с высокой долей вероятности изображение не содержит неприличных элементов. Вес больше 0.8 сигнализирует о проблемном содержании. В зависимости от критериев допустимости контента разработчики фильтров могут выбрать приемлемый для себя уровень блокировки. Для увеличения качества и точности блокировки возможно проведение тонкой настройки модели для определёного вида NSFW-контента.

0_1475299056.jpg

Тем временем, компании Facebook, Google, Amazon, IBM и Microsoft создали некоммерческую организацию Partnership on AI, в рамках которой намерены совместно исследовать и развивать технологии, связанные с искусственным интеллектом, машинным обучением и распознаванием естественного языка. Partnership on AI также будет выступать площадкой для координации работы между компаниями, обмена информации и обсуждения вопросов, связанных с искусственным интеллектом. Наработки партнёрства и результаты совместных исследований планируется публиковать под стандартными открытыми лицензиями.

©  OpenNet