В России нейросеть научили следить за вовлеченностью собеседника на удаленке
Ученые Центра искусственного интеллекта НИУ ВШЭ вместе с коллегами из Сбера разработали программу, которая позволяет оценить вовлеченность участников любого онлайн-мероприятия. Система анализирует видео лица слушателя и определяет, насколько внимательно он воспринимает информацию.
Авторы проекта подчеркивают, что модель использует персонифицированный подход, то есть учитывает особенности мимики и мельчайших движений, характерных для каждого участника онлайн-встречи. Чтобы «обучиться», система должна получить несколько роликов продолжительностью до 30 секунд, где видно лицо человека. После этого она может определить, когда человек заинтересован в материале, а когда скучает.
Разработчики считают, что эта модель в первую очередь будет полезна компаниям, которые занимаются онлайн-обучением, а также конкретным преподавателям, ведущим дистанционные занятия. Анализируя вовлеченность аудитории, они могут скорректировать подачу и сделать обучение более эффективным.
Создатели программы отмечают, что точность методики достигает 90%, тогда как аналоги, которые не используют персонифицированный подход, показывают результат в диапазоне от 60% до 80%. Достичь столь высокого показателя удалось благодаря использованию специальных нейросетей. Кроме того, данные, которые подвергаются анализу, не отправляются на удаленный сервер, а могут быть обработаны прямо на устройстве слушателя. Это обеспечивает защиту персональных сведений.
Ранее мы рассказывали, что российский чат-бот GigaChat научился распознавать фотографии.