Как подготовить PreLabeled-датасет при помощи CVAT, YOLO и FiftyOne

c13bf40ef485c958e84521988e2d223d.png

Представьте ситуацию: подходит к концу спринт, во время которого вы с командой планировали разметить десятки тысяч картинок для обучения новой нейросети (допустим, детектора). Откладывать задачи — не про вас! И вы обязались придумать способ как успеть в срок!

Сегодня я подробно расскажу:

  • как развернуть CVAT — популярный сервис для разметки данных;

  • как быстро и удобно предразметить датасет с помощью YOLO и FiftyOne;

  • как загрузить полученный датасет на CVAT для переразметки;

  • как выгрузить предразмеченный датасет обратно.

Развернем CVAT

Представим, что сервиса для разметки у вас нет, и вы хотите развернуть его у себя. Если у вас уже развернут CVAT, то можете сразу перейти к следующему разделу статьи. Для остальных я разберу как поднять CVAT локально.

В документации есть инструкции для установки CVAT на Windows, Mac OS и Ubuntu. В статье мы рассмотрим пример установки на Ubuntu 18.04.

Установим Docker:

sudo apt-get update
sudo apt-get --no-install-recommends install -y \\
  apt-transport-https \\
  ca-certificates \\
  curl \\
  gnupg-agent \\
  software-properties-common
curl -fsSL  | sudo apt-key add -
sudo add-apt-repository \\
  "deb [arch=amd64]  \\
  $(lsb_release -cs) \\
  stable"
sudo apt-get update
sudo apt-get --no-install-recommends install -y docker-ce docker-ce-cli containerd.io

Делаем так, чтобы Docker мог работать без root-прав. Для этого создадим docker-группу и добавим в нее своего пользователя:

sudo groupadd docker
sudo usermod -aG docker $USER

Не забудьте перелогиниться (log out and log back), чтобы изменения вступили в силу.

Ставим Docker Compose (1.19.0 или выше), который помогает управлять несколькими связанными между собой сервисами. Без него CVAT не сможет корректно работать, так как CVAT — это целый набор сервисов. Помимо фронтенда в нем есть еще Django-бэкенд, PostgreSQL  и Redis:

sudo apt-get --no-install-recommends install -y python3-pip
python3-setuptools
sudo python3 -m pip install setuptools docker-compose

Зависимости установили. Теперь клонируем репозиторий CVAT и переходим в него:

git clone 
cd cvat

Чтобы получить доступ к CVAT по сети, необходимо экспортировать переменную среды CVAT_HOST (при условии что вы хотите использовать любой другой домен, а не localhost, который используется по умолчанию):

export CVAT_HOST=your-ip-address

Запускаем наш сервис. Это займет какое-то время:

docker-compose up -d

Обратите внимание:

  • По умолчанию сервис будет доступен на порту 8080. Но этот порт может быть занят, в таком случае надо поменять порт.

  • При использовании sudo переменные окружения по умолчанию не экспортируются. Если вы выполните sudo docker-compose up -d, то по адресу your-ip-address:8080 не будет ничего, кроме 404.

Для первой проблемы находим в репо (папка cvat) файлик docker-compose.yml и меняем в нем строчку с указанием портов:

ports:
      - 8080:8080

например, на такие:

ports:
      - 8982:8080

Первые четыре цифры — порт на котором будет открываться CVAT. А вторые 4 — порт внутри Doker.

Теперь веб-интерфейс будет доступен по адресу: http://your-ip-address:8982/

Для решения второй проблемы можно экспортировать переменную CVAT_HOST внутри команды запуска сервиса:

sudo CVAT_HOST=your-ip-address docker-compose up -d

Также можно использовать флаг -E, чтобы экспортировать переменные окружения c sudo:

sudo -E docker-compose up -d

Сервис подняли. Теперь необходимо создать superuser«а. Потому что если вы просто зарегистрируетесь через интерфейс, у вас не будет прав на создание заданий. Командой ниже мы запускаем питоновский скрипт внутри докер контейнера для создания superuser:

docker exec -it cvat_server bash -ic 'python3 ~/manage.py createsuperuser'

Нас попросят ввести логин, пароль и почту. Имя по умолчанию — django:

f2ee6b3ea670778609c2cb7056be9dbc.png

После открываем интерфейс в браузере и вводим логин и пароль суперюзера:

05feba2b20e506d1b56a1efe2b6d0546.png

Ура, работает!

69c9088c49ddc403bd2d2d7046ddfc89.png

Все о том, как размечать в CVAT и даже больше, есть в этой замечательной статье. А если возникнут проблемы или вопросы, всегда можно написать в официальный чатик разработчиков CVAT.

Предразметим и почистим датасет с помощью YOLO и FiftyOne

Усложним задачу и представим, что данных у нас не было вовсе. В таком случае один из возможных вариантов — напарсить картинок из интернета. Для примера воспользуемся загрузчиком данных из поисковика Bing. Собрать полноценный датасет с ним вряд ли получится, но для примера подойдет.

Установим bing-image-downloader и FiftyOne (чуть ниже расскажу что это такое):

pip install bing-image-downloader
pip install fiftyone

Допустим, мы решаем задачу object detection и хотим собрать и разметить транспорт на шоссе. Для этого используем bing-image-downloader и скачаем 20 изображений по словосочетанию 'traffic_road':

from bing_image_downloader import downloader
image_class = 'traffic_road'
downloader.download(image_class, limit=20,  output_dir='dataset', adult_filter_off=True, force_replace=False, timeout=60, verbose=False)

После того, как мы получили наши изображения, отобразим данные с помощью FiftyOne.

FiftyOne — это инструмент, который поможет вам визуализировать данные, подсчитывать метрики, искать ошибки в датасете, извлекать срез данных с определенными классами и многое другое.

# С помощью FiftyOne создаем датасет из картинок и посмотрим на них
import fiftyone as fo
import os

cwd = os.getcwd()
DATA_PATH = f'{cwd}/dataset/{image_class}'

# Create a dataset from a directory of images
name = "car-dataset"
dataset = fo.Dataset.from_images_dir(
    images_dir=DATA_PATH,
    name=name,
    )
dataset.persistent = True

session = fo.launch_app(dataset)

Важный момент: чтобы иметь возможность скачать результаты разметки, необходимо сделать датасет «постоянным» с помощью dataset.persistent = True. Этот флаг заставит FiftyOne сохранять датасет в базе данных после завершения сеанса.

Так выглядят скачанные данные в интерфейсе FiftyOne:

76c938e682c9543dd9a1f94bb3db9458.png

Видно, что не все изображения содержат автомобили. Чтобы отобрать нужные изображения, содержащие нужные классы, предразметим данные с помощью YOLOv5. FiftyOne также предоставляет инструменты для очистки данных. Например, умеет удалять дубликаты и находить максимально уникальные изображения.

У проекта также есть целый список готовых туториалов, с которыми я советую познакомиться :)

Чтобы предразметить изображения, скачем нужную нам модель. В нашем случае это предобученная YOLOv5×6 на датасете COCO:

import torch
model = torch.hub.load('ultralytics/yolov5', 'yolov5x6')

Сразу можно указать GPU таким образом:

import torch
model = torch.hub.load('ultralytics/yolov5', 'yolov5x6', device=3)

Хотелось бы отметить что инференс можно запускать на нескольких GPU, получать результат в pandas.DataFrame, запускать инференс с TTA, а также настроить параметры инференса, например:

model.conf = 0.25  # NMS confidence threshold
classes = None  # = [0, 2, 5, 7] фильтрация для классов person,car,bus,truck.

Но воспользуемся функционалом fiftyone. Больше примеров использования тут.

Чтобы добавить результат инференса в датасет FiftyOne, необходимо создать объект DatasetView:

preds_view = dataset.view()

Или так, если вы хотите работать с частью датасета:

 preds_view = dataset.take(100)

Прогоняем наши данные через YOLOv5 и записываем результаты в FiftyOne:

from PIL import Image
from torchvision.transforms import functional as func

import fiftyone as fo

# Получим список классов
classes = model.names

# Добавим predictions к samples
with fo.ProgressBar() as pb:
    for sample in pb(preds_view):
        # Perform inference
        w,h = Image.open(sample.filepath).size
        preds = model(sample.filepath, size=(w,h)) 
        df = preds.pandas().xyxy[0] #есть формат xywhn - но ббоксы не бъются с картинками есть shift (возможно баг у fiftyone)
        labels = df['class'].tolist()
        confidences = df['confidence'].tolist()
        boxes = df[df.columns[:4]].values.tolist()

        # Конвертим детекции в FiftyOne формат
        detections = []
        for label, confidence, box in zip(labels, confidences, boxes):
            
            # Конвертация из xyxy в xywh со значениями от 0 до 1, то есть нормализованные
            x1, y1, x2, y2 = box
            rel_box = [x1/w, y1/h, (x2-x1)/w, (y2-y1)/h]

            detections.append(
                fo.Detection(
                    label=classes[label],
                    bounding_box=rel_box,
                    confidence=confidence
                )
            )

        # Сохраняем predictions в dataset
        sample["predictions"] = fo.Detections(detections=detections)
        sample.save()

Давайте посмотрим на наш предразмеченный датасет:

9ef7cdbc0a0d18a70b3987688a044596.png

Отберем только те картинки, на которых есть класс car. Для этого разворачиваем вкладку predictions и выбираем в меню слева нужный нам класс. Жмем на бокс с лейблом car. Сэмплы также можно отсортировать по уверенности модели.

45db05b3f20ec7efd217d6d0f9b5d6c9.png

Теперь создадим тег good и присвоим его к выбранным изображениям:

20fa4a34b939dfaf5b30526b2c9a63af.png

Также можно сделать так:

view = dataset.filter_labels("predictions", F("label") == "car")

Больше примеров фильтрации можно найти в этой шпаргалке.

Загрузим датасет на CVAT

Для этого в код ниже надо вписать URL, на котором развернут ваш CVAT, логин superuser«а и пароль:

# загружаем только семплы которые мы отобрали по классу car с tag good
tagged_view = dataset.match_tags("good") 

# Устанавливаем уникальное имя для аннотированного датасета
anno_key = "dets_run"

# Загружаем семплы на cvat
anno_results = tagged_view.annotate(
    anno_key,
    backend="cvat",
    url='http:/your-ip-address:8080/',
    username='SUPER_USER_NAME', 
    password='PASSWORD',
    label_field="predictions",
    segment_size=100, # по 100 изображений на задание
    allow_additions=True,
    allow_deletions=True,
    allow_label_edits=True,
    allow_spatial_edits=True,
    launch_editor=True,
)

Все получилось! Задание с предразметкой появилось в CVAT!

1ab85d94ad036e4d94eb6e2fdcf5708a.png

Так как разметка может продолжаться неделями, рекомендуем не пользоваться google colab. Когда сессия закончится, кэш отчистится, и ваш датасет невозможно будет скачать обратно через API FiftyOne:

# смотрим существующие датасеты
print(fo.list_datasets())
# загружаем датасет если вы прервали сессию
dataset2 = fo.load_dataset("Your dataset name")

Выгружаем измененную разметку из CVAT

cleanup=True — удалит задание из CVAT, если вы этого не хотите, поставьте False:

export_dir = f"{cwd}/cars_dataset"
label_field = "predictions" 

# Экспорт dataset в yolov5 формат
dataset_type = fo.types.YOLOv5Dataset

# Export the dataset
tagged_view.export(
    export_dir=export_dir,
    dataset_type=dataset_type,
    label_field=label_field,
    classes=["car”], # еще один вариант сохранить только нужные вам лейблы классов
)

Ура, вы счастливый обладатель размеченного датасета!

Весь код из статьи можно найти в ноутбуке: google colab

P.S. Первоначально инструкция написана для телеграм канала DeepSchool, на Хабре публикуется с рядом дополнений

© Habrahabr.ru