Nginx VTS Stats, Mockify — mock API, сравнение Wiremock и Mockify

В этом посте я хотел сделать демо Nginx VTS + Prometheus + Grafana. Для демо необходимо было чтобы upstream могли выдавать разные http коды. Это могли сделать следующие проекты: Mockify, написанный на Golang, и WireMock, написанный на Java.

Небольшое оглавление


  • установка и настройка Nginx VTS + Prometheus + Grafana;
  • Mockify — легкое, конфигурируемое эмулирование API, написанное на Golang;
  • Сравнение использования CPU для Mockify, написанный на Golang, и WireMock, написанный на Java.

Тестовый стенд виртуальная машина:

inxi
CPU: 8x Single Core Intel Xeon E312xx (Sandy Bridge) (-SMP-) speed: 2594 MHz Kernel: 3.10.0-957.1.3.el7.x86_64 x86_64 Up: 58m 
Mem: 474.9/32011.6 MiB (1.5%) Storage: 80.00 GiB (2.7% used) Procs: 149 Shell: bash 4.2.46 inxi: 3.0.35 

Конфиг prometheus:

global:
  scrape_interval:     5s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
  evaluation_interval: 5s # Evaluate rules every 15 seconds. The default is every 1 minute.
  # scrape_timeout is set to the global default (10s).

# Alertmanager configuration
alerting:
  alertmanagers:
  - static_configs:
    - targets:
      # - alertmanager:9093

# Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
rule_files:
  # - "first_rules.yml"
  # - "second_rules.yml"

scrape_configs:
  - job_name: 'prometheus'
    static_configs:
    - targets: ['localhost:9090']
  - job_name: ‘nginx_vts_exporter’
    static_configs:
    - targets: ['localhost:9913']

Конфиг Grafana стандартный. ID дашборда 2949.

Для Nginx VTS нужно скомпилировать nginx с модулем nginx-module-vts. Делаем это с помощью Nginx-builder. Его конфиг:

nginx_version: 1.16.1
output_package: rpm
modules:
  - module:
      name: nginx-module-vts
      git_url: https://github.com/vozlt/nginx-module-vts.git
      git_tag: v0.1.18

Устанавливаем собранный nginx. Вот его главный конфиг (не забываем указать vhost_traffic_status_zone;):

user  nginx;
worker_processes  auto;
worker_rlimit_nofile 40960;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;

events {
    use epoll;
    worker_connections 1024;
    multi_accept on;
}

http {
    vhost_traffic_status_zone;
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log /var/log/nginx/access.log main;
    access_log off;
    sendfile on;
    tcp_nodelay on;
    tcp_nopush on;
    keepalive_timeout  65;
    include /etc/nginx/conf.d/*.conf;
    open_file_cache max=200000 inactive=20s;
    open_file_cache_valid 30s;
    open_file_cache_min_uses 2;
    open_file_cache_errors on;
}

Создаем конфиги виртуальных хостов:

touch vhost1.conf  vhost2.conf  vhost3.conf  vhost4.conf  vhost5.conf

Их содержимое:

vhost1.conf:

server {
        listen   80;
        server_name vhost1;
        location / {
                proxy_pass http://127.0.0.1:8001/102;
        }
}

vhost2.conf:

server {
        listen   80;
        server_name vhost2;
        location / {
                proxy_pass http://127.0.0.1:8001/204;
        }
}

vhost3.conf:

server {
        listen   80;
        server_name vhost3;
        location / {
                proxy_pass http://localhost:8001/304;
        }
}

vhost4.conf:

server {
        listen   80;
        server_name vhost4;
        location / {
                proxy_pass http://localhost:8001/403;
        }
}

vhost5.conf:

server {
        listen   80;
        server_name vhost5;
        location / {
                proxy_pass http://localhost:8001/503;
        }
}

Устанавливаем nginx-vts-exporter:

wget https://github.com/hnlq715/nginx-vts-exporter/releases/download/v0.10.3/nginx-vts-exporter-0.10.3.linux-amd64.tar.gz
tar zxvf nginx-vts-exporter-0.10.3.linux-amd64.tar.gz
cp nginx-vts-exporter-0.10.3.linux-amd64/nginx-vts-exporter /usr/local/bin/nginx-vts-exporter

Создаем файл /etc/systemd/system/nginx_vts_exporter.service:

[Unit]
Description=Nginx vts exporter  
Wants=network-online.target
After=network-online.target
[Service]
ExecStart=/usr/local/bin/nginx-vts-exporter -nginx.scrape_uri=http://localhost:7070/status/format/json
Restart=always
RestartSec=3
[Install]
WantedBy=default.target

Создаем файл конфигурации VTS /etc/nginx/conf.d/vts-exporter.conf

server {
 listen 7070;
 listen [::]:7070;

 location / {
 }

 location /status {
   vhost_traffic_status_display;
   vhost_traffic_status_display_format html; 
 }

}

Добавляем DNS виртуальных хостов в /etc/hosts:

127.0.0.1 vhost1
127.0.0.1 vhost2
127.0.0.1 vhost3
127.0.0.1 vhost4
127.0.0.1 vhost5

Оптизируем ядро для тестирования, так как wiremock выдавал timeout при большом количестве соединений. Сейчас может оно и не нужно, так как уменьшил количество соединений при запуске apache benchmark. Создаем файл /etc/sysctl.d/90-nginx.conf с содержимым:

fs.file-max=100000
net.netfilter.nf_conntrack_max=1548576
net.ipv4.ip_local_port_range=10000 65000
net.ipv4.tcp_tw_reuse=1
net.core.somaxconn=15600
net.ipv4.tcp_fin_timeout=15
net.ipv4.tcp_tw_recycle=1
net.core.rmem_default=31457280
net.core.rmem_max=12582912
net.core.wmem_default=31457280
net.core.wmem_max=12582912
net.core.netdev_max_backlog=65536
net.core.optmem_max=25165824
net.ipv4.tcp_rmem=8192 87380 16777216
net.ipv4.udp_rmem_min=16384
net.ipv4.tcp_wmem=8192 65536 16777216

Применяем настройки

sysctl -p /etc/sysctl.d/90-nginx.conf 

Устанавливаем mockify-rpm

yum -y install yum-plugin-copr
yum copr enable antonpatsev/mockify-rpm
yum -y install mockify
systemctl start mockify

Устанавливаем Apache Benchmark:

yum install -y httpd-tools

Запускаем небольшое тестирование nginx:

while true; do ab -c 1 -n 1 -t 1 http://vhost1/; sleep 2; done
while true; do ab -c 1 -n 1 -t 1 http://vhost2/; sleep 2; done
while true; do ab -c 1 -n 1 -t 1 http://vhost3/; sleep 2; done
while true; do ab -c 1 -n 1 -t 1 http://vhost4/; sleep 2; done
while true; do ab -c 1 -n 1 -t 1 http://vhost5/; sleep 2; done

Cкриншоты:

mncgvdh6qi9z2jfgz9xsjp7wlrm.png

y_oqecj8n7dkcuhsuswtrvaq0ry.png

ai2vobsdod8zhpad0nff347qmsk.png

mggxpr38h0dec5wt7inx00ahd6e.png

Установка wiremock:

yum -y install yum-plugin-copr
yum copr enable antonpatsev/wiremock-rpm
yum -y install wiremock wiremock-popular-json
systemctl start wiremock

Также в файлах vhost1-vhost5 в nginx нужно поменять порт с 8001 на 8080.

Прошу прощения за неровные скриншоты.

Ниже загрузка CPU и MEM mockify при тестировании vhost1-vhost5

niefcrrzubziumsublmzz3kqz8q.png

Ниже загрузка CPU и MEM wiremock при тестировании vhost1

ji_8u_argra8h0gh34yyknnxqd8.png

Ниже загрузка CPU и MEM wiremock при тестировании vhost1-vhost2

-ntss-moi6ybktxg8o6zfgn-ik0.png

Ниже загрузка CPU и MEM wiremock при тестировании vhost1-vhost3

zqg4u6b8aowhewmqkejrb5cygqw.png

Ниже загрузка CPU и MEM wiremock при тестировании vhost1-vhost4

egjk781xzuh3xswxbugk_oeo-um.png

Ниже загрузка CPU и MEM wiremock при тестировании vhost1-vhost5. Иногда нагрузка на CPU выростала до 700%.

gavhd9o27zy-s2cpcvfx52gbrmw.png

Выводы:

По Nginx VTS хотелось бы больше метрик без правок конфигов.

По Wiremock vs Mockify: используйте Mockify. Он меньше использует CPU и MEM.

И напоследок сборка Golang приложений в Fedora Copr на примере Mockify.

В качестве примера используйте репозиторий https://github.com/patsevanton/mockify-rpm.

© Habrahabr.ru