практикум
Logs
стек, который вы освоите
практикумы по инфраструктуре с 2018 года
- Автоматические проверки — мгновенная обратная связь по заданиям
- Проверки менторами — DevOps-инжерами с опытом в индустрии от 5+ лет
- Возможность общаться с опытными практикующими специалистами
- Свободный темп — проходите без жёстких дедлайнов
- Прикладные задачи — кейсы, приближенные к реальной работе DevOps-инженера

Кому подойдёт
DevOps-инженерам и SRE
Освоите полный стек инструментов (Fluentd, Elasticsearch, Kibana и др.) и сможете внедрить его в продакшене
Системным администраторам
Сможете автоматизировать сбор логов со всех серверов и сервисов
Инженерам поддержки
Получите инструменты для быстрой диагностики инцидентов
Как проходит
практикум
Команда Rebrain изучает, какие из компетенций требуются на разных уровнях профессий. Мы понимаем, что нужно знать, чтобы на собеседовании или при выполнении задач чувствовать себя уверенно. После наших практикумов специалисты легко адаптируются к реальным рабочим условиям.
Материалы останутся с вами навсегда
Проходите в удобное для вас время
программа практикума
Онбординг
- Онбординг
Logs
- Как и куда приложения пишут логи
- Rsyslog и его основные настройки
- Fluentd и его аналоги
- Fluentd: расширенные настройки
- Fluentd и работа с сетью
- Fluentd и сбор логов из Docker
- Обзор Elasticsearch
- Настройка кластера Elasticsearch
- Kibana
- Использование буфера для приёмки логов
- Graylog — всё в одном
- Продвинутая настройка Graylog
- Vector
Финальное задание
- Финальный проект
- Заключение
Ключевые навыки для резюме:
немного о
технологии
100+ ТБ
логов в день в среднем генерирует крупная компания
70%
инцидентов в продакшене удаётся быстро локализовать благодаря централизованному логированию
миллионы событий
в секунду обрабатывает Elasticsearch (EFK-стек) и хранит петабайты логов в продакшн-кластерах
Пример задания
Установить на сервере Fluentd с плагином fluent-plugin-elasticsearch
Подсказка: с установкой плагина поможет менеджер плагинов: fluent-gem
Установить на сервере Elasticsearch.
Настроить fluentd таким образом, чтобы:
вычитывались все файлы с расширением .log из каталога /var/log/;
вычитанные логи помечались тегом task07., где * — путь к файлу вида var.log.file.log;
все вычитанные логи и помеченные тегом task07. перенаправлялись в Elasticsearch;
логи сохранялись в индекс task07.filename-*, где * — это дата в формате ГГГГ-ММ-ДД, а filename — имя файла источника без расширения;
tag сообщений был записан в поле @log_name;
Подсказка: Воспользуйтесь директивами для плагина @type elasticsearch include_tag_key и tag_key;
обязательно попали логи auth.log;
Подсказка: вы можете их сгенерировать утилитой встроенной logger: for _ in $(seq 1 100); do sudo logger -p auth.info "Hello from auth logs by Rebrain"; done.
Проверьте, что все логи вычитываются, возможно нужно будет настроить корректные права для пользователя, под которым запущен Fluentd.
Проверьте, что логи попали в Elasticsearch, и отправляйте задание на проверку.
и подробнее расскажем о практикуме.