Автор и ведущий лабораторных работ по ИТ
Зарплата
Требования
Местоположение и тип занятости
Компания
Описание вакансии
О компании и команде
Мы развиваем культуру проектирования информационных систем: проводим конференции SystemsDesign.online, регулярные открытые вебинары, пишем профессиональные статьи, проводим воркшопы и курсы.
Мы специализируемся на бутиковом обучении — интерактивные занятия в малых группах и командах с практикой и обратной связью сразу на занятии.
Сейчас мы запускаем новый формат — лабораторные работы.
Зачем это надо — при проектировании систем нужен определенный кругозор технологий. Технологий очень много разных, поэтому взять и за один присест их изучить невозможно. Нужно понемножку, но регулярно.
Каждая лаба посвящена одной какой-то технологии. Базовый размер — 4 часа. Размер учебной группы 8-16 человек.
Ожидания от кандидата
Вы не боитесь разбираться в технологиях, имеете профессиональный опыт как внедренец, разработчик, администратор, тестировщик или аналитик.
Условия работы
- Полностью дистанционная работа.
- Занятия по выходным на выбор — суббота или воскресенье.
- Оплата 8 тр за проведённую лабу по договору с самозанятым или ИП.
Бонусы
Можно проходить воркшопы нашей школы.
Примеры тем
1. Apache NiFi — визуальное проектирование, автоматизация и оркестрация потоков данных.
2. Debezium — организация CDC (Change Data Capture) для потоковой передачи изменений в БД.
3. Apache Flink — обработка потоковых данных в реальном времени.
4. Apache Kafka — построение событийных шиной и работа с потоками событий.
5. Kafka Connect — интеграция внешних систем и построение ETL-процессов.
6. Apache Airflow — автоматизация, планирование и управление задачами (data pipelines).
7. ClickHouse — аналитические СУБД для высокопроизводительной обработки данных.
8. Elasticsearch + Kibana — организация поиска и визуализация данных.
9. Prometheus + Grafana — мониторинг и построение дашбордов систем.
10. Docker Compose — развертывание многокомпонентных систем в контейнерах.
11. Kubernetes — оркестрация микросервисов и управление контейнеризированными приложениями.
12. OpenAPI Generator — автоматическая генерация кода и документации на основе спецификаций.
13. Apache Camel — интеграция корпоративных приложений, построение маршрутов сообщений.
14. gRPC — проектирование и реализация высокопроизводительных RPC-интерфейсов.
15. Redis Streams — работа с потоками данных и очередями сообщений в Redis.
16. Consul или etcd — сервис-дискавери и управление конфигурациями.
17. Grafana Loki — сбор, хранение и анализ логов.
18. Istio — сервис-меш для управления, мониторинга и безопасного взаимодействия микросервисов.
19. Keycloak — реализация централизованной аутентификации и авторизации (IAM).
20. Argo Workflows — построение и управление CI/CD процессами на Kubernetes.
Примеры заданий на лабы
1. Apache NiFi
Задание:
Настройте простой поток интеграции данных с помощью Apache NiFi: реализуйте загрузку данных из CSV-файла, преобразование формата и отправку результата в REST API. Используйте стандартные процессоры NiFi для чтения, трансформации и отправки данных.
Ожидаемые результаты:
- Участник создал и настроил поток данных в визуальном редакторе NiFi.
- Научился использовать базовые процессоры (GetFile, ConvertRecord, InvokeHTTP).
- Реализовал базовую трансформацию данных (например, преобразование формата CSV→JSON).
- Отладил процесс передачи данных через API и убедился в успешной доставке.
2. Debezium
Задание:
Разверните связку Debezium + Kafka для организации Change Data Capture: настройте мониторинг изменений в таблице PostgreSQL и передачу этих изменений в Kafka-топик. Для проверки создайте тестовую таблицу, выполните несколько операций изменения данных (INSERT, UPDATE, DELETE).
Ожидаемые результаты:
- Участник развернул необходимые компоненты (PostgreSQL, Kafka, Debezium Connector).
- Настроил Debezium на отслеживание изменений в выбранной таблице.
- Продемонстрировал получение событий изменений в Kafka-топике.
- Описал возможные сценарии применения CDC в реальных проектах.
3. Apache Flink
Задание:
Реализуйте обработку потоковых данных с помощью Apache Flink: настройте чтение данных из Kafka, реализуйте простую агрегацию (например, подсчёт количества событий по определённому критерию за минуту) и сохраните результаты в ClickHouse или другую СУБД.
Ожидаемые результаты:
- Участник развернул Flink и подключил его к Kafka и целевой СУБД.
- Реализовал Flink job для обработки и агрегации данных в реальном времени.
- Проверил корректность передачи агрегированных результатов в хранилище.
- Получил базовые навыки построения потоковых обработчиков событий.
В отклике указывайте пожалуйста, какую тему вам интересно вести (можно предложить свою).