трехмесячная стажировка, после которой можно попасть в штат
оплачиваемая стажировка, гибридный формат работы, набор круглый год
вся Россия
Пока ты читаешь это предложение, мы меняем сферу ритейла: пользуемся большими данными и аналитикой, чтобы доставлять на полки магазинов свежие продукты по лучшей цене, делаем мобильное приложение еще удобнее, разрабатываем цифровую экосистему для отслеживания грузоперевозок и автоматизируем бизнес-процессы. Давай с нами — приходи на оплачиваемую IT-стажировку, где ты сможешь создавать продукты будущего, которыми пользуются миллионы людей.
Нашей команде
Студенты последних курсов бакалавриата, специалитета, магистратуры или выпускники, окончившие вуз не ранее 2021 года
IT-специалисты, которые проходят IT-курсы и хотят применить на практике полученные знания
Те, кто готовы работать полный день (40 часов в неделю)
Наши команды создают платформу по управлению данными и BI аналитике, цифровую платформу для поставщиков, систему сбора обратной связи для торговых сетей, платформу для A/B тестирования бизнес-процессов и другие проекты цифровизации группы компаний X5 — у нас в работе больше 100 проектов и 50 продуктов.
У нас нет дресс-кода, зато есть гибкий график и сплоченная команда экспертов. А еще каждый может выбрать удобный формат работы — офис (в Москве, Иннополисе и Ижевске) или удаленку.
Выбор за тобой
Набор на популярные направления может закрыться быстро, поэтому не откладывай подачу заявки.
Дирекция по управлению данными
О команде: Данные — это основа нашей цифровой трансформации. Мы создаем, обогащаем и обрабатываем петабайты данных каждый день. На их основе мы принимаем сотни важных решений оптимизируем товарные остатки, прогнозируем спрос, подбираем наилучшие цены для товаров и сотни других кейсов. Мы ждем коллег, которые готовы менять этот мир к лучшему, используя большие данные!
Тебе предстоит заниматься:
Разработкой алгоритмов построения витрин данных (SQL);
Анализом предметной области, проработка методики сборки показателей, в том числе согласование еë с бизнесом;
Поиском и исследованием данных из систем-источников, постановка задач на интеграцию;
Проектированием модели данных (ER modeling, Data Vault 2.0, Dimensional modeling);
Подготовкой документации, в том числе требований к разработке и тестированию;
Работой с качеством данных, анализ причин расхождений.
Мы ждем тебя, если ты имеешь:
Аналитический склад ума;
Высокий уровень владения SQL и наличие опыта его применения (join, группировки, фильтрация по агрегатам, аналитические функции);
Опыт работы с СУБД (Hive, ClickHouse, GreenPlum, PostgeSQL, Oracle, MS SQL или какие-либо другие);
Знание стека технологий Hadoop;
Знания стека Airflow, Python, Spark, Kafka (как преимущество);
Понимание работы ETL инструментов (как преимущество).
Стек У нас ты сможешь поработать с Apache BigData Stack (HDFS, Hive, Spark, Airflow, Kafka), с базами данных (Hive, ClickHouse, Greenplum, PosgreSQL) и таким ПО как Ataccama (Data Quality).
Дирекция по разработке
О команде: Аналитики команды ad-hoc занимаются решением нестандартных задач бизнеса по направлению Data Science.
Задачи, которыми ты будешь заниматься:
Проведение дизайна будущих экспериментов на магазинах и клиентах крупнейшего ритейлера нашей страны;
Оценка экономических эффектов от бизнес-инициатив;
А/Б-тестирование;
Ad-hoc-аналитика и продуктовые задачи, как самостоятельно, так и в команде.
Навыки, необходимые для работы в нашей команде:
Уверенные знания Python, SQL (оконки, join’ы);
Азы статистики и ML;
Самостоятельность и проактивность;
Хорошие softы для общения с заказчиками и защиты решений.
О команде: DevOps в X5 Tech — это более 70 высококвалифицированных специалистов, которые отвечают за автоматизацию всех этапов создания приложений и их подготовку к успешной эксплуатации. Мы ищем стажёра, который в перспективе вольется в одну из продуктовых команд и будет заниматься построением CI/CD, подготовкой, выводом продукта в эксплуатацию и внедрением DevOps-практик в команде.
Тебе предстоит:
Создавать CI/CD пайплайны и подготавливать инфраструктуру для работы команды;
Подготавливать продукт к успешной эксплуатации: настройка мониторинга, сбора логов и ошибок, бэкапов, разработка стратегии восстановления после сбоев;
Прорабатывать SLO для продукта и стратегии соблюдения SLO;
Выводить продукт в «бой» и участвовать в разборе инцидентов с прода;
Внедрять DevOps-практики в работу команды, оптимизировать Value Stream Map для продукта совместно с командой.
Мы ждём тебя, если ты имеешь:
Опыт работы с Linux;
Опыт написания скриптов на bash;
Базовые представления о работе веб-сервисов и протоколов TCP/IP, HTTP;
Желание развиваться и работать в команде.
Преимуществом будет, если у тебя есть:
Опыт работы с системами управления конфигурациями (Ansible, Salt);
Опыт программирования на языках: Python, Go;
Навыки анализа, предотвращения и быстрого устранения неисправностей;
Понимание принципов работы сети и умение диагностировать сетевые проблемы;
Понимание базовых принципов контейнеризации и виртуализации;
Опыт работы с системами оркестрации (Kubernetes);
Желание учиться и узнавать новое.
О команде: Big Data является одним из приоритетных направлений нашей компании. На данный момент у нас построен кластер Hadoop общей емкостью 1 петабайт. А команда ETL отвечает за интеграцию кластера с источниками данных. Результатом нашей работы становится стабильно обновляемые базы данных в Hive. На их основе разрабатываются различные продукты для широкого круга заказчиков внутри X5 Group и снаружи.
Стек: Java, Groovy, Spring boot, NiFi, Gradle, Spark, Kafka, Hadoop, Gitlab, Docker, Kubernetes, Jira, Confluence, Idea
Чем тебе предстоит заниматься в команде:
Участие в разработке, реализации и поддержке типовых интеграционных решений на стеке технологий, принятых в команде, под руководством наставника;
Оперативное реагирование на информацию о проблемах в зоне ответственности, выполнение типовых задач в установленный срок;
Поддержание в актуальном состоянии документации типовых интеграционных решений платформы больших данных;
Предоставление отчетности о своей деятельности начальнику отдела/ руководителю в порядке, установленном руководством.
Мы ждём тебя, если ты имеешь:
Базовое представление о стеке технологий BigData;
Знания основ SQL и работа с реляционными БД;
Знания основ работы с Git;
Интерес к изучению графических ETL инструментов (Apache Nifi, Airflow и т. п.);
Знакомство с основами работы с Hadoop и HDFS;
Знания основ программирования (JAVA, Groovy, Python).
Инфраструктура
О команде: Команда сервисного мониторинга и транспорта данных занимается разработкой и поддержкой комплекса систем, позволяющих в режиме реального времени получать актуальную информацию о состоянии сервисов и серверов. В нашей команде принято использовать лучшие практики, повышающие наблюдаемость наших систем. Мы открыты к новым идеям и свежим предложениям.
Вместе с командой ты будешь:
Создавать, настраивать мониторинг и алертинг в Zabbix, Prometheus, VictoriaMetrics;
Создавать дашборды Grafana;
Разрабатывать и вести документацию;
Сопровождать Linux/Unix парк ВМ более 100 инстансов;
Разрабатывать скрипты автоматизации;
Консультировать заказчиков по мониторингу и дашбордам.
Будет плюсом, если у тебя есть:
Опыт и навыки администрирования Linux-систем;
Понимание основных принципов работы сетей, протоколов передачи данных TCP/IP, DNS, HTTP/HTTPS и т. д.;
Опыт развертывания и конфигурирования инструментов мониторинга, таких как Prometheus, Grafana, Zabbix, Splunk, ELK (как минимум, в целях изучения);
Знание основ реляционных баз данных (например, MySQL, PostgreSQL, Microsoft SQL Server) и умение работать с ними для хранения и обработки данных;
Опыт работы с языком SQL для написания запросов к базам данных (DDL, DML);
Навыки в программировании на языках типа Python, Bash, PowerShell или других скриптовых языках для написания скриптов автоматизации и обработки данных;
Желательно, практические навыки использования Git;
Способность анализировать проблемы, выявлять их причины и предлагать решения;
Умение организовывать свою работу, устанавливать приоритеты задач и справляться с множеством задач одновременно;
Готовность к изучению новых технологий и методик работы, а также стремление к постоянному улучшению своих навыков.
Стек: мониторинг (Zabbix, Prometheus (VictoriaMetrics), визуализация (Grafana), буферизация данных (Kafka), обработка данных (Golang), хранение данных (Clickhouse), автоматизации (Python).