Projektowanie, budowanie i utrzymanie pipeline’ów ETL/ELT.
Tworzenie i zarządzanie orkiestracją procesów za pomocą Apache Airflow.
Pisanie czystego, wydajnego i dobrze przetestowanego kodu w Pythonie i SQL.
Praca z relacyjnymi bazami danych: MS SQL Server i PostgreSQL.
Praca z bazami wektorowymi.
Budowanie i utrzymanie środowisk kontenerowych przy użyciu Dockera — tworzenie obrazów, pisanie Dockerfile’ów, zarządzanie docker-compose oraz sieciami i wolumenami.
Integracja danych z zewnętrznych źródeł także poprzez REST API oraz budowanie własnych serwisów REST API.
Zapewnienie jakości, niezawodności i wydajności danych.
Współpraca z zespołami w oparciu o przepływy pracy z wykorzystaniem Gita.
Aktywne stosowanie narzędzi AI i rozwiązań opartych na LLM w codziennej pracy.
Nasze wymagania
Programowanie: Python, SQL.
Orkiestracja: Apache Airflow.
Bazy danych: MS SQL Server, PostgreSQL.
Infrastruktura: Docker.
Integracje: REST API.
Kontrola wersji: Git.
Zdolności analityczne: Umiejętność samodzielnej analizy problemów, interpretacji danych i proponowania rozwiązań.
AI Fluency: Praktyczne wykorzystanie narzędzi AI (np. GitHub Copilot, ChatGPT, Claude) w codziennej pracy.
Systemy operacyjne: Windows, Linux.
Mile widziane
Doświadczenie z narzędziami do automatyzacji procesów, m.in. n8n.
Znajomość funkcjonowania biznesu – wiedza z zakresu finansów, optymalizacji procesów lub trenowania modeli będzie dodatkowym atutem.
Doświadczenie w zakresie anonimizacji danych (np. pseudonimizacja, maskowanie, tokenizacja) będzie dodatkowym atutem.
Znajomość dbt (data build tool) – rozważamy wdrożenie tego narzędzia i chętnie powitamy kogoś, kto pomoże nam w tym kroku.
Znajomość koncepcji hurtowni danych.
Co oferujemy
Pracę w rozwijającej się organizacji realizującej projekty kluczowe dla transformacji energetycznej.
Udział w ciekawych projektach.
Możliwość rozwoju kompetencji oraz udział w szkoleniach specjalistycznych.