Senior Data Engineer – Databricks

2 weeks ago


Remote Warszawa, Czech Republic Crestt Full time

Czego oczekujemy: Min. 5 lat doświadczenia w BI, Data Warehouse, Data Lake/Lakehouse i Big Data.  Praktyka z Databricks w zakresie inżynierii danych, architektury, integracji i streamingu.  Bardzo dobra znajomość PySpark, Python i SQL; doświadczenie z różnymi bazami danych (SQL/NoSQL, cloud/on-prem).  Doświadczenie z chmurą (Azure i/lub AWS) i repozytoriami kodu (Git).  Znajomość zasad data governance, jakości danych i nowoczesnych architektur (Data Mesh, Data Vault, Medallion, Lambda/Kappa).  Praca z narzędziami typu Airflow, dbt, Kafka, Flink lub Fabric Data Factory.   Angielski min. B2 (C1+ mile widziany).  Mile widziane: Doświadczenie w przetwarzaniu danych strumieniowych i pracy w środowisku open source.  Różnorodne projekty i organizacje – cenimy szeroką perspektywę.  Dołącz do zespołu ekspertów, którzy projektują nowoczesne rozwiązania w obszarze Data Lakehouse, Business Intelligence i Advanced Analytics w chmurze. Nie rekrutujemy Cię do jednego projektu – dajemy Ci szansę pracy przy wielu inicjatywach, korzystając z najnowszych technologii i podejść, takich jak streaming czy AI. UoP: 26 000 – 30 000 zł brutto / mies.  B2B: 160 – 200 zł netto (+ VAT) / godz.  Co oferujemy: Stabilne zatrudnienie bezpośrednio w dynamicznie rozwijającej się firmie technologicznej. Możliwość współpracy w modelu UoP lub B2B. Praca głównie zdalna, z jednym spotkaniem w miesiącu w biurze w Warszawie. Projekty o różnorodnej skali i tematyce, gwarantujące rozwój i brak rutyny. Dostęp do nowoczesnych narzędzi chmurowych i technologii danych. Pokrycie kosztów certyfikacji (Microsoft, AWS, Databricks) i 60 godzin rocznie na rozwój osobisty. Indywidualnie dopasowane benefity: prywatna opieka medyczna, karta sportowa, kursy językowe, premie i bonusy za rekomendacje. ,[Projektowanie i rozwój nowoczesnych platform danych oraz optymalizacja istniejących architektur. , Budowa i usprawnianie procesów ETL/ELT (batch i streaming) do dużych zbiorów danych. , Wdrażanie najlepszych praktyk inżynierii danych – kodowanie, testowanie, dokumentacja, code review. , Ścisła współpraca z zespołami biznesowymi w celu tworzenia rozwiązań o największej wartości. , Mentoring i dzielenie się wiedzą w zespole. ] Requirements: Data Lake, Databricks, Big data, PySpark, Python, SQL, NoSQL, Cloud, Git, Airflow, dbt, Kafka, Flink, Open source Additionally: Sport Subscription, Private healthcare, Remote work.



  • Remote, Czech Republic INNOBO Full time

    To thrive and succeed, you are expected to have: Bachelor’s degree in computer science, engineering, or a related field, complemented by experience in data engineering. A master’s degree is preferred Extensive experience with Git and managing version control in a collaborative environment Proven track record of implementing and managing CI/CD pipelines...

  • Data Engineer

    1 week ago


    Remote, Czech Republic EBIS Full time

    For our client, we are looking for a specialist with at least 2 years (mid) or at least 5 years (senior) of experience working with Databricks  to join the client's project team, who will: work autonomously once business logic and requirements are defined, deliver solutions that are testable, maintainable, and resilient, actively communicate any issues,...


  • Remote, Warsaw, Czech Republic KMD Poland Full time

    Ideal candidate:   Has 5+ years of commercial experience in implementing, developing, or maintaining data load systems (ETL/ELT).  Demonstrates strong programming skills in Python, with a deep understanding of data-related challenges.  Has hands-on experience with Apache Spark and Databricks.  Is familiar with MSSQL databases.  Has experience working...


  • Remote, Warsaw, Czech Republic KMD Poland Full time

    Ideal candidate:   Has 5+ years of commercial experience in implementing, developing, or maintaining data load systems (ETL/ELT).  Demonstrates strong programming skills in Python, with a deep understanding of data-related challenges.  Has hands-on experience with Apache Spark and Databricks.  Is familiar with MSSQL databases.  Has experience working...


  • Remote, Czech Republic Link Group Full time

    Requirements: 5+ years of experience in Data Engineering 2+ years of hands-on experience with Databricks Strong skills in SQL, PySpark, and Python Solid background in data warehousing, ETL, distributed data processing, and data modeling Excellent analytical and problem-solving skills in big data environments Experience with structured, semi-structured, and...

  • Senior Data Engineer

    2 weeks ago


    Remote, Warsaw, Wrocław, Białystok, Kraków, Gdańsk, Czech Republic Addepto Full time

    What you’ll need to succeed in this role: At least 5 years of commercial experience implementing, developing, or maintaining Big Data systems. Strong programming skills in Python: writing a clean code, OOP design. Strong SQL skills, including performance tuning, query optimization, and experience with data warehousing solutions. Experience in...


  • Remote, Czech Republic Upvanta Full time

    Wymagania: 5-8 lat doświadczenia na stanowisku Data Engineer Bardzo dobra znajomość usług AWS (S3, IAM, Redshift, Sagemaker, Glue, Lambda, Step Functions, CloudWatch). Doświadczenie z platformami Databricks, Dataiku. Biegłość w Pythonie lub Javie, SQL (preferowany Redshift), Jenkins, CloudFormation, Terraform, Git, Docker. 2–3 lata doświadczenia z...


  • Remote, Czech Republic 1dea Full time

    min 5 yrs of relevant experience Solid experience with AWS services (S3, IAM, Redshift, Sagemaker, Glue, Lambda, Step Functions, CloudWatch) Experience with platforms like Databricks, Dataiku Proficient in Python / Java, SQL – Redshift preferred, Jenkins, CloudFormation, Terraform, Git, Docker, 2-3 years of Spark – PySpark Good communication and SDLC...


  • Remote, Czech Republic Link Group Full time

    Required Skills & Experience 5–8 years of hands-on experience in data engineering or similar roles. Strong knowledge of AWS services such as S3, IAM, Redshift, SageMaker, Glue, Lambda, Step Functions, and CloudWatch. Practical experience with Databricks or similar platforms (e.g., Dataiku). Proficiency in Python or Java, SQL (preferably Redshift), Jenkins,...


  • Warszawa, Czech Republic ITDS Full time

    You’re ideal for this role if you have: Proven experience in large-scale data platform migration and modernization projects Deep expertise in Azure Databricks, Delta Lake, and Azure Data Factory Strong programming skills in Python, PySpark, and SQL Hands-on experience with CI/CD pipelines using Azure DevOps, GitHub, or Jenkins Solid understanding of...