Data Engineer Azure Cloud DWH @ Antal

14 hours ago


Remote Wrocław, Czech Republic Antal Full time

minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, eksperckie umiejętności w SQL, Azure Synapse, Azure Data Factory, Databricks, doświadczenie w integracji danych z Oracle i systemów legacy, znajomość języka niemieckiego na poziomie min. A2. Mile widziane: znajomość Power BI i budowy dashboardów, doświadczenie z Delta Lake i optymalizacją Spark. Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH. Oferujemy: pracę w 100% zdalną, udział w dużych, międzynarodowych projektach Data & AI, możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle), realny wpływ na architekturę i kierunek rozwoju rozwiązań danych, współpracę w modelu B2B pakiet benefitów (LuxMed, MyBenefit). ,[projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.] Requirements: SQL, Azure Synapse, Azure Data Factory, Databricks, Oracle, Power BI, Spark, Delta Lake



  • Remote, Wrocław, Czech Republic Antal Full time

    minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, zaawansowane umiejętności w Oracle PL/SQL (procedury, funkcje, wyzwalacze), doświadczenie z Oracle Exadata, praktyczna wiedza w zakresie strojenia wydajności i...


  • Remote, Wrocław, Czech Republic Antal Full time

    minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, praktyczne doświadczenie w pracy z usługami GCP: BigQuery, Databricks, Vertex AI, doświadczenie w pracy z Oracle Database, umiejętność modelowania danych i...


  • Kraków, Wrocław, Poznań, Gdańsk, Warszawa, Czech Republic Capgemini Polska Sp. z o.o. Full time

    YOUR PROFILE strong experience in Big Data or Cloud projects in the areas of processing and visualization of large and unstructured datasets (in different phases of Software Development Life Cycle); practical knowledge of the Azure cloud in Storage, Compute (+Serverless), Networking and DevOps areas supported by commercial project work experience; very...


  • Remote, Kraków, Czech Republic Antal Full time

    University degree in Computer Science, IT, or related field Fluent spoken and written English Strong experience in big data solution design and development, with knowledge of the full software development life cycle and Agile methodology Proven track record in building distributed applications (preferably in a Spark environment) Hands-on experience with API...


  • Kraków, Wrocław, Poznań, Gdańsk, Warszawa, Czech Republic Capgemini Polska Sp. z o.o. Full time

    YOUR PROFILE Good experience as an Architect and/or Technical Leader in Cloud or Big Data projects in the field of data processing and visualization (in different phases of SDLC); Practical knowledge of one of the following clouds: AWS, Azure, GCP in the area of Storage, Compute (+Serverless), Networking and Devops supported by work on commercial projects;...


  • Remote, Kraków, Czech Republic Antal Full time

    3+ years of experience in DevOps or Cloud Engineering roles Practical experience with CI/CD tools such as Jenkins, GitHub Actions, Nexus and Ansible Hands-on experience with cloud platforms (GCP preferred, AWS or Azure also considered) Proficiency in Terraform and Infrastructure as Code (IaC) approaches Strong scripting skills in Bash and Python Very...

  • Data Engineer

    1 week ago


    Remote, Czech Republic Crestt Full time

    Kogo szukamy? Masz już doświadczenie jako Data Engineer i chcesz dalej rozwijać się w tym kierunku Dobrze znasz technologie: Azure Data Lake Storage (ADLS), Azure Databricks (Python/PySpark, SQL), Azure Data Factory, Azure DevOps Potrafisz pracować w środowisku międzynarodowym – komunikacja w języku angielskim nie stanowi dla Ciebie problemu...


  • Remote, Warszawa, Czech Republic Antal Full time

    At least a decade of professional experience in back-end development including 3+ years with Kotlin and in a technical leadership role as well Strong proficiency in Kotlin and solid understanding of modern backend architecture (e.g., microservices, REST, event-driven design) Experience with Spring framework (with Kotlin) Deep knowledge of modern...

  • Data Engineer

    14 hours ago


    Remote, Czech Republic Link Group Full time

    Must-Have Qualifications At least 3+ years of experience in data engineering. Strong expertise in one or more cloud platforms: AWS, GCP, or Azure. Proficiency in programming languages like Python, SQL, or Java/Scala. Hands-on experience with big data tools such as Hadoop, Spark, or Kafka. Experience with data warehouses like Snowflake, BigQuery, or Redshift....


  • Wrocław, Czech Republic Antal Full time

    Minimum 3 years of experience with Kong Gateway, including at least 1 year with Kong Konnect in production Previous experience as part of a platform engineering or infrastructure team In-depth understanding of API management, REST APIs, and microservices architecture Strong hands-on experience with Kubernetes, particularly with managing ingress and services...