Data Engineer Azure Cloud DWH @ Antal
14 hours ago
minimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, eksperckie umiejętności w SQL, Azure Synapse, Azure Data Factory, Databricks, doświadczenie w integracji danych z Oracle i systemów legacy, znajomość języka niemieckiego na poziomie min. A2. Mile widziane: znajomość Power BI i budowy dashboardów, doświadczenie z Delta Lake i optymalizacją Spark. Data Engineer (GCP / Azure / Oracle DWH) – 100% zdalnie Dla naszego Klienta poszukujemy doświadczonych Inżynierów Danych, którzy dołączą do zespołu odpowiedzialnego za rozwój skalowalnych rozwiązań w chmurze i nowoczesnych hurtowni danych w oparciu o GCP, Azure lub Oracle. Zależnie od doświadczenia i preferencji, kandydaci mogą objąć jedną z trzech ról:GCP Data Lake Developer, Ekspert Azure Cloud DWH lub Data Engineer Oracle DWH. Oferujemy: pracę w 100% zdalną, udział w dużych, międzynarodowych projektach Data & AI, możliwość wyboru technologii i ścieżki rozwoju (GCP / Azure / Oracle), realny wpływ na architekturę i kierunek rozwoju rozwiązań danych, współpracę w modelu B2B pakiet benefitów (LuxMed, MyBenefit). ,[projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.projektowanie, rozwój i utrzymanie skalowalnych potoków danych (ETL/ELT) w środowiskach GCP, Azure lub Oracle,, modelowanie i optymalizacja struktur danych (BigQuery, Synapse, Oracle DWH),, integracja danych z różnych źródeł (Oracle, systemy legacy, API),, współpraca z zespołami Data Science przy wdrażaniu modeli ML (Vertex AI, Databricks),, tworzenie raportów i dashboardów w Power BI lub Tableau,, automatyzacja procesów danych i implementacja logiki biznesowej (PL/SQL, Python, Databricks),, optymalizacja wydajności zapytań i strojenie środowisk danych.] Requirements: SQL, Azure Synapse, Azure Data Factory, Databricks, Oracle, Power BI, Spark, Delta Lake
-
Data Engineer Oracle DWH @ Antal
14 hours ago
Remote, Wrocław, Czech Republic Antal Full timeminimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, zaawansowane umiejętności w Oracle PL/SQL (procedury, funkcje, wyzwalacze), doświadczenie z Oracle Exadata, praktyczna wiedza w zakresie strojenia wydajności i...
-
Data Engineer GCP Data Lake @ Antal
14 hours ago
Remote, Wrocław, Czech Republic Antal Full timeminimum 6 lat doświadczenia zawodowego w obszarze inżynierii danych, hurtowni danych lub rozwiązań chmurowych, bardzo dobra znajomość SQL i doświadczenie w pracy z dużymi zbiorami danych, praktyczne doświadczenie w pracy z usługami GCP: BigQuery, Databricks, Vertex AI, doświadczenie w pracy z Oracle Database, umiejętność modelowania danych i...
-
Kraków, Wrocław, Poznań, Gdańsk, Warszawa, Czech Republic Capgemini Polska Sp. z o.o. Full timeYOUR PROFILE strong experience in Big Data or Cloud projects in the areas of processing and visualization of large and unstructured datasets (in different phases of Software Development Life Cycle); practical knowledge of the Azure cloud in Storage, Compute (+Serverless), Networking and DevOps areas supported by commercial project work experience; very...
-
Big Data Engineer @ Antal
2 days ago
Remote, Kraków, Czech Republic Antal Full timeUniversity degree in Computer Science, IT, or related field Fluent spoken and written English Strong experience in big data solution design and development, with knowledge of the full software development life cycle and Agile methodology Proven track record in building distributed applications (preferably in a Spark environment) Hands-on experience with API...
-
Kraków, Wrocław, Poznań, Gdańsk, Warszawa, Czech Republic Capgemini Polska Sp. z o.o. Full timeYOUR PROFILE Good experience as an Architect and/or Technical Leader in Cloud or Big Data projects in the field of data processing and visualization (in different phases of SDLC); Practical knowledge of one of the following clouds: AWS, Azure, GCP in the area of Storage, Compute (+Serverless), Networking and Devops supported by work on commercial projects;...
-
GCP DevOps Engineer @ Antal
15 hours ago
Remote, Kraków, Czech Republic Antal Full time3+ years of experience in DevOps or Cloud Engineering roles Practical experience with CI/CD tools such as Jenkins, GitHub Actions, Nexus and Ansible Hands-on experience with cloud platforms (GCP preferred, AWS or Azure also considered) Proficiency in Terraform and Infrastructure as Code (IaC) approaches Strong scripting skills in Bash and Python Very...
-
Data Engineer
1 week ago
Remote, Czech Republic Crestt Full timeKogo szukamy? Masz już doświadczenie jako Data Engineer i chcesz dalej rozwijać się w tym kierunku Dobrze znasz technologie: Azure Data Lake Storage (ADLS), Azure Databricks (Python/PySpark, SQL), Azure Data Factory, Azure DevOps Potrafisz pracować w środowisku międzynarodowym – komunikacja w języku angielskim nie stanowi dla Ciebie problemu...
-
Senior Software Engineer Kotlin @ Antal
2 weeks ago
Remote, Warszawa, Czech Republic Antal Full timeAt least a decade of professional experience in back-end development including 3+ years with Kotlin and in a technical leadership role as well Strong proficiency in Kotlin and solid understanding of modern backend architecture (e.g., microservices, REST, event-driven design) Experience with Spring framework (with Kotlin) Deep knowledge of modern...
-
Data Engineer
14 hours ago
Remote, Czech Republic Link Group Full timeMust-Have Qualifications At least 3+ years of experience in data engineering. Strong expertise in one or more cloud platforms: AWS, GCP, or Azure. Proficiency in programming languages like Python, SQL, or Java/Scala. Hands-on experience with big data tools such as Hadoop, Spark, or Kafka. Experience with data warehouses like Snowflake, BigQuery, or Redshift....
-
Senior Kong Engineer @ Antal
14 hours ago
Wrocław, Czech Republic Antal Full timeMinimum 3 years of experience with Kong Gateway, including at least 1 year with Kong Konnect in production Previous experience as part of a platform engineering or infrastructure team In-depth understanding of API management, REST APIs, and microservices architecture Strong hands-on experience with Kubernetes, particularly with managing ingress and services...