 
						Data Engineer
2 weeks ago
Ta oferta jest dla Ciebie, jeśli: masz min. 5 lat doświadczenia jako Data Engineer, masz wykształcenie wyższe kierunkowe (preferowane PhD z matematyki, informatyki lub pokrewnych), posiadasz doświadczenie w inżynierii danych oraz pracy z ML/AI, w tym w rozwijaniu i wdrażaniu modeli generatywnych (LLM, NLP), masz praktyczne doświadczenie w deploymencie rozwiązań AI na AWS, biegle programujesz w Pythonie oraz znasz Snowflake lub Databricks, potrafisz pracować z dużymi zbiorami danych i analizą statystyczną, znasz konteneryzację (Docker) i orkiestrację (Kubernetes), znasz praktyki CI/CD i narzędzia do wdrażania modeli AI (Git, GitHub), posiadasz certyfikaty AWS (np. AWS Certified Machine Learning Specialty, AWS Solutions Architect) – będzie to dodatkowy atut, wyróżniasz się silnymi umiejętnościami analitycznymi i komunikacyjnymi, proaktywnością i gotowością do ciągłego uczenia się, znasz język angielski na poziomie min. komunikatywnym (B2/C1). W Scalo zajmujemy się dostarczaniem projektów software'owych i wspieraniem naszych partnerów w rozwijaniu ich biznesu. Tworzymy oprogramowanie, które umożliwia ludziom dokonywanie zmian, działanie w szybszym tempie oraz osiąganie lepszych rezultatów. Jesteśmy firmą, która wykorzystuje szerokie spektrum usług IT, żeby pomagać klientom. Obszary naszego działania to m.in.: doradztwo technologiczne, tworzenie oprogramowania, systemy wbudowane, rozwiązania chmurowe, zarządzanie danymi, dedykowane zespoły developerskie. Cześć U nas znajdziesz to, czego szukasz - przekonaj się W Scalo czeka na Ciebie: praca 100% remote stawka do 160 zł/h przy B2B w zależności od doświadczenia. Co dla Ciebie mamy: długofalową współpracę - różnorodne projekty (działamy w ramach Software Services, Embedded Services, Data Services, Cloud Services), możliwość rozwoju kompetencji we współpracy z naszym Center of Excellence, kafeteryjny system benefitów – Motivizer, prywatną opiekę medyczną – Luxmed. Brzmi interesująco? Aplikuj – czekamy na Twoje CV ,[budowa skalowalnych i bezpiecznych aplikacji AI z wykorzystaniem usług chmurowych AWS (m.in. SageMaker, Lambda, EC2),, tworzenie i automatyzacja procesów w Pythonie, w tym wdrożenia i orkiestracja workflow,, rozwój modeli generatywnych AI (w tym LLM, NLP, GenAI) wspierających wyzwania biznesowe i produkty,, projektowanie i utrzymanie zaawansowanych pipeline’ów danych z naciskiem na jakość i automatyzację,, ścisła współpraca z Data Scientistami i interesariuszami przy integracji i optymalizacji rozwiązań AI,, ciągła ewaluacja oraz optymalizacja modeli w oparciu o feedback i metryki jakościowe,, praca 100% zdalna,, stawka do 160 zł/h przy B2B w zależności od doświadczenia. ] Requirements: Spark, Python, DBT, SQL, AWS, Flink, Kafka, Airflow, Databricks, AI Tools: Confluence, GitHub, GitLab, GIT, Jenkins, Agile, Scrum. Additionally: Sport subscription, Training budget, Private healthcare, International projects.
- 
					  Data Engineer @ EPIKA2 weeks ago 
 Warszawa, Wrocław, Łódz, Czech Republic EPIKA Full timeData Engineering Foundations: Azure Databricks - PySpark, Spark SQL, Unity Catalog, Workflows Azure Data Factory, Key Vault, and ADLS/Delta OAuth, OpenID, SAML, JWT Medallion Architecture Strong SQL and data modeling in a lakehouse/Delta architecture Python for data engineering (API integration, utilities, testing) Operations: Running production pipelines... 
- 
					  Data Engineer @ Godel Technologies Europe2 days ago 
 Białystok, Warszawa, Gdańsk, Łódź, Wrocław, Czech Republic Godel Technologies Europe Full timeIdeally you have: 3+ years in Data Engineering role Solid Python programming skills for building and maintaining data pipelines Advanced SQL skills, including query optimization and performance tuning Experience with ETL/ELT tools and data orchestration frameworks like Apache Airflow, dbt Strong understanding of data modeling principles (dimensional... 
- 
					  Data Engineer @ Ework Group2 weeks ago 
 Remote, Wrocław, Czech Republic Ework Group Full timeAzure Databricks (PySpark, Spark SQL; Unity Catalog; Jobs/Workflows). Azure data services: Azure Data Factory, Azure Key Vault, storage (ADLS), fundamentals of networking/identities. Python for data engineering (APIs, utilities, tests). Azure DevOps (Repos, Pipelines, YAML) and Git-based workflows. Experience operating production pipelines (monitoring,... 
- 
					  Data Engineer with KDB @ GFT Poland5 days ago 
 Warszawa, Poznan, Wrocław, Łódź, Kraków, Czech Republic GFT Poland Full timeExpertise in KDB+/q with production systems: GW/RDB/HDB design, sym/partition strategies, attributes, asof/aj/uj, IPC patterns Strong skills in q/KDB+; working proficiency in Python/PyKX and ideally Java for integration services Solid Linux/UNIX fundamentals (networking, OS tuning) and familiarity with TCP/IP, UDP, Multicast; knowledge of FIX/OUCH/ITCH... 
- 
					  Data Engineer @ Scalo2 weeks ago 
 Remote, Kraków, Wrocław, Warszawa, Łódź, Czech Republic Scalo Full timeTa oferta jest dla Ciebie, jeśli: masz minimum 5 lat doświadczenia komercyjnego na podobnej pozycji, znasz bardzo dobrze SQL, posiadasz doświadczenie w pracy z Python, w tym frameworkach takich jak DBT, pracowałeś z usługami AWS: S3, Athena, Glue, znasz narzędzia Infrastructure-as-Code, takie jak Terraform, ważne jest dla Ciebie pisanie dobrze... 
- 
					
					
 Remote, Wrocław, Warszawa, Kraków, Czech Republic Shelf Full time3+ years of professional experience researching and shipping ML-based solutions, with strong Python skills and a track record of delivering fast without sacrificing quality Proven experience in owning research problems end-to-end, starting from initial data analysis, through iterative research phases to delivering on production Practical NLP/LLM experience:... 
- 
					  Senior Data Engineer @ CommerzBank2 weeks ago 
 Łódź, Czech Republic CommerzBank Full timeWhich technology & skills are important for us? 👌 Very good knowledge of data pipeline orchestration (design scalable, cloud-native data pipelines for data transformation and aggregation based on business use cases). Very good knowledge of GCP (or other Cloud) and creating Cloud based architecture (BigQuery, Dataproc/PySpark, Cloud Composer/Apache... 
- 
					  Data Engineer @ 1dea1 week ago 
 Kraków, Gdańsk, Wrocław, Warszawa, Lublin, Czech Republic 1dea Full timeMinimum 5 lat doświadczenia w IT applications management Doświadczenie i wiedza z zakresu user access management Dobra znajomość SQL Umiejętność programowania w Python oraz znajomość Spark Podstawowa znajomość systemów Unix i środowisk Big Data Umiejętność koordynacji z zespołami globalnymi i współpracy w międzynarodowym... 
- 
					  Data Scientist3 days ago 
 Remote, Warszawa, Gdańsk, Wrocław, Białystok, Kraków, Czech Republic Addepto Full time🎯 What you’ll need to succeed in this role: At least 3+ years of proven commercial experience designing and implementing scalable AI solutions (Machine Learning, Predictive Modeling, Optimization, NLP, Computer Vision, GenAI). Proficiency in developing ML algorithms from scratch to production deployment. Strong programming skills in Python: writing... 
- 
					  Data Engineer @ Experis Polska3 days ago 
 Remote, Warszawa, Czech Republic Experis Polska Full timeProven experience with traditional data warehouse and ETL systems (Informatica is a strong plus) Hands-on expertise with PySpark and Python Experience working with Databricks Proficiency in cloud platforms, preferably Microsoft Azure Experience in large-scale data migration projects Familiarity with CI/CD practices in data engineering Start Date: ASAP /...