Вакансії Data Engineer / Big Data Architect

Досвід не має значення Senior Full-time Не має значення Є тестове завдання Office, Remote Україна
22.05.2025
Детальніше
  • Kafka
  • JSON
  • Avro
  • Python
  • Apache Flink
  • Kubernetes
  • Helm
  • GKE
  • GCP
  • Confluent Kafka
  • SQL
  • RDBMS
  • NoSQL
  • Neo4j

We are looking for a talented Senior Data Engineer with a strong background in developing or contributing to applications based on microservices using a Kappa architecture. The project aims to unify data sourced from different EHR systems in the healthcare domain, using the FHIR data format.

Customer

Our client is a leading analytics company operating at the intersection of technology, artificial intelligence, and big data. They support manufacturers and retailers in the fast-moving consumer goods sector, helping them better understand market dynamics, uncover consumer behavior insights, and make data-driven business decisions.

Project

The project aims to unify data sourced from various EHR systems in the healthcare domain using the FHIR data format. The company’s proprietary technology platform combines high-quality data, deep industry expertise, and advanced predictive algorithms built over decades of experience in the field.

Requirements

  • Deep understanding of patterns and software development practices for event-driven architectures
  • Hands-on experience with stateful stream data processing solutions (Kafka or similar streaming platforms)
  • Strong knowledge of data serialization/deserialization using various data formats (at minimum JSON and Avro), and integration with schema registries
  • Proven Python software development expertise, with experience in data processing and integration (most of the software is written in Python)
  • Practical experience building end-to-end solutions with Apache Flink or a similar platform
  • Experience with containerization and orchestration using Kubernetes (K8s) and Helm, especially on Google Kubernetes Engine (GKE)
  • Familiarity with Google Cloud Platform (GCP) or a similar cloud platform
  • Hands-on experience implementing data quality solutions for schema-on-read or schema-less data
  • Hands-on experience integrating with Apache Kafka, particularly the Confluent Platform
  • Familiarity with AI and ML frameworks
  • Proficiency in SQL and experience with both relational and NoSQL databases
  • Experience with graph databases like Neo4j or RDF-based systems
  • Experience in the healthcare domain and familiarity with healthcare standards such as FHIR and HL7 for data interoperability

Would be a plus:

  • Experience with web data scraping

Personal Profile

  • Strong problem-solving skills, with the ability to design innovative solutions for complex data integration and processing challenges
  • Excellent communication skills, with the ability to articulate complex technical concepts and work effectively with various stakeholders
  • Commitment to improving healthcare through data-driven solutions and technology
  • Stay abreast of the latest technologies and industry trends while continually improving your skills and knowledge
  • Ability to work in a collaborative environment, valuing diverse perspectives and contributing to a positive team culture

Responsibilities

  • Data Standardization and Transformation:
    • Convert diverse data structures from various EHR systems into a unified format based on FHIR standards
    • Map and normalize incoming data to the FHIR data model, ensuring consistency and completeness
  • Kafka Integration:
    • Consume and process events from the Kafka stream produced by the Data Writer Module
    • Deserialize and validate incoming data to ensure adherence to required standards
  • Data Segmentation:
    • Separate data streams for warehousing and AI model training, applying specific preprocessing steps for each purpose
    • Prepare and validate data for storage and machine learning model training
  • Error Handling and Logging:
    • Implement robust error handling mechanisms to track and resolve data mapping issues
    • Maintain detailed logs for auditing and troubleshooting purposes
  • Data Ingestion and Processing:
    • Use LLMs to extract structured data from EHRs, research articles, and clinical notes
    • Ensure semantic consistency and interoperability during data ingestion
  • Knowledge Graph Construction:
    • Integrate extracted data into a knowledge graph, representing entities and relationships for semantic data integration
    • Implement contextual understanding and querying of complex relationships within the knowledge graph (KG)
  • Advanced Predictive Modeling:
    • Leverage KGs and LLMs to enhance data interoperability and predictive analytics
    • Develop frameworks for contextualized insights and personalized medicine recommendations
  • Feedback Loop:
    • Continuously update the knowledge graph with new data using LLMs, ensuring up-to-date and relevant insights
    • Work Closely with Cross-Functional Teams
    • Collaborate with data scientists, AI specialists, and software engineers to design and implement data processing solutions
    • Communicate effectively with stakeholders to align on goals and deliverables
  • Contribute to Engineering Culture:
    • Foster a culture of innovation, collaboration, and continuous improvement within the engineering team

Інформація про компанію Sigma Software

Sigma Software надає високоякісні рішення для розробки програмного забезпечення та ІТ-консультації більш ніж 170 клієнтам по всьому світу. Компанія працює з клієнтами у фінансово-банківській сфері, автомобільній промисловості, ЗМІ та рекламі, телекомунікаціях, кібербезпеці, індустрії азартних ігор, авіації, нерухомості, енергетиці та охороні здоров’я.
Рік заснування: 2002
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: sigma.software

Переваги співробітникам

Відгукнутися
Product / Startup
Досвід не має значення Middle Full-time Не має значення Є тестове завдання Remote Україна
21.05.2025
Детальніше
  • SQL
  • Python
  • Apache Airflow
  • Prefect
  • Dagster
  • Apache Spark
  • DataBricks
  • Snowpark
  • Trino
  • Presto
  • Athena
  • Kafka
  • AWS Kinesis
  • Apache Flink
  • Snowflake
  • BigQuery
  • Redshift
  • Iceberg
  • Delta Lake
  • Apache Hudi
  • Docker
  • Kubernetes
  • GitLab CI/CD

Prom.ua – найбільший маркетплейс України, де продаються понад 200 млн товарів від десятків тисяч підприємців з усієї країни.
На Prom.ua:

  • кожен покупець може знайти все, що потрібно, за найкращою ціною: від зубної щітки до культиватора для саду та городу.
  • кожен підприємець може продавати товари в каталозі маркетплейса, на сайті, створеному на платформі Prom та у мобільному додатку “Prom покупки”.

Prom.ua в цифрах:

  • щодня маркетплейс відвідують 4,8 млн осіб
  • на маркетплейсі працюють понад 60 тис. компаній
  • у каталозі 200 млн товарів

Про команду:

  • Data Analytics, Data Engineers, Product Analytics

Ми використовуємо в роботі:

  • Data Lakehouse 200+ TB даних, дані зберігаємо в HDFS, S3, для табличних даних використовуємо формат Apache Iceberg.
  • Безпосередньо з самим сховищем взаємодіє 30 – 40 людей, споживають його дані сотні (якщо враховувати тільки внутрішніх споживачів).
  • Для обробки даних використовуємо Spark, Trino, оркестрація відбувається в Airflow.
  • Інструменти/Сервіси переважно деплоїмо в Kubernetes, іноді в OpenStack.
  • У якості репозиторію коду та для CI/CD використовуємо GitLab.
  • Під каталог, документацію та для моніторингу даних використовуємо Open Metadata, для документації по інструментах/сервісах використовуємо Material for MkDocs.

Для даної ролі важливо:

  • Мати високий рівень володіння мовами SQL та Python.
  • Мати глибокий досвід роботи з code-based інструментами оркестрації, бажано Airflow, Prefect, Dagster. Наприклад, у випадку з Airflow розуміти, що таке XCom, Pool, Hook, Sensor, Operator, TaskGroup тощо.
  • Мати досвід написання складних, ідемпотентних пайплайнів з обробки великих обсягів даних.
  • Мати глибокий досвід використання хоча б двох з перелічених інструментів для обробки даних: (Spark/Databricks/Snowpark), (Trino/Presto/Athena), (Kafka/Kinesis/Flink), (Snowflake/BigQuery/Redshift).
  • Розуміти відмінність між Data Warehouse, Data Lake, Data Lakehouse.
  • Розуміти принцип роботи табличних форматів, в ідеалі мати досвід роботи з Iceberg або Delta Lake, Hudi.
  • Знати принципи організації та моделювання даних: Medallion, Kimball, Inmon.
  • Мати досвід роботи з Docker, Kubernetes, Gitlab CI/CD.
  • Системно мислити, широко та з урахуванням майбутніх перспектив, думати про мету, а не задачу.
  • Орієнтуватись на якісний та довгостроковий результат роботи, в більшості випадків якість важливіша за швидкість.
  • Бути відкритим до змін, продукт дуже активно змінюється.
  • Розуміти, що комунікація з технічними та не технічними спеціалістами це частина компетенцій.

Можливі задачі:

  • Підтримка та розвиток сховища (Data Lakehouse) проєктів Prom+, що включає в себе:
    • Проєктування та наповнення сховища даними, необхідними для команд проєктів.
    • Написання пайплайнів для обробки/оновлення даних в сховищі.
    • Рефакторинг, модифікація наявних пайплайнів.
    • Написання тестів та моніторинг якості даних.
    • Обслуговування документації по сховищу.
  • Підтримка частини інфраструктури для роботи з даними, Airflow, Trino, Open Metadata (конфігурування, оновлення та деплой).
  • Допомога та консультування команд Data Analytics, Data Science з приводу отримання та обробки даних.
  • Code Review пайплайнів команд Data Analytics, Data Engineers.

Інформація про компанію EVO

EVO – українська продуктова IT-компанія. Компанія розробляє маркетплейси для онлайн-шопінгу і замовлення послуг, створює сервіси цифрових рішень для бізнесу, інтернет-майданчики для проведення державних і комерційних торгів та аукціонів, а також розвиває фінтех проєкт EVO Fintech та логістику.
Рік заснування: 2008
Кількість працівників: 501-1000
Резидент Дія.City
Сайт: evo.company

Переваги співробітникам

Відгукнутися
Outsource, Outstaff
Досвід від 5 років Lead Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote Україна, Львів, Poland
16.05.2025
Детальніше
  • Snowflake
  • SQL
  • Dataiku
  • Azure Data Factory

We’re opening the position of a Lead Data Engineer to join our team aimed at developing a data warehouse solution for a big US food company. You will play a key role in shaping our data architecture, integrating data from multiple sources, and powering business-critical dashboards used across the company.
As a Lead Data Engineer, you will also be expected to guide the Development Team, making technical decisions and ensuring best practices are followed across data architecture, pipeline design, and performance optimization.

Responsibilities:

  • Build a data mart design and documentation of sophisticated data architecture solutions, including data models, data integration patterns, and data storage mechanisms
  • Collaborate with the Product Owner and the team to implement data solutions aligned with the organization’s strategic goals
  • Work alongside Data Engineers to ensure seamless integration of data pipelines and data products with the overall data architecture
  • Optimize data storage and retrieval processes to fully leverage Snowflake capabilities, focusing on performance, scalability, and cost efficiency
  • Provide technical leadership, mentorship, and support to the Data Engineering Team
  • Perform code reviews and ensure adherence to coding standards and best practices

Requirements:

  • 5+ years in data engineering, data modelling, database design, data warehousing, and data governance practices
  • Production experience with building, maintaining, and performance optimization of Snowflake DWH
  • Proven experience in leading data projects, architecting and designing new solutions
  • Experience in building and maintaining data pipelines
  • Proficiency in SQL
  • Ability to conduct code reviews and ensure adherence to coding standards
  • Excellent problem-solving and analytical skills
  • Strong communication and collaboration abilities
  • English level – Upper-Intermediate or higher

Will be a plus:

  • Experience with Dataiku for pipeline orchestration
  • SnowPro® Certifications
  • Experience with Azure data factory

Інформація про компанію Edvantis

Edvantis – аутсорсингова компанія з розробки ПЗ з більш ніж 400 реалізованими проєктами. Компанія допомагає досягти більшого: виходить за межі вирішення початкової проблеми за допомогою розробки програмного забезпечення як послуги та допомагає клієнтам отримати максимальну віддачу від інноваційних технологій та процесів розробки.
Рік заснування: 2005
Кількість працівників: 251-500
Резидент Дія.City
Сайт: edvantis.com

Переваги співробітникам

Відгукнутися
Product / Startup, Outsource
Досвід від 5 років Senior, Lead Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote Україна, Brazil, Mexico, Poland
13.05.2025
Детальніше
  • Kafka
  • API
  • Ethereum
  • Solana
  • AWS
  • GCP
  • Azure
  • Apache Airflow
  • PostgreSQl
  • ClickHouse
  • Docker
  • Kubernetes
  • CI/CD
  • DeFi

What you will do

  • Design, develop, and maintain real-time and batch ETL pipelines tailored to blockchain and market data;
  • Build and maintain scalable backend systems and APIs for internal and external data consumption;
  • Ensure data observability, quality, and reliability through standardized monitoring and alerting systems;
  • Collaborate cross-functionally with data scientists, engineers, and product teams to support decision-making through accessible data;
  • Improve existing systems and identify opportunities for automation and performance optimization;
  • Contribute to open-source tooling and share knowledge with the broader Ethereum and Web3 ecosystem;
  • Mentor other engineers and promote a culture of innovation and technical excellence;
  • Engage in technical discussions, architectural reviews, and code quality assurance;
  • Provide technical leadership, mentorship, and guidance to other engineers.

Must haves

  • 5+ years of experience as a Data Engineer with a strong foundation in data-intensive systems;
  • Experience building and maintaining highly available data pipelines;
  • Proficiency with Apache Kafka or other data streaming/pub-sub systems;
  • Experience with data modeling, API design, and distributed systems;
  • 1+ years of experience working with Ethereum or Solana ecosystems;
  • Strong understanding of blockchain data structures and transaction flows;
  • Comfortable working in a fast-paced, remote, and collaborative environment;
  • Upper-Intermediate English level.

Nice to haves

  • Experience with AWS, GCP, or Azure;
  • Experience with Apache Airflow and other workflow orchestration tools;
  • Experience with PostgreSQL, ClickHouse, or similar analytical databases;
  • Familiarity with Docker, Kubernetes, and CI/CD practices;
  • Prior exposure to on-chain analytics, DeFi protocols, or smart contracts;
  • Experience contributing to open-source data tooling.

Інформація про компанію AgileEngine

AgileEngine – міжнародна компанія, розробник програмного забезпечення на замовлення. Працює з венчурними стартапами та відомими технологічними брендами, пропонує повний спектр послуг від виділених віддалених команд до консультацій на місці.
Рік заснування: 2010
Кількість працівників: 1001-5000
Сайт: agileengine.com

Переваги співробітникам

Відгукнутися
Досвід від 3 років Middle Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote, Hybrid Київ, Харків, Дніпро, Одеса, Черкаси, Чернігів, Batumi, Tbilisi
12.05.2025
Детальніше
  • Python
  • Azure OpenAI
  • Foundry
  • LLM
  • RAG
  • Milvus
  • Qdrant
  • Chroma
  • Pinecone
  • MLflow
  • Kubeflow
  • Azure ML
  • API
  • Microservices
  • FastAPI
  • Flask
  • Django REST framework

The customer is a leading company specializing in digital solutions and services for the maritime industry. It aims to optimize and enhance shipping processes by offering a range of products that improve operational efficiency and transparency. Key areas include digital solutions, analytics, and consulting. It is committed to innovation and sustainable development, leveraging advanced technologies and best practices. The company prides itself on its international team of professionals dedicated to delivering high-quality and reliable solutions to clients.
The project is a comprehensive digital solution for managing maritime documentation, automating processes from agent appointments to final payments. It improves operational efficiency, regulatory compliance, and cost management, while also supporting communication, information sharing, vessel support, and payment services.

Responsibilities

  • Developing, deploying, and optimizing LLM-based applications using Python and Azure OpenAI.
  • Implementing Retrieval-Augmented Generation (RAG) pipelines for efficient data retrieval.
  • Setting up and configuring inference parameters (like top-k, top-p, temperature, seed, penalty, etc.) to enhance model performance.
  • Leveraging Azure Foundry for AI model integration and deployment.
  • Working with cloud-based architectures to ensure scalable and efficient AI solutions.
  • Collaborating with data scientists, ML engineers, and software developers to build robust AI-driven applications.
  • Monitoring, troubleshooting, explaining, and enhancing AI models for improved accuracy and efficiency.

Requirements

  • Experience of Python development for 3+ years, particularly in AI/ML projects.
  • Experience with Azure OpenAI and Azure Foundry.
  • Hands-on expertise with LLM deployments and inference parameters setup.
  • Knowledge of Retrieval-Augmented Generation (RAG) techniques.
  • Familiarity with vector databases (e.g., Milvus, Qdrant, Chroma, Pinecone) and embedding for RAG applications.
  • Strong problem-solving skills and ability to work in a fast-paced environment.
  • Level of English – from Upper-Intermediate and above.

Desired skills

  • Experience with MLOps and CI/CD pipelines for AI models (e.g. MLFlow, Kubeflow, Azure ML).
  • Understanding of model evaluation metrics and performance tuning.
  • Familiarity with APIs and microservices architecture.
  • Knowledge of REST API Python frameworks (e.g. FastAPI, Flask, DRF).

Інформація про компанію Andersen

Andersen – глобальна компанія з розробки програмного забезпечення, з більш ніж 16-річним досвідом допомоги підприємствам по всьому світу у трансформації бізнесу шляхом створення ефективних цифрових рішень з використанням інноваційних технологій. Компанія має досвід створення програмних продуктів і спеціалізується на веб-розробках та мобільних розробках на замовлення, включаючи Big Data, Visual Technologies, Machine Learning and Deep Learning.
Рік заснування: 2007
Кількість працівників: 501-1000
Резидент Дія.City
Сайт: andersenlab.com

Переваги співробітникам

Відгукнутися
Досвід не має значення Middle, Senior Full-time Не має значення Є тестове завдання Remote Київ
12.05.2025
Детальніше
  • GitOps
  • IaC
  • Kubernetes
  • Helm
  • ArgoCD
  • Prometheus
  • Grafana
  • Grafana Loki
  • HashiCorp Vault
  • Apache Spark
  • Kafka
  • MinIO
  • Amazon S3
  • Apache Airflow
  • Docker
  • GitLab
  • GitLab CI
  • Python
  • Golang
  • Java
  • Scala
  • Kerberos
  • Active Directory
  • ClickHouse
  • Elasticsearch
  • oAuth
  • OpenID
  • Keycloak
  • Azure
  • Azure Fabric

Our project is to develop the data platform, where all the analytical data of the company will be stacked. This is a great opportunity to participate in the launch and operation of a large Kubernetes/Spark/S3 cluster and one of the most interesting BI practices in Eastern Europe.

Responsibilities:

  • Support and active development of the Data Platform and Hybrid Data Platform (on-prem + Azure Fabric, in progress)
  • Support for a team of data engineers and analysts

Skills:

  • Understanding the advantage of GitOps/IaC over manual work
  • Kubernetes, Helm, ArgoCD, Prometheus, Grafana, Loki, HashiCorp Vault
  • Apache Spark in Kubernetes, Apache Kafka, Minio/S3, Apache Airflow
  • Docker (BuildKit), Gitlab, Gitlab CI
  • Experience with at least one of the most popular programming languages, such as Python, Golang, Java, Scala, etc.Be able writing a code

Will be a plus:

  • Kerberos, Active directory
  • Clickhouse
  • Datahub
  • Elasticsearch
  • Experience with any OLAP DB, support, optimize
  • Security in K8s, HashiCorp Vault, Oauth, OpenID, Keycloak

Will be a significant plus:

  • Azure, Azure Fabric.

Technologies that we use:

  • Kubernetes RKE2 1.31. Cilium 1.17. Gitops, Argocd, Helm, Kustomize, Kyverno.
  • Gitlab, Gitlab CI, Gitlab Kubernetes Runner, Docker, Buildkit.
  • Apache Airflow.
  • Apache Spark, Apache Kyuubi, Hive Metastore
  • Minio, Redis, PostgreSQL (Cloudnative-PG), Elasticsearch, Apache Kafka, Clickhouse.
  • Datahub.
  • Prometheus Stack, Grafana, Grafana Loki.
  • Python, Golang metrics exporters, Datadog Vector, Fluent-bit.
  • PowerBI, Azure Fabric.
  • Ansible.

Інформація про компанію TemaBit

TemaBit – українська IT-компанія, є частиною Fozzy Group, яка розробляє унікальні рішення для понад 40 компаній. TemaBit спеціалізується на веб- та мобільних розробках, програмному забезпеченні для управління бізнес-процесами та інфраструктурними проектами, підтримці різноманітних програмних продуктів у різних сферах, а також працює над глобальною міграцією від великих локальних сервісів до власної AWS.
Рік заснування: 2017
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: temabit.com

Переваги співробітникам

Відгукнутися
Досвід від 4 років Senior Full-time Не має значення Є тестове завдання Office, Remote Україна
09.05.2025
Детальніше
  • SQL
  • Python
  • GCP
  • Apache Spark
  • Google Cloud Dataflow
  • Apache Beam
  • Apache Airflow
  • Cloud Composer
  • MWAA
  • BigQuery
  • Redis
  • CloudSQL
  • dbt
  • Dataform
  • AWS
  • Amazon S3
  • AWS Redshift
  • AWS RDS
  • EMR
  • Athena
  • PostgreSQl
  • MySQL
  • Microsoft SQL Server
  • Kafka
  • PySpark
  • NoSQL
  • Cassandra
  • Aerospike

Big Data & Analytics is the Center of Excellence's data consulting and data engineering branch. Hundreds of data engineers and architects nowadays build data & analytics end-to-end solutions from strategy through technical design and proof of concepts to full-scale implementation. We have customers in the healthcare, finance, manufacturing, retail, and energy domains.
We hold top-level partnership statuses with all the major cloud providers and collaborate with many technology partners like AWS, GCP, Microsoft, Databricks, Snowflake, Confluent, and others.

If you are

  • Experienced Big Data Engineer with at least 4 years focused on designing and building scalable data pipelines
  • Well-versed in batch or streaming data processing
  • Proficient in SQL and Python
  • Experienced in data engineering on Google Cloud Platform (GCP)
  • Skilled in tools like Apache Spark (GCP Dataproc), Cloud Dataflow, or Apache Beam
  • Familiar with orchestration tools such as Apache Airflow, Cloud Composer, or Amazon MWAA
  • Experienced with Google BigQuery and other GCP-native data services like Memorystore for Redis or CloudSQL
  • Familiar with transformation tools like dbt or Dataform
  • Aware of AWS services, including S3, Redshift, RDS, EMR, or Athena (as part of migration context)
  • Confident in using cloud-agnostic technologies like PostgreSQL, MySQL, SQL Server, Kafka, and PySpark
  • Knowledgeable in NoSQL technologies such as Cassandra and Aerospike
  • Capable of working with Databricks@GCP and Snowflake@GCP workloads in cloud-to-cloud migration scenarios

And you want to

  • Be part of a data-focused engineering team migrating large-scale systems from AWS to GCP
  • Work with a modern technology stack, including BigQuery, Dataflow, Dataproc (Serverless), Cloud Run, and Composer
  • Collaborate with experts on re-architecting and optimizing cloud-native data platforms
  • Participate in the entire project lifecycle: from discovery and PoCs to MVPs and full production rollout
  • Engage with customers ranging from global enterprises to innovative startups
  • Continuously learn, share knowledge, and explore new cloud services
  • Contribute to building a data platform that integrates batch, streaming, and real-time components
  • Work in an environment that values technical ownership, code quality, and clean design

Інформація про компанію SoftServe

SoftServe – IT компанія з українським корінням, що займається консалтингом та розробкою програмного забезпечення. Маючи досвід у сфері охорони здоров’я, роздрібної торгівлі, енергетики, фінансових послуг тощо, компанія впроваджує наскрізні рішення, щоб забезпечити інновації, якість і швидкість, яких очікують користувачі клієнтів.
Рік заснування: 1993
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: softserveinc.com

Переваги співробітникам

Відгукнутися
Досвід від 5 років Senior, Lead Full-time Upper-Intermediate / B2 Є тестове завдання Remote Україна, Київ
09.05.2025
Детальніше
  • T-SQL
  • Python
  • Azure SQL
  • Azure Data Factory
  • Snowflake
  • dbt
  • C#
  • .NET

SimCorp is an independent subsidiary of the Deutsche Börse Group. Following the recent merger with Axioma, we leverage the combined strength of our brands to provide an industry-leading, full, front-to-back offering for our clients.  
SimCorp is an equal-opportunity employer. We are committed to building a culture where diverse perspectives and expertise are integrated into our everyday work. We believe in the continual growth and development of our employees, so that we can provide best-in-class solutions to our clients.
You will be joining an innovative application development team within SimCorp’s Product Division. As a primary provider of SaaS offerings based on next-generation technologies, our Digital Engagement Platform is a cloud-native data application developed on Azure, utilizing SRE methodologies and continuous delivery. Your contribution to evolving DEP’s data platform will be vital in ensuring we can scale to future customer needs and support future analytics requirements. Our future growth as a SaaS product is rooted in a cloud-native strategy that emphasizes adopting a modern data platform tool stack and the application of modern engineering principles as essential components.
We are looking into a technology shift from Azure SQL to SnowFlake in order to meet new client demands for scalability. You will be an important addition to the team for achieving this goal.

Requirements

Most importantly, you can see yourself contributing and thriving in the position described above. How you gained the skills needed for doing that is less important.
We expect you to be good at and have had hands-on experience with the following:

  • Expert in T-SQL
  • Proficiency in Python
  • Experience in Microsoft cloud technologies data services including but not limited to Azure SQL and Azure Data Factory
  • Experience with Snowflake and star schema and data modeling – experience with migrations to Snowflake will be an advantage
  • Experience or strong interest with DBT (data build tool) for transformations, test. Validation, data quality etc.
  • English – Upper Intermediate

On top of that, it would an advantage to have knowledge / interest in the following: 

  • Some proficiency in C# .NET
  • Security first mindset, with knowledge on how to implement row level security etc.
  • Agile development methodologies and DevOps / DataOps practices such as continuous integration, continuous delivery, and continuous deployment. For example, automated DB validations and deployment of DB schema using DACPAC.

As a person, you have following traits:

  • Strong collaborator with team mates and stakeholders
  • Clear communicator who speaks up when needed.

Job responsibilities

  • Ensure quality in our data solutions and that we can ensure good data quality across multiple customer tenants every time we release.
  • Work together with the Product Architect on defining and refining the data architecture and roadmap.
  • Facilitate the migration of our current data platform towards a more modern tool stack that can be easier maintained by both data engineers and software engineers.
  • Ensure that new data entities get implemented in the data model using schemas that are appropriate for their use, facilitating good performance and analytics needs.
  • Guide and support people of other roles (engineers, testers, etc.), to ensure the spread of data knowledge and experience more broadly in the team

Інформація про компанію GlobalLogic

GlobalLogic, компанія Hitachi Group, є лідером у сфері розробки продуктів повного життєвого циклу, який поєднує досвід розробки програмного забезпечення Chip-to-Cloud та досвід вертикальної галузі, щоб допомогти нашим клієнтам проєктувати, створювати та постачати продукти наступного покоління та цифровий досвід. Компанія вміло інтегрує дизайн, комплексне проєктування та можливості гнучкої доставки, щоб досягти чудових бізнес-результатів для світових брендів.
Рік заснування: 2000
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: globallogic.com

Переваги співробітникам

Відгукнутися
Досвід від 5 років Lead Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote Україна
09.05.2025
Детальніше
  • Hadoop
  • Apache Spark
  • SQL
  • Spark SQL
  • HiveQL
  • Scala
  • Cats
  • ETL
  • Teradata
  • Vertica
  • Oracle
  • Tableau
  • Kafka
  • Iceberg
  • Trino
  • Presto
  • Apache Druid
  • Cassandra
  • AWS
  • Splunk
  • Azkaban
  • Apache Airflow

Наш клієнт, всесвітньо відома багатонаціональна технологічна компанія, розташована в Каліфорнії та входить у Велику п’ятірку технологічних компаній, розширює партнерство з EPAM.
Спеціалізація клієнта:

  • побутова електроніка
  • програмне забезпечення
  • онлайн-послуги

Ви працюватимете з експертами та технологіями світового рівня з самого серця Кремнієвої долини, займаючись розробкою продуктів та послуг, якими щодня користуються мільярди людей.
Ми шукаємо досвідченого Lead Software Data Engineer для поповнення нашої команди

Чим ви будете займатися у цій ролі

  • Розробка дата пайплайнів, задач для створення нових вихідних датасетів в рамках розробки нового функціоналу
  • Адаптація існуючих дата пайплайнів для інтеграції з різноманітними платформами, інструментами та сервісами
  • Правка помилок в коді та даних, які були згенеровані через неправильну логіку або реалізацію
  • Швидкий аналіз та дослідження даних для допомоги продакт менеджмент команді
  • Здійснення моніторингу і усунення виробничих проблем з наявними дата пайплайнами
  • Розробка та впровадження якісних перевірок даних (контроль якості)
  • Планування обсягу нових розробок: оцінювання необхідних ресурсів, планування часових рамок виконання завдань
  • Підтримка чіткості процесів з обробки тікетів
  • Покращувати завдання, додатки та систему, якою ми керуємо, у всіх аспектах: якість коду, складність, обслуговування, документація
  • Комунікувати з іншими інженерами з обробки даних у команді, колегами та керівниками проєктів щодо статусу, проблем, оцінок, часових рамок тощо

Навички

  • 5+ років практичного досвіду роботи із Big Data: Hadoop (HDFS, YARN або Mesos), Spark
  • Знання та практичний досвід застосування SQL у контексті роботи із Big Data: Spark SQL, Hive QL
  • Знання Spark
  • Оптимізація планів виконання Spark за допомогою Spark UI
  • Хороше знання Scala, включаючи фунціональні бібліотеки Scala (Cats)
  • Знання основ пакетної обробки та принципів ETL у сховищах даних
  • Досвід з оркестрацією даних та знання умов повноти даних
  • Досвід з дата клінзінгом (обробка пошкоджених, некоректних та дубльованих даних)
  • Знання міграції схем та еволюції наборів даних
  • Володіння усною та письмовою англійською мовою не нижче рівня B2
  • Уміння швидко навчатись та вивчати новий набір інструментів і технологій, що використовуються на проєкті: сервісні платформи, постачальники телеметрії, Spark-as-a-Service, система збору та багато іншого

Буде перевагою

  • Розуміння ідей і принципів функціонального програмування
  • Досвід написання та використання веб-сервісів
  • Досвід роботи з Teradata, Vertica, Oracle або Tableau
  • Досвід роботи зі Spark Streaming і Kafka
  • Досвід роботи або знання наступних технологій: Apache Iceberg, Trino (Presto), Druid, Cassandra, Blob-сховища, наприклад AWS
  • Досвід роботи зі Splunk
  • Знання або досвід роботи з Azkaban або Airflow

Інформація про компанію EPAM

З початку 1993 року EPAM надає підтримку світовим лідерам у проєктуванні, розробці та впровадженні програмного забезпечення, яке міняє світ. Починаючи з 2005 року, компанія EPAM в Україні пропонує свою експертизу у сфері інжинірингу та розробки продуктів, сприяючи успішному вирішенню складних бізнес-задач та ефективному управлінню процесом цифрової трансформації від початку до кінця.
Рік заснування: 1993
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: careers.epam.ua

Переваги співробітникам

Відгукнутися
Досвід не має значення Lead Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote Україна
09.05.2025
Детальніше
  • Azure
  • Azure Data Factory
  • Azure Data Lake
  • Azure Databricks
  • Microsoft Purview
  • Azure Monitor
  • Azure Storage Services
  • ADLS
  • Azure Functions
  • Azure Cognitive Services
  • Azure Form Recognizer
  • Python
  • GraphQL
  • Agile
  • Azure DevOps
  • Scrum
  • Kanban

Наш клієнт – міжнародний виробник косметики, парфумерії, засобів для догляду за шкірою та волоссям. Метою проєкту є створення рішення для інтеграції неструктурованих даних для Data Lake нашого клієнта з використанням власних хмарних сервісів Azure.

Чим ви будете займатися у цій ролі

  • Координувати та контролювати роботу команди розробників ПЗ для обробки даних
  • Налагоджувати та підтримувати процес розробки та інструменти для забезпечення ефективного та результативного виконання відповідно до найкращих галузевих практик (EngX)
  • Очолювати та сприяти реалізації MVP для неструктурованих даних, що надходять до системи
  • Брати участь у підтримці беклогу та Scrum-процесах
  • Брати участь у створенні BRD, SAD та подальшому впровадженні беклогу та інструкцій для наступних етапів проєкту
  • Очікувані результати: MVP для введення неструктурованих даних до корпоративного сховища даних на основі хмарних сервісів Azure для ETL, OCR, NER та кастомного коду Python

Навички

  • Досвід роботи з Data Platform & Solution engineering and Azure’s PaaS offerings
  • Компетентність в Azure: Data Factory, Data Lake, Databricks, Microsoft Purview, Monitor, Storage Services, ADLS, Azure Functions, Log Analytics, Serverless Architecture, Azure Cognitive Services, Azure Form Recognizer
  • Практичний досвід і високий рівень володіння Python і GraphQL
  • Знання кращих практик безпеки (наприклад, використання Azure Key Vault, IAM, RBAC, Monitor і т.д.)
  • Вміння інтегрувати, трансформувати і консолідувати дані з різних структурованих і неструктурованих систем даних в структуру, придатну для побудови різних аналітичних рішень
  • Досвід організації та дотримання ефективного та результативного процесу розробки для Agile-команди
  • Хороші комунікативні навички, вміння працювати в команді
  • Високий рівень розуміння Azure DevOps, досвід роботи в Agile середовищі (Scrum, Kanban)
  • Досвід роботи з Azure ML буде перевагою
  • Знання письмової та усної англійської мови на рівні Upper-Intermediate і вище (B2+)

Інформація про компанію EPAM

З початку 1993 року EPAM надає підтримку світовим лідерам у проєктуванні, розробці та впровадженні програмного забезпечення, яке міняє світ. Починаючи з 2005 року, компанія EPAM в Україні пропонує свою експертизу у сфері інжинірингу та розробки продуктів, сприяючи успішному вирішенню складних бізнес-задач та ефективному управлінню процесом цифрової трансформації від початку до кінця.
Рік заснування: 1993
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: careers.epam.ua

Переваги співробітникам

Відгукнутися
Досвід від 7 років Senior Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote Україна
09.05.2025
Детальніше
  • PySpark
  • Python
  • ETL
  • SQL
  • PostgreSQl
  • MySQL
  • Oracle
  • Snowflake
  • DataBricks
  • Git
  • Prometheus
  • Grafana

We are hiring a Senior Full-Stack Software Developer. Our client team consists of frontend and backend developers, data engineers, data scientists, QA engineers, cloud engineers, and project managers.

Responsibilities

  • Participate in requirements clarification and sprint planning sessions.
  • Design technical solutions and implement them, inc ETL Pipelines
  • Build robust data pipelines in PySpark to extract, transform, using PySpark
  • Optimize ETL Processes
  • Enhance and tune existing ETL processes for better performance, scalability, and reliability
  • Writing unit and integration tests.
  • Support QA teammates in the acceptance process.
  • Resolving PROD incidents as a 3rd line engineer.

Must have skills

  • Min 7 Years of experience in IT/Data
  • Bachelor in IT or related field.
  • Exceptional logical reasoning and problem-solving skills
  • Programming: Proficiency in PySpark for distributed computing and Python for ETL development.
  • SQL: Strong expertise in writing and optimizing complex SQL queries, preferably with experience in databases such as PostgreSQL, MySQL, Oracle, or Snowflake.
  • Data Warehousing: Experience working with data warehousing concepts and platforms, ideally DataBricks
  • ETL Tools: Familiarity with ETL tools & processes
  • Data Modelling: Experience with dimensional modelling, normalization/denormalization, and schema design.
  • Version Control: Proficiency with version control tools like Git to manage codebases and collaborate on development.
  • Data Pipeline Monitoring: Familiarity with monitoring tools (e.g., Prometheus, Grafana, or custom monitoring scripts) to track pipeline performance.
  • Data Quality Tools: Experience implementing data validation, cleansing, and quality framework

Nice to have

  • Understanding of Investment Data domain.

Інформація про компанію Luxoft

Luxoft надає бізнес-лідерам розширені можливості аналітики та програмної інженерії, які стабілізують підприємства та допомагають їм процвітати на мінливих і складних ринках. Компанія втілює унікальне поєднання інженерної досконалості та глибокої галузевої експертизи, щоб обслуговувати клієнтів у всьому світі, які спеціалізуються на автомобільних та фінансових послугах, подорожах та гостинності, охороні здоров’я, науках про життя, медіа та телекомунікаціях. Luxoft виходить за межі очікувань клієнтів, об’єднуючи технології, талант, інновації та найвищі стандарти якості.
Рік заснування: 2005
Кількість працівників: >5000
Резидент Дія.City
Сайт: luxoft.com

Переваги співробітникам

Відгукнутися
Досвід від 5 років Senior Full-time Не має значення Є тестове завдання Office Київ
08.05.2025
Детальніше
  • PySpark
  • Apache Spark
  • SQL
  • ETL
  • Hadoop
  • DataBricks
  • AWS
  • Azure
  • GCP
  • CI/CD
  • Git
  • Palantir Foundry
  • Kafka
  • Docker
  • Kubernetes
  • Apache Airflow

N-iX is looking for a Senior Data Engineer with strong expertise in PySpark to join our team in Kyiv. In this role, you will design, develop, and optimize large-scale data pipelines, ensuring efficient data processing and integration. You will also collaborate closely with business stakeholders to gather and refine data requirements, ensuring solutions align with business needs. Experience with Palantir Foundry is a huge plus.

Responsibilities:

  • Design and implement scalable ETL/ELT pipelines using PySpark.
  • Work closely with product owners, and different stakeholders to gather, analyze, and translate data requirements into technical solutions.
  • Optimize data processing workflows for performance and reliability.
  • Ensure data integrity, governance, and security best practices.
  • Develop and maintain technical documentation for data pipelines and transformations.
  • Troubleshoot and optimize Spark jobs to improve efficiency.
  • Work with cloud-based or on-premises big data technologies.

Requirements:

  • 5+ years of experience in data engineering, with a focus on PySpark.
  • Strong knowledge of Apache Spark, distributed computing, and performance tuning.
  • Experience gathering and refining business and technical data requirements.
  • Hands-on experience with SQL, data modeling, and ETL processes.
  • Proficiency in working with big data technologies (Hadoop, Databricks, etc.).
  • Experience with cloud platforms (AWS, Azure, GCP) is a plus.
  • Knowledge of CI/CD, version control (Git), and DevOps practices.
  • Excellent problem-solving and communication skills.

Nice to have:

  • Experience with Palantir Foundry.
  • Familiarity with streaming technologies (Kafka).
  • Exposure to containerization and orchestration (Docker, Kubernetes, Airflow).

Інформація про компанію N-iX

N-iX – це глобальна компанія, що надає програмні рішення та інженерні послуги. Маючи понад 2000 професіоналів у 25 країнах Європи та Америки, компанія пропонує експертні рішення в аналітиці даних, вбудованому програмному забезпеченні, IoT, штучному інтелекті, машинному навчанні та інших технологічних областях.
Рік заснування: 2002
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: n-ix.com

Переваги співробітникам

Відгукнутися
Досвід від 7 років Senior Full-time Не має значення Є тестове завдання Remote Україна
07.05.2025
Детальніше
  • Java
  • Scala
  • Python
  • Go
  • C++
  • Rust
  • Kafka
  • Apache Flink
  • Apache Spark
  • Apache Beam
  • NoSQL
  • Cassandra
  • MongoDB
  • OLAP
  • ClickHouse
  • StarRocks
  • Doris
  • SQL
  • Kubernetes
  • Helm
  • ArgoCD
  • Iceberg
  • Delta Lake
  • Apache Hudi
  • GCP
  • AWS
  • Azure

We are seeking an experienced developer to create a high-performance, scalable, and flexible behavioral analytics engine platform.
You will be a key member of our team, responsible for the architecture, development, and optimization of core components for processing and analyzing large volumes of data [terrabytes].

Required professional experience:

  • 7+ years of experience in developing analytics platforms or big data processing systems.
  • Deep knowledge of programming languages such as Java, Scala, Python, Go, C++, or Rust.
  • Experience with distributed systems and big data technologies [Kafka, Flink, Spark, Apache BEAM].
  • Understanding of scalable system design principles and architectures for real-time data processing.
  • Experience with NoSQL databases [Cassandra, MongoDB].
  • Experience with OLAP databases [ClickHouse, StarRocks, Doris].
  • Knowledge of SQL.
  • Understanding of statistical methods and principles of data analysis.
  • Experience with Kubernetes [Helm, ArgoCD].

Desired Skills:

  • Experience with open table format [Apache Iceberg/Delta Lake/Hudi].
  • Experience with cloud platforms [Google Cloud, AWS, Azure].
  • Knowledge of data security methods and compliance with regulatory requirements [GDPR, CCPA].

Key Responsibilities:

  • Design and develop the architecture of an behavioral analytics platform for real-time big data processing.
  • Implement key engine systems [data collection, event processing, aggregation, prepare data for visualization].
  • Optimize the platform performance and scalability for handling large data volumes.
  • Develop tools for user behavior analysis and product metrics.
  • Collaborate with data analysts and product managers to integrate the engine into analytics projects.
  • Research and implement new technologies and methods in data analysis.

Інформація про компанію Burny Games

Burny Games – українська продуктова компанія, яка займається створенням мобільних ігор у жанрі Casual Puzzles. Компанія розробляє першокласні ігри, щоб забезпечити масову аудиторію інноваційним та якісним геймплеєм, використовуючи чудово розроблені технічні системи.
Рік заснування: 2022
Кількість працівників: 51-100
Сайт: burny.games

Переваги співробітникам

Відгукнутися
Outstaff, Consulting / Integrator
Досвід від 5 років Senior Full-time Не має значення Є тестове завдання Remote Україна, Bulgaria, Portugal, Romania, Poland
06.05.2025
Детальніше
  • Python
  • SQL
  • Apache Spark
  • AWS Glue
  • Athena
  • Apache Airflow
  • ETL
  • ELT
  • Amazon S3
  • AWS Lambda
  • AWS RDS
  • Amazon API Gateway
  • CI/CD
  • FastAPI
  • Great Expectations

Our client is a leading SaaS company offering pricing optimization solutions for e-commerce businesses. Its advanced technology utilizes big data, machine learning, and AI to assist customers in optimizing their pricing strategies and maximizing their profits.

About the Role:

As a data engineer you’ll have end-to-end ownership – from system architecture and software development to operational excellence.

Key Responsibilities:

  • Design and implement scalable machine learning pipelines with Airflow, enabling efficient parallel execution.
  • Enhance our data infrastructure by refining database schemas, developing and improving APIs for internal systems, overseeing schema migrations, managing data lifecycles, optimizing query performance, and maintaining large-scale data pipelines.
  • Implement monitoring and observability, using AWS Athena and QuickSight to track performance, model accuracy, operational KPIs and alerts.
  • Build and maintain data validation pipelines to ensure incoming data quality and proactively detect anomalies or drift.
  • Collaborate closely with software architects, DevOps engineers, and product teams to deliver resilient, scalable, production-grade machine learning pipelines.

Required Competence and Skills:

To excel in this role, candidates should possess the following qualifications and experiences:

  • A Bachelor’s or higher in Computer Science, Software Engineering or a closely related technical field, demonstrating strong analytical and coding skills.
  • At least 5 years of experience as a data engineer, software engineer, or similar role and using data to drive business results.
  • At least 5 years of experience with Python, building modular, testable, and production-ready code.
  • Solid understanding of SQL, including indexing best practices, and hands-on experience working with large-scale data systems (e.g., Spark, Glue, Athena).
  • Practical experience with Airflow or similar orchestration frameworks, including designing, scheduling, maintaining, troubleshooting, and optimizing data workflows (DAGs).
  • A solid understanding of data engineering principles: ETL/ELT design, data integrity, schema evolution, and performance optimization.
  • Familiarity with AWS cloud services, including S3, Lambda, Glue, RDS, and API Gateway.

Nice-to-Have:

  • Experience with MLOps practices such as CI/CD, model and data versioning, observability, and deployment.
  • Familiarity with API development frameworks (e.g., FastAPI).
  • Knowledge of data validation techniques and tools (e.g., Great Expectations, data drift detection).
  • Exposure to AI/ML system design, including pipelines, model evaluation metrics, and production deployment.

Інформація про компанію Adaptiq

Adaptiq – це технологічна консалтингова компанія, що спеціалізується на створенні та масштабуванні R&D команд для висококласних, швидкозростаючих продуктових компаній у різноманітних галузях.
Рік заснування: 2020
Кількість працівників: 51-100
Сайт: adaptiq.co

Переваги співробітникам

Відгукнутися
Outsource, Outstaff
Досвід від 3 років Middle Full-time Не має значення Є тестове завдання Remote
23.04.2025
Детальніше
  • Python
  • Kafka
  • ClickHouse
  • Data lake
  • Argo Workflows
  • Apache Airflow
  • Prefect
  • CI/CD
  • Docker
  • Kubernetes

Boosty Labs is one of the most prominent outsourcing companies in the blockchain domain. Among our clients are such well-known companies as Ledger, Consensys, Storj, Animoca brands, Walletconnect, Coinspaid, Paraswap, and others.
About project: Advanced blockchain analytics and on-the-ground intelligence to empower financial institutions, governments & regulators in the fight against cryptocurrency crime

Requirements:

  • 3+ years of experience in data engineering or a similar role
  • Strong programming skills in Python
  • Solid hands-on experience with Apache Kafka for real-time data streaming
  • Experience working with ClickHouse or other columnar databases
  • Understanding of Data Lake architecture and cloud data storage solutions
  • Familiarity with Argo Workflows or similar workflow orchestration tools (e.g., Airflow, Prefect)
  • Experience with CI/CD processes and containerization (Docker, Kubernetes) is a plus
  • Strong problem-solving skills and the ability to work independently

Responsibilities:

  • Design and implement scalable, efficient, and reliable data pipelines
  • Work with real-time and batch data processing using Kafka and ClickHouse
  • Develop and maintain ETL/ELT processes using Python
  • Manage and optimize data storage in cloud-based Data Lake environments
  • Use Argo Workflows to orchestrate complex data workflows
  • Collaborate with data scientists, analysts, and engineering teams to support their data needs
  • Ensure data quality, consistency, and governance throughout the pipeline

Інформація про компанію Boosty Labs

Boosty Labs – найбільший магазин і венчурна студія блокчейн-розробників у Європі. Компанія пропонує як комплексну розробку програмного забезпечення за фіксованою ціною, так і спеціальні команди, які повністю інтегруються в операційні процеси бізнесу клієнта та зосереджуються виключно на його потребах. Експерти створюють інноваційні продукти для швидкозростаючих стартапів, малого та середнього бізнесу в сферах блокчейну, DeFi, NFT, хмарних технологій та штучного інтелекту. Boosty Labs надає послуги технічного консалтингу, продуктового менеджменту, інженерних та дизайнерських рішень.
Рік заснування: 2017
Кількість працівників: 101-250
Сайт: boostylabs.com

Переваги співробітникам

Відгукнутися
Recruitment Agency, Consulting / Integrator
Досвід не має значення Middle, Senior Full-time Upper-Intermediate / B2 Є тестове завдання Office, Remote, Hybrid Київ
18.04.2025
Детальніше
  • ETL
  • ELT
  • AWS Glue
  • Apache Spark
  • Python
  • SQL
  • MWAA
  • Apache Airflow
  • IAM
  • Amazon S3
  • AWS
  • Aurora
  • PostgreSQl
  • Kafka
  • AWS Lake Formation

On behalf of our Client, a well-established financial institution from the Caribbean region Mobilunity is looking for a Data Engineer.
Our Client is the largest bank in the Caribbean region that serves 14 countries/territories. The aim is to make this organization from a traditional bank into a new era of fintech, working on the edge of what current fintech may offer.

Requirements:

  • Experience with ETL/ELT
  • Proficiency in Glue and Spark
  • Strong programming skills in Python and SQL
  • Hands-on experience with MWAA / Airflow
  • Good understanding of AWS Basics (IAM, S3)
  • Experience working with Aurora and PostgreSQL
  • Knowledge of Kafka / MSK, including Kafka Connect and Debezium
  • Familiarity with Lake Formation
  • Experience using Glue Data Catalog
  • Solid understanding of data modeling principles
  • Experience with Glue Streaming
  • Level of English – Upper-Intermediate and higher

Nice to have:

  • Previous experience working in the fintech industry

Інформація про компанію Mobilunity

Mobilunity – українська компанія nearshoring, є глобальним постачальником українських команд розробників. Модель компанії надає доступ до кадрового резерву з понад 200 000 українських інженерів програмного забезпечення, дозволяючи клієнту повністю контролювати процес розробки.
Рік заснування: 2010
Кількість працівників: 101-250
Сайт: mobilunity.com

Переваги співробітникам

Відгукнутися
Досвід від 5 років Lead Full-time Upper-Intermediate / B2 Є тестове завдання Remote Україна
17.04.2025
Детальніше
  • Apache Spark
  • PySpark
  • Spark SQL
  • AWS
  • EC2
  • IAM
  • Amazon S3
  • AWS Glue
  • EMR
  • SQL
  • NoSQL
  • Apache Airflow
  • Terraform
  • Jira
  • Slack
  • JetBrains
  • Git
  • GitLab
  • Github
  • Docker
  • Jenkins
  • Scala
  • Python

We’re looking for a Lead Big Data Engineer to join our client, a prominent American ebook and audiobook subscription service with a vast library of over 200 million titles.
As a Lead Big Data Engineer, you will play a key role in designing, developing, and maintaining large-scale data processing systems, while providing technical leadership and mentoring to other teams.
This remote position, ideally suited for candidates located in Europe or the US time zone, is perfect for someone with a deep technical background in big data technologies, looking to drive innovation in data engineering.

About the project

Client is an American e-book and audiobook subscription service that includes one million titles. The platform hosts 60 million documents on its open publishing platform.
Core Platform provides robust and foundational software, increasing operational excellence to scale apps and data. We are focused on building, testing, deploying apps and infrastructure which will help other teams rapidly scale, inter-operate, integrate with real-time data, and incorporate machine learning into their products. Working with our customers in the Data Science and Content Engineering, and our peers in Internal Tools and Infrastructure teams we bring systems-level visibility and focus to our projects.
Client’s goal is not total architectural or design perfection, but rather choosing the right trade-offs to strike a balance between speed, quality and cost.

  • Tech Stack: Scala and/or Python, Apache Spark/PySpark/Spark SQL DSL, AWS (EC2, IAM, S3, Glue, EMR), AWS data platform services, Datalake/Lakehouse, SQL and NoSQL, Apache Airflow, Terraform, Jenkins
  • Team Composition: A distributed team consisting of 9 KITRUM Big Data Engineers (Middle/Senior)

Must-have for the position

  • 5+ years Scala and/or Python;
  • 3+ years Spark/PySpark/Spark SQL;
  • Experience with AWS (EC2, IAM, S3, Glue, EMR);
  • Fluency in at least one dialect of SQL and NoSQL;
  • Strong technical and team leadership experience;
  • English Level: Upper-Intermediate English or higher.

Will be a strong plus

  • Experience with Apache Airflow, including writing plugins and custom operators.
  • Experience with Terraform;
  • Strong grasp of AWS data platform services and their strengths/weaknesses;
  • Strong experience using Jira, Slack, JetBrains IDEs, Git, GitLab, GitHub, Docker, Jenkins;

Responsibilities

  • Lead the design, development, and maintenance of scalable and efficient data pipelines;
  • Conduct code reviews and create design documents for new features;
  • Provide technical support and mentorship to other teams within the organization;
  • Participate in management meetings to discuss priorities, scopes, deadlines, and cross-team dependencies;
  • Develop, optimize, and tune Apache Spark jobs (Scala, PySpark, Spark SQL).
  • Implement CI/CD processes using Jenkins and GitHub Actions;
  • Design and implement data processing pipelines using AWS and GCP services;
  • Work with Apache Airflow to manage and automate workflows, including custom plugin development;
  • Utilize Databricks for job scheduling, SQL warehousing, and data visualization;
  • Integrate with 3rd party services to download and upload data as required.

Інформація про компанію KitRUM

KitRUM – це компанія з розробки програмного забезпечення та віддані команди, що забезпечують першокласні результати на будь-якому етапі вашого проєкту. Компанія надає необхідні клієнту конкретні технічні знання та знання у предметній галузі, доступ до команд розробників програмного забезпечення світового класу та технологічних консультантів, забезпечує гнучке масштабування бізнесу та інше.
Рік заснування: 2014
Кількість працівників: 101-250
Сайт: kitrum.com

Переваги співробітникам

Відгукнутися
Досвід від 2 років Middle Full-time Intermediate / B1 Є тестове завдання Remote Україна
10.04.2025
Детальніше
  • Python
  • OpenSearch
  • Elasticsearch
  • SQL
  • PySpark
  • Scala
  • Git
  • AWS Lambda
  • AWS Glue

Infopulse, part of Tietoevry Create, is looking for a skilled Middle Data Engineer (Python) to join our growing team. Our customer is one of the Big Four firms, providing audit, tax, consulting, and financial advisory services.
As a Data Engineer, you will be responsible for implementing software solutions and developing the back-end. You will collaborate closely with other developers, business analysts, and stakeholders to create innovative solutions that align with business needs.

Areas of Responsibility

  • Develop and maintain Python-based applications.
  • Collaborate with cross-functional teams to define, design, and implement new features.
  • Write reusable, testable, and efficient code.
  • Troubleshoot, debug and optimize code to improve performance.
  • Monitor and ensure the performance, reliability, and scalability of ETL processes.

Qualifications

  • 2+ years of experience working with Python.
  • Experience with OpenSearch or Elasticsearch.
  • Proficiency in working with SQL databases.
  • Experience with PySpark (Scala or Python) for building scalable and efficient data pipelines.
  • Understanding of version control tools like Git.
  • Intermediate level of spoken and written English.
  • Familiarity with data warehousing concepts and best practices.
  • Experience with AWS Lambda and AWS Glue.

Інформація про компанію Infopulse

Infopulse успішно поєднує глибокі знання у різних галузях та високий технологічний рівень для максимізації користі для своїх клієнтів. Компанія надає технологічні послуги та рішення в різних секторах, включаючи сільське господарство, банківську справу та фінанси, електронну комерцію та роздрібну торгівлю, енергетику та комунальні послуги, охорону здоров'я та фармацевтику, виробництво, програмне забезпечення, телекомунікації та інші галузі.
Рік заснування: 1991
Кількість працівників: 1001-5000
Резидент Дія.City
Сайт: infopulse.com
Відгукнутися
Досвід від 3 років Middle, Senior Full-time Upper-Intermediate / B2 Є тестове завдання Office Київ, Львів, Івано-Франківськ, Тернопіль
09.04.2025
Детальніше
  • SQL
  • Microsoft Power BI
  • Power Automate

Software Engineering and Development Office is looking for a Middle/Senior Data Engineer in Ukraine.

About the project

Our customer is a Swiss company in commodity trading. We are helping out the customer with various applications that support their business (chain management, risk management solutions).

Requirements

  • 3+ years of experience in Data Engineering
  • Advanced proficiency in SQL for data manipulation and querying
  • Proven experience with Power BI, including modeling, visualization, and workspace management
  • Basic knowledge of Power Automate for workflow automation
  • Strong analytical and problem-solving skills
  • Excellent communication and collaboration abilities
  • Ability to work independently and as part of a team
  • At least an Upper-Intermediate level of English

Nice to have

  • Experience in data analysis and business intelligence
  • Familiarity with other data visualization tools and technologies
  • Certification in Power BI or related fields

Responsibilities

  • Power BI Modeling: Develop and maintain complex data models using Power BI to support business reporting and analytics needs
  • Power BI Visualization: Create and manage interactive and visually appealing dashboards and reports to present data insights effectively
  • Power BI Workspace Management: Oversee the organization and management of Power BI workspaces, ensuring efficient collaboration and data governance
  • Power BI Subscriptions: Set up and manage Power BI subscriptions to automate report distribution and ensure timely delivery of insights
  • SQL Advanced: Write and optimize advanced SQL queries to extract, transform, and load data from various sources into Power BI
  • Power Automate Basics: Utilize Power Automate to streamline and automate workflows related to data processing and reporting

Інформація про компанію Eleks

ELEKS є обраним партнером для багатьох провідних світових підприємств, малого та середнього бізнесу та технологічних конкурентів. Компанія допомагає підприємствам підвищити свою цінність за допомогою спеціальної розробки програмного забезпечення, дизайну продуктів, контролю якості та консультаційних послуг.
Рік заснування: 1991
Кількість працівників: 1001-5000
Сайт: eleks.com

Переваги співробітникам

Відгукнутися
Outstaff, R&D
Досвід не має значення Middle, Senior Full-time Не має значення Є тестове завдання Remote Україна, Poland
02.04.2025
Детальніше
  • Python
  • Linux
  • SQL
  • PostgreSQl
  • ETL
  • GCP
  • Git
  • Apache Spark
  • BigQuery
  • MLOps
  • CI/CD
  • IaC
  • Docker
  • Kubernetes

We’re looking for a Data Engineer with strong skills in Data Engineering and Backend Development to work on innovative diagnostic solutions. You’ll design and optimize data pipelines, ensure data quality, and create seamless data flows from client devices to a central warehouse for medical devices.
If you’re excited about working on cutting-edge technology that combines AI, smart sensors, and nanotech to transform disease detection, this role is for you!

About the project

Our client is transforming diagnostics with an innovative handheld device that enables early detection and monitoring of over 20 diseases through breath analysis. Developed using proprietary nanotechnology, the device features a smart sensor array and AI-driven algorithms to identify disease-specific biomarkers. Built on years of research at the Technion – Israel Institute of Technology, this cutting-edge solution is part of the LUCIA Horizon EU consortium, paving the way for data-driven, point-of-care diagnostics worldwide.

Responsibilities

  • Design, develop, and optimize data pipelines and architectures for clinical research and AI model training
  • Ensure data quality, accuracy, and integrity, continuously monitoring and optimizing pipelines
  • Create a seamless data flow from project endpoint devices and other sources to the main data warehouse
  • Work with task managers, orchestration tools, and cloud-based infrastructure, with strong experience in the GCP ecosystem
  • Develop and maintain data APIs for efficient integration with research platforms and machine learning pipelines
  • Optimize data storage and retrieval strategies to support high-performance analytics and AI model training

Requirements

  • B.Sc. in Computer Science, Electrical Engineering, or a related field.
  • Advanced Python programming skills.
  • Strong knowledge of Linux with proficiency in command-line operations
  • Advanced SQL experience (PostgreSQL preferred).
  • Hands-on experience with ETL/data pipeline technologies.
  • Strong experience with cloud-based data management (GCP preferred).
  • Proven experience working on production-grade projects.
  • Experience with DevOps practices, including Git-based workflow management, monitoring, and cloud security best practices.

Will be a plus

  • Experience with time-series or sensor data processing
  • Familiarity with data lake architectures and distributed data processing (e.g., Spark, BigQuery)
  • Experience in ML Ops or deploying machine learning pipelines in production
  • Medical device or regulated industry experience
  • Implement CI/CD pipelines, infrastructure-as-code (IaC), and monitoring solutions to ensure system reliability and scalability
  • Knowledge of containerization (Docker, Kubernetes) and infrastructure automation

Інформація про компанію Newxel

Newxel – це глобальний комплексний центр, що пропонує безліч послуг у галузі досліджень та розробок від А до Я для розширення можливостей компанії клієнта. Компанія допомагає корпоративним та інноваційним стартапам з різних регіонів та секторів створювати свої команди з розробки програмного забезпечення та офіси досліджень та розробок по всьому світу.
Рік заснування: 2016
Кількість працівників: 501-1000
Сайт: newxel.com

Переваги співробітникам

Відгукнутися

Сторінки

Читайте нас в Telegram, щоб не пропустити анонси нових курсів.