Senior Data System Engineer
부문
개발그룹
직군
Engineering
직무
Data Engineering
경력사항
경력 8년 이상
고용형태
정규직
근무지
UMOS ONE HQ서울특별시 서초구 서초대로77길 55, 9층 유모스원

We are ​looking ​for ​the best

UMOS ​ONE은 42dot의 자회사로, 스스로 ​운영되는 ​도시교통 운영체제(Urban ​Mobility Operating System, ​UMOS)를 기반한 ​모빌리티 ​서비스에서의 실제 ​플릿 ​운영과 ​자율 주행 확장까지, ​전 ​과정을 아우르는 통합 ​플랫폼을 ​개발하고 ​있습니다.


UMOS ONE은 모빌리티 ​서비스 ‘TAP!’, ​차량 ​관제·운영 시스템 ​‘Pleos Fleet’, ​AI ​기반 운송 관리 ​시스템 ‘Capora’ ​등 다양한 솔루션을 통해 SDV (software-defined vehicle) 기반의 기술을 상용화하며, 미래 모빌리티 서비스의 중심을 이끌어가고자 합니다.


빠르게 변화하는 시장 속에서 복잡한 문제를 날카롭게 분석해 정확한 해법을 실행력 있게 구현해 나갈 동료를 찾고 있습니다. 혼자보다는 함께 더 멀리 가는 팀, 단순한 협업을 넘어 서로의 성장을 진심으로 응원하는 문화 속에서 의미 있는 도전을 이어가고 싶다면, UMOS ONE에서 그 여정을 함께하세요.


Responsibilities

  • 대규모 데이터 파이프라인 설계 및 운영
  • UMOS 플랫폼에서 발생하는 대용량 Mobility 및 Logistics 데이터를 수집, 정제, 변환하기 위한 실시간 및 배치 파이프라인 (ETL/ELT) 설계 및 구현
  • Apache Airflow를 활용하여 복잡한 데이터 파이프라인 워크플로우를 자동화 및 관리
  • 고성능 분석 및 시계열 데이터 처리를 위해 ClickHouse 등 특화된 데이터베이스 환경 구축 및 운영
  • 데이터 정합성을 확보하고 데이터 품질 이슈를 해결하기 위한 자동화된 모니터링 시스템 구축
  • 데이터 웨어하우징 및 플랫폼 구축 (Databricks Lakehouse)
  • Databricks Lakehouse Platform을 주요 데이터 웨어하우스(Data Warehousing) 목적으로 설계, 구축 및 운영
  • Databricks 워크스페이스, 컴퓨팅 자원 (Cluster), Unity Catalog 등을 관리하고 최적화하여 플랫폼 안정성 및 효율성 극대화
  • Databricks 환경 내에서 데이터 거버넌스 및 보안 체계 수립 및 이행
  • 데이터 서비스 및 분석 환경 제공
  • 서비스 및 분석 팀이 신속하게 데이터를 탐색하고 활용할 수 있도록 Apache Superset 등 시각화 도구를 연동하고 운영 지원
  • Data & AI Engineer 팀이 지식 그래프(Knowledge Graph) 및 AI 모델을 개발할 수 있도록Databricks 환경에서 필요한 Feature Store를 제공


Qualifications

  • 8년 이상의 데이터 플랫폼 구축 및 파이프라인 개발 경력
  • Apache Airflow를 이용한 데이터 워크플로우 오케스트레이션 경험
  • Python 또는 Scala를 활용한 대규모 데이터 처리 개발 능력
  • 클라우드 환경 (AWS, GCP, Azure 중 1개 이상) 기반의 Cloud Native 데이터 인프라 구축 경험


Preferred Qualifications

  • Databricks Lakehouse Platform (Spark, Delta Lake 포함)을 활용한 실무 개발 및 운영 경험
  • ClickHouse 등 컬럼 기반 분석 데이터베이스 구축 및 운영 경험
  • Apache Superset 등 데이터 시각화 및 BI 툴 연동 및 운영 경험
  • 스트림 처리 기술 (Kafka, Flink)과 Databricks Structured Streaming 연동 경험
  • MLOps 환경 구축 경험 및 머신러닝 워크로드 지원 경험
  • Kubernetes, Docker 환경 이해 및 활용 경험


Interview Process

  • 서류전형 - 코딩테스트 - 1차면접 (1시간 내외) - 2차면접 (3시간 내외) - 최종합격
  • 전형절차는 직무별로 다르게 운영될 수 있으며, 일정 및 상황에 따라 변동될 수 있습니다.
  • 전형일정 및 결과는 지원서에 등록하신 이메일로 개별 안내드립니다.


Additional Information

  • 이력서 제출 시 주민등록번호, 가족관계, 혼인 여부, 연봉, 사진, 신체조건, 출신 지역 등 채용절차법상 요구 금지된 정보는 제외 부탁드립니다.
  • 모든 제출 파일은 30MB 이하의 PDF 양식으로 업로드를 부탁드립니다. (이력서 업로드 중 문제가 발생한다면 지원하시고자 하는 포지션의 URL과 함께 이력서를 [email protected]으로 전송 부탁드립니다.)
  • 인터뷰 프로세스 종료 후 지원자의 동의하에 평판조회가 진행될 수 있습니다.
  • 국가보훈대상자 및 취업보호 대상자는 관계법령에 따라 우대합니다.
  • 장애인 고용 촉진 및 직업재활법에 따라 장애인 등록증 소지자를 우대합니다.
  • UMOS ONE은 의뢰하지 않은 서치펌의 이력서를 받지 않으며, 요청하지 않은 이력서에 대해 수수료를 지불하지 않습니다.
공유하기
Senior Data System Engineer

We are ​looking ​for ​the best

UMOS ​ONE은 42dot의 자회사로, 스스로 ​운영되는 ​도시교통 운영체제(Urban ​Mobility Operating System, ​UMOS)를 기반한 ​모빌리티 ​서비스에서의 실제 ​플릿 ​운영과 ​자율 주행 확장까지, ​전 ​과정을 아우르는 통합 ​플랫폼을 ​개발하고 ​있습니다.


UMOS ONE은 모빌리티 ​서비스 ‘TAP!’, ​차량 ​관제·운영 시스템 ​‘Pleos Fleet’, ​AI ​기반 운송 관리 ​시스템 ‘Capora’ ​등 다양한 솔루션을 통해 SDV (software-defined vehicle) 기반의 기술을 상용화하며, 미래 모빌리티 서비스의 중심을 이끌어가고자 합니다.


빠르게 변화하는 시장 속에서 복잡한 문제를 날카롭게 분석해 정확한 해법을 실행력 있게 구현해 나갈 동료를 찾고 있습니다. 혼자보다는 함께 더 멀리 가는 팀, 단순한 협업을 넘어 서로의 성장을 진심으로 응원하는 문화 속에서 의미 있는 도전을 이어가고 싶다면, UMOS ONE에서 그 여정을 함께하세요.


Responsibilities

  • 대규모 데이터 파이프라인 설계 및 운영
  • UMOS 플랫폼에서 발생하는 대용량 Mobility 및 Logistics 데이터를 수집, 정제, 변환하기 위한 실시간 및 배치 파이프라인 (ETL/ELT) 설계 및 구현
  • Apache Airflow를 활용하여 복잡한 데이터 파이프라인 워크플로우를 자동화 및 관리
  • 고성능 분석 및 시계열 데이터 처리를 위해 ClickHouse 등 특화된 데이터베이스 환경 구축 및 운영
  • 데이터 정합성을 확보하고 데이터 품질 이슈를 해결하기 위한 자동화된 모니터링 시스템 구축
  • 데이터 웨어하우징 및 플랫폼 구축 (Databricks Lakehouse)
  • Databricks Lakehouse Platform을 주요 데이터 웨어하우스(Data Warehousing) 목적으로 설계, 구축 및 운영
  • Databricks 워크스페이스, 컴퓨팅 자원 (Cluster), Unity Catalog 등을 관리하고 최적화하여 플랫폼 안정성 및 효율성 극대화
  • Databricks 환경 내에서 데이터 거버넌스 및 보안 체계 수립 및 이행
  • 데이터 서비스 및 분석 환경 제공
  • 서비스 및 분석 팀이 신속하게 데이터를 탐색하고 활용할 수 있도록 Apache Superset 등 시각화 도구를 연동하고 운영 지원
  • Data & AI Engineer 팀이 지식 그래프(Knowledge Graph) 및 AI 모델을 개발할 수 있도록Databricks 환경에서 필요한 Feature Store를 제공


Qualifications

  • 8년 이상의 데이터 플랫폼 구축 및 파이프라인 개발 경력
  • Apache Airflow를 이용한 데이터 워크플로우 오케스트레이션 경험
  • Python 또는 Scala를 활용한 대규모 데이터 처리 개발 능력
  • 클라우드 환경 (AWS, GCP, Azure 중 1개 이상) 기반의 Cloud Native 데이터 인프라 구축 경험


Preferred Qualifications

  • Databricks Lakehouse Platform (Spark, Delta Lake 포함)을 활용한 실무 개발 및 운영 경험
  • ClickHouse 등 컬럼 기반 분석 데이터베이스 구축 및 운영 경험
  • Apache Superset 등 데이터 시각화 및 BI 툴 연동 및 운영 경험
  • 스트림 처리 기술 (Kafka, Flink)과 Databricks Structured Streaming 연동 경험
  • MLOps 환경 구축 경험 및 머신러닝 워크로드 지원 경험
  • Kubernetes, Docker 환경 이해 및 활용 경험


Interview Process

  • 서류전형 - 코딩테스트 - 1차면접 (1시간 내외) - 2차면접 (3시간 내외) - 최종합격
  • 전형절차는 직무별로 다르게 운영될 수 있으며, 일정 및 상황에 따라 변동될 수 있습니다.
  • 전형일정 및 결과는 지원서에 등록하신 이메일로 개별 안내드립니다.


Additional Information

  • 이력서 제출 시 주민등록번호, 가족관계, 혼인 여부, 연봉, 사진, 신체조건, 출신 지역 등 채용절차법상 요구 금지된 정보는 제외 부탁드립니다.
  • 모든 제출 파일은 30MB 이하의 PDF 양식으로 업로드를 부탁드립니다. (이력서 업로드 중 문제가 발생한다면 지원하시고자 하는 포지션의 URL과 함께 이력서를 [email protected]으로 전송 부탁드립니다.)
  • 인터뷰 프로세스 종료 후 지원자의 동의하에 평판조회가 진행될 수 있습니다.
  • 국가보훈대상자 및 취업보호 대상자는 관계법령에 따라 우대합니다.
  • 장애인 고용 촉진 및 직업재활법에 따라 장애인 등록증 소지자를 우대합니다.
  • UMOS ONE은 의뢰하지 않은 서치펌의 이력서를 받지 않으며, 요청하지 않은 이력서에 대해 수수료를 지불하지 않습니다.