BUILD SMART - CUPIXWORKS
저희 큐픽스는 전 세계 모든 건설 현장이 스마트해지는 그 날까지, 콘테크 (Construction Technology) 산업을 개척하고 있는 글로벌 스타트업입니다. 다소 익숙하지만 생소할 수 있는 디지털 트윈 (Digital Twin) 기술을 건설 현장에 접목한 큐픽스웍스 (CupixWorks) 라는 3D 디지털 트윈 플랫폼을 전 세계 고객사들에게 제공하고 있습니다.
큐픽스웍스 (CupixWorks)를 사용하는 고객사들은 360도 카메라를 들고 걸어다는 것 만으로도 건설 현장을 쉽고 빠르게 캡쳐하고, 생성된 해당 현장의 3D 디지털 트윈을 단 몇 시간 만에 CupixWorks 플랫폼에서 현장에 직접 방문하는 것처럼 실감나게 원격으로 이동하며 관리할 수 있습니다.
큐픽스는 2015년부터 독보적인 최첨단 사진 측량 기술 (photogrammetry) 및 최신 AI 기술들을 개발하여 “누구나 쉽고 빠르게 디지털 트윈을 만들 수 있도록” 이라는 목표를 가지고 3D 디지털 트윈 산업을 개척하고자 합니다.
<큐픽스의 기술력 살짝 보기> 
Backend Unit
Backend Unit 은 Infrastructure, Reliability, Application 3개 division으로 구성되어 있으며, AWS 기반의 클라우드 인프라를 바탕으로 큐픽스의 모든 제품과 서비스를 지탱하는 핵심 조직입니다.
Infrastructure Part는 AWS 멀티 어카운트 아키텍처 설계, Terraform을 이용한 IaC, 클라우드 인프라 구축 및 최적화를 담당합니다. 특히 Data Engineer는 Snowflake 기반의 데이터 파이프라인 구축, Elasticsearch 클러스터 관리, 대규모 데이터 처리 인프라를 설계하고 운영합니다.
큐픽스 Backend Unit 에 합류하신다면
•
대한민국에서 개발되어 전 세계로 배포되는 글로벌 B2B SaaS를 직접 경험할 수 있습니다
•
PB급 규모의 4D Digital Twin 데이터를 처리하는 인프라를 설계하고 최적화합니다
•
AI 도구(Claude Code 등)를 적극 활용하여 생산성을 극대화하는 개발 문화를 경험합니다
•
외부 교육 및 컨퍼런스 참가를 지원받으며 지속적으로 성장할 수 있습니다
주요업무
Infrastructure Part의 Data Engineer는 큐픽스의 데이터 플랫폼을 설계하고 구축합니다. Snowflake를 중심으로 한 데이터 웨어하우스, Elasticsearch 클러스터, MongoDB Atlas 등을 관리하며, 글로벌 규모의 데이터 처리 파이프라인을 최적화합니다.
주요 기술 스택: Snowflake, BigQuery, AWS, Terraform, Elasticsearch, MongoDB Atlas, Datadog, Python
주요 업무
•
데이터 파이프라인: Snowflake 기반의 ETL/ELT 파이프라인 구축 및 최적화
•
클러스터 관리: Elasticsearch 클러스터 및 MongoDB Atlas 운영 및 성능 튜닝
•
비용 최적화: Finance/Operations와 협업하여 클라우드 비용 대시보드 구축 및 최적화 (월 수천만원 규모)
•
모니터링: Datadog을 이용한 데이터 인프라 모니터링 및 장애 대응
•
보안 및 컴플라이언스: Information Security와 협업하여 글로벌 고객의 지역별 Compliance 준수
•
데이터 거버넌스: 데이터 품질 관리 및 접근 제어 정책 수립
•
최신 기술 연구: 데이터 플랫폼 관련 최신 기술 스택 연구 및 적용
운영 및 온콜 체계
•
온콜 시스템: Level 1(초기 대응), Level 2(심화 대응)로 구분된 체계적인 온콜 운영
•
협업 구조: Infrastructure Engineer와 협업하여 안정적인 데이터 파이프라인 운영
•
글로벌 운영: 전 세계 고객을 대상으로 하는 24/7 데이터 플랫폼 운영 경험
기술적 챌린지
•
대규모 데이터: PB급 규모의 360도 이미지 및 메타데이터 처리 인프라 설계
•
글로벌 확장성: 전 세계 수천 개 기업의 데이터를 안정적으로 처리하는 아키텍처 구축
•
비용 효율성: 빠르게 증가하는 데이터 볼륨 대비 클라우드 비용 최적화
•
실시간 처리: 현장에서 생성되는 데이터의 실시간 수집 및 분석 파이프라인 구축
자격요건
•
학력: 4년제 대학 컴퓨터/소프트웨어 관련 전공 졸업
•
경력: 3년 이상 10년 이하 (전문연구요원 지원 불가)
•
Python/SQL 등을 이용한 데이터 처리 및 분석 경험이 있는 분
•
ETL/ELT 파이프라인 구축 및 운영 경험이 있는 분
•
관계형 DB 또는 NoSQL DB 구축 및 운영 경험이 있는 분
•
Git, JIRA, Github 등의 협업 도구 사용 경험이 있는 분
우대사항
•
Snowflake, BigQuery, Redshift 등 클라우드 데이터 웨어하우스 경험
•
Terraform, CloudFormation 등 IaC 도구 사용 경험
•
Elasticsearch/OpenSearch 클러스터 구축 및 운영 경험
•
MongoDB Atlas, DynamoDB 등 NoSQL 운영 경험
•
AWS 아키텍처 설계 및 멀티 어카운트 관리 경험
•
Airflow, Dagster 등 워크플로우 오케스트레이션 도구 경험
•
Datadog, Prometheus 등 모니터링 도구를 활용한 인프라 관리 경험
•
대규모 데이터 처리 및 성능 최적화 경험
•
클라우드 비용 최적화 경험
•
데이터 거버넌스 및 보안 정책 수립 경험
이런 분께 추천드려요!
•
•
지원 방법
1. 이메일 : hr@cupix.com 이력서 제출 (메일 제목: Data Engineer (경력) 000 지원자)
2. 채용공고 : 채용 플랫폼 내 “큐픽스” 검색 후 해당 공고에 직접 지원
3. 채용절차 : 서류전형 > 코딩테스트 > 1차 인터뷰 > 2차 인터뷰 > 레퍼런스체크 > 채용 제안

