工作职责:
1. 负责互联网业务相关数据仓库的规划、设计、开发与迭代优化,构建支撑业务运营、数据分析、产品决策的数据模型体系;
2. 主导大数据平台的日常运维与性能优化,保障数据采集、存储、计算、查询全链路的稳定高效,解决数据延迟、查询卡顿等问题;
3. 对接2B与2C核心业务(如用户增长、快消品精准营销、供应链效率、门店及经销商核销券与积分等)的数据需求,完成ETL任务开发、数据报表制作、数据接口提供等工作;
4. 搭建数据质量监控体系,制定数据校验规则,及时发现并处理数据异常,保障数据的完整性、准确性与安全性;
5. 参与大数据技术选型与架构优化,跟进行业新技术动态,将合适的技术方案落地应用,提升数据平台的可扩展性与易用性;
6. 与产品、运营、算法等团队紧密协作,理解业务痛点,提供精准的数据支撑,助力业务增长与产品迭
任职资格:
1. 本科及以上学历,计算机、数学、统计学等相关专业,2-5年互联网行业大数据相关工作经验;
2. 精通大数据生态核心技术,包括但不限于Doris、StartRocks、Hadoop、Spark、Flink、Hive、HBase、Kafka等,具备丰富的分布式数据系统开发与运维经验;
3. 精通SQL编写与优化,具备复杂查询逻辑实现能力,熟悉至少一种编程语言(Java/Scala/Python),有扎实的代码功底;
4. 具备数据仓库设计与建设经验,掌握维度建模、星型/雪花模型等设计方法,能够独立完成数据模型设计与ETL开发;
5. 了解互联网业务数据特点,有用户行为分析、流量分析、精准营销等相关数据项目经验者优先;
6. 具备较强的问题排查能力、逻辑思维能力与沟通协调能力,能够快速响应业务需求,承受一定的工作压力;
7. 具备良好的团队合作精神、责任心强,有清晰的文档编写习惯,能够沉淀技术经验与业务知识。
加分项:
1. 熟悉或精通Doris数仓建设与维护,具备Doris数据模型设计、性能优化、集群运维经验;
2. 有大规模互联网数据仓库(TB/PB级)建设与优化经验;
3. 熟悉实时计算框架(Flink/Spark Streaming)的应用与优化,有实时数据平台建设经验;
4. 具备数据治理、数据血缘分析相关项目经验;
5. 拥有相关大数据技术认证(如Cloudera CCA/CCP、阿里云ACP等)。