• 25k-35k 经验3-5年 / 本科
    金融 / 上市公司 / 500-2000人
    岗位职责 : • 负责流批一体数仓规划、建设与维护以及OLAP建设 • 基于公司海量数据进行实时/离线等数据开发工作,包括但不限于数据清洗、数据治理、业务画像数据开发 • 保证大规模的离线、实时任务的正常平稳运行和相关优化工作 • 负责相关线上ETL任务的线上问题定位排查 • 负责基于Flink的相关Connector/LookUp组件优化和二次开发,以及Flink SQL 算子性能定制开发等 职位描述: • 熟悉主流开源大数据工具的使用和调优,包括但不限于Hadoop、ClickHouse、Kafka、HBase、Redis等 • 熟悉数据建模和数据报表的设计工作,能较好的归纳业务逻辑,设计出合理的数据和计算逻辑 • 有大数据处理分析经验,熟悉Flink/Spark/Hadoop等大数据处理引擎的原理和使用,有相关调优经验更优 • 有java开发相关经验,熟悉shell/scala/python/go等不少于2种语言的使用,掌握JVM、并发编程、网络编程等技术,熟悉JVM相关性能问题调优。
  • 15k-30k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    大数据开发工程师,西安 岗位职责: 1.负责Hadoop管理平台/数据应用平台/图数据库的开发和维护; 2.负责Hadoop内核问题分析,定位,修改及开源社区的动态跟踪; 任职要求: 1.本科及以上学历,3年及以上工作经验; 2.精通Java/Scala/Python/C/C++/JavaScript/JSP中的一种或多种; 3.有完整的项目开发经验,系统核心模块看护经验者优先; 4.有大数据Hadoop/HBase/Flume/Kafka/Flink/Hive/Spark/ES等开源大数据技术相关经验者优先。
  • 11k-22k·18薪 经验3-5年 / 本科
    IT技术服务|咨询,科技金融 / 不需要融资 / 500-2000人
    职位描述 1.负责对公和对私客户中心(画像)的数据开发; 2.根据业务需求对客户中心数据进行逻辑加工; 3.在理解原加工逻辑的基础上,对已有系统的存储过程在新平台(ODPS)上进行重写,并对结果进行核对,保证翻译准确性; 4.在理解原加工逻辑的基础上,根据实际需求调整逻辑,对存储过程进行优化; 5.协助客户中心处理相关问题及编写汇报材料等。 职位条件 1.具有3年及以上系统开发经验,计算机、软件工程、通信、电子、信息、自动化、控制工程等相关专业; 2.熟悉MySQL、DB2等数据库及ETL过程,熟练使用SQL; 3.具有较好的规划、沟通、理解和抗压能力; 4.熟练使用QuickBI者优先;熟悉ODPS平台或MaxCompute者优先。
  • 30k-50k·16薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    1. 负责复杂业务场景下数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 2. 负责基于大数据技术平台基础上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决; 3. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 4. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 任职要求: 1. 扎实的代码编程能力,具备良好的数据结构基础,熟悉常见设计模式,熟练使用Java/Scala/Python等至少一种语言; 2. 熟练掌握Hadoop生态,包括但不限于Hive/Spark/Flink等一种或几种大数据计算框架; 3. 熟悉数仓原理和实施,有实时数仓、离线数仓设计与开发经验; 4. 熟悉SpringCloud,SpringBoot等常用的开源框架优先 5. 熟悉OLAP平台建设或有过经验、熟悉业务指标设计且熟练掌握OLAP的维度建模设计方法优先 6. 熟悉常见数据挖掘、用户画像、搜索推荐、知识图谱、自然语言理解等相关算法及模型优先
  • 15k-25k 经验3-5年 / 本科
    科技金融 / 不需要融资 / 2000人以上
    岗位职责: 1、负责大数据设备部署、hadoop、MPPDB等常见商用平台的搭建、应用以及运维; 2、负责海量数据下精准营销平台流计算、实时计算的设计开发; 3、负责海量数据下可视化模块开发,依据业务需求和方案开发可视化品; 4、负责海量用户行为分析和预测,以及专家模型、分布式算法模型在精准营销方面的实现和应用等。 任职条件: 1、大学本科及以上学历,计算机、金融科技、应用数学、人工智能等相关专业,具有3年以上大数据相关工作经验; 2、精通至少一种编程语言,Java、Scala、Python; 3、熟悉hadoop、mppdb、hive、hbase、zookeeper、hue等中的多个,或者有相关工作经验优先; 4、熟悉spark streaming、storm、flink、redis、es中的多个,或者有相关工作经验优先; 5、熟悉spark mllib/GraphX、图计算、mahout中的多个,或者有相关工作经验优先; 6、具备数据挖掘、数据分析、机器学习知识背景,拥有反欺诈系统、推荐系统、精准营销、信息检索等方面的工作经验优先。
  • 15k-22k 经验5-10年 / 本科
    IT技术服务|咨询,软件服务|咨询 / B轮 / 2000人以上
    职位描述: 1.本科学历,学信可查 2.六年以上工作经验 3.熟悉flink、spark、hive 4.有银行经验为加分项
  • 22k-42k·15薪 经验5-10年 / 本科
    移动互联网,企业服务 / 不需要融资 / 500-2000人
    岗位职责: 1. 负责复杂业务场景下数据体系构建,赋能业务数字化运营,保障数据的质量和数据生产的稳定性; 2. 负责基于大数据技术平台基础上的数据仓库建设,包括数据模型设计、离线/实时计算、性能优化以及相关技术问题的解决; 3. 负责数据质量、稳定性、数据资产管理等数据治理工作,构建全链路数据质量监控治理体系; 4. 参与数据产品的需求沟通、架构设计、数据开发以及系统优化。 任职要求: 1. 扎实的代码编程能力,具备良好的数据结构基础,熟悉常见设计模式,熟练使用Java/Scala/Python等至少一种语言; 2. 熟练掌握Hadoop生态,包括但不限于Hive/Spark/Flink等一种或几种大数据计算框架; 3. 熟悉数仓原理和实施,有实时数仓、离线数仓设计与开发经验; 4. 熟悉SpringCloud,SpringBoot等常用的开源框架优先 5. 熟悉OLAP平台建设或有过经验、熟悉业务指标设计且熟练掌握OLAP的维度建模设计方法优先 6. 熟悉常见数据挖掘、用户画像、搜索推荐、知识图谱、自然语言理解等相关算法及模型优先
  • 20k-30k·14薪 经验5-10年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、参与大数据项目的需求分析、系统架构设计、并完成需求设计相应文档的编写; 2、深入理解数据业务,负责业务模型抽象、数据模型的设计开发,特征提取、分析和挖掘工作; 3、参与数据仓库建设,负责数据仓库模型设计,开发高质量可扩展的底层数据仓库体系; 4、负责运营商、金融、交通、智慧公园等大数据中台数仓项目和数据治理类项目建设。 任职要求: 1、本科及以上学历,计算机或者数学等相关专业,具备5年以上大数据和数据仓库相关工作经验。 2、熟练掌握大数据开发工具的使用(hdfs、hive、hbase、spark、flink、kafka等) 3、熟悉SQL开发,复杂SQL优化,熟练使用mysql、oracle、hive等。 4、熟悉java/scala、python开发语言。 5、具有良好的沟通、理解及表达能力,具有良好的抗压能力,可接受出差。 6、具有大数据系统架构能力、及有团队管理经验的优先考虑。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与海量的数据资源处理与整合,服务隐私与安全等多种场景应用; 2、基于Hive/Flink等平台建设离线数据仓库,实时数仓; 3、善于理解并合理抽象业务需求,发挥数据价值,精通数据分析和数据模型开发的技术解决方案; 4、不断创新,推动建设画像平台,血缘平台等数据基建,持续扩展平台的支撑场景和应用范围。 职位要求: 1、熟悉多项大数据处理/分析相关的工具/框架,e.g. Hadoop、Mapreduce、 Hive、Storm、Spark、 Flink etc; 2、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 3、优秀的理解沟通能力,能快速理解业务背景,强的业务和数据理解能力,对数据敏感,崇尚数据说话,深信数据在驱动业务、支撑决策上的价值; 4、具备扎实的数据结构和算法基础,熟悉至少一门编程语言,包括但不限于Java、Python、Go等; 5、对新技术有强烈的学习热情,了解业界技术发展动向; 加分项: 1、参与过画像平台、数据血缘、特征工程等数据建设; 2、对隐私合规领域有相关经验。
  • 13k-16k 经验3-5年 / 本科
    金融,数据服务 / 未融资 / 150-500人
    岗位职责: 1.负责数据仓库和数据集市的模型架构设计和研发; 2.负责数据质量的监控和改进,包括数据清洗、校验、验证等; 3.负责进行元数据调研与应用系统原始数据分析,数据仓库/数据集市/ODS/MIS等的设计与数据建模; 4.负责监管报送系统建设,包括监管报表、管理报表和业务报表等的开发; 5.负责数据治理工作,包括数据标准、数据管理和数据质量等系统的建设; 6.协助其他团队完成数据相关的任务。 任职要求: 1.**本科或以上学历,2-3年以上相关工作经验; 2.熟悉金融行业业务,对数据敏感,有金融行业数据平台、数据应用类项目(如:监管报送、经营分析等业务领域的数据治理工作经验,有租赁行业经验或大型项目背景者优先考虑; 3.熟练掌握数仓分层架构、ETL开发流程,具有良好的数据分析、逻辑推理能力,熟练使用Oracle、Mysql、Hive等至少一种主流数据库技术,具备主题模型或数据集市设计和开发经验,; 4.良好的学习能力与团队精神,工作热情努力、积极主动、高效负责; 5.具有数据治理工程师(CDGA)、PMP以上资质证书优先考虑; 6.具备或了解离线、实时计算引擎,如:Flink,Spark,Storm等,了解重构技术、交互设计、机器学习、对象存储等知识优先考虑。
  • 20k-40k·16薪 经验3-5年 / 本科
    智能硬件,电商平台 / 上市公司 / 2000人以上
    1、负责集团整体基础数据建设,提供通用、稳定、丰富、高效的公共数据能力,提升数据支持业务的效率,探索数据的增量价值 2、建设公司全站数据治理和管理体系,结合业务+元数据+技术,推进资源成本优化,提高数据服务的数据质量,保障数据产出的稳定性。
  • 16k-28k 经验3-5年 / 本科
    人工智能服务,科技金融 / 不需要融资 / 500-2000人
    岗位职责: (1)参与兴业银行大数据平台湖仓一体、存算分离、流批一体等前沿技术的基础架构体系规划与研究,并推动落地实施; (2)负责兴业银行大数据平台运维保障,存储、计算等各类组件性能调优,以提升平台稳定性; (3)协助兴业银行大数据平台信创迁移与相关系统改造、适配等工作; (4)联系上下游业务需求方与应用开发团队,对接协调大数据平台使用、建设、推广相关工作。 岗位要求: (1)熟悉大数据生态体系中分布式存储、缓存、高并发等底层技术协议与原理; (2)具有海量数据计算组件(Hive、Spark),OLAP查询引擎(Clickhouse、Presto、Doris等)故障排查与优化经验,有源码阅读与调试经验优先; (3)熟练掌握Flink等主流大数据组件原理及应用,具有Hudi或Iceberg等流批一体相关组件应用经验; (4)熟悉Docker、K8s等容器化、大数据组件云原生相关技术。 工作地点:上海
  • 20k-28k·15薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 500-2000人
    【职位描述】 1、负责集团多条核心产品线的信息安全数据仓库建设,包括**、安居客等; 2、基于当前大数据平台技术,设计和实现数据主题模型、多维分析报表,涵盖用户行为、反欺诈、反作弊、风控审核、用户服务等; 3、积极参与数据治理工作,提升数据易用性及数据质量; 4、构建以数据为驱动的智能应用产品,针对各业务场景探索提供大数据解决方案,例如业务风险感知、特征工程、数据可视化、数据分析平台等; 5、负责各个运营环节必要的数据调度任务开发,包括实时和离线数据处理。 【职位要求】 1、本科以上学历,至少三年相关工作经验; 2、对大数据、分布式计算有较好的理解,了解 Hadoop、HDFS 的原理和运作方式; 3、熟悉掌握 Spark、Flink、Mapreduce、Hive、Hbase、ClickHouse、Kafka 等大数据技术,并有相关的使用和开发经验,熟悉源码者优先; 4、具备较强的编码能力,熟练运用 Java、Python、Scala、Linux Shell、Awk 中的一项或多项; 5、具备一定的后台服务开发能力,对系统架构设计、性能调优、高并发、高吞吐有经验者优先; 6、精通数据仓库实施方法论,深入了解数据仓库体系,理解并合理抽象业务需求,支撑过实际的业务场景; 7、具备优秀的技术与业务结合能力,善于沟通; 8、具有 PB 级数据处理经验者优先。 【信息安全部安全智能团队介绍】 我们是一个通过数据及算法能力为用户提供安全产品体验的团队,服务于整个58系公司。面临不同的业务安全场景,数据集成、存储、检索、数据流组织每个环节的数据都是海量且复杂的。实时特征计算平台、机器学习平台、数据可视化分析平台都是具有挑战性的项目。我们的目标是构建一个低成本的智能风控体系。
  • 30k-40k·16薪 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1. 参与贝壳大数据平台建设,研发大数据相关的基础服务和中间件,包括实时计算平台/查询引擎/任务调度系统/权限平台等大数据生态服务,提升系统的稳定性和可扩展性; 2. 负责解决大数据离线(Hive/Spark) 和 实时( Spark Streaming/Flink)等技术领域的相关难题,提升系统的稳定性和性能; 3. 跟进和调研大数据领域的前沿技术,包括OLAP引擎、Data Lake 等,并推动其在贝壳业务的应用落地; 任职资格 : 1. 计算机相关专业本科以上学历,3-4年以上相关工作经验; 2. 具有扎实的专业基础,较强的编码能力,熟悉常见的数据结构与算法; 3. 精通Java编程,理解IO、并发、网络等基础框架,熟悉JVM原理; 4. 精通大数据处理技术栈中的一个或多个平台/框架,包括但不限于:Hadoop/Hive/Spark/Flink/Kafka/ClickHouse/StarRocks等, 深入了解其原理优先; 5. 具有较强的问题解决能力和技术钻研精神;
  • 25k-45k 经验3-5年 / 本科
    居住服务 / 上市公司 / 2000人以上
    工作职责: 1、负责贝壳大数据平台工具的开发和维护 2、参与大数据框架优化和源码定制开发 岗位要求: 1、熟悉JAVA体系架构,熟悉常见数据结构、多线程并发、JVM等,精通spring、spring boot、MyBatis等主流的开源框架 2、熟悉MySQL、Redis等数据库技术 ,Http等常见网络协议 ; 3、熟悉Hadoop生态圈技术,包括HDFS、MapReduce、HBase、Hive、Zookeeper等,熟悉主流实时处理技术,如Spark、Flink、kafka、pulsar,提交社区patch者优先 4、良好的思维习惯及沟通能力,具有较强的主动意识,乐于接受挑战 5、具有较强的学习能力和问题解决能力