• 15k-25k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、了解大数据和AI,能通过科技结合业务应用进行规划和推动落地,实现科技驱动业务发展; 2、能够洞察和分析行业发展趋势和优秀企业大数据和AI发展情况,并研究观点支持公司内部数字化转型发展; 3、协助部门内部管理,优化部门管理举措,了解OKR优先; 4、其他领导关注的项目管理、统筹、规划和跟踪。 任职要求 1、本科以上学历。 2、有3年以上的战略或运营或数字化等咨询顾问工作经验,其中有互联网金融领域、保险领域、IT及数据治理的规划经验优先; 3、有大型咨询公司工作背景,如德勤、埃森哲、罗兰贝格、IBM、普华永道、安永、毕马威咨询等相关战略规划工作经验优先; 4、独立规划并负责过项目,能主导完成规划,并能推动落地,跟进效果和检视; 5、优秀的PPT编写能力,良好的沟通和表达能力、出色的学习能力、访谈能力和问题解决能力。
  • 15k-25k·14薪 经验不限 / 本科
    移动互联网,企业服务 / 上市公司 / 2000人以上
    工作职责: 1、参与ETL、调度、集群、数据处理的设计与开发,文档撰写; 2、参与定义数仓/数据中台模型,从计算性能、存储性能、ETL流程与任务等层面进行优化; 3、负责大数据平台的数据采集、处理、存储、计算、分析的架构实现; 4、研究前沿技术,解决实际场景中的业务问题,优化实时流式大数据计算的架构和性能。 任职资格: 1、熟悉主流数据库技术,精通SQL,有一定SQL编码及调优经验; 2、熟悉Java/Scala开发,有脚本语言(shell/python)开发经验者优先; 3、精通Hadoop、Kafka、Flink、Spark等大数据平台或框架的架构和工作原理,对flink、spark源码有研究,具的有大规模数据采集、处理等项目经验; 4、具备2年以上大数据项目开发经验或数据中台产品研发经验。
  • 14k-17k 经验3-5年 / 本科
    移动互联网 / 不需要融资 / 150-500人
    岗位职责: 1参与公司金融领域知识图谱产品数据相关的大数据开发工作; 2.基于公司的产品进行客户化现场实施开发; 3能够做标准算法包实施,可向算法开发方向发展; 任职要求: 1、本科及以上学历,计算机、统计学、应用数学等相关专业; 2、4年或以上数据开发经验,有银行、证券数据分析经验者优先; 3、熟悉HDFS、spark、scala、HBase、ElasticSearch等大数据开源技术; 4、熟悉银行业务知识、业务数据存储及分发机制; 5、熟悉linux操作系统,至少熟悉一种脚本语言shell、python、JAVA等; 6、熟练掌握传统关系型数据库如hive,具备存储过程开发和Sgl调优经验; 7、了解常见的图数据库,如Neo4j、ArangoDB等,有实际应用经验优先;
  • 15k-30k 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验;2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种;3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验;4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力;有hadoop、kafka、spark、flink等开源组件源码优化经验优先;岗位职责:负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 15k-30k·14薪 经验3-5年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    1、计算机或相关专业本科及以上学历,2年以上大数据运维或开发工作经验; 2、熟悉linux开发环境,熟练掌握JAVA/GO/Python语言中的一种; 3、熟练掌握大数据常用开源组件的技术原理, 有hadoop、kafka等开源大数据组件运维或开发经验; 4、有较强的逻辑思维能力,思想上开放,主动积极有责任感,能够承担工作压力; 有hadoop、kafka、spark、flink等开源组件源码优化经验优先; 岗位职责: 负责大数据平台消息中间件/Hadoop/实时计算/OLAP的运营支撑和架构优化。
  • 14k-22k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 500-2000人
    任职要求 1、大学本科或以上学历,有金融/银行背景优先 2、5年或以上经验,扎实的数据相关经验和技能,如ETL, Java/Scala,大数据 3、熟悉SQL、大查询表、更新元数据、授权视图、查询优化、分区和集群技术 4、有云相关知识或经验(GCP、AWS、阿里云等) 5、具备GCP相关知识优先,(至少包括一些知识,如Dataproc, Dataflow, Big Query, Compute, Pub/Sub, Cloud Storage) 6、有团队管理经验优先 7、英语能力:能读/写和基本的口语交流
  • 4k-6k 经验不限 / 本科
    广告营销 / 上市公司 / 500-2000人
    岗位职责: 1. 参与大数据平台的整体规划,技术路线、系统演进的设计; 2. 负责离线、实时数据处理平台的建设和运维; 3. 对离线、实时等平台组件的技术选型、优化; 4. 负责大数据产品产品交付项目的开发与运维,发现项目上存在的问题并及时跟踪解决 任职要求: 1. 2023届及以后毕业的同学,了解大数据相关生态,如Hadoop/Spark、Kafka等大数据框架,对Kubernetes了解加分; 2. 熟练掌握JAVA、SQL等开发语言,scala go熟悉更佳; 3. 熟悉Linux/Unix系统,熟悉Python/Shell 脚本语言; 4. 掌握集群优化策略,如小文件合并、集群调度监控、集群GC优化等; 5. 具有良好的沟通能力,能够快速理解业务; 6. 每周出勤4-5天,实习6个月以上优先。
  • 20k-40k·14薪 经验3-5年 / 本科
    软件服务|咨询,营销服务|咨询,数据服务|咨询 / B轮 / 150-500人
    if (your_passions.includes('coding')) { switch(your_stacks) { case 'Java': case 'Python': case 'Kubernetes': case 'Serverless': console.log('Join AfterShip'); break; } } 岗位职责 1、负责公司各产品线数据收集、集成、传输、清洗、落地数仓; 2、负责构建数据开发平台,高效支撑数据任务开发,赋能数据能力,保障数据质量; 3、负责构建可靠的数据服务,支撑公司各产品数据功能和服务; 4、负责系统的 SLA 代码维护、迭代更新,保证任务质量和交付及时性; 5、负责编写相关的技术文档、单元测试,对产品质量负责。 岗位要求 1、本科及以上学历,具备英语读写能力,具备扎实的计算机基础和编程能力; 2、熟悉 Git/GitHub,通信协议 TCP/HTTP 及 RESTful 标准,理解JVM工作原理; 3、三年以上 Java 开发经验,一年及以上大数据开发经验,对数据敏感,具有一定的数据问题排查经验; 4、深入了解大数据计算平台架构和产品组件原理和应用场景,如 Spark, Hadoop, Hive, HBase, AWS Redshift, AWS Kinesis, GCP BigQuery, GCP Cloud Dataflow 等; 5、熟练使用 Spring Boot, MyBatis, Hibernate,Spring Cloud 等常用开发技术。 加分项 1、有英语听说能力,以及海外电商、SaaS 服务项目开发经验优先; 2、有 CI/CD 自动化测试经验; 3、有使用 Docker、Kubernetes、AWS 或 GCP 云计算经验; 4、有写 Blog 的习惯,活跃技术社区,参与开源项目等; 5、有代码洁癖,对代码精益求精,对技术有极客热情; 6、有软件著作权申请,有专利发明申请。 为什么加入我们 1、极客氛围: 拥抱开源技术,实践敏捷开发; 2、新技术: Kubernetes, Serverless, TensorFlow, Microservice; 3、特色福利: 每天下午茶,学习成长基金, 提供 MacBook Pro; 4、多元文化: 团队来自全球十几个国家。
  • 10k-15k·15薪 经验1-3年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    岗位职责: 1、支撑大数据产品和项目,对整个生命周期的大数据流程进行研发。 2、搭建、调试大数据平台,集成相关组件,如spark、ES、hbase、图数据库、dockers等。 3、保障数据质暈,测试验证数据逻辑和数据流程的准确性。 4、完成项目交付开发及交付质量。 任职资格: 1、大学本科及以上学历,2年以上大数据相关工作经验; 2、熟练掌握Hadoop、Hive、Hbase、Spark、Storm等分布式框架原理,有相关的调优、运维、开发经验; 3.熟悉常用的数据挖掘算法,例如聚类、回归、决策树等; 4.有数据仓库、分析系统、用户画像等产品开发经验者优先; 5.有较强的数据和业务结合能力; 6.有较强的独立、主动的学习能力,良好的沟通表达能力。
  • 12k-15k 经验3-5年 / 本科
    软件开发,其他 / 上市公司 / 500-2000人
    专业素质要求: 1、熟悉HDFS、MPP大数据存储组件和Spark、Spark Streaming大数据计算组件; 2、具有2年以上几类或者营销类系统开发运维经验,具备2年以上大数据开发运维经验,熟悉掌握数据库SQL语言; 3、具有独立承担设计、开发计量或者营销类系统数据分析功能经历; 4、具有较强的PPT制作能力; 5、诚实守信、作风踏实严谨、责任心强;具备良好团队协作能力精神;学习能力强,善于解决复杂问题 主要工作: 1.计量自动化系统大数据以及系统运维工作; 2.进行计量或营销系统数据分析工作; 3.编制数据分析汇报PPT工作 4.领导安排的其他工作;
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、打造业界领先的 PB 级 OLAP 引擎,并支撑字节跳动旗下产品(如抖音、今日头条)ETL 及 ad-hoc 查询; 2、负责以 Spark SQL、Presto 为代表的开源大数据引擎的内核**优化; 3、负责字节跳动内部数据仓库方向数据架构设计。 职位要求: 1、熟悉 Spark、Presto、Druid、Kylin、Hive、Impala、Flink 等主流大数据系统原理及源码(不要求熟悉所有技术栈); 2、熟悉主流的 OLAP 引擎的优化原理,包括但不限于向量化执行、列式存储、late materialization、代码生成; 3、具备大规模系统的故障诊断与性能优化能力; 4、具有较强的项目推动能力,能推动技术项目在业务侧的落地。
  • 20k-35k·15薪 经验3-5年 / 本科
    人工智能服务 / B轮 / 150-500人
    职位描述: 1. 负责基础数据仓库的设计和建设; 2.负责公司数据处理平台的架构设计和建设; 3. 负责公司数据产品的需求对接、业务实现,保证最终数据计算的准确性、稳定性和及时性。 职位要求: 1. 本科及以上学历,至少3年以上数据开发相关经验 2. 熟练掌握hadoop/hive/spark等大数据处理软件 3. 有数据仓库建设经验 4. 有独立负责数据项目经验者优先
  • 物联网,数据服务|咨询 / 上市公司 / 2000人以上
    岗位职责: 1、负责公司各大行业的业务积累,开发并储备相关数据能力知识,为区域售前提供相关基线方案; 2、负责内部产品基线方案开发,包括方案、基线模块化方案、配单工具等; 3、负责行业方案协作,将产品导入行业方案,并推广; 4、负责协同区域售前人员,完成重大项目支撑; 5、负责行业大数据方案开发; 6、负责公司HCP-DS认证课程开发和认证工作。 任职要求: 1、本科及以上学历,5年以上工作经验,有计算机相关基础; 2、具备较好的解决方案开发能力,具有良好的主动学习、沟通协调、表达演讲能力; 3、熟悉数据治理体系方法论和数据仓库体系,具备方案-产品-数据治理交付全过程的能力; 4、熟悉大数据存算技术,如Hadoop生态、各类NoSQL等开源项目、产品的原理和使用场景; 5、有软件项目实施经验或者大数据项目经验者优先; 6、能够接受全国范围出差。
  • 金融 / 上市公司 / 2000人以上
    工作职责 1、基于数据需求分析,负责在大数据平台开发集市和应用报表,并持续优化; 2、校验数据准确性,并能完成数据差异/异常的解释; 3、按照业务场景要求,完成实时数据流处理,海量数据实时查询数据开发,消息推送开发等; 4、独立开发基于业务场景的数据模型; 5、整合需求,为业务方提供系统化的数据解决方案 任职要求 学历要求: 1、本科以上学历,计算机、数学、统计学等相关专业优先,3年~5年大数据相关工作经验; 2、良好的沟通与表达能力、思路清晰,善于团队协作; 3、快速学习能力,能够快速融入团队,主动性强。 技能要求: 1、熟悉hadoop、hive等开源工具的架构;了解数据仓库建设的基本思路; 2、精通hivesql,有丰富的hivesql性能调优经验; 3、了解flink,kafka等开发工具; 4、具备良好的团队合作精神,具备出色的沟通能力; 5、数字敏感度高,具备较强的分析总结能力,具备良好的可视化BI报表开发能力。 6、有保险等金融行业经验优先。
  • 15k-30k·13薪 经验3-5年 / 本科
    数据服务|咨询,IT技术服务|咨询 / A轮 / 150-500人
    职责描述: 1.支持业务需求,基于海量数据实现数据采集、清洗入库、统计计算,包括运营报表/仪表盘开发; 2.协助策略落地实现,提供可靠数据服务; 3.对业务和数据进行梳理,设计大数据模型,构建相关应用,用数据推动业务发展; 4.主要负责流式实时计算分析和离线数据统计分析。 任职要求: 1.本科及以上学历,3年及以上大数据相关工作经验; 2.具备成熟的系统设计架构能力,丰富的高并发、分布式的系统设计经验; 3.熟悉业界先进的大数据生态组件;(MR/Spark/HBase/ElasticSearch/ClickHouse/Hadoop/Hive),有成熟的系统设计应用经验; 4.熟悉Mysql/Redis/MongDB等系统原理机制以及线上应用经验原则; 5.对新技术保持求知欲,熟悉数据采集、清洗入库、统计计算、Web展示核心要点,可实现指标计算需求; 6.具有优秀的代码治理经验,良好的表达能力和团队协作精神; 7.具有顽强的拼搏精神、奉献精神、敬业精神,有英文读写和交流能力者优先。