-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位要求: 语言要求: 英语六级 能力要求: 1、***本科及以上学历; 2、具有线缆、PCB、电阻、电容、磁器件等电子件研发、工艺、可靠性经验; 3、熟悉IPD开发流程,有结构件或硬件开发/测试/产品维护/质量岗位经验的优先; 4、具备项目管理能力,管理项目质量策划方案及过程,把控重大风险,并组织产品导入质量问题及量产质量问题攻关,满足项目高质量交付; 5、具备良好的沟通能力、团队合作能力和较强的学习能力。 岗位职责: 1、组织所辖各品类供应商及下层产业链,落实技术规划和各级物料连续性管理,确保华为产品的质量及供应安全; 2、响应产品需求并开展新物料选型,构建产品物料的高质量、可采购性及相对竞争优势; 3、给出关于新技术、新工艺、新材料导入的建议并落实,支撑公司产品和解决方案的成本优化; 4、落实品类质量管理策略,掌握重大物料技术质量问题分析、定位及处理能力;面向供应商的质量责任主体,通过供应商认证、供应商质量体系和制程审核、供应商协同及绩效管理、质量风险管理、供应商质量改善等关键行为,确保品类质量目标达成。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
岗位职责 : 1. 技术战略与规划 : - 制定团队中长期技术发展战略,推动区块链、大数据领域的技术创新与落地,确保技术方向与业务目标高度契合。 - 主导技术架构设计,优化高并发、高可用性系统(如交易平台、数据监控、自动化运维体系),保障系统稳定性和可扩展性。 2. 团队管理与协作 : - 领导跨职能技术团队(包括开发、运维、数据、安全等),建立高效协作机制,提升团队技术能力和执行力。 - 推动技术团队与产品、运营部门深度合作,快速响应业务需求(如活动模块迭代、全球行情系统开发、AML合规系统搭建)。 3. 技术架构与系统优化 : - 负责核心系统(如大数据平台、TiDB集群、EKS云原生架构)的架构设计与性能优化,推动技术栈升级(如Go/Python、AWS云服务、区块链节点同步)。 - 主导前沿技术落地,包括智能合约开发、链上数据分析、Web3钱包集成、去中心化交易协议等。 4. 运维与安全体系建设 : - 构建高效运维体系(如EFK日志平台、Apollo配置中心),实现自动化发布、监控告警。 - 制定并执行安全策略,主导Nginx漏洞修复、AWS安全组拆分、堡垒机部署,保障系统与数据安全。 5. 技术创新与行业洞察: - 跟踪区块链、DeFi、AI等领域技术趋势,推动技术预研与创新(如灰度基金数据监控、链上持币分析、智能合约审计)。 - 建立技术标准与规范,推动代码审核(SonarQube)、SQL审核(Archery)等流程,提升代码质量与合规性。 任职要求 : 1. 教育背景与经验: - 计算机科学、软件工程或相关专业本科及以上学历,10年以上技术研发经验,5年以上技术团队管理经验。 - 有区块链/交易所/金融科技公司CTO或技术高管经验者优先,熟悉Web3、DeFi、智能合约等技术生态。 2. 技术能力: - 精通分布式系统架构设计,熟悉高并发场景优化(如交易系统、大数据分析),有TiDB、EKS、EFK等实战经验。 - 深入理解区块链技术(如BTC/ETH生态、BRC20、NFT)、链上数据解析、硬件钱包集成,熟悉Solidity/Rust开发。 - 熟悉云计算(AWS)、容器化(Docker/K8s)、DevOps工具链(CI/CD、监控告警),具备全栈技术视野。 3. 管理与软技能: - 卓越的团队领导力,能有效管理100+人技术团队,具备跨部门协作与资源整合能力。 - 优秀的商业敏感度,能将技术方案转化为业务增长动力(如活动拉新、KOL运营、全球化分站拓展)。 4. 加分项: - 有成功主导千万级用户产品或高交易量金融系统经验。 - 熟悉合规与安全体系(如AML/KYC、数据加密、链上风控),具备安全攻防实战经验。 - 开源项目贡献者或技术社区影响力人物。
-
工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
工作职责: 1、负责项目需求分析工作,完成需求分析,编制需求规格说明书。 2、负责产品设计工作,协同技术经理完成项目概要设计说明书及详细设计说明书。 3、与数据分析、技术和设计团队紧密合作,确保产品开发流程高效顺畅。 4、负责人工智能平台产品规划、设计和推广,确保产品满足用户需求并实现商业目标。 5、负责企业支付结算平台的产品设计。 6、负责产品运行数据分析,主动提出产品改进意见、推进产品迭代优化,确保产品保持先进性。 任职资格: 1、本科及以上学历,5年以上技术产品工作经验。 2、具有非常好的执行力及较好的大局观,极强的求知欲和学习能力。 3、工作积极主动高效,具有良好的沟通协调及团队合作能力,有较强的责任心及良好的职业修养。 4、具备人工智能领域和BI互联网应用方面的行业经验,深入理解相关业务。 5、具备三方支付、税务(百望、航信)、银企网银产品经验优先。
-
工作职责: 1. 参与公司项目的开发工作,负责功能模块的设计与实现,确保代码质量与系统性能。 2. 对现有系统进行优化与维护,提升系统稳定性与用户体验。 3. 协助团队完成需求分析,将业务需求转化为技术方案。 4. 编写设计文档,确保开发过程有章可循。 5. 遵循开发规范进行代码编写,参与代码评审,提升团队代码质量。 6. 协助测试团队完成测试工作,及时修复缺陷。 7. 关注新技术动态,探索新技术在项目中的应用。 8. 为团队成员提供技术支持,解决开发过程中的技术难题。 任职资格: 1、计算机相关专业本科及以上学历。 2、3年以上Java开发经验,有金融项目开发经验者优先。 3、精通Java语言,掌握集合框架(List、Map、Set 等)、多线程与并发包。JVM 原理:类加载机制、内存模型(JMM)、GC 回收算法、性能调优。异常处理机制、泛型、注解、反射等高级特性。 4、熟悉Spring Boot、Spring Cloud等Spring全家桶。 5、熟悉MyBatis、Hibernate 主流ORM 框架。 6、熟悉MySQL等主流数据库,掌握SQL编写与优化 7、了解前端开发技术(如HTML、CSS、JavaScript)。 8、熟悉中间件技术(如Redis、RabbitMQ)。 9、熟练使用Maven、Git等项目管理和版本控制工具。 10、熟悉常用设计模式如:单例、工厂、策略、观察者、模板方法等。能够根据业务场景灵活应用设计模式提升代码可维护性。 11、良好的沟通能力与团队协作精神,有独立的设计能力。 12、较强的学习能力和问题解决能力。 13、良好的责任心与敬业精神,能够承受工作压力。 14、依据敏捷思想和研发制度规范及流程,熟练使用研发过程管理工具完成项目及需求研发工作;
-
if (your_passions.includes('BigData')) { switch(your_stacks) { case 'Java': case 'Scala': case 'Python': console.log('Join AfterShip'); break; } } 岗位职责 1、负责公司级通用语义层 Semantic Layer 的整体架构设计、技术选型与核心模型构建,从源头解决数据孤岛和口径不一的问题,确保指标和业务口径在全公司的统一性与权威性; 2、与数据仓库团队、BI 团队建立并推行公司的数据建模与指标管理规范与流程,推动数据治理策略的执行,推广语义层的价值和使用方法,提升全公司的数据消费效率与体验; 3、持续监控和优化语义层的查询性能、数据时效性和系统稳定性,保障服务质量。同时,跟踪业界前沿(如 Headless BI、Data Fabric),结合业务发展,持续推动数据架构的演进与创新。 岗位要求 1、**本科及以上学历,3 年及以上数据平台或数据架构相关经验,拥有参与或者主导构建企业级数据建模体系或指标平台的成功经验; 2、 精通数据仓库建模理论(如 Kimball 的维度建模、Inmon 的范式建模)和范式理论,具备将复杂业务场景抽象和范式化为可复用数据模型的能力,拥有丰富的 SQL 调优经验; 3、熟悉主流的大数据技术栈(如 Spark、 Flink、 Iceberg),对至少一种主流 OLAP 引擎(如 ClickHouse、StarRocks、Apache Doris)有深入的实践经验; 4、熟悉 Apache Calcite、Antlr4 等 SQL 解析与优化框架,对 dbt、Cube、LookML、 AtScale 等至少一种语义层/指标平台框架或工具有深入理解或实际应用经验; 5、具备出色的业务理解和沟通协调能力,能够与数据参考、数据分析师和产品经理等不同角色进行高效协作,准确地将业务需求转化为可落地的技术方案。 加分项 1、熟悉至少一种主流云平台(AWS、GCP)的数据产品生态(如 Redshift、 BigQuery等),有云上数据架构设计经验者优先; 2、对 Headless BI、 Data Fabric 等现代数据架构理念有深入研究和独到见解者优先。 为什么加入我们 1、朝阳行业:国际电商 SaaS 服务赛道,国际一线投资机构加持; 2、稳健发展:团队稳健扩张,业务规模及营收每年持续稳健增长; 3、多元文化:团队来自全球 20 多个不同城市,国际化视角、扁平化管理; 4、极客氛围:拥抱开源技术,实践敏捷开发,崇尚通过工具和自动化来解决问题; 5、特色福利:AI 学习基金、 一对一帮带、内部商城、提供 MacBook 及可升降办公桌。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性 2、负责车联网大数据的离线、实时数据仓库建设,负责数据的生产、建模、应用及质量体系建设 3、搭建面向数据驱动整车产品闭环的数据指标体系和BI平台 4、负责车联网数据质量、数据资产、数据治理相关的开发工作,提升数据质量及易用性 5、积极探索大数据及人工智能技术的深度应用,并落地到智能网联产品业务 1.工作经验:5年以上数据仓库经验,具备优秀的数据架构和业务抽象能力,参与过中、大型数据仓库从0到1建设的优先,具有智能网联汽车、数据治理、埋点相关经验优先 2.其他: ①、掌握大数据生态技术栈,深入了解数据平台、BI、画像、分析等方向中的一项或多项 ②、熟练使用Hadoop生态相关技术并有相关实践经验,包括Hdfs、Mapreduce、Hive、Hbase、Spark、Kafka、Flink、StarRocks等,具备海量数据加工处理(ETL)相关经验 ③、深入了解常用的数据建模理论,具有丰富的实际模型设计及ETL开发经验,可独立把控数据仓库各层级的设计,有数据治理相关经验者优先 ④、对数据敏感,有较强的逻辑分析能力,有丰富的数据处理和分析经验,有复杂业务和算法的数据平台建设经验优先 ⑤、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
-
岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论 1)熟悉etl分层建设方法 2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优 3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
-
职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
热门职位


