-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
职位职责: 1、负责国际支付业务的数据分析、指标体系建设、业务迭代分析及AB实验分析等工作; 2、通过基础数据建设,能够清晰、完整的刻画国际支付业务的业务现状; 3、通过专项数据分析形成数据洞察及优化迭代建议,数据驱动国际支付业务发展。 职位要求: 1、本科及以上学历,统计学、数学、计算机等相关专业; 2、熟练使用SQL/Hive/Python/Spark等语言工具进行数据分析工作; 3、扎实的统计学、数据挖掘等理论和技术基础,熟练掌握因果推断、统计与概率论等数学工具,熟悉聚类分析、关联分析、逻辑回归、决策树等数据挖掘/机器学习模型算法; 4、有较强的逻辑思维能力,对数据敏感,具备很强的数据分析和解决问题的能力,有较好的产品意识,对产品和数据有独立的思考和洞察,有较强的数据驱动的意识; 5、具备较强的学习能力,有强烈的求知欲和进取心,主动及时关注学习业界最新技术; 6、有较强的责任心和主人翁意识,具备良好的沟通表达能力,积极乐观并有良好的团队协作能力; 7、在支付、金融、信贷等领域有相关的数据工作经验及行业经验者优先。
-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
岗位职责: 1、负责平台商家数据分析工作,规划搭建平台电商分析体系; 2、产出数据分析系统+报表,输出可视化报告; 3、跟踪业务数据,监控数据波动和异常,通过数据分析发现业务问题和机会点,并能提出有效的解决策略; 4、关注行业动态,定期输出专业竞品&行业数据分析报告; 岗位要求: 1、本科及以上学历,数学、统计学相关专业,有至少一年电商行业经验; 2、从事数据分析工作三年及以上,熟练掌握Hive/SQL,精通Excel; 3、具有快速的业务理解及学习能力,能够发掘业务细节和数据之间的联系,逻辑思维、自我驱动、抗压能力强; 4、商业敏感性高,逻辑分析能力强,有极强的数据敏感度、数据分析和提炼归纳的能力,快速学习能力、责任心与团队合作精神。
-
岗位职责: 舆情监测与数据采集,数据处理与深度分析,报告撰写与可视化呈现,监测体系优化与协作支持。 岗位要求: 1、学历及工作背景要求:本科及以上学历,数据科学、统计学、新闻传播学、社会学、信息管理、市场营销、计算机等相关专业背景优先;具备1年以上数据监控、数据运营等相关工作经验。 2、熟悉网络媒体与社交媒体:舆情数据分析师需要了解各种网络媒体平台和社交媒体应用,比如微博、微信、知乎、小红书、抖音、快手等。熟悉平台使用方法,了解用户的交流方式和特点。 3、数据分析能力:舆情数据分析师需要具备良好的数据分析能力,熟悉互联网信息传播特性,具有较强的信息搜索、捕捉、整合及分析数据的能力,对热点舆情有分析研究潜质,文字功底较强,具有一定的报告撰写经验。掌握数据分析工具和方法,如Excel、Python等数据处理分析工具,掌握自然语言处理及基本爬虫方法。 4、舆情监测技巧:舆情数据分析师需要掌握舆情的监测方法和技巧,能够追踪网络上关于特定话题或事件的讨论和评论。熟悉各类网络监测工具,并学会运用工具进行舆情监测。 5、善于沟通和表达:有良好的沟通能力、高度的责任心和抗压能力,能适应突发舆情的紧急工作节奏,有强烈的学习欲望和良好的团队精神。
-
地点:武汉 岗位职责: 1、负责产品的研发工作,主要负责后台编写,包含部分算法编写、性能优化,保证平台安全、稳定、快速运行。 2、负责产品的数据模型设计以及相应接口的开发工作。 3、参与系统的需求调研和需求分析,及系统上线协助,并承担部分交付责任。 4、配合前端进行前后端联调。 任职要求: 1、计算机相关专业硕士及以上学历, 3年以上JAVA开发经验; 2、有数据控制技术、机密容器研发经验优先。 3、有隐私计算、联邦学习,隐语、Fate隐私计算开源框架、区块链等相关技术研发和应用经验优先。 4、具备良好的面向对象编程经验,深入理解OO、AOP思想,具有较强的分析设计能力,熟悉常用设计模式。 5、精通Spring、Mybatis、JPA等开源框架并熟悉其实现原理,熟悉SpringCloud等微服务框架。有两年及以上的Spring实际项目开发经验。 6、熟练使用linux操作系统,熟悉云原生架构技术Docker、K8S等。 7、熟悉SQL编写,至少掌握mysql、sqlserver、oracle的一种; 8、熟悉Tomcat、nginx等web服务器。 9、熟悉websocket,grpc等相关通信协议。 10、熟悉C/C++、python优先。
-
工作职责: 1、微博企业蓝v&品牌号产品使用偏好分析,包括但不限于产品分析、用户分析、运营分析,给出可落地的策略建议,形成报告。 2、数据分析的工具支持,包括但不限于 数据模板、数据看板,需求收集、落地、迭代。 3、负责品牌号数据中心的产品运营工作,推动产品优化迭代、提升产品价值。 职位要求: 1、本科以上学历,数学、统计学相关专业优先; 2、有2年以上互联网公司业务数据分析相关工作经验; 3、熟练使用sql、python等数据处理及分析软件; 4、具有良好的数据逻辑分析能力,能主动发现业务问题和诉求,对接协同业务方推进业务优化。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
工作地点:广东广州 工作内容:1.数据收集与清洗:负责从多种数据源(如数据库、API、日志文件等)中提取和整合数据。对原始数据进行清洗、去重、转换和标准化,确保数据质量和可用性。 2.数据分析与挖掘:运用统计学、机器学习等方法对数据进行分析,挖掘数据背后的规律和趋势。针对业务问题,设计并实施数据分析方案,提供数据驱动的洞察和建议。 3.数据可视化与报告:使用可视化工具(如Tableau、Power BI、Matplotlib等)将分析结果转化为直观的图表和报告。定期生成数据分析报告,向业务部门和管理层汇报分析结果,支持决策制定。 4.业务支持与优化:与产品、运营、市场等团队紧密合作,理解业务需求并提供数据支持。 5.数据建模与预测:构建数据模型,进行预测分析和场景模拟,为业务规划提供数据依据。持续优化模型,提升预测准确性和实用性。 任职资格: 1.学历要求:本科及以上。 2.专业要求:计算机、数学、统计学、金融工程、经济管理、商业分析等相关专业优先。 3.工作经历:须具备数字化工作背景。 (1)具备风险管理、数据分析等工作经验; (2)熟练掌握风险评估、风险建模、数据分析等专业技能,精通Python、R、SQL等数据分析工具,能够运用大数据技术进行风险识别和预警。 (3)具备相关法律法规和监管政策等经验者优先;具备民航工作经验者优先。
-
岗位说明: 1. 针对重点行业(能源电力、大型装备、金属冶炼、半导体、精密电子等行业)的智能制造与数智化升级,利用设备和生产数据,灵活运用数据分析相关技术解决客户实际业务问题; 2. 基于公司的数据平台产品,开展如下工作:数据预处理、特征工程、数据分析模型的开发、测试和部署、并支持相关数据分析应用的开发和落地。 岗位要求: 1. 精通统计分析、时序数据和关系数据处理,了解常用数据挖掘/机器学习等算法,有将数据算法实际应用于设备健康、故障诊断、质量追溯、工艺优化等实际项目的经验。 2. 精通数据分析语言Python及常用的算法包的使用(如numpy, pandas, scipy, sklearn, tsfresh, matplotlib, seaborn, pyecharts, plotly等),有实际项目代码开发经验。 3. 工业专业教育背景或工作经验,具有电力、电子、能源动力、半导体、化工或自动化等专业背景 4. 有良好的业务理解和团队合作能力;有项目管理或技术管理经验者优先(高级)。 5. 有较强的新领域知识学习能力、文档写作能力、客户沟通能力;能快速搜索、阅读中英文文献者(高级)。 6. 具有工业软件开发背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者。 7. 了解精益生产、六西格玛等概念,或熟悉工业流程、工业通信协议,SCADA/MES/PLM等工业软件者优先。
-
1、负责车联网大数据标准化接入、整车产品体验洞察、整车健康监测平台等数据应用平台的设计、开发及优化,保障数据应用服务的稳定性与可用性 2、负责车联网大数据的离线、实时数据仓库建设,负责数据的生产、建模、应用及质量体系建设 3、搭建面向数据驱动整车产品闭环的数据指标体系和BI平台 4、负责车联网数据质量、数据资产、数据治理相关的开发工作,提升数据质量及易用性 5、积极探索大数据及人工智能技术的深度应用,并落地到智能网联产品业务 1.工作经验:5年以上数据仓库经验,具备优秀的数据架构和业务抽象能力,参与过中、大型数据仓库从0到1建设的优先,具有智能网联汽车、数据治理、埋点相关经验优先 2.其他: ①、掌握大数据生态技术栈,深入了解数据平台、BI、画像、分析等方向中的一项或多项 ②、熟练使用Hadoop生态相关技术并有相关实践经验,包括Hdfs、Mapreduce、Hive、Hbase、Spark、Kafka、Flink、StarRocks等,具备海量数据加工处理(ETL)相关经验 ③、深入了解常用的数据建模理论,具有丰富的实际模型设计及ETL开发经验,可独立把控数据仓库各层级的设计,有数据治理相关经验者优先 ④、对数据敏感,有较强的逻辑分析能力,有丰富的数据处理和分析经验,有复杂业务和算法的数据平台建设经验优先 ⑤、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力
-
岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论 1)熟悉etl分层建设方法 2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优 3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
-
职位职责: 1、建设和迭代指标体系,形成体系化的日常业绩追踪机制,并推进数据监控看板/数据产品的建设; 2、负责营销导购方向核心目标的追踪和异动分析工作(营销工具、大促、平台营销、商详、评价等方向),识别并洞察问题、提出建议主张、支持业务复盘决策; 3、主动发现问题和业务痛点,独立承接营销分析相关的研究洞察专题、短中长期可落地的解决方案,协助业务提效增收。 职位要求: 1、具备数据分析相关工作经验,具备有电商相关行业战略分析、经营分析、商业分析经验者优先,计算机,统计学、数学、经济学专业优先; 2、具有良好的战略分析框架及逻辑思维能力,数据分析能力强,能熟练应用各种数据处理和统计工具,包括但不限于Excel、SQL、SPSS、Python;有较强的撰写报告和PPT的能力; 3、好奇心强,主动性强,能快速学习,能够独立思考。


