• 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、以抖音系全域数据为依托,参与构建海量数据下符合房产业务特性的数据仓库建设; 2、负责数据模型的架构设计、开发以及海量数据下的性能调优、复杂业务场景下的需求交付; 3、参与构建围绕安全、质量、效率、成本等方向的数据管理能力建设,并推动某细分横向场景的落地; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉数据仓库体系架构、数据建模方法、数据治理等知识,有较强的SQL/ETL开发能力; 2、对数据价值探索充满热情,较强的业务理解和抽象能力,能快速分析和理解问题; 3、掌握大数据技术栈,包括Hadoop/Hive/Spark/OLAP引擎等; 4、思维逻辑清晰,良好的自驱力、沟通能力和解决问题能力; 5、扎实的数据结构、数据库原理等基础知识,理工科本科以上学历,3年以上数据仓库建模经验; 6、具备流量数据体系建设&实时数据体系建设经验优先; 7、具备房产服务相关行业经验优先。
  • 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
  • 13k-25k 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 上市公司 / 2000人以上
    地点:武汉 岗位职责: 1、负责产品的研发工作,主要负责后台编写,包含部分算法编写、性能优化,保证平台安全、稳定、快速运行。 2、负责产品的数据模型设计以及相应接口的开发工作。 3、参与系统的需求调研和需求分析,及系统上线协助,并承担部分交付责任。 4、配合前端进行前后端联调。 任职要求: 1、计算机相关专业硕士及以上学历, 3年以上JAVA开发经验; 2、有数据控制技术、机密容器研发经验优先。 3、有隐私计算、联邦学习,隐语、Fate隐私计算开源框架、区块链等相关技术研发和应用经验优先。 4、具备良好的面向对象编程经验,深入理解OO、AOP思想,具有较强的分析设计能力,熟悉常用设计模式。 5、精通Spring、Mybatis、JPA等开源框架并熟悉其实现原理,熟悉SpringCloud等微服务框架。有两年及以上的Spring实际项目开发经验。 6、熟练使用linux操作系统,熟悉云原生架构技术Docker、K8S等。 7、熟悉SQL编写,至少掌握mysql、sqlserver、oracle的一种; 8、熟悉Tomcat、nginx等web服务器。 9、熟悉websocket,grpc等相关通信协议。 10、熟悉C/C++、python优先。
  • 20k-40k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
  • 15k-25k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 15-50人
    岗位概述:正在寻找一名Python数据开发工程师加入我们的开发团队,您将与我们优秀的工程师和研究人员一起,负责开发和维护我们的高性能数据科学研究系统的相应组件。 岗位职责: 1、熟悉使用Python来开发数据应用,熟悉数据ETL; 2、高质量完成数据开发需求,充分测试,保证数据的准确些、一致性、及时性、完整性; 3、参与开发量化交易研究的回测系统组件,包括但不限于Tick数据采样、特征构造、特征选择、以及拟合等 4、开发可重用的代码和库;完成高质量的、可维护的代码; 5、可参与开发深度学习策略、自动化实盘交易系统等其他内部系统。 任职要求: 1、本科以上理工科类学历,学习过计算机体系结构、数据结构等计算机类专业课; 2、有2年以上Python开发经验,其中至少半年以上为数据处理类工作如爬虫、ETL等; 3、熟悉Linux环境下开发,熟悉常用的Bash指令; 4、熟悉Pandas/Polars等时序数据类库以及Numpy等科学计算库; 5、熟悉MongoDB等NoSQL数据库; 6、熟悉Python中基本的数据结构的使用方法,了解其计算复杂度; 7、自驱、认真负责、技术沟通和技术协作能力强。 加分项: - 有金融行业数据处理经验。 - 有容器化(Docker)开发部署经验。 - 有使用serverless系统开发的经验,例如阿里云FC,亚马逊Lambda。
  • 15k-30k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 25k-50k·16薪 经验3-5年 / 本科
    区块链 / 上市公司 / 150-500人
    岗位职责: 1、负责业务数仓建设和主题指标体系的开发,支持各业务线的数据需求; 2、负责离线数据应用服务(如数据同步、离线ETL等)的技术架构设计和落地实现,优化数据链路性能; 3、负责数据治理的相关工作,实现业务数据资产化管理。 任职要求: 1、精通维度建模理论,具备数据仓库模型设计相关经验,深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的coding和sql能力,熟悉hadoop生态中的常用组件和基本原理,了解数据倾斜等分布式场景常见问题的解决方案; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力; 4、有大数据实时系统/实时数仓相关研发经验优先; 5、熟悉AWS 技术生态体系,有用户画像,风控系统,指标系统等数据中台建设经验优先。 6、具备较好的数据分析能力,结合业务做对应的数据分析。 7、机动性强,积极参与紧急事项。
  • 25k-35k·13薪 经验3-5年 / 本科
    硬件,物联网,电商 / 未融资 / 500-2000人
    岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
  • 30k-45k 经验5-10年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    职位描述: 我们正在寻找一位经验丰富、具有创造力的NLP/数据挖掘方向的算法工程师,加入我们的团队,负责构建和优化公司的标签挖掘、知识图谱、构建垂域的大模型,打造业界领先的AI&NLP算法团队 主要职责: 1、主导、参与、设计和构建标签体系、知识图谱的结构和关系,以支持智能推荐、问答、自然语言处理等应用。利用图谱算法和机器学习技术,从海量数据中提取和抽取出知识,填充知识图谱。 2、大规模预训练LLM,构建人才招聘领域的垂域场景下的语言大模型,基于底层基座,进行retraining or fine-tune。推动公司互动对话以及相关AI产品的落地 3、数据挖掘方向,关键词提取,支持搜索意图理解、suggest等产品的优化改进,提升用户体验 4、与其他工程师和团队合作,将知识图谱应用于产品中,实现智能化和自动化的功能。 任职要求: 1、研究生以上学历,211、985毕业优先 2、年龄在35以下,并且有互联网相关2年以上的算法工作经验 3、深入理解和掌握NLP、深度学习、LLM、数据挖掘领域的知识和技能。 4、熟练掌握Python、Spark等大数据和图谱工具,能够进行大规模数据处理和分析。 5、对算法和数据有强烈的兴趣和热情,能够在复杂的场景中进行高效的算法设计和优化。 6、具备良好的团队合作和沟通能力,能够与产品、设计和其他工程师紧密合作,完成高质量的产品。 7、热爱学习,对人工智能、NLP、数据挖掘、LLM、知识图谱充满热情,能够自我驱动并独立解决问题。
  • 20k-30k·15薪 经验3-5年 / 本科
    电商,企业服务 / 未融资 / 150-500人
    岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论   1)熟悉etl分层建设方法   2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优   3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
  • 10k-20k 经验1-3年 / 本科
    金融业 / 上市公司 / 2000人以上
    工作职责 1、负责大数据相关系统的开发、测试、部署及上线工作,参与代码评审,确保开发质量; 2、参与业务部门临时数据分析需求,合作开展专项数据分析工作; 3、协助运营人员处理生产问题并提供技术支持,解答业务部门反馈的数据问题及各类咨询; 4、参与公司数据分析需求调研、评估、系统分析及架构设计工作。 任职要求 1、本科及以上学历,计算机、数学、统计学、管理信息类相关专业; 2、熟悉关系型数据库如Oracle、Postgresql等的使用、可熟练编写SQL实现业务逻辑,了解SQL性能调优; 3、熟悉Hadoop生态圈组件,包括但不限于Hive、Spark、HBase、Kylin、Flink、ES、Kafka等; 4、具备良好数据分析及处理能力,熟悉常见的数据处理工具,如ETL、BI工具、Python等; 5、具有较强的责任心和服务意识,良好问题分析及处理能力。
  • 25k-50k 经验10年以上 / 硕士
    工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1. 基于平台的海量数据,结合数理统计、数据挖掘、机器学习等技术,分析推荐算法效果,协助挖掘、构建可用于推荐的特征; 2. 深入理解业务问题,传递数据驱动的可视化方案和建议给到业务对接人,设计可执行的方案并推动产品决策; 3. 和用研,产品,工程师团队密切合作,部薯和落地算法模型方案; 4. 通过执行和分析A/B test来加快产品的实验和迭代。 岗位要求: 1. 有相关工作经验,计算机、统计、数学等专业背景优先; 2. 有数据驱动意识和相关产品分析决策项目的领导经验; 3. 扎实的编程基础(Python/SQL/Scala)、大数据平台使用经验和数据分析工具(R,SPSS,Tableau)的使用能力; 4. 有将数据转化成可理解和执行的决策(A/B test, 产品方案)能力; 5. 良好的团队合作意识。
  • 20k-33k 经验5-10年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 1、负责数据库架构设计,数据库系统性能优化; 2、负责数据库生产运维重大问题跟进、对外应用服务、部门内部项目、重要任务及重大变更的实施(升级、迁移、合并、改造等); 3、日常生产运维重要问题跟进及解决,定期分析跟进报表类报警,重要数据库健康检查及主动优化; 4、重大变更技术方案的制定及跟进,自动化运维工具开发; 5、保障数据库稳定运营,提升部门产能,达到主动服务和专业服务的目标,提升用户满意度和部门外部影响力。 任职要求 1、本科及以上学历,计算机、软件工程等相关专业;5年及以上数据库构架、开发、维护管理相关工作经验; 2、熟悉Oceanbase等分布式数据库,具备一年以上的Oceanbase项目的实施或运维经验,熟悉Oracle/PostgreSQL/MySQL中的至少一种,精通SQL优化及具备数据库整体性能优化的能力,具备OBCP认证; 3、保险、银行、证券相关及大型互联网行业工作经验者优先,熟悉操作系统、实施过信创改造项目者优先; 4、原则性强,责任心强,工作积极主动,具备良好的沟通协调能力、问题解决能力、口头和文字表达能力。
  • 30k-60k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、参与字节跳动搜索业务离线和实时数据仓库建设工作; 2、参与数据ETL流程的优化并解决海量数据ETL相关技术问题; 3、参与复杂数据链路依赖和多元数据内容生态下的数据治理工作; 4、背靠字节跳动强大的中台架构和产品体系,在业务快速落地数据解决方案。 职位要求: 1、精通数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、具备较强的编码能力,熟悉sql,python,hive,spark,kafka,flink中的多项,有TB以上大数据处理经验; 3、对数据敏感,认真细致,善于从数据中发现疑点; 4、善于沟通,具备优秀的技术与业务结合能力。