-
职位职责: 1、负责字节商业化数据仓库&集市的建设与维护,包括但不限于数据建模、数据开发、数据质量等 2、负责字节商业化业务数据BP,包括需求对接,抽象需求沉淀数据建模,结合产品矩阵灵活的把控技术方案,高质量交付需求 3、参与商业化数据治理工作,提升数据稳定性、易用性及数据质量 4、参与商业化大数据平台规划、为商业数据平台整体提供内容建设侧的应建议指导 职位要求: 1、本科以上学历,2年以上互联网业务数据仓库模型设计、开发经验; 2、熟练使用Hadoop及Hive、spark,熟悉HQL调优。具备一定的Java、Python等语言开发能力 3、具有Clickhouse、Druid、presto等OLAP引擎使用经验者优先 4、具有丰富的指标体系设计,指标管理经验优先 5、沟通能力强,业务sense好,良好的团队协作,以解决业务问题为导向,认同技术解决业务问题的价值理念,对处理海量大数据有较强的兴趣度和持续的热情
-
职位职责: 1、为大规模推荐系统设计和实现合理的数据系统; 2、生产系统的Trouble-shooting,设计和实现必要的机制和工具保障生产系统整体运行的稳定性; 3、打造业界领先的流式计算框架等分布式系统,为海量数据和大规模业务系统提供可靠的基础设施。 职位要求: 1、对大数据系统有深入的了解,在生产环境有TB级别Flink实时计算系统开发经验,深入掌握Flink DataStream、FlinkSQL、Flink Checkpoint、Flink State等模块,有Flink源码阅读经验优先; 2、熟悉常见消息队列原理和应用调优,有Kafka、Plusar、RocketMQ等项目源码阅读经验优先; 3、熟悉Java、C++、Scala、Python等编程语言,有出色的编码和Trouble-shooting能力; 4、乐于挑战没有明显答案的问题,对新技术有强烈的学习热情,有PB级别数据处理经验加分; 5、有数据湖开发经验,熟悉Hudi、Iceberg、DeltaLake等至少一项数据湖技术,有源码阅读经验优先; 6、熟悉其他大数据系统经验者优先,YARN、K8S、Spark、SparkSQL、Kudu等;有存储系统经验加分,HBase、Casscandra、RocksDB等。
-
团队背景 隶属于6767搜推工程策略组6767,是公司搜索与推荐业务的核心技术支撑团队。团队技术氛围开放,鼓励创新实践,团队成员具备丰富的分布式系统与海量数据处理经验。 岗位职责 作为大数据研发工程师,你将深度参与搜推业务链路的实时与离线数据处理体系建设,核心工作包括但不限于: 61基于Flink/Spark 构建用户行为数据的实时(或近实时)采集、清洗、聚合与特征计算链路,实现用户兴趣标签、行为序列、实时偏好等画像特征的更新与存储; 61设计高并发、低延迟的实时数据管道,对接搜索/推荐业务的实时请求,支撑个性化排序、精准召回等策略的实时反馈优化; 61通过Redis/Elasticsearch/OpenSearch实现画像特征的实时存储与高效检索,保障下游业务(如前端展示、策略调用)的低延迟访问。 61负责离线数据仓库的开发与维护(使用Spark/MaxCompute),完成海量用户行为数据的ETL、数仓分层建模与指标计算; 61基于阿里云Lindorm/MaxCompute/DataWorks等工具,优化数据存储成本与计算效率(如冷热数据分层、任务调度调优),支撑业务方的高效取数与分析需求; 61针对搜推业务中的复杂场景(如跨域数据关联、实时+离线特征一致性、大规模稀疏特征处理),设计可扩展的技术方案并推动落地; 任职要求 61**本科及以上学历,计算机相关专业,大数据开发相关经验; 616767熟练掌握并使用6767(Flink,Spark Spark SQL/DataFrame、DataWorks调度等),有海量数据(TB级以上)的ETL与数仓开发经验; 61熟悉消息队列(Kafka必备)、搜索引擎(Elasticsearch/OpenSearch加分)、缓存(Redis等)及云原生大数据组件(阿里云Lindorm/MaxCompute/DataWorks优先)的原理与应用; 61具备扎实的编码能力(Java/SQL至少一种),熟悉Linux环境与常用脚本工具,有分布式系统调优经验(如JVM调优、任务并行度优化等)。 61具有良好的沟通能力和组织协调能 6767加分项:6767 61有实时画像/风控平台建设经验,熟悉用户行为特征工程、规则引擎或模型推理链路集成; 61理解搜索/推荐业务逻辑,了解排序策略、召回链路与数据特征的关联性; 61对数据敏感,具备较强的业务抽象能力与问题排查能力(如通过日志/指标定位数据延迟、丢失或不一致问题)。
-
我们是淘天集团内覆盖从生产制造到消费者购物的全场景、全链路,并深度重塑各业务环节的电商技术团队;我们支持天猫超市、天猫国际等全部淘天自营业务,他们都是淘宝APP亿级流量入口的核心购物场景。 岗位职责: 1、支持的业务场景:支持淘天集团下的天猫超市、天猫国际、淘宝买菜等自营业务场景; 2、负责业务数据资产体系的建设,抽象提炼面向零售业务的从供应链到消费者端的全链路通用数据模型并实现BC联动,同时建立统一的数据标准; 3、负责业务的数据应用能力体系建设,让数据更好的赋能业务并基于业务的痛点、挑战来沉淀抽象通用的数据应用解决方案,让数据驱动业务的精细化运营并带来增量的价值; 4、探索AI大模型在数据技术能力和工具平台的建设,通过深度集成自营业务场景的核心需求,全面提升研发效能与经营智能化水平,为多元化业务场景打造高效、精准的智能化解决方案,驱动业务价值持续增长。 5、良好的业务前景和自身的全面发展,你将具备供应链领域的系统知识,同时具备互联网 + 供应链的综合型人才,成为全社会数据领域中的稀缺人才。团队氛围轻松愉快,技术氛围浓厚,团队组织、目标、成员稳定,欢迎小伙伴一起来造梦。 任职要求: 1、有从事分布式数据存储与计算平台应用开发经验,熟悉Hadoop生态相关技术并有相关开发经验,有Spark/Flink/java/python/机器学习算法的开发经验尤佳; 2、良好的思维逻辑性、语言表达能力及沟通协同能力,对技术由热情,愿意接受新的技术,有较强的自我驱动学习的能力。
-
岗位职责: 1.主导过企业级数据仓库、数据中台的架构设计,负责数据集市设计、模型设计与程序开发; 2.负责数据治理及数据分析研发类工作,包括治理及分析产品的功能设计和数仓的开发设计,以及分析门户等。 3.孵化并持续迭代优化数据治理产品、数据分析产品,以系统化、智能化能力高效支撑产品研发落地和迭代提升。 熟练使用开发工具,负责数据治理、数据分析相关的数据建模、数据开发等研发类工作。 任职要求: 1.本科及以上学历, 8-10年以上大数据相关工作经验,有数据科学、机器学习等方面应用经验者优先; 2.熟悉ETL技术架构,熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 3.熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力。
-
岗位职责 1)负责大数据相关系统架构设计与优化,推动项目和平台产品落地; 2)负责数据建模,基于人工智能算法进行数据挖掘,支持面向应用的数据统计、展示、评估、预测; 3)瞄准大数据相关项目、产品中的关键问题,开展重、难点技术攻关,提供有先进性的技术解决方案; 4)深度参与大数据存储平台的研发、测试、优化,进行大数据存储计算平台等基础设施的搭建、维护、优化与改造,提高系统可用性,扩展性和性能。 任职要求 1)3年及以上大数据、人工智能算法(如NLP、知识图谱等)相关研究或工作经验; 2)熟悉分布式系统、数据库管理优化及大数据技术,具备大数据智能分析、机器学习、智能推演博弈等领域技术理解者优先; 3)具备总体论证和设计能力,逻辑思维清晰,文档能力强者优先;
-
1、数据库内核研发工作、包括元数据服务、存储引擎等新功能开发; 2、根据公司流程,完成数据库模块的需求分析、概要设计、详细设计、编码、自测工作。 任职要求: 1、精通Go编程语言,熟练掌握MPP技术栈; 2、熟悉postgresql、greenplum内核,具备数据库内核开发经验; 3、熟悉分布式存储、缓存等技术; 4、熟悉linux下服务端多线程开发; 5、四维纵横、偶数、酷克数据优先考虑; 6、能接受半年以内的驻场开发,每月可轮换; 7、本科毕业工作年限不低于9年、硕士毕业工作年限不低于6年。
-
职位描述: 我们正在寻找一位在网络和数据安全领域拥有深厚技术功底的高级研发工程师,来加入我们的创新团队,共同打造行业领先的安全产品。作为团队的核心成员,您将负责设计并实现高效、可靠的解决方案,确保我们的安全产品能够有效保护用户的数据和网络安全。 加入思特奇你将: 1、产设计与架构规划:参与安全产品设计与架构规划,确保产品具有高可用性、可扩展性和安全性。 2、技术选型与实现:根据产品需求,选择合适的技术栈和工具链,完成关键模块的开发与实现。 3、代码审查与优化:参与代码审查,提出改进意见,优化系统性能与稳定性。 4、安全漏洞挖掘与修复:定期进行安全漏洞扫描与渗透测试,及时发现并修复潜在的安全问题。 5、技术研究与创新:跟踪安全领域的最新技术动态,与团队在网络安全、数据安全等方面进行技术创新。 如果你是: 1、计算机科学及相关专业本科及以上学历,具有3-5年以上网络或数据安全相关领域的研发经验。 2、精通C/C++、Java、Python等至少一种编程语言,具备良好的编程习惯和代码质量意识。 3、深入理解网络安全原理,熟悉常见的网络攻击与防御手段。 4、熟悉TCP/IP协议栈、网络编程、加密算法等基础知识。 5、具备良好的问题分析与解决能力,能够独立承担复杂系统的设计与开发工作。 6、强烈的责任心和团队合作精神,能够在高压环境下保持高效工作。 期待心怀远大理想,不断追求卓越的您加入我们,与思特奇一起用软件改变世界! 思特奇——成立于1995年的中国信息化建设创领者和信息通信行业的领军企业(股票代码:300608.SZ); 在这里,我们立足自主可控、研发创新,凭借领先的5G、云、大数据、人工智能、物联网、区块链等新一代信息技术,为政府和企业客户提供全面的数字化转型和智慧运营服务;同时拥有思特奇研究院和未来科技研究院为自主研发和科研创新保驾护航; 【我们的愿景】 Our Vision 专注ICT技术,做全球化软件产品和服务企业,成为行业的权威和领导! 【我们的使命】 Our Mission 用创新的理念、独特的方法、有机的组织,打造东方文化背景下,提供一流软件产品和优质服务的现代化企业。 【我们的宗旨】 Our Business Purpose 云、大数据、万物互联、人工智能和智慧运营时代,产品、技术、服务、运营的可信赖专家! 【我们的价值观】 Our Values 正直诚实、客观公正、否定自我、敏捷迭代、追求卓越、坚持不懈、不断进步。 【我们的文化】Our Culture 员工与企业共同成长、企业与社会和谐发展 倡导开放、透明、无等级的沟通、无障碍的交流 谨慎稳健、诚信守诺、经验共享、团结合作 学习 思考 创新 行动 改进 成功
-
岗位职责: 1. 负责金融数据的清洗、校验、入库和定制开发 2. 负责大数据平台的建设、维护和优化 岗位要求: 1. **本科及以上学历,要求计算机、数学、统计等理工科专业,硕博士优先 2. 熟练掌握Python/C++,掌握Linux系统环境和Bash 3. 熟练掌握DolphinDB/Mysql等数据库,有时序数据处理经验优先 4. 熟悉Hadoop/Kafka等大数据平台框架及相关工具,了解k8s相关配置、操作及原理 5. 具有良好的沟通能力和团队协作能力,喜欢挑战困难,有Geek精神 经验要求:0-5年 福利待遇: 1. 薪资:15k-30k(14薪)
-
工作职责: -负责构建大数据分析平台以及数据分析和挖掘工作 -跟进相关产品线的数据梳理,各数据指标的计算和分析 -参与海量数据的存储、查询和运营数据分析体系搭建 -运用hadoop、hive、spark、ES等分布式计算和存储平台 职责要求: -计算机相关专业,3年及以上相关工作经验,有扎实的计算机理论基础 -研究过Hadoop或者Spark源代码的优先 -熟悉Java/Python等编程语言,熟练使用SQL,有良好的编码习惯 -技术视野开阔,有强烈的上进心和求知欲,善于学习和运用新知识 -善于沟通和逻辑表达,良好的团队合作精神和积极主动的沟通意识 -具备大数据云平台、计算存储平台、可视化开发平台经验优先 百度地图
-
岗位职责: 1. 负责金融数据的清洗、校验、入库和定制开发 2. 负责大数据平台的建设、维护和优化 岗位要求: 1. **本科及以上学历,要求计算机、数学、统计等理工科专业,硕博士优先 2. 熟练掌握Python/C++,掌握Linux系统环境和Bash,具有3年及以上项目开发经验 3. 熟练掌握DolphinDB/Mysql等数据库,有时序数据处理经验优先 4. 熟悉Hadoop/Kafka等大数据平台框架及相关工具,了解k8s相关配置、操作及原理 5. 具有良好的沟通能力和团队协作能力,喜欢挑战困难,有Geek精神
-
职位描述 1、负责快手电商数据仓库的建设,构建各垂直应用的数据集市; 2、负责快手电商新产品数据统计、报表产出、效果监测、归因分析和商务支持; 3、定义并开发业务核心指标数据,负责垂直业务数据建模; 4、根据业务需求,提供大数据计算应用服务,并持续优化改进; 5、参与埋点设计、数据生产全流程等技术体系建设和保障工作; 任职要求 1、本科以上学历,两年以上大数据相关开发经验; 2、熟悉Linux平台,熟练使用Java、Python编程语言,编码基本功扎实; 3、有Hive、Kafka、Spark、Flink、HBase等两种以上两年以上使用经验; 4、熟悉数据仓库理论方法,并有实际模型设计及ETL开发经验,对于数据的架构和设计有一定的思考,具备良好的数学思维和建模思维; 5、熟悉分布式计算框架,掌握分布式计算的设计与优化能力,对Hadoop生态其他组件有一定了解,比如 HBase,Hadoop, Hive, Druid等 6、了解流式计算,熟悉至少一种实时计算引擎:Storm, Spark, Flink; 7、有很强的学习、分析和解决问题的能力,良好的团队合作意识,较强的沟通能力。 加分项: 有电商数据开发经验优先。
-
职位描述 1、建设全站的基础数据能力,提供丰富、稳定的短视频社区公共基础数据,探索更多数据能力的增量价值; 2、各类数据专题体系(如社交、内容生产/消费、直播等)的建设,通过数据+算法+产品,赋能业务,提供全链路、可分析、可复用的数据能力,提供更直观、更具分析指导性的产品化能力; 3、建设公司层面的核心数据资产,与业务场景深度结合,为社区服务提供数据服务化、数据业务化的数据&产品解决方案; 4、建设全站数据治理和管理体系,结合业务+元数据+技术,保障公司各个业务服务的数据质量和产出稳定。 任职要求 1、较为丰富的数据仓库及数据支持业务经验,期望通过对业务的深入理解,进行数据仓库、数据体系和数据价值的建设和优化; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hive,Kafka,Spark,Storm,Hbase,Flink 等相关技术并有相关开发经验; 3、熟练掌握数据质量的保障规范和执行步骤,擅长系统性的解决问题; 4、3-5年及更长的经验均有不同岗位。
-
工作职责: -负责百家号和Feed相关大数据的基础建设 -负责数仓引擎、Spark底层的优化和基础建设 -为百度系APP相关业务分析及策略优化提供大数据支持 -参与百度系APP日志数据架构开发和APP端性能分析平台建设 任职资格: -本科及以上学历,计算机相关专业 -熟练使用SQL,以及Scala/C++其中一种编程语言,对分布式架构和并行计算有较深刻理解 -熟悉Hadoop/Spark/HBase/Kylin/ClickHouse等大数据计算和存储技术栈,了解其工作原理,并有实际开发经验 -熟悉Spark Streaming/Flink等流式计算框架,以及Kafka等常见消息队列
-
工作职责 岗位职责: - 设计、实施和维护大数据平台,包括数据采集、存储、处理和分析 - 开发和维护数据管道和 ETL 流程,开发建设数据分析BI报表,确保数据的准确性和完整性 - 使用数据分析工具和技术,解释和解读数据,提供有关业务和产品的见解和建议 - 创建和维护数据报告和仪表板,以便其他团队成员可以轻松访问和理解数据 - 与其他团队成员合作,确保数据平台的稳定性和可靠性 任职资格 岗位要求 - 本科或研究生,计算机、数学、统计学相关专业 - 对大数据研发、数据科学方向有兴趣,了解大数据技术栈,可使用Hadoop、Spark、Hive等大数据工具和技术 - 熟练掌握至少Python、Java、Scala等一门开发语言,有sql基础 - 加分项:优秀的英文水平、数据科学项目经验、Tableau数据可视化经验 - 优秀的问题解决能力和团队合作能力


