• 20k-35k·14薪 经验5-10年 / 本科
    电商,医疗丨健康 / 上市公司 / 2000人以上
    岗位职责: 1、负责大数据平台的架构设计、核心代码开发等任务;根据项目要求编写相关技术文档。 2、负责大数据平台的架构评审,代码评审,上线评审;参与数据应用需求、设计、审核和评审。 3、负责核心模块研发,负责大数据平台的搭建,完成系统调试、集成与实施。 4、负责开发大数据开发,如大数据采集产品、调度平台、ETL产品、离线和实时计算平台、多维分析工具、数据模型的研发。 5、负责建立和维护大数据平台技术标准规范,指导开发人员编写代码。 6、跟踪业界前沿技术,应用到实际项目中。负责培训公司大数据开发工程师技能的培训。 任职要求: 1、**本科以上学历,计算机相关专业毕业,5年以上相关工作经验; 2、精通离线和实时数据处理流程,熟练掌握hive、impala/presto/druid、spark、es、clickhouse等其中或多个组件; 3、熟悉大数据技术生态圈,精通大数据技术架构,有大数据平台构建经验; 4、熟悉大数据数仓模型、可视化分析,各种BI算法和产品等; 5、熟练掌握基本的Linux操作系统和某种脚本语言编程(如Shell等); 6、有实际大规模数据(TPB级以上)处理经验优先,有互联网工作经验优先; 7、负责主导大数据ETL、调度系统的研发工作。 8、工作认真、负责、仔细,有良好的团队合作精神,良好的分析能力、沟通技巧。 【工作地址】广州市荔湾区龙溪大道410号(大参林集团总部园区) 【工作时间】8:30-12:00,13:30-18:00 周末双休 【公司福利】 周末双休、免费住宿、班车接送、免费停车位、员工食堂、五险一金、法定假日、带薪年假、进阶培训、年终奖、生日礼物、婚育假期及慰问金、员工内购折扣、员工旅游、接收党组织关系、代办落户广州等专项服务
  • 20k-40k 经验5-10年 / 本科
    企业服务,工具 / 天使轮 / 150-500人
    岗位职责 1、负责基础数据仓库的设计和建设; 2、构建大数据平台,负责大数据技术开发推进,以服务化的方式赋能业务系统,提高数据的组织和使用效率; 3、负责大数据平台、数据开发、数据管理实施过程中关键技术方案的确定; 4、参与产品技术方案的设计和评审,为产品研发提供数据和算法的支持 5、负责数据平台的devops相关工作; 6、基于AWS商业解决方案,解决生产遇到的问题,并根据业务需要,定制开发相应的功能; 7、前沿技术研究,承担重点、难点的技术攻坚; 岗位要求 1、3年以上大数据开发经验,有AWS大数据组件使用经验者优先; 2、熟悉Java/Python/Scala等一种或多种语言,熟悉Redis/MySQL,熟悉Linux平台; 3、具有主流大数据平台的实际项目经验,熟悉多种开源技术框架,如:Hadoop、Spark、Flink、Sqoop、Flume、Impala,Presto,ClickHouse,Druid等; 4、深度了解云产品组件的原理和应用场景,如 AWS Redshift, AWS Kinesis, GCP BigQuery, GCP Cloud Dataflow 等。 5、熟悉整个大数据的完整处理流程,包括数据的采集、清洗、预处理、存储、分析挖掘和数据可视化; 6、有数据仓库ETL设计及开发经验,精通数据仓库逻辑架构、元数据管理、数据质量监控等数据仓库主要环节; 7、有埋点数据采集,用户行为数据分析等项目经验优先 8、有餐饮、电商行业经验优先 9、有优秀的分析和解决问题的能力,有较强的沟通能力、责任心和团队合作意识。
  • 30k-50k·14薪 经验5-10年 / 本科
    企业服务,广告营销 / A轮 / 50-150人
    职位说明: 1、定义CDP产品的中长期愿景和路线图。 2、与客户成功、售前、研发团队合作,推动产品完善与发展。 3、与研发架构师合作设计数据建模和数据架构模式,实现用户身份识别和数据建模。 4、根据CDP平台数据定义仪表盘和分析模型,支持数据资产洞察。 5、根据CDP平台数据定义用户标签体系及群体画像,支持用户洞察。 职位要求: 1、计算机科学、软件工程、统计学、数学或相关专业本科或以上学历。 2、5年以上CDP产品经验,有CDP平台0到1构建的丰富经验。 3、至少2年数据领域产品负责人经验,大数据解决方案经验。 4、有仪表盘、商业智能工具和可视化解决方案经验者优先。 5、能够从架构师的角度提供业务需求和理想的解决方案。 6、深入了解CDP平台领域知识。 7、自驱力强,沟通、协调、组织能力好,有较强责任心与抗压性。 8、优秀的表达能力和沟通协调能力,较强的分析问题和解决问题的能力,有良好的团队协作意愿。
  • 15k-20k 经验1-3年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    岗位职责: 1、负责对学员提出的学习问题进行解答指导、作业批改 2、配合讲师课程研发,进行课程内容的审验,跟踪课程后期的制作 3、维护班级技术交流群,追踪学员学习情况,保障学员服务满意度 4、领导安排的其他任务 任职要求: 1、热爱教育行业,本科以上学历; 2、具有大数据开发2年以上一线项目研发经验; 3、对Spark生态体系、Hadoop生态体系有深度研宄与实践者优先; 4、熟悉flink、zookeeper、hbase、azkaban、phoenix等技术栈 5、学习能力强,善于分析解决问题; 6、懂在线学习用戶心理,善于沟通; 7、自我管理能力强,工作积极主动,执行力高,能承受一定的工作压力 8、对教育事业有初心,愿意投入到对学员的技术辅导服务工作中
  • 15k-25k 经验5-10年 / 本科
    数据服务,企业服务 / 上市公司 / 500-2000人
    岗位职责: 1. 负责公司大数据相关产品、服务的销售工作; 2. 负责行业内客户的开发、拓展与客户经营维护; 3. 负责行业指名客户的分析和需求挖掘并推动客户项目立项; 4. 负责调用公司资源为客户提供解决方案,以及相应的招投标工作; 5. 负责客户漏斗的管理/客户关系维护过程管理/销售预测实现; 6. 负责客户合同签订和回款等工作; 7. 负责客户的实施交付及售后服务支持的协调和关系维护。 任职要求: 1. 五年以上销售经验,至少三年以上的系统类软件产品、大数据产品销售经验; 2. 具备良好的沟通能力、表达能力与工作热情、具有客户需求挖掘能力; 3. 对国内大数据应用有所了解;熟悉云计算、大数据及人工智能等新兴技术发展趋势; 4. 具有大型资业客户、品牌客户资源者优先; 5. 本科科以上学历。
  • 15k-23k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    任职要求 1.熟悉企业级数据仓库,熟练使用标准SQL语言、数据建模工具 2.熟悉Hadoop/Hive/vertica/oracle等数据库; 岗位职责: 1、负责大数据平台的维护建设,提升平台的安全、稳定及效率; 2、负责大数据平台工具研发,提高数仓及算法工程师的工作效率; 3、负责Hadoop、Hive、HBase、Spark等平台的实施和定制开发; 4、负责基于Spark和Flink框架的二次开发及设计工作; 5、负责重点技术攻关和生产环境异常处理; 6、负责基于大数据平台的数据仓库建设及日常支持; 7、负责大数据平台的需求收集、系统设计、功能开发; 8、负责大数据相关技术的研究。
  • 20k-30k 经验3-5年 / 本科
    房地产|建筑|物业 / 不需要融资 / 500-2000人
    【岗位职责】 1、基于业务需求,负责海量数据的实时计算、离线计算、存储、查询; 2、负责研发类大数据平台的规划、设计、开发和运维工作; 3、负责数据仓库模型设计与开发、ETL开发。 【任职资格】 1、计算机或相关专业,有3年以上的大数据开发相关工作经验; 2、熟练掌握Linux下开发,熟悉shell、python脚本编程; 3、熟悉大数据基础平台技术的原理和内部机制,包括Spark、Flink等,并具备二开能力, 4、熟练掌握Java/Scala,熟练掌握常见的SQL调优方法, 熟悉网络服务器编程基本知识; 5、有Hudi、Clickhouse开发经验、实时数仓建设经验者优先。
  • 8k-15k·13薪 经验1-3年 / 本科
    金融,数据服务 / 不需要融资 / 2000人以上
    岗位职责: 1.负责数据分析、加工、清洗、处理程序的开发、故障修复处理; 2.协助大数据相关的需求分析; 3.协助进行大数据架构方案设计; 4.负责大数据相关平台的搭建、开发、维护、优化; 5.能够根据项目需要,接受出差,在现场完成部分开发工作; 任职要求: 1.2年及以上大数据开发工作经验; 2. 熟练掌握hadoop生态系统内常见项目的使用(hdfs、hive、hbase、spark、zookeeper、yarn等),具有python、spark 、MapReduce开发经验,有实际大数据项目经验优先; 3.熟练使用关系型数据库如Oracle或MySQL,熟练使用PL/SQL工具; 4.熟悉Linux/Unix系统环境下的操作; 5.熟悉tomcat、weblogic等应用中间件的配置和优化。
  • 25k-50k 经验5-10年 / 本科
    游戏 / B轮 / 500-2000人
    岗位职责: 1、负责公司大数据服务产品的规划、架构设计、技术研发工作; 2、负责包括不限于画像平台、智能运营平台、数据服务平台、归因平台等数据服务平台的研发迭代、优化; 3、负责市场增长归因相关业务的数据支撑工作; 4、负责带领、协调团队为用户提供完善服务,确保产品和服务满足用户需求; 5、带领团队不断沉淀,提升技术能力和影响力,提升团队综合能力。 任职要求: 1、计算机相关专业本科以上学历,5年以上大型互联网数据产品研发设计经验; 2、精通java开发,对linux,RDBMS,分布式系统,高并发低延迟系统有丰富经验; 3、熟悉Hadoop体系,熟悉clickhouse,hbase,spark,flink等开源大数据组件,深入理解HBASE、HDFS、CK、ES等原理和特性; 4、有海量大数据处理经验,有数据应用产品研发经验,熟悉用户/内容画像体系、智能运营平台、数据服务API、广告归因等产品优先; 5、逻辑清晰,沟通顺畅,关注行业发展,具备敏锐产品触觉,3年以上团队管理经验。
  • 15k-30k·20薪 经验1-3年 / 本科
    数据服务|咨询,人工智能服务 / B轮 / 50-150人
    岗位职责: 1、负责海量数据离线、实时处理系统的开发建设; 2、参与数仓基础设施建设,负责数据采集、清洗、存储、查询等环节的代码开发、维护与优化; 3、参与大数据生态相关技术的前瞻性研究和调研落地,持续扩充大数据能力,优化大数据服务的性能和效率; 4、负责构建存储计算监控平台,保证作业执行稳定性; 岗位要求: 1、计算机相关专业本科及以上学历,有大型分布式系统架构实战运维优化经验,实际解决过分布式系统的线上问题; 2、掌握常用大数据处理框架基础维护及常见使用技术,包括但不限于:hadoop、hive、hbase、clickhouse、es、doris等; 3、熟悉java技术,熟悉JVM、分布式、多线程、高并发等原理和应用; 4、熟练使用 SQL、Python等数据分析处理语言; 5、有良好的沟通表达能力和小组领导协作能力,勤奋好学;
  • 20k-25k 经验3-5年 / 本科
    网络通信 / 未融资 / 150-500人
    岗位职责: 1. 应用数据库,满足Oracle/Hadoop集群数据加工处理要求,完成相关代码开发; 2. 负责业务、运营类数据的统计、监控、分析,持续完善用户识别数据体系,提供业务分析报告和运营调整优化建议; 3. 通过数据挖掘技术构建并优化模型,挖掘包括但不限于用户行为、用户特征、内容理解等方面;模型包括但不限于分类、聚类、统计、序列建模等方面; 4. 完成领导交办的其他工作。 任职资格: 1.计算机、通信工程、信息工程、信息管理、统计学、数学等相关专业 2.至少熟悉一种数据库的操作oracle/mysql,具有良好的SQL编写与优化能力 3.熟悉Linux操作系统,熟练掌握Linux常规命令与工具 4.熟悉Hadoop、Spark、HBase、Hive等大数据计算平台和工具,有实操经验者优先 5.熟练掌握R语言或者Python,熟悉常见的数据挖掘算法,有实操经验者优先 6.熟悉知识图谱、图数据库应用,熟悉图算法者优先 7.思维清晰、有逻辑,学习能力强,具备一定的数据分析能力 8.良好的团队合作精神,有挑战前沿算法的勇气,独立解决问题和沟通能力 9.正直诚实、细心、有责任心,工作认真负责,能够承受一定压力 10.本科及以上学历,有2年相关工作经验者优先
  • 18k-28k 经验3-5年 / 本科
    网络通信 / 未融资 / 150-500人
    工作职责 1、负责公司大数据集群的运维工作(Kafka/Hadoop/HBase/Spark/Flink/Clickhouse等); 2、负责大数据集部署、性能优化、扩容等操作; 3、负责hadoop集群的监控、数据备份、数据监控、报警、故障处理; 4、深入研究大数据业务相关运维技术,持续优化集群服务架构,探索新的大数据运维技及发展方向; 任职资格 1、有3年以上大数据集群运维经验, 2、有实际部署经验,能够独立排查及解决问题;熟悉hadoop在运行环境,任务调度,参数配置等方面的调优; 3、熟练使用Python、Go、Shell中任一语言,熟悉linux系统的配置、管理及优化; 4、熟悉Hadoop生态圈,包含但不限于Hbase/Hadoop/Zookeeper/Spark/Kafka/Flink/ClickHouse等,能够独立部署并上线运行; 5、有流数据处理运维经验,ETL pipeline处理经验者优先考虑; 6、有一定开发经验,能协助大数据环境下的性能问题定位和优化者优先;
  • 16k-21k 经验3-5年 / 本科
    软件服务|咨询 / D轮及以上 / 500-2000人
    职位描述: 1、负责hadoop、spark、hbaes、hive、oozie、ranger、olap等平台的运维和优化工作,保障服务稳定、高效; 2、负责大数据方案架构及方案落地; 3、开发大数据管理平台与监控建设; 4、负责hadoop平台部署,维护,生产问题、告警,故障处理及服务器维护、日常维护; 5、负责集群网络架构、机器管理等。 职位要求: 1、***本科以上学历,3年以上系统运维工作经验; 2、熟悉hadoop各生态原理、具有hadoop平台应用及管理运维经验、熟悉 hadoop、hive、spark、hbase、oozie、ranger、olap、es、druid、flink等开源项目的部署、维护和调优; 3、熟悉linux操作系统及调优,熟悉sql、熟悉shell/python/java/perl语言的一种或者多种,有开发经验优先,熟悉open-falcon、prometheus等优先; 4、对大数据和自动化运维开发有浓厚兴趣,有大规模hadoop集群运维经验者优先,有hadoop、hbase、spark、hive 等开发经验者优先。
  • 30k-40k·15薪 经验3-5年 / 本科
    数据服务|咨询,人工智能服务 / 不需要融资 / 150-500人
    岗位职责 1、 负责大数据背景下的业务全流程运维,保障业务持续稳定、保障业务数据更新的时效性、准确性和一致性; 2、 负责特征工程、模型部署核验、模型离线跑批、产品上线等风控核心流程的持续优化;打通从业务故障监控、预警、告警到根因分析、故障自愈的全流程落地; 3、 从团队工作中提炼平台/系统需求,推动工具化、系统化、平台化落地,不断提高团队整体工作效率; 4、 负责建立并落实完善的业务运维流程规范体系,提升上下游的沟通、协同效率。 任职要求 1、 本科及以上学历,计算机软件及数理统计相关专业,具备扎实的计算机科学功底,良好的工程素养,高效的问题解决能力,4年以上工作经验; 2、 熟练掌握Python,具备对大规模数据集的高效分析处理能力;熟练掌握Linux基本命令和Shell脚本编程; 3、 熟练掌握HDFS、Hive的使用和Spark数据处理;熟练应用SQL进行数据分析处理;具有丰富的性能诊断和调优经验; 4、 对数据敏感;熟悉LR、XGBoost、LightGBM等模型算法,具有模型部署核验及分布式跑批经验的优先考虑; 5、 具备较强的沟通技巧、团队合作能力、抗压能力;热爱技术并善于钻研,能主动思考,有解决疑难问题的毅力和决心。
  • 13k-25k·16薪 经验1-3年 / 本科
    数据服务、人工智能 / 未融资 / 150-500人
    工作职责:1、负责大数据关联分析、数据质量和机器学习相关产品测试,包括功能测试、性能、稳定性、接口等专项测试2、参与产品全过程,产品需求分析过程,跟进产品需求制定测试计划和方案,设计测试用例、测试执行、测试报告,产品质量评估3、探索前沿测试技术和自动化,并推动引入任职要求:1、本科及以上学历,计算机或数学相关专业2、半年以上软件测试相关经验,精通软件测试流程和方法,有互联网公司敏捷迭代项目测试经验优先3、了解大数据相关数据库,比如 Spark/Hadoop / Impala / Hive / HBase 等4、掌握编程基础,能使用 Python 操作数据5、具备从产品和客户视角,能快速理解业务逻辑