• 11k-15k 经验3-5年 / 本科
    营销服务|咨询 / 不需要融资 / 150-500人
    岗位职责: 1、参与应用开发类项目的实施; 2、参与系统需求调研和分析,编制需求分析报告和需求规格说明书; 3、参与项目概要设计和详细设计编制; 4、参与根据业务需求进行原型设计; 5、协助项目实施中与客户沟通、交流、汇报; 6、协助根据业务需求进行原型设计。 任职要求: 1、3年及以上信息系统设计工作经验,具备智慧城市、数字政府项目相关经验或数据类项目经验者优先; 2、熟悉网络技术、Linux系统、Windows等操作系统,熟练使用Office软件专业技能; 3、了解大数据、人工智能、云计算、移动互联网等新一代信息技术及发展趋势;了解智慧城市、智慧经济相关政策、技术发展趋势、标准规范及信息安全要求;掌握信息系统设计的技术和方法;了解主流的信息系统架构及相关产品,具有一定的大中型信息系统需求分析和设计能力;了解智慧城市所涉及相关领域的业务知识综合技能; 4、掌握应用研究、决策咨询的必要工具、基本方法;有较强的文档撰写能力,能独立撰写设计文件、工作报告及经验总结。
  • 10k-15k·15薪 经验3-5年 / 本科
    软件服务|咨询,IT技术服务|咨询 / 不需要融资 / 500-2000人
    工作职责: 1.负责小型机(AIX)、服务器、存储设备等硬件设备的运行监控、日常维护,处理设备故障; 2.负责客户vmware虚拟化平台日常运维、监控、处理突发故障; 3. 负责中间件(K8S、weblogic)系统的正常运行,处理日常系统变更和故障处理; 4.配合应用系统部署和安全漏洞修复,做好系统的安全防范和应急保障工作; 5. 负责相关台账清单的更新以及运维数据统计; 6.负责记录运维过程中日常问题和客户需求,定期提交工作记录报告。 7.系统安全加固。系统、中间件相关软件版本及补丁的安装和升级; 8.云平台服务器、存储等硬件配件更换及调试。 任职资格: 1.本科以上学历,计算机、网络等相关专业; 2.具有3年以上机房运维、服务器运维、系统管理员工作经验。熟悉服务器及存储相关的技术和方案,熟悉业界主流的服务器及存储产品,熟悉RAID、NAS、SAN等存储技术。 3.熟悉K8S、weblogic、vmware exsi等技术,能够进行日常运维; 4.具有良好的沟通和语言表达能力,具备团队合作意识及服务意识,能吃苦耐劳。 5.具有RHCE/CKA/VCP证书、熟悉AIX操作系统和小型机者优先;
  • 工具类产品,内容社区,音频|视频媒体 / 上市公司 / 2000人以上
    岗位职责: 1、深入理解业务,根据业务进行数据建模并实施建设业务数仓; 2、参与数据相关项目的架构设计、需求评审、技术攻坚及优化; 3、负责企业级大数据平台的研发工作;包括数据存储、数据集成、数据开发、数据资产、数据治理等; 4、负责建立数据领域:代码开发、业务流程、质量安全相关标准规范,并推广实施; 5、跨团队/部门协作,系统分析并解决各类大数据平台相关的运行或数据问题;参与数据平台产品的日常运维和技术支持工作。 岗位要求: 1、计算机、数学、统计、数据挖掘等相关专业,***大学本科及以上学历,5年以上大数据分析与挖掘项目经验; 2、精通python/java/php等至少一种开发语言; 3、深入理解hadoop生态圈,精通Hive、Spark、Flink、Presto、Airflow、Clickhouse、Elasticsearch、Kafka、Flume等常用大数据组件; 4、精通Hive SQL或Spark-sql,可根据业务对SQL进行梳理优化; 5、精通数据仓库生命周期及各类建模理论,对数据分析、挖掘、建模及数据质量监控有实际的项目经验者; 6、责任心强,有担当,有良好的编码习惯,遵守团队开发规范和代码规范,良好的逻辑思维能力,具有很强的分析问题和解决问题的能力、团队协作能力和沟通能力; 7、有企业级大数据应用项目经验优先。
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动广告系统团队数据产品的测试; 2、负责相关过程中测试效率类工具开发; 3、跟进线上数据问题进行追踪及分析以及推动改进; 4、较强的产品意识, 能在项目过程中提出并推送实施好的产品解决方案。 职位要求: 1、本科及以上学历,计算机相关专业毕业,2年以上工作经验; 2、有良好的程序开发语言基础:Java/go/python; 3、熟练使用hivesql/mysql; 4、熟悉开源大数据生态技术:包括不限于Kafka/Spark/Flink/Druid/HBase/Doris 等; 5、有数据仓库测试相关经验者优先; 6、性格开朗, 善于沟通和事务推进,有团队管理经验者优先。
  • 15k-30k 经验1-3年 / 本科
    数据服务|咨询,营销服务|咨询 / B轮 / 50-150人
    加分项: ①:如过往在美妆日化品牌方公司经验者,或者服务过全球海外客户经验者、或者开发和积累过美妆日化客户资源、再或者有从事过B端KA大数据行业销售经验,均可优先考虑 ②:英语口语能做日常工作语言能力者; 销售产品:美业颜究院全球化大数据系统 岗位职责: 1、全面理解公司全球数据系统业务,准确把握产品优势和客户心理,主动利用公司CRM库、转介绍拜访、会议沙龙行业协会等多渠道自主开发B端日化美妆行业客户,快速推动与客户的合作方案。 2、深入了解日化美妆市场动态,配合公司产品发掘客户需求,为客户提供专业行业信息咨询服务,帮助客户更好的发展,增加客户企业的品牌知名度。 3、及时录入和更新客户信息,做好客户管理和维护,积极向上及横向拓展客户关系网络,达成长期战略合作计划。 4、能够高效整合内外部资源快速促成销售业绩 任职要求: 1、本科以上学历,英语能力能做口语沟通语音,有1年以上行业To B销售经验。化妆品化工、食品等相关专业优先 2、有大数据行业经验或者有美妆日化原料行业经验的优先考虑。 3、具备良好的沟通能力、应变能力、团队合作意识、强烈的责任感,善于挖掘潜在客户。 4、具备良好的抗压能力、敢于面对挑战。 5、时刻保持积极的心态,有一定的市场敏感度。 公司福利: 1、五险+公积金:入职即购买五险一金 2、节假日:双休,享受法定节假日,带薪年假、婚假、产假等 3、节假日福利:重大节日礼品 4、公司活动:经费支持,不定期组织文体活动、聚餐活动、团建活动 5、职业发展:广阔的职业发展平台,双向晋升,学习培训 6、工作时间:周一到周五,八小时工作制 7、奖励:团队奖、年终大奖、公司提供的各种奖励 8、公司平台大,起点高,晋升发展路线明确。 办公地址:广州市海珠区新港东路148号环球贸易中心西翼30楼(海珠磨碟沙c口)
  • 文娱丨内容 / D轮及以上 / 2000人以上
    职位职责: 1、打造业界领先的 PB 级 OLAP 引擎,并支撑字节跳动相关产品线; 2、负责以 Spark SQL、Presto 为代表的开源大数据引擎的内核**优化; 3、负责字节跳动内部数据仓库方向数据架构设计。 职位要求: 1、熟悉 Spark、Presto、Druid、Kylin、Hive、Impala、Flink 等主流大数据系统原理及源码(不要求熟悉所有技术栈); 2、熟悉主流的 OLAP 引擎的优化原理,包括但不限于向量化执行、列式存储、late materialization、代码生成; 3、具备大规模系统的故障诊断与性能优化能力; 4、具有较强的项目推动能力,能推动技术项目在业务侧的落地。
  • 20k-35k 经验3-5年 / 本科
    移动互联网,金融 / 上市公司 / 2000人以上
    岗位职责: 1、负责Hadoop、Hive、Hbase、Spark等大数据平台的规划、部署、监控、优化; 2、负责大数据平台的运营管理、方案评审、组件优化; 3、负责大数据平台的异常与故障处理,应急响应,保障平台持续稳定运行; 4、持续跟踪业界技术发展动态,并结合业务发展需要,研究引入新兴技术。 任职要求: 1、熟悉Hadoop大数据生态圈,熟悉Hive、Hbase、Yarn、Spark、kafka等组件的工作原理,并且有实际部署运维经验; 2、深入理解Linux系统,熟悉运维体系架构; 3、熟悉shell脚本及Python编程; 4、具备良好的团队协作意识与主动意识。 优先考虑: 有自动化运维平台构建经验或Hadoop组件源码阅读与分析能力者。
  • 30k-50k·15薪 经验1-3年 / 本科
    旅游|出行 / 上市公司 / 2000人以上
    岗位职责: 1、在数仓负责人带领下,针对BI,算法,数据产品的需求,负责公司多业务数据仓库建设与模型设计,制定和落实数据仓库规范以及数据治理工作; 2、进行ETL设计,数据集市建设,落地及后续的运维; 3、负责各条业务线的数据整合方案设计及日志规范,数据分析指标体系建设及元数据管理; 4、稽查和监控数据质量,数据报表系统及相关数据产品的研发和数据需求的沟通及数据开发项目管理。 岗位要求: 1、掌握数据仓库(DW)商业智能(BI)理论知识,具备2年以上数据仓库建设经验,有数据中台、数据治理呼吁等相关经验优先; 2、精通SQL,熟悉mapreduce原理,有hive调优经验,具备一定的python和java开发能力,有Hadoop, Spark, Flink等大数据开发相关经验优先 3、具有高度的责任感,思路清晰,有良好的沟通能力; 4、本科以上学历,计算机、信息管理等相关专业
  • 20k-40k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    岗位职责: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发; 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发; 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 岗位要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有3年以上大数据组件的使用和二次开发经验; 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术; 3. 精通Java开发语言,具有良好的编程开发能力; 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神; 5. 能够深刻理解业务,善于利用技术实现相关业务价值; 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先。
  • 25k-35k·14薪 经验3-5年 / 本科
    数据服务|咨询 / C轮 / 150-500人
    职责描述: 1. 负责分布式大数据平台架构建设、数据建模和数据应用后端开发。 2. 负责大数据相关组件OLAP引擎、实时计算,文件存储等相关研究和开发。 3. 负责大数据系统及组件的性能、效率、稳定性分析与优化。 任职要求: 1. 熟悉Hadoop/Kafka/Presto/Kudu等大数据技术和组件,有5-7年大数据组件的使用和二次开发经验。 2. 具备扎实的计算机基础,熟悉分布式系统开发,熟悉云原生技术。 3. 精通Java开发语言,具有良好的编程开发能力。 4. 对新技术敏感,有一定独立分析,技术研究能力,具有良好的团队合作精神。 5. 能够深刻理解业务,善于利用技术实现相关业务价值。 6. 具备一定云原生技术经验(kubernetes ,Docker)者优先
  • 电商平台 / C轮 / 2000人以上
    岗位职责: 1.负责电商供应链数据仓库及模型建设和设计,并根据需求变化和业务发展,持续优化模型; 2.负责电商供应链数据仓库模型代码开发、部署,并对数据质量进行管理和优化; 3.提升电商供应链数据质量和运营效率,参与相关事件应急响应; 4.参与大数据体系的建立以及配套系统平台的建设与运营。 岗位要求: 1.计算机或信息技术相关专业,大学本科及以上学历; 2.3年以上大数据数仓开发相关工作经验; 3.有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题; 4.熟悉大数据系统组件(如Hive、MapReduce、Spark、HBase等),具备编写、优化复杂SQL的能力; 5.了解实时处理技术相关组件(如Kafka、Flink等),具备编写优化能力; 5.负责过大型数据平台或数据仓库设计优先。
  • 16k-32k·15薪 经验3-5年 / 本科
    人工智能服务,IT技术服务|咨询,科技金融 / A轮 / 150-500人
    工作职责: 1、根据产品开发各阶段交付工作需求,支持相关交付物测试,包括且不限于部分环节单元模块测试、SIT测试和UAT测试; 2、根据产品测试流程规范要求,协助开发同事完成测试环境部署,整理反馈测试报告; 3、根据新增测试需求和测试目标,快速响应测试方案,并积极推动落地,保障测试结果的准确性和合理性; 4、结合业务需求,能够独立或协助相关同事完成测试案例准备; 5、定期总结测试经验,优化测试方法,测试效率提升探索; 任职资格: 1、本科及以上学历,1年以上系统测试\业务测试经验,能够独立完成产品\业务测试工作,撰写测试报告; 2、熟悉开发测试流程,熟练掌握sql语言,对于大数据评分类产品有一定业务开发或测试经验为佳; 3、有良好的业务理解能力,能够快速理解产品业务测试需求,并进行相应测试支持工作快速落地;
  • 20k-30k·13薪 经验5-10年 / 本科
    工具类产品 / 上市公司 / 2000人以上
    职位职责: 1、负责公司大数据平台的搭建、升级、扩容及迁移工作,支撑业务和数据量的快速增长; 2、负责公司大数据集群的日常监控、权限管理、资源管理、数据备份及故障处理,保障平台服务7*24稳定可靠高效运行; 3、负责Hadoop/Yarn/Hbase/Hive/Kafka/Spark等大数据相关组件的底层运维与调优工作; 4、根据部门需求制定运维技术方案,开发自动化运维工具和运维辅助系统,提升大数据运维自动化水平。 任职要求: 1、***本科及以上学历,计算机相关专业,3年及以上大型分布式系统实施和运维相关经验; 2、熟悉 Linux/Unix 系统、网络、硬件等相关知识,精于容量规划、架构设计、性能优化,能够独立解决系统问题; 3、熟悉Hadoop大数据生态圈,包括但不限于HDFS、YARN、Hive、HBase、Spark等; 4、至少使用过一种自动化部署工具:Ansible、Saltstack等,能够完成 Hadoop、Redis、Spark等开源系统的高可用部署; 5、对新技术有较强的追求欲望; 6、具有良好的沟通能力和组织协调能力,有一定的抗压性
  • 20k-25k 经验3-5年 / 本科
    营销服务|咨询,软件服务|咨询 / 不需要融资 / 2000人以上
    岗位职责: 1、负责云服务器资源分配、环境搭建、网络规划等工作。 2、大数据相关组件的安装、集群部署、性能调优 3、服务器资源监控、应用监控与预警。 4、快速响应报警信息,快速处理和分析故障原因 任职资格: 1、计算机相关专业,2年以上大数据运维相关经验。 2、熟悉HADOOP生态,具有CLICKHOUSE、CDH、HDFS、YARN、HIVE、Hbase、Kafka、Spark等大数据系统的部署运维经验; 3. 熟悉linux操作系统,熟悉基本的操作命令,精通Shell、Python等至少一种脚本语言,能熟练脚本来完成日常系统运维等工作; 4. 熟练业界主流技术架构,Nginx、Tomcat、MySQL、Redis、微服务架构等; 5. 对网络及服务器有一定了解; 6. 有系统故障排查和解决经验,突出的分析和解决问题能力;
  • 20k-35k 经验5-10年 / 本科
    汽车丨出行 / 上市公司 / 2000人以上
    职位描述 1. 负责大数据平台的运维,包括部署、管理、优化等,保障平台稳定运行; 2. 负责大数据集群的架构升级、容量规划、资源管理、成本优化、业务管控; 3. 理解大数据平台架构和业务流程,发现并解决系统问题或瓶颈; 4. 开发自动化运维、监控报警、故障处理脚本和工具,优化整个运维的流程; 岗位要求: 1. 本科及以上学历,5年以上规模集群管理和运维经验; 2. 熟悉Linux操作系统,熟悉TCP/IP基本原理,有系统调优经验; 3. 掌握Shell、Python等至少一门常见脚本语言; 4. 熟悉常用的监控工具,熟悉自动化运维工具(如Saltstack/Ansible/Puppet等),有二次开发能力者优先; 5. 熟悉hadoop/hbase/elasticseach等大数据组件的架构及基本原理; 6. 对运维体系有一定认识,善于思考总结,做事积极主动,责任心强、细心谨慎,能独立解决问题。