-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
岗位职责 : 1、数据仓库和数据处理:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值。 2、数据服务开发:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性。 3、技术研究和应用:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证。 4、平台运维和质量管理:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
-
岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
-
【职位描述】 1、参与公司IT运维软件的实施和技术支持工作; 2、协助开发人员,对用户需求进行分析、整理; 3、可独立编写项目技术类文档; 4、可独立承担中小型项目的项目经理的工作职责; 5、负责软件产品项目的现场实施、咨询,培训工作,处理并解决项目中遇到的技术问题; 【任职要求】 1、***大专及以上学历,计算机、管理、软件工程等相关专业; 2、5年以上软件工程项目实施及管理工作经验; 有项目管理师、PMP证书者优先; 3、对数据库(Elastersearch、Mysql、MongoDB、Redis等)熟悉日常操作和维护;熟悉linux日常操作及使用;熟悉nginx、kafka、zookeeper、disconf等日常维护和操作; 4、熟悉或掌握python、shell、Groovy等其中1种脚本语言。 5、善于沟通,具有组织、沟通、协调能力; 6、工作认真负责,诚信、能承受较强的工作压力; 7、具有强烈的责任心和上进心,有良好的团队合作精神; 【定制化福利】 1.内部享有资格证书认证激励,凭发票报销相关证书的报考费用,如PMP、ACP、ITIL、DevOps等资质 2.餐补、交通补贴、通讯补贴,入职薪资全额缴纳五险一金。 3.入职参加为期两周的产品与项目学习培训,安排一对一导师辅导制,知无不言言无不尽。 4.不定期地组织公司级及部门级项目关怀、慰问行动,让温度传递到全国各地。
-
工作内容: 参与公司项目的数据开发工作或是承接公司大数据产品的售后支持工作; 任职要求: 1、23/24届计算机相关专业本科及以上学历; 2、掌握Shell/Python/Java等一种或以上开发语言; 3、了解Hadoop生态圈组件; 4、对大数据相关技术有浓厚兴趣,乐于钻研和学习,执行力强;
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
工作职责: 1、负责客户现场大数据平台和大数据项目问题处理和技术支持。 2、深入理解产品架构,对平台环境异常定位、问题排查、性能调优等 3、独立完成测试环境搭建,问题复现及维护等工作。 任职资格: 1、至少1年大数据运维经验,了解分布式平台运行的原理,并有实际部署维护经验。 2、精通基于Linux系统的常用服务(如tomcat、nginx、mariadb、prometheus)配置运维,对CPU、MEM、IO、NET四大子系统内核参数以及程序性能优化有实战经验者优先。 3、至少熟悉shell/python一种或多种语言,能独立编写运维脚本。 4、熟悉mariadb等数据库以及优化,熟练使用sql语句。 5、熟悉开源项目(如elasticsearch、clickhouse、flink、kafka)的部署升级、扩容缩容、性能和管理优化、问题排查等,对新技术有较强的预研学习能力。 6、逻辑清晰,具备一定的程序异常排查、问题定位等应急处理能力 。 7、有较强的沟通能力,良好的职业责任心和团队合作意识
-
岗位职责: 1、负责售前/售后过程的技术支持工作,包括客户线上沟通、指导产品使用、问题分析排查等工作; 2、负责Java、Python等服务端SDK以及Flume、Datax等数据采集工具的使用指导和接入问题排查; 3、负责数据接入、数据修复等数据治理工作,包括向客户提供数据治理方案以及协助客户开发、实施; 4、编制对内对外的技术文档,以及对内培训和经验分享; 5、整理和沉淀客户需求和反馈,定期与产研团队交流分享。 任职要求: 1、本科及以上学历,计算机或相关专业; 2、3年以上Java开发或大数据开发经验; 3、熟练掌握 java开发相关技能,熟悉Spring框架、Kafka等; 4、熟悉SQL、Linux操作; 5、具备良好的问题分析和解决能力,能够快速定位并解决客户问题 ; 6、具备大数据行业经验,熟悉Hadoop、Flink、Flume等技术者优先; 7、具备良好的沟通能力和客户服务意识,有toB服务经验者优先
-
岗位职责: 1. 负责售前/售后过程的技术支持工作,包括基础问题的分析与排查,客户问题的线上沟通与指导、产品使用的讲解等; 2. 根据客户实际情况,提供数据接入的落地方案,并协助解决数据接入过程中的diff问题; 3. 编制对外产品技术相关文档,以及对内培训和经验分享相关文档; 4. 整理并沉淀技术向的产品需求,定期与产品团队交流分享; 任职要求: 1. 本科及以上学历,计算机或相关专业; 2. 2年以上技术支持/开发/测试经验(能力优秀者不限); 3. 熟悉 Android、iOS、JavaScript 等常用客户端和前端开发技术中的至少一种; 4. 熟悉SQL、Linux基本操作; 5. 具备良好的问题分析和解决能力,能够快速定位并解决客户问题 ; 6. 具备良好的沟通能力和客户服务意识,有toB服务经验者优先 ; 7. 了解大数据行业,有企业数据分析经验者优先
-
职责描述: 1. 负责智慧城市大数据方面的方案研究,跟进项目的客户交流、前期调研、规划设计和战略研究,提供专项研究报告,挖掘引导客户需求,针对需求进行技术规划,设计各类项目的应用解决方案;参与项目的需求跟进、现场调研、售前方案和技术支持等工作; 2. 负责完成各类项目的解决方案设计工作,包括项目建议书、可行性研究报告、实施方案、设计报告、需求分析报告、系统规划方案等,根据项目需求,积极推动并协调公司资源完成一系列相关方案、协议、招投标等程序; 3. 负责配合市场人员完成方案讲解、应用系统演示、用户答疑、以及产品宣传资料撰写等工作; 4. 负责进行公司涉及领域的行业研究,包括竞争对手产品的优缺点研究,行业政策研究,行业未来趋势研究,以保持公司产品的行业领先;做好用户沟通、资料共享、技术协调等工作; 5. 与分公司、合作伙伴、合作厂商、生态合作伙伴等合作进行技术方案交流、方案支撑、参观调研以及为达成项目合作而出具对应的厂商联合解决方案等支撑工作。 任职要求: 1. 本科及以上学历,电子、通信、计算机技术或相关专业,三年以上相关经验; 2. 熟悉智慧城市、智慧安防、智慧园区、智慧交通等行业系统集成项目整体构架,熟悉城市信息化相关硬件设备,熟悉计算机系统、网络及通讯。 3. 丰富的售前技术支持或解决方案支持经验,具有大型政府项目(智慧城市、专项智慧应用、CIM、GIS、数字孪生)完整方案撰写经验,能够完成技术(解决)方案立项编制和实施成本评估工作; 4. 对用户的真实需求非常敏锐,具备良好的文档撰写能力和表达能力,善于总结沟通,能清晰表达技术观点和方案意图; 5. 在售前或解决方案方面具有特定的特长者优先,如演示文稿制作、宣传文案策划等; 6. 熟悉常用智慧城市的解决方案; 有大型城市级或行业级解决方案的规划、实施经验者优先。
-
岗位职责: 1、学习和掌握公司产品及解决方案,基于公司产品和解决方案为客户提供全周期技术支持服务。 2、负责项目售前阶段自有产品演示及竞争性测试工作,参与标前技术方案评审,改进解决方案可交付性。 3、负责项目交付阶段公司产品或系统的技术指导、关键调试、问题解决、客户赋能工作;负责项目交付阶段的交付方案设计、实施方案设计工作;负责项目管理工作,确保项目顺利交付,确保产品及系统平稳运行、满足项目合同需求。 4、 负责项目售后阶段的系统巡检、运维工作,及时受理并解决客户的技术问题或服务请求;确保我司产品及系统为客户创造价值、确保客户满意。 5、协同销售部门负责销售过程中的技术相关工作,形成销售闭环。负责收集、分析自有产品在项目中的应用情况,撰写相应的分析报告,持续提高产品及解决方案竞争力。 任职要求: 1. 学历/专业:本科及以上学历,计算机类、软件类、信息类、光电类和机械类等相关专业。 2. 经验/经历:从事技术支持类、项目管理类或系统集成类工作3年及以上;智能物联行业或相近行业工作2年及以上;有同行业技术交付经验优先。 3. 专业知识/技能: (1)熟悉智能物联行业相关产品、系统及解决方案,有良好的产品知识基础; (2)熟悉常见网络架构及问题处理; (3)了解Linux与数据库常见操作; (4)熟悉项目交付相关流程、具备复杂问题分析及解决能力; (5)了解大数据、云计算、物联网相关行业或技术知识; (6)熟练使用VISO/CAD/Office等工具软件, 4. 素质要求: (1)热爱技术支持类工作; (2)诚实正直、严谨踏实、有责任感、执行力强; (3)善于分析和解决问题,具备良好的沟通技巧,有良好的问题处理能力及沟通协调能力; (4)服务意识好,吃苦耐劳,能适应出差,能在一定的压力下高效开展工作。
-
岗位职责: 1、负责数据仓库建模、数据ETL处理过程。 2、参加产品需求评审,将产品方案通过程序或者BI工具进行呈现。 3、为数据分析师提供技术支持,利用BI工具完成一些实时数据的分析。 任职要求: 1、本科及以上学历,3年以上大数据相关工作经验; 2、熟悉Hadoop/Hbase/Hive/Hudi/Spark/Flink/Druid等大数据开源框架与云服务大数据产品(AWS、华为云),清楚原理和机制; 3、至少熟练应用一种python/java/scala等编码能力; 4、熟悉常用的数据挖掘算法,例如聚类、回归、决策树等; 5、有数据分析系统、用户画像等产品开发经验者优先; 6、至少熟悉一种BI报表开发工具。
-
工作内容 1、理解系统的业务需求,主导重大项目的架构设计和核心模块设计; 2、负责大数据相关数据架构规划、数据建模、数据库设计以及大数据产品研发工作,并为应用开发团队提供技术支持、模型分析; 3、识别关键能力与角色,构建集成交付流程并指导大数据系统集成交付团队的组建; 4、主导技术难题攻关,保证项目按期高质量交付; 5、负责核心功能的架构与代码模板编写,开发与维护系统公用核心模块; 6、进行系统技术平台的选型和评估新技术的可行性; 7、识别出技术方向、产品组件、技术培训等需求,并组织实施; 8、根据业界实践、项目实施经验等优化系统集成交付流程与方法论; 9、组织并负责大数据相关方案评审; 10、为开发人员提供技术指导及帮助; 职位要求 1、6年以上行业软件设计开发经验,具有丰富的行业解决方案经验; 2、熟悉云计算开发框架,Hadoop、Hive、HBase、Storm、Kafka等大数据主流工具和技术,有海量数据或海量并发的大型项目架构设计经验; 3、扎实的Java(或.NET、PHP)和数据库技术基础,精通Web应用相关技术,熟悉分布式、多线程、异步处理、消息处理、搜索等中间件产品和工作机制; 4、丰富的软件开发经验,深入理解各种框架工作原理,有框架开发/定制开发经验者优先考虑; 5、具有出色的抽象设计能力,思路清晰,善于思考,能独立分析和解决问题。 6、熟悉行业标准,如:TMF eTOM, ITIL,TMF SID等,并有实践经验; 7、技术视野开阔,学习能力好。 8、性格开朗,系统思维能力好,善于沟通,具备良好的项目管理能力。
-
外派网易, 需要能接受短期出差的 ,做完项目回网易办公福利:网易食堂免费包三餐,免费网易班车,节日福利、各类假期同网易正式员工一样1. 负责公司商业化客户项目技术支持工作,对客户使用有数中台产品问题进行解答。2. 对于客户在有数中台上的任务进行错误排查及性能调优。3. 收集、跟进并解决用户在大数据场景下遇到的问题。4. 配合产品和开发团队,整理用户需求,推进产品迭代。职位要求1. 具备扎实的Java/scala语言基础;2. 熟悉Hadoop生态圈常用功能组件,如HDFS、YARN、Hive、Spark、Impala、Flink、ELK等;3. 熟练使用Hive,Spark、Flink等大数据组件。4. 熟练掌握SQL语言,掌握Oracle、mysql、Postgresql等一种或多种关系型数据库使用,有一定的SQL调优经验;5. 熟练使用Linux系统,至少熟悉perl/shell/python中的一种脚本语言;
-
岗位职责概要: 负责数据仓库的设计、开发、优化及维护;负责ETL任务的设计、开发、优化及维护;负责项目中的数据实施服务及其维护。 工作任务: 1、参与数仓建设、大数据实施相关项目的立项评审、需求评审; 2、负责数据仓库的实现设计,编写数仓设计方案,并落实相应数仓开发工作,对数仓的存储性能、数据接口服务性能等进行优化,维护存储的数据及相关服务; 3、基于ETL工具进行ETL任务的设计、开发,对任务的执行性能、调度等进行优化并维护,对项目中的ETL任务进行管理,形成相应的项目数据流程台账; 4、负责对项目中涉及的业务数据及数据源进行整理、归档和管理,形成项目数据台账; 5、协助技术支持工程师对项目中的大数据平台进行部署和运维; 6、负责项目中其他与大数据平台相关的数据实施工作; 7、完成领导交办的其他工作。 任职要求: 1、本科及以上学历,计算机、大数据、统计学等等相关专业; 2、熟悉Hadoop等大数据平台相关技术体系; 3、掌握Hive、Spark等数据开发技术,熟悉各类主流的数据库,具备SQL开发能力; 4、熟悉ETL流程及Sqoop、Kettle、DataX等主流ETL工具,具备ETL任务开发能力; 5、熟悉数据仓库整体架构设计,对数仓建模、数据质量、数据安全、元数据管理等有深刻理解,熟练使用PowerDesigner等数据建模工具; 6、有较强的学习能力和问题分析能力,善于从数据维度思考问题和总结经验; 7、良好的团队协作能力,上进心强,较好的抗压能力。


