• 20k-40k·15薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    岗位职责: 1、负责电商财务域数据模型调研、设计、开发工作,与业务部门紧密配合,提供数据支持 2、负责电商财务域数据运营&治理工作,保障数据质量 3、参与电商财务域数据体系化建设,提升数据服务稳定性 任职要求: 1、计算机相关专业,大学本科及以上学历,5年以上大数据开发相关工作经验 2、熟悉大数据相关组件(如Hive、Spark、Flink、Kafka等),具备编写、优化复杂SQL的能力 3、有扎实的数据仓库理论功底和丰富的数据治理实战经验,能够围绕业务和产品特性建模并解决实际问题 4、熟悉Python/Java/Scala/Shell其中一种语言 5、具备电商领域业务开发经验优先;具备财务领域业务开发经验优先 6、负责过数据平台或数据仓库设计优先;有带团队经验优先。
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 18k-35k·14薪 经验3-5年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 岗位职责 1、深入理解金融及OTA行业客户的业务痛点,挖掘其对数据洞察、运营效率提升和数据服务的需求。 2、负责设计并管理包括权益运营分析看板、C端用户运营看板、客户服务分析体系、供应链效率分析及财务管报分析在内的数据产品线。 3、主导规划数据中台对外的数据API服务产品,定义接口规范、使用场景和商业化模式。 4、与数据科学团队协作,推动风控模型、定价模型等数据模型产品的落地和业务应用。 5、作为数据产品的代表,与海外及国内大客户对接(需流利英语),演示产品价值,收集反馈并推动产品迭代。 6、协同数据开发、工程师、UI/UX等团队,确保产品从概念到上线的高质量交付。 任职要求 1、3年以上数据产品经理或资深B端产品经理经验,有成功的数据类产品或SaaS产品交付案例。 2、具备出色的数据分析能力和商业敏感度,能够将复杂的业务问题转化为清晰的数据产品需求。 3、具有数据仓库、BI系统、数据中台或数据治理的实践经验者优先 4、具备出色的客户沟通和项目管理能力,能够高效管理与内外部多团队的合作。 5、英语流利(可作为工作语言),具备与海外客户进行业务洽谈和产品演示的能力。 6、自我驱动,有主人翁意识,交付能力强,面对复杂情况能够独立工作,结果导向,跨团队与部门的沟通能力强,有较强的团队协作意识和能力。 7、有金融科技、信用卡组织、OTA或咨询行业背景者优先。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 12k-20k 经验3-5年 / 本科
    数据服务 / 上市公司 / 500-2000人
    【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
  • 20k-35k·14薪 经验5-10年 / 本科
    电商平台 / C轮 / 2000人以上
    职责: 1、负责招商商管、备货履约、商家结算等业务域以及项目专题的数据分析工作; 2、搭建业务域的分析监控体系,包括数据指标、统计口径、可视化报表看板等; 3、负责监控分析关键业务及产品指标,挖掘原因,提出优化建议方案,并验证业务及产品方案的有效性; 4、负责部门日常汇报材料撰写,呈现关键业务数据及结论/建议。 任职资格: 1、本科及以上学历,数学、统计学、计算机科学或相关专业优先; 2、具备至少3年以上数据分析经验,有电商行业或供应链领域数据分析经验者优先; 3、熟悉常用的数据分析方法和工具,掌握Python、R、SAS、SPSS、Tableu等任一数据分析工具; 4、较好的报告撰写及宣讲能力,逻辑思维强,表达能力突出; 5、自驱力强,主动思考,关注细节。
  • 11k-22k 经验不限 / 本科
    物联网 / 不需要融资 / 500-2000人
    岗位要求 1. 具备数据数据标准化管理相关工作经验,熟悉元数据体系,能够理解和把握数据标准化管理的工作重点; 2. 熟悉DCMM标准; 3. 熟悉各类项目管理文档的编写,有一定的制度文档编写和业务流程管理经验; 4. 熟悉DataX等ETL工具,具备使用一种或多种工具进行项目实施的经验; 5. 一年以上的开发经验,掌握一门或多门开发语言(R、Python、VBA等); 6. 具有较强的业务需求分析能力、问题定位和沟通表达能力; 7. 具备较强的学习能力和主动性,有良好的时间和流程意识。 计算机、大数据、人工智能及相关专业
  • 12k-24k 经验1-3年 / 本科
    IT技术服务|咨询 / 不需要融资 / 2000人以上
    工作地点:广东广州 工作内容:1.数据收集与清洗:负责从多种数据源(如数据库、API、日志文件等)中提取和整合数据。对原始数据进行清洗、去重、转换和标准化,确保数据质量和可用性。 2.数据分析与挖掘:运用统计学、机器学习等方法对数据进行分析,挖掘数据背后的规律和趋势。针对业务问题,设计并实施数据分析方案,提供数据驱动的洞察和建议。 3.数据可视化与报告:使用可视化工具(如Tableau、Power BI、Matplotlib等)将分析结果转化为直观的图表和报告。定期生成数据分析报告,向业务部门和管理层汇报分析结果,支持决策制定。 4.业务支持与优化:与产品、运营、市场等团队紧密合作,理解业务需求并提供数据支持。 5.数据建模与预测:构建数据模型,进行预测分析和场景模拟,为业务规划提供数据依据。持续优化模型,提升预测准确性和实用性。 任职资格: 1.学历要求:本科及以上。 2.专业要求:计算机、数学、统计学、金融工程、经济管理、商业分析等相关专业优先。 3.工作经历:须具备数字化工作背景。 (1)具备风险管理、数据分析等工作经验; (2)熟练掌握风险评估、风险建模、数据分析等专业技能,精通Python、R、SQL等数据分析工具,能够运用大数据技术进行风险识别和预警。 (3)具备相关法律法规和监管政策等经验者优先;具备民航工作经验者优先。
  • 6k-10k 经验1-3年 / 本科
    企业服务,广告营销 / 未融资 / 15-50人
    岗位职责: 舆情监测与数据采集,数据处理与深度分析,报告撰写与可视化呈现,监测体系优化与协作支持。   岗位要求: 1、学历及工作背景要求:本科及以上学历,数据科学、统计学、新闻传播学、社会学、信息管理、市场营销、计算机等相关专业背景优先;具备1年以上数据监控、数据挖掘等相关工作经验。 2、熟悉网络媒体与社交媒体:舆情数据分析师需要了解各种网络媒体平台和社交媒体应用,比如微博、微信、知乎、小红书、抖音、快手等。熟悉平台使用方法,了解用户的交流方式和特点。 3、数据分析能力:舆情数据分析师需要具备良好的数据分析能力,能够从大量的数据中抽取有用信息,并进行分析和归纳,文字功底较强,具有一定的报告撰写经验。掌握数据分析工具和方法,如Excel、SPSS等。 4、舆情监测技巧:舆情数据分析师需要掌握舆情的监测方法和技巧,能够追踪网络上关于特定话题或事件的讨论和评论。熟悉各类网络监测工具,并学会运用工具进行舆情监测。 5、善于沟通和表达:有良好的沟通能力、高度的责任心和抗压能力,能适应突发舆情的紧急工作节奏,有强烈的学习欲望和良好的团队精神。
  • 6k-12k·16薪 经验不限 / 不限
    金融 / 天使轮 / 50-150人
    比特鹰是国内领先的AI+Web3公司 以世界一流的标准打磨行业领先的产品,为用户创造价值 团队年轻有朝气,1年=3年成长速度,早期加入享受核心团队晋升通道 岗位是做啥的? ● 负责 Web3 链上、链下的数据开发; ● 负责技术架构,ETL 实施,性能优化,数据监控以及数据治理相关技术问题的解决。 如果要入职,要求是啥? ● 精通至少一门编程语言,如 Python、Go; ● 熟悉 PostgreSQL、Redis 等常用业务数据库; ● 熟悉 Kafka、RabbitMQ 等常用消息队列; ● 熟悉 StarRocks、ClickHouse 等 OLAP 数据库优先; ● 熟悉 Flink、Airflow 等数据处理工具优先; ● 良好的逻辑思维能力,对数据敏感,对海量数据处理与分析有热情; ● 具有良好的沟通能力及团队协作能力; ● 具有从 0 到 1 的数据开发经验优先。 招聘岗位包括:前端、后端、大数据、爬虫、智能合约、区块链开发、运维、测试、AI开发、安全等
  • 18k-27k 经验3-5年 / 本科
    IT技术服务|咨询,专业服务|咨询,软件服务|咨询 / 未融资 / 2000人以上
    This role will carry out some or all of the following activities:  • Contributing into the delivery of a data platform related operational enhancements.  • Extraction, Transformation and Loading (ETL) of data in the data lake  • Responsible for creation of Data Quality dashboards specific to a business area.  • Data modelling works  • Optimising consumption of data from the data repositories.  • Address functional and non-functional requirements relevant to data in large applications.  • Experience on Spark ( Scala). Pyspark , Delta Lake , GCP , Ali will be plus
  • 12k-18k 经验3-5年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    1.负责产品数据统计分析,包括需求讨论及开发,准确展现业务状况和趋势。 2.负责数据仓库模型设计.ETL开发,以报表等形式为业务提供数据支持 3.利用BI工具.大数据系统提取数据信息;为产品优化提供数据支持和建议 岗位要求: 1.工作4年以上,统计/数学/计算机相关专业,有数据仓库.数据挖掘的产品或技术背景优先 2.精通SQL编写;并熟练掌握常见的SQL调优方法 3.熟悉Hive,Spark,Flink大数据计算平台,有相关平台的ETL编写经验,以及测试和调度工作 4.熟悉数据仓库层级架构,熟练使用数据字典,能够快速准确的使用正确的库表和字段; 5.具备较强的数据分析能力,拥有强烈的责任心和团队合作精神,逻辑能力突出 6.熟练使用Linux系统,有Shell.Python.java编程经验者优先 7.银行数据仓库、数据集市、监管报送、数据报表、反洗钱这些项目经验优先
  • 15k-25k·13薪 经验5-10年 / 本科
    其他 / 上市公司 / 500-2000人
    岗位职责: 1、负责大数据平台的技术预研,同时编写技术预研文档 2、负责大数据平台的架构设计,同时完成核心代码的编写 3、负责大数据平台的实施发布工作,完成开发,测试环境的大数据部署方案 任职要求: 1、计算机、数学相关专业,相关开发工作4年以上; 2、熟悉JAVA开发语言、有Go开发经验更优; 3、熟悉大数据相关离线和实时计算框架、Flink、Spark等,并相应的项目实践经验; 4、熟悉Hadoop生态圈架构,如Hive、Hbase、Phoenix、Hudi、Impala等开源组件,熟悉源码者更佳; 5、有大数据相关基础组件的维护及调优经验者优先; 6、有大数据相关技术平台的研发经验者优先,如:数据资产、可视化ETL、可视化数据开发、可视化建模等。 7、对大数据生态至少一个组件的源码有深度了解等优先。 8、对K8S容器有深入了解得更优
  • 12k-18k 经验1-3年 / 本科
    工具类产品 / B轮 / 50-150人
    岗位职责: 1. 基于大数据平台对用户、资讯、行为相关数据进行分析,梳理需求指标的口径,并开发上线; 2. 负责数据指标与上下游系统的对接,开发相应的离线、实时接口; 3. 推进公司数字化运营,并承担相应的数据统计、分析和报表开发工作。 技术要求: 1.优秀的业务逻辑理解能力、思维能力及沟通表达能力,对数据敏感; 2.熟练运用Hive/Oracle/MySQL/Python等工具进行数据开发和分析; 3.有推荐系统数据分析相关经验的优先; 4.有实时数据处理相关经验的优先。 岗位福利: 工作环境舒适,周末双休,法定节假日遇周末无需补班,五险一金,年终奖,带薪年假,节日礼品/礼品卡,每年体检,下午茶等福利齐全。
  • 12k-18k 经验3-5年 / 本科
    工具类产品 / B轮 / 50-150人
    工作职责: 1. 参与公司内部数据模型设计、开发并服务下游,数据解释,问题答疑; 2. 跟进IT需求,对接各源系统数据调研,评估,模型设计,离线及实时ETL开发等工作; 岗位要求: 1、数学、统计、计算机等相关专业本科及以上学历,2年以上相关工作经验(数据/业务分析、BI、数据模型、决策支持、数据挖掘) ; 2、扎实的数据仓库理论基础,熟悉数据仓库范式模型设计 3、熟悉Hadoop、HIVE的基本原理,精通SQL,能熟练运用 ORACLE/MY SQL/HIVE/PostgreSQL等获取分析所需数据; 4、根据需求可以通过flink、kafka、spark等大数据组件进行开发与调测; 5、具备良好的沟通能力、团队合作精神及抗压能力 ;
  • 20k-35k·14薪 经验5-10年 / 本科
    IT技术服务|咨询,数据服务|咨询 / 不需要融资 / 15-50人
    职责描述: 1、负责公司离线数仓和实时数仓体系的设计和搭建; 2、结合维度建模理论,梳理业务流程,构建公司数据资产和主题数据应用; 3、负责数据治理相关工作,构建稳定、可靠的数据处理链路,提升数据质量; 4、深入理解业务,负责数据分析、数据大屏和数据报表等需求的对接和开发; 任职要求: 1、本科及以上学历,计算机或数据领域相关专业,5年以上数据开发相关经验; 2、具备丰富的数据仓库体系架构、建模方法、数据治理等知识,有复杂场景或海量数据的数仓应用实践; 3、精通Sql并有丰富的Hive性能优化经验,具有良好的Shell或python编程能力; 4、掌握大数据相关技术栈,包括Sqoop、Flume、Kafka、Hadoop、Hive、Spark、Flink等; 5、有实时数仓相关经验者和多维分析/OLAP经验者(如doris/clickhouse/druid/kylin等); 6、有百度云EasyDAP或阿里云DataWorks使用经验优先; 7、有较强的逻辑思维能力,主动积极有责任感,具备较强的沟通协作能力,自我驱动能力。