• 25k-50k 经验不限 / 本科
    内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责抖音产品生活服务相关业务的数据分析工作,通过分析帮助业务解决在BC两端遇到的问题并实现业务目标; 2、负责业务上各类产品/运营的策略制定与优化、A/B实验设计与分析、运营活动效果评估、核心指标异动分析等工作,找到数据现象背后的成因,明确用户痛点和需要,给出后续优化建议; 3、主动发现业务本质的需要和痛点,找到可改进/提效的机会,给出具体可行的优化建议,推进落地并带来业务实际提升。 职位要求: 1、有本地生活、电商等相关行业从业经验优先,有商业分析、战略分析经验者优先; 2、善于思考和总结,能够持续改进工作方法; 3、能快速理解商业逻辑,通过数据量化拆解业务问题的成因及影响,并给出具体可行的优化方案; 4、具备解决复杂问题的数据分析能力、数据采集方案设计能力和优秀的沟通协调能力。
  • 内容资讯,短视频 / D轮及以上 / 2000人以上
    职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
  • 18k-35k·14薪 经验3-5年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 岗位职责 1、深入理解金融及OTA行业客户的业务痛点,挖掘其对数据洞察、运营效率提升和数据服务的需求。 2、负责设计并管理包括权益运营分析看板、C端用户运营看板、客户服务分析体系、供应链效率分析及财务管报分析在内的数据产品线。 3、主导规划数据中台对外的数据API服务产品,定义接口规范、使用场景和商业化模式。 4、与数据科学团队协作,推动风控模型、定价模型等数据模型产品的落地和业务应用。 5、作为数据产品的代表,与海外及国内大客户对接(需流利英语),演示产品价值,收集反馈并推动产品迭代。 6、协同数据开发、工程师、UI/UX等团队,确保产品从概念到上线的高质量交付。 任职要求 1、3年以上数据产品经理或资深B端产品经理经验,有成功的数据类产品或SaaS产品交付案例。 2、具备出色的数据分析能力和商业敏感度,能够将复杂的业务问题转化为清晰的数据产品需求。 3、具有数据仓库、BI系统、数据中台或数据治理的实践经验者优先 4、具备出色的客户沟通和项目管理能力,能够高效管理与内外部多团队的合作。 5、英语流利(可作为工作语言),具备与海外客户进行业务洽谈和产品演示的能力。 6、自我驱动,有主人翁意识,交付能力强,面对复杂情况能够独立工作,结果导向,跨团队与部门的沟通能力强,有较强的团队协作意识和能力。 7、有金融科技、信用卡组织、OTA或咨询行业背景者优先。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 20k-40k·14薪 经验5-10年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1、负责数据中台/数据仓库的模型架构设计和研发; 2、负责大型金融机构企业数据仓库模型设计,将源系统离散的数据按照各类主题进行建模,通过数据集成和质量管控,解决企业的数据使用问题; 3、参与数据治理工作,推动数据治理体系落地,参与数据标准,元数据管理,数据质量监控等数据管理工作; 4、理解并合理抽象业务需求,发挥数据价值,参与数据仓库/数据集市/数据应用等的设计与数据建模,与业务,BI团队紧密合作; 任职资格: 1,3年以上数据中台/数据仓库/数据平台相关经验;具备乙方或者大型实体企业内部的数据建模项目经验,优先考虑;**本科或以上学历; 2,具备数据中台/数据仓库和数据建模能力;熟悉建模理论与方法,熟悉维度建模,能够按照需求正确划分主题,产出概念模型,业务模型,逻辑模型等;熟悉数据仓库总线矩阵设计和数据仓库项目的实施流程 3、具有1年以上的数据仓库建模经验,了解IBM和teradata的FS-LDM的建模方法,并有至少1个以上的的金融企业数据仓库建模实际落地经验;熟悉保险行业业务更佳; 4,具备团队管理能力,有项目管理经验;个人具有良好的数据分析、逻辑推理能力,良好的学习能力与团队精神,工作热情努力、积极主动、高效负责。 5、了解大数据开发技术,包括Hadoop,Hive,Spark,Flink,Kafka等大数据框架原理及应用,有阿里大数据生态Maxcompute、dataworks项目经验的优先考虑。对常见数仓技术体系:Kylin、Doris、Clickhouse、Hive、Spark、Flink、Kafka等,有其中一个或多个有实际研发经验;
  • 16k-32k·14薪 经验3-5年 / 本科
    金融 软件开发 / 不需要融资 / 2000人以上
    工作职责: 1.负责数据中台产品建设,包含但不限于之标签系统、数据标准、智慧决策等方向的产品规划、功能设计及需求落地跟进; 2.负责项目推进过程中的跨部门协调沟通和产品对外输出功能,能够协调各方资源确认目标的有效达成; 3. 了解行业发展动态、竞品情况,跟进公司战略目标以及对应产品的战略和发展,持续推动产品整体的发展方向,促进功能的优化; 4.具备项目管理能力,能够推动产品目标的实现,把控项目实施质量和效率; 5.持续挖掘用户需求进行产品创新,合理规划产品发展与功能规划,协调推动产品功能实施; 6.具备UI、交互设计能力,掌握视觉和交互设计典型框架、理论依据能够协调和管理设计部门,推动产品交互体验持续提升; 7. 对产品的长期发展战略提出建设性意见,进行相关市场调查,为公司决策层提供相应依据。 任职资格: 1.*****本科或以上学历; 2.具备3年以上的数据产品工作经验,熟悉数据平台相关的功能和系统,至少主导过一款数据产品的设计和落地,如BI系统、标签系统、指标管理、数据服务平台等; 3.具备良好的数据敏感度和业务视野,能够敏锐的捕获数据价值和产品机会,专注于技术和保险业务,对业界的最新技术发展动态和保险政策动态有比较密切的关注; 4.熟练掌握Axure、Viso等产品原型设计相关工具,具能够向技术和管理团队清晰传达信息; 5.具备优秀的产品设计、总结归纳能力,善于系统思考和自我驱动,能够站在业务视角提出有价值的想法,进行产品规划并落地。
  • 18k-35k·14薪 经验5-10年 / 本科
    生活服务,旅游|出行 / 上市公司 / 150-500人
    岗位职责 : 1、数据仓库和数据处理‌:负责大数据平台的数据仓库、数据治理和数据模型的设计与开发工作。进行日常数据报表开发,理解业务需求,发挥数据价值‌。 2‌、数据服务开发‌:负责离线和实时数据服务的设计、开发、性能调优和效果优化。构建和维护数据管道,处理ETL过程,确保数据质量和准确性‌。 3、技术研究和应用‌:参与相关项目的数据需求的实现,设计和编码工作。参与开发过程中相关技术的研究和验证‌。 ‌4、平台运维和质量管理‌:负责大数据平台的数据及相关的应用开发、调优及维护。完成日常数据质量的监控,参与大数据平台的日常运维工作‌。 5、针对数据一致性、准确性、及时性,制定数据管理与治理机制,提升数据易用性、可用性及稳定性; 任职要求 : 1、本科及以上学历,计算机相关专业,3-5年以上数据开发经验; 2、具备至少一个完整的大数据平台和BI系统实施经验,熟知平台建设各环节工作,包括数据采集、数据落地、仓库建设、数据平台搭建、数据应用产品开发 3、熟悉基于推荐系统的数据仓库建设方法论,有数仓模型设计及ETL开发经验;有数据仓库分层架构设定经验者优先; 4、熟悉Hadoop生态相关技术,如Hive、HDFS、Impala、Spark、Presto、Flink、Hudi、Elasticsearch、HBase、Druid、Kylin等,有基于分布式数据存储与计算平台应用开发经验,有较为系统的海量数据性能处理经验; 5、熟悉java、scala、python等语言,熟悉微服务,分布式架构,熟悉springcloud,springboot等技术开发; 6、熟悉数据仓库原理,有离线数仓、实时计算、数据挖掘、ETL、用户画像、数据可视化等设计与开发经验; 7、熟悉MySQL、PostgreSQL、NoSQL等数据库中至少一种数据中心建设方案,可以进行产品的独立部署、高可用架构和性能优化,熟悉开源社区解决方案; 8、熟悉阿里云大数据组件E-MapReduce、Dataworks、MaxCompute和国际AWS的EMR相关数据产品等,市场常见BI产品(superset、FineBI、神策数据)等相关组件者优先; 9、较强的学习能力和技术钻研能力、有自我驱动意识,对数据采集、数据治理、数据开发、数据分析、数据建模、算法等有深刻认识和实战经验。 期待您的加入哟,我们为您准备丰厚福利待遇: 【法定福利】:公司按国家规定购买五险一金+商业保险(员工本人及子女商业保险)+带薪年假; 【节日关怀】:节日福利礼品,以及节日礼金; 【公司福利】: 机场及高铁的贵宾服务(龙腾卡权益)+年度员工健康体检+平安360服务(在线问诊、VIP挂号及重疾紧急入院服务)+年度2次免费洁牙服务 公司提供咖啡、零食、下午茶 员工活动、旅游及团建,不定期举办聚餐、唱K、电竞赛、篮球赛、拓展、旅游、生日Party等 【学习与培训】:助力职业发展与提升,内外训双引擎发力助你高速发展 【晋升机会】:公司设立良好的晋升机制和广阔的发展空间。
  • 11k-15k 经验1-3年 / 本科
    企业服务 / D轮及以上 / 500-2000人
    数据话题策划 内容话题策划 报告的整合和输出
  • 12k-20k 经验1-3年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责CDH大数据平台的安装和部署; 2.负责CDH大数据平台各组件的性能优化; 3.负责CDH大数据平台各组件的运行维护和状态监控; 4.负责新技术调研,并能在团队内进行推广应用。 任职资格: 1.理解大数据计算原理,精通Hadoop/Spark体系,了解大数据平台运营基本思路; 2.熟悉HDFS、HBASE、KUDU、SPARK、HIVE等hadoop核心组件,具有两年以上hadoop/Spark技术的运维经验; 3.理解MapReduce计算框架的思想,熟悉分布式计算模型; 4.至少精通一种大数据开发语言,如JAVA、scala等; 5.至少熟练使用一种脚本语言,如Shell、Python等; 6.热爱技术,工作认真、严谨,有团队精神。
  • 20k-30k 经验3-5年 / 本科
    游戏 / 上市公司 / 500-2000人
    岗位要求: 1、负责用户行为数据指标体系搭建,包括但不限于用户画像分析、行为分析等 2、负责业务问题分析需求,从数据和模型角度深挖潜在问题,包括但不限于定期数据监控、专项分析、游戏生态、版本活动、商业化等,驱动相关模块人员拿到结果 3、完善数据平台能力,优化数数BI、投放BI、数据服搭建,规划部门内报表体系,满足项目各阶段数据需求 4、不定期输出行业相关数据分析思路,帮助团队拓展数据思维 任职资格: 1、本科及以上学历,3年以上游戏数据分析相关工作经验,熟悉游戏市场; 2、数据分析能力优秀,逻辑清晰,有成熟的分析思路,能够独立自主拆解/归纳提炼有效数据结论,擅长从数据角度进行深入挖掘研究,基于业务发展需求输出用户研究报告; 3、数据处理能力强,具备优秀的数据加工工具比如BI/Tableau/EXCEL/SQL等基础但必备的数据处理能力; 4、具备成熟游戏行业分析、运营或发行经验最优,理解并熟悉游戏领域关键评估指标,了解各项数据指标含义以及游戏各阶段数据生态,有完整的游戏项目分析经验者优先; 5、热爱仙剑奇侠传IP,具有优秀的自驱力和执行力; 6、具备优秀的沟通能力和学习能力,能够主动分享、探讨与交流用户研究结果;
  • 20k-40k 经验3-5年 / 本科
    游戏 / 不需要融资 / 500-2000人
    岗位职责: 1.负责用户行为数据、业务数据、投放数据统计分析工作; 2.为业务方提供产品迭代、运营策略的数据支持,对产品/策略上线后进行影响及收益评估,协助业务监控产品相关指标,分析波动原因; 3.对用户增长指标进行监控与问题定位、提出改进方向、给出数据结论; 4.具备数据分析和数据建模能力,结合用户行为数据,深入挖掘用户行为特征,不断优化和完善整个数据体系。 任职要求: 1.本科及以上学历,3年以上游戏行业数据分析的工作经验,统计/数学/计算机相关专业学历背景优先,优秀者可适当放宽; 2.具备数据的处理能力,熟练使用数据分析工具; 3.具备高度责任心、良好的人际沟通技巧,有较强的学习意识及进取心,工作踏实,可承受一定工作压力; 4.有良好的职业素质、合作意识和团队精神,具有独立分析和解决问题的能力; 5、有游戏行业经验,做过数仓、常规数据分析工作的亦可,在业务项目组内做过数分的优先。
  • 12k-24k 经验3-5年 / 本科
    金融 / 不需要融资 / 2000人以上
    岗位职责: 1.负责公司业务系统数据库的性能维护、安全性管理; 2.负责公司数据可靠性维护、数据备份和数据容灾; 3.对开发项目提供数据库技术支持; 4.负责数据库运维自动化脚本编写。 任职要求: 1.计算机、软件相关专业本科及以上学历; 2.3-5年相关工作经验; 3.较强的沟通学习能力,对技术有热情,有能力直接跟踪和学习最新的技术和知识; 4.有python或者shell编程能力; 5.有oracle、mysql、mongodb、hadoop至少一种运维能力。
  • 25k-40k·14薪 经验5-10年 / 本科
    数据服务|咨询,IT技术服务|咨询 / 未融资 / 少于15人
    职位描述: 岗位亮点:人性化、发展空间大、充分授权、春节假期两周起、项目奖金 基础福利:五险一金、绩效奖金、带薪年假、弹性工作、定期体检、员工旅游、节日福利、周末双休 岗位关键词:电力行业、数据中心、数据资产、信息化规划、数字化转型 岗位描述: 根据客户公司数据战略,基于行业经验、专业知识及方法论,编制高水平、可落地的数据资产管理规划及数据中心发展规划,独立或带领团队高质量完成项目交付并向客户汇报。 岗位职责: 1、方案/规划编制:根据客户项目需求编制数据资产管理业务中长期发展规划、实施方案,组织并参与项目建议书、解决方案、产品目录编制等工作。 2、项目实施:基于客户需求,编制项目方案及工作计划,组织并参与项目实施,包括团队分工、项目交付、组织项目评审及验收。 3、客户沟通:与甲方项目经理保持良好沟通,组织过程汇报、终期汇报,保证项目实施方向与客户需求保持一致,控制项目范围。 4、商机管理:关注客户需求,洞察项目机会;技术标书编制,推动项目商务进展(无销售任务),协助完成开票、回款等事项。 任职要求: 1、五年以上电力行业咨询工作经验,具备较强的项目交付能力、精通相关技能;沟通理解能力出众,市场敏感性强,善于把握客户业务需求。 2、**本科及以上学历,专业不限。计算机、数学、管理学、电力等相关专业优先。 3、深刻理解电网业务,具备电网公司中长期规划/顶层架构设计/数字化转型等咨询经验,对国家电网、南方电网数据中心、数据中台、数字化转型战略有一定了解,具备较为完整的数据资产管理知识体系,了解数据中心相关技术;文字功底好、汇报能力强。具备国内外知名咨询公司工作经验者优先。 4、具备创造性思维,擅长分析并解决问题,具备较强的多任务统筹管理能力,具有一定的团队管理能力,热爱咨询行业。 5、认同公司文化;不畏挑战,学习能力强,抗压能力强;有包容性、责任心、工作热情。 职业发展通道: 管理方向:高级顾问—项目总监—合伙人 技术方向:高级顾问—专家顾问-合伙人 其他: 1、入职地点北京、广州、青岛三地可选 2、接受出差 公司简介 ——关于云弘—— 云弘科技是一家初创咨询公司,以“知识、技术与价值连接者”为定位,向行业客户及小微企业提供技术融合应用服务,旨在帮助企业客户降低知识及技术应用门槛、紧追技术潮流、聚焦核心价值,让技术更好地服务企业及社会。 云弘科技是一家有经验的老企业,公司创始团队具备十余年国内外知名咨询公司工作经历,长期以来冲锋在咨询前线,业务经验丰富、技术能力全面。近年来,项目团队在国家电网公司、南方电网公司及子公司成功实施了一系列管理咨询、大数据应用、软件开发项目,赢得业内一致好评。云弘科技将继续发扬团队文化,秉承“真诚专业、始终如一”的理念,为企业客户提供最实用的服务及产品。 云弘科技是一家讲口碑的服务商,立足客户发展现状,以知识为先导、以技术为依托,为客户量身定制解决方案,帮助企业客户寻找成本、效率及效益的“最优解”,提供一站式管理咨询、技术咨询及实施服务,主要包括:数据挖掘服务、大数据应用建设、数据资产管理、数据可视化、业务应用开发、企业咨询服务。 了解更多,请查看公司官网。 ——企业文化—— 企业愿景:成为小而美的技术服务领导者,为客户提供创造价值的铲子,为员工提供实现梦想的平台,为实现中华民族伟大复兴贡献力量。 公司使命:让技术触手可及。不断推陈出新,持续提供实用、有竞争力的解决方案,为客户解决后顾之忧。 公司定位:知识、技术与价值连接者 价值观:诚信正直 合作尊重 坚持创新 敬畏技术 不畏挑战 ——公司亮点—— 1、超乎想象的发展空间 • 这里只讲实力不讲资历 • 鼓励突破刷新能力上限 • 有创意的人在这里大展身手 • 每一份付出和努力都有回报 是的,只要能胜任,晋升不论年限,职位不设上限 2、简单专注的工作氛围 • 团队每位成员都该被尊重 • 这里没有办公室政治 • 这里没有职场PUA • 只需专注你该做的事情 在你职责范围内的事情没人阻止你 3、具有吸引力的薪酬 • 具有行业竞争力的基本薪酬 • 不缩水的五险一金 • 入职满一年后的司龄奖金 • 不设上限的年终奖和分红 能者多得是我们坚守的原则,不关心你以往薪资,只关心未来 4、其他福利 • 定期的团建、聚餐 • 节日福利、年度体检 • 教育培训基金 • 超长的带薪假期 可能你不相信、可能你从未遇见,这里春节带薪假期两周起 ——这些也可能是你关心的—— 1、996吗?加班吗?有加班费吗? 周末双休,不打卡,参考工作时间为9:00-12:00,13:30-18:00 会有加班,项目任务导向,任务紧急时须加班,日常不强制加班、不鼓励加班,推崇高效 没有加班费,工作绩效会体现在项目分红和单项奖励中,专项加班任务则安排调休 2、出差多吗? 是的,出差不会太少,客户需要我们在哪里,我们就去哪里。 3、公司发展前景怎么样? 市场空间广阔。B端技术服务市场差异化需求层出不穷,市场集中度低;新技术正在下沉应用,市场规模持续扩展。 业务发展扎实。创始团队在业界口碑好,积累了丰富的客户资源;服务、产品规划超前,项目及业务开拓符合预期。
  • 30k-45k·14薪 经验5-10年 / 本科
    物流平台 / 上市公司 / 2000人以上
    1.负责京东秒送业务的数据产品需求沟通、数据产品规划与推进,包括可视化产品设计与报表开发、应用类数据产品设计及产品落地推进、日常产品运维答疑等; 2.结合运营业务场景,通过建设数据产品及输出解决方案帮助业务方看清业务表现、解决业务问题和痛点、发现业务机会,将业务数据产品化,有规划地沉淀业务数据资产和数据产品服务能力 3.沉淀分析思路和框架,提炼数据产品需求,协同研发推进数据产品的落地,做好项目管理 4.深入理解业务,主动发掘机会点,通过数据产品赋能业务,提升业务经营效率 5.运营数据产品,推动数据产品在业务分析决策和业务流程的应用 岗位基本要求: 1.本科及以上学历,5年以上互联网数据产品工作经验,熟悉电商、O2O行业、零售行业的领域知识 2.有出色的产品规划及项目管理能力,熟悉产品工作、数仓开发流程及报表开发,能独立承担具体领域数据产品线的全生命周期工作 3.有良好的结构化思维和数据分析能力,有良好的沟通协调能力,善于跨部门合作,协调相关团队将产品策略执行落地,取得业务效果 4.熟练掌握产品原型、流程图、思维导图等产品常用工具,熟练掌握SQL
  • 10k-20k 经验1-3年 / 本科
    移动互联网,社交 / 不需要融资 / 50-150人
    【工作职责】 1、负责网络爬虫系统平台的架构设计与开发,完善和重构现有采集系统及服务(如抓取调度,多样化抓取,页面解析和结构化抽取)、技术选型; 2、负责多平台信息的数据采集、抽取、去重、分类、过滤、质量识别等工作; 3、负责对指定页面数据的分析、抓取及破解,对技术预研难点进行攻关; 4、研究爬虫策略和防屏蔽规则,解决封账号、封IP、验证码、页面跳转等难点攻克,提升网页抓取的效率和质量; 【任职资格】 1、本科及以上学历,1年以上相关经验; 2、熟悉网页解析和网页信息抽取经验,有大型分布式采集框架的开发和部署经验; 3、熟练掌握Python语言,精通Scrapy框架及原理,熟悉爬虫技术的攻防策略和技术方案; 4、精通数据采集技术,熟悉HttpClient/jsoup/XPath/CSS/正则表达式/验证码加密处理/代理池等网页信息抽取技术,熟悉HTTP底层协议; 5、精通各种反爬技术,并能够通过多种应对策略(如代理池、模拟登录、验证码与滑块的处理、浏览器渲染等)来保证数据的持续交付; 6、熟悉网页数据采集原理及技术,熟悉基于Cookie的网站登录原理; 7、有大数据清洗、整合与储存经验的优先; 8、良好的编码能力,工作认真细致踏实,逻辑思维缜密,善于分析,以解决技术难题为乐趣,具备良好的沟通交流能力。 9、强烈的主动性与工作责任心,对所负责工作有owner意识,并能自我驱动不断成长;
  • 8k-16k 经验不限 / 本科
    数据服务|咨询,人工智能服务 / 不需要融资 / 50-150人
    职位描述: 1.负责相关数据的收集整理; 2.负责文本数据数据审核、效验,确保数据的准确性; 3.根据需求,进行文本、数据、分词相关的标注; 4.抓取配置,数据统计、分析 任职要求: 1.**本科及以上,统计、计算机相关专业优先; 2.有较强的文档能力,会应用word,excel,ppt等办公软件; 3.做事细致有耐心,认真负责,积极主动,沟通能力良好; 4.有数据文本标注工作经验者优先;