-
1、项目介绍: 同证能企业管理咨询(成都)有限公司开发了数据查询平台--数数查,解决数据变现难的问题,为企业/个人提供了一个全面、透明、高效的数据查询平台。 查询项目:个人数据查询(婚姻状况核验学历学位核验、行驶证核验、司法数据、以人查企等)、企业数据查询(开户行、企业舆情、工商信息、司法风险、知识产权等)、企业风险查询(企业信用风险和企业税务风险检测) 2、岗位职责: (1)我们现寻找的是项目推广伙伴。 (20%-50%分佣)不是打工者,无需坐班,时间自由,只要您有创业梦,只要您想跟上数字经济时代发展,我们愿意为您提供一个施展平台。 (2)根据公司项目推广策略,制定并执行推广政策,组建和带领团队推广公司平台。 3、任职要求: (1)有网络推广、财税咨询、婚恋行业经验为佳; (2)此岗位可兼职,无需坐班,时间自由; (3)愿意从事数据资产服务。
-
【工作内容】 1、电话接听,货物跟踪查询,库存调整,问题件上报; 2、干线网点车辆到车确认与装车单制作打印; 3、分拨中心货物清仓盘点; 4、领导安排的其他工作。 【岗位要求】 1、中专及以上学历,可接受应届生; 2、工作严谨,执行力强,良好的沟通能力及团队合作精神; 3、三班倒,能接受夜班工作,有较强的抗压能力; 4、熟练运用 Excel、Word 等办公软件。 【公司地址】 公司地址:武汉市东西湖区惠安大道757号捷利现代物流产业园内中通快运(物流园第二排)
-
【岗位职责】跟进快递详情,处理收发件人疑问及诉求; 【工作时间】日工作8.5小时 【薪资待遇】4000--6000上不封顶 【福利待遇】生日礼品,消暑饮品,零食小吃。 【岗位晋升】管理岗需要至少6个月一线能力,需要业务技能熟练 【工作地点】芝罘牟平两职场,详情咨询 五险一金 免费停车
-
高级大数据平台研发工程师-查询引擎方向 (MJ000135)
[上海·长宁区] 2023-12-1025k-50k·14薪 经验5-10年 / 本科数据服务|咨询 / C轮 / 150-500人职位描述: 1. 负责大数据基础平台架构建设和研发; 2. 负责大数据计算引擎的特性研发和性能调优; 3. 负责大数据系统整体及组件的性能、效率、稳定性分析与优化。 职位要求: 1. 熟悉Trino或Flink计算引擎,有5年计算引擎特性开发和性能调优经验; 2. 熟悉HDFS/Hive metastore/Presto/Kudu/Kafka等大数据技术和组件, 3. 具备扎实的计算机基础,熟悉分布式系统研发; 4. 精通Java研发语言,具有良好的编程研发能力; 5. 对新技术敏感,有较强的学习能力和解决问题的能力,乐于学习分享,有较好的沟通能力和执行力。 -
职位描述 1.工作内容 主要是做对接服务的,确认订单无误,并核实相关信息登记到系统即可。 非常简单好做,很轻松,不需要处理投诉等等。 2.薪资待遇 (1)保底薪资3500+绩效,综合薪资4500-6000。 (2)每半年增加一次司龄工资500-1000元: (3)夏季高温补贴,冬季低温补贴; (4)入职即提供住宿,两室一厅或者一室一厅,厨房、卫生间、热水器、空调、洗衣机等基本设施都有! 3.上班时间 八小时工作制,不加班!!月休8天~ 公司晋升制度透明,机会多多
-
1. 持有小学及以上教师资格证书。 2. 具有2年以上教学经验者优先。 3. 对小学英语教学有浓厚兴趣,对小学生的心理有深刻了解。 4. 良好的英语听说读写能力,能够流利使用英语。 5. 具有良好的团队合作精神和沟通能力。 6. 有责任心,能够承担工作压力,对工作有热情。
-
职位职责: 1、制定治理策略确保国际化生活服务商家商品生态系统的信任和健康; 2、根据数据和用户反馈分析问题,制定具体治理策略,跨团队合作并采取措施加强生态系统健康; 3、制定政策管理国际化生活服务中商家商品的合规、文化和促销问题,把控生态系统风险和质量,避免平台商家危险或欺诈行为,并向客户提供产品和服务; 4、建立国际化生活服务商家全生命周期的治理策略体系,通过出入库管理、商家KYC、商家资质、福利管控、资金管控、账户健康等措施,提升治理效率,构建公平有序的生态系统; 5、通过平衡并促进合法商家增长,管理风险;与利益相关方合作,了解生活服务商家及其所在行业的痛点和增长挑战;制定并实施策略,确保良好的商户业务体验并控制风险; 6、通过数据驱动和调查方法监测生态系统的健康状况,应对突发事件并根据需要进行临时调查。 职位要求: 1、4年以上治理体验项目经验, 熟悉O2O、本地服务、电子商务、战略咨询、运营管理、内容风险、卖家风险、卖家运营等领域者优先,如管理商户风险、 O2O或信任和安全项目经历; 2、本科及以上学历,数学、统计学、工程、数据分析等专业优先,英文可以作为工作语言; 3、熟练使用查询和分析工具并进行数据分析者优先(例如SQL、Python、Excel); 4、拥有战略思维、项目管理和沟通能力,能够进行跨团队沟通,管理并推动复杂项目; 5、熟悉O2O、电子商务或其他线上线下本地服务、治理和客户体验、管理和合规要求; 6、积极主动,具备自驱力,能够在快节奏中按优先级处理事务。
-
职位职责: 1、负责字节跳动所有产品线UG方向的数据流和相关数据服务; 2、面向超大规模数据问题,每天处理千亿增量的用户数据; 3、负责流式数据的实时传递,清洗,转换,计算,并对外提供查询服务; 4、参与数据治理工作,提升数据易用性及数据质量; 5、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、熟悉Linux操作系统及开发环境; 2、扎实的计算机软件基础知识:数据结构,操作系统等; 3、熟悉 C/C++、Java、Python 等任意一门编程语言; 4、对数据敏感,认真细致,善于从数据中发现疑点; 具备以下条件者优先: 1、研究过开源项目; 2、参加过 ACM 或者其他类型的软件开发大赛; 3、熟悉大数据处理工具/框架中的一项或多项,包括但不限于Hadoop, Mapreduce, Hive, Storm, Spark, Druid, kafka, hbase,ES等。
-
职位描述: 1、构建热点的数据库管理系统,设计方便业务使用的关键状态管理,以及各类属性的实时存储,以及查询服务功能。 2、围绕海量微博UGC文本数据,通过聚合选优,挖掘大众讨论热点。 3、围绕热点,通过数据分析,建设热点内容评估的各项重要特征,包括热度、内容价值、类别,关系特征等 任职要求: 1、扎实的编码能力与算法基础,熟练使用Linux下的python/shell/c++/php中2门以上的语言开发。 2、具有良好的沟通能力和良好的团队合作精神,学习能力强 3、熟悉hadoop、hbase、hive的使用,并了解基本原理。 4、参与过大模型,个性推荐的项目方向,优先选用。 5、工作以业务发展为导向,积极负责。
-
工作职责: 1.数据同步与ETL开发: 负责设计、开发、测试和维护数据同步、抽取、转换和加载(ETL)流程,确保数据高效、准确、稳定地从源系统流向目标系统。 2.数据同步通道部署与运维: 负责使用OGG、DSG等数据同步工具进行通道的部署、配置、监控、调优和故障处理,保障数据同步通道的稳定运行。 3.日常数据开发与运维: 使用Python、Java等编程语言进行日常数据开发任务(如脚本编写、自动化任务开发)和数据运维工作(如数据质量检查、任务监控、问题排查)。 4.数据库开发与操作: 熟练编写和优化SQL脚本,基于Greenplum、Oracle、MySQL、PostgreSQL等主流数据库进行数据查询、分析、转换和存储过程开发等。 5.数据运维程序开发:根据业务需求,开发数据清洗、转换、入库等相关的运维程序和工具,提升数据处理效率和自动化水平。 6.数据质量保障:参与数据清洗规则的制定与实施,确保入库数据的准确性、完整性和一致性。 任职资格: 1.工作经验: - 3年以上数据开发相关工作经验。 - 具备以下经验优先: 1)有使用 OGG (Oracle GoldenGate) 或 DSG 等数据同步工具的实际部署、配置或运维经验。 2)了解ETL工具(如 Informatica, DataStage, Kettle 等)或调度工具(如 Airflow, DolphinScheduler 等)。 2.技术能力: - 熟练掌握 Python 和 Shell 脚本编程,能够独立完成开发任务。 - 精通 SQL 语言,具备复杂查询、性能调优、存储过程编写等能力。 - 熟练使用至少两种主流数据库(Greenplum, Oracle, MySQL, PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 - 了解至少一种国产或新兴数据库(如 OceanBase, TiDB, 人大金仓(KingbaseES))的基本原理和使用方式。 - 熟悉 Linux 操作系统(如 CentOS, RedHat, Ubuntu 等),掌握常用命令、系统管理、环境配置和脚本执行。 - 加分项 (非必需,但优先考虑): 1)具备一定的 Java 开发能力。 2)熟悉数据仓库建模理论(如维度建模)。 3)有大数据生态组件(如 Hive, Spark, HDFS 等)的使用经验。 4)了解容器化技术(Docker, Kubernetes)。 3.其他要求: - 具备良好的学习能力、分析问题和解决问题的能力。 - 工作认真负责,有较强的责任心和团队协作精神,能承受一定的工作压力。 - 具备良好的沟通能力,能够清晰表达技术方案和问题。
-
岗位职责 1. 清结算系统设计与优化 - 负责交易账户自清算、总账清算及结算业务系统的优化及维护,设计并优化对账系统、清结算后台流程,提升自动化水平,降低人工操作风险。 - 结合公司全球化业务特点(覆盖140+国家),设计符合国际标准的清结算系统,支持多币种、多通道资金处理,确保合规性与效率。 2. 产品全生命周期管理 - 从需求分析到产品上线,主导PRD撰写、原型设计、功能验收测试,协调技术团队推进开发进度,确保项目按时交付。 - 监控产品运营数据,分析交易风险及资金流转效率,迭代优化结算规则与风控策略。 3. 跨部门协作与资源整合 - 联动财务、技术、商务团队,梳理结算业务流程,解决支付通道对接、资金划拨异常等问题,保障上下游数据一致性。 - 对接银行、卡组织(如VISA、万事达)及第三方支付机构,设计定制化结算方案,满足合作伙伴需求。 4. 合规与风控管理 - 建立结算风险监控体系,预防资金错配、延迟到账等风险,制定应急处理预案。 - 熟悉国内外金融监管政策(如反洗钱、外汇管理),确保结算业务符合法规要求。 --- 任职要求 1. 教育背景: - 本科及以上学历,计算机、金融、经济相关专业优先,具备初级会计职称或金融类证书者加分。 2. 经验与技能: - 3年以上金融行业(支付、银行、互金)产品经理经验,熟悉清结算核心逻辑,能独立设计业务模型。 - 熟练掌握Axure、Visio等工具,具备PRD撰写及原型设计能力,熟悉SQL基础查询及数据分析方法。 - 英语流利(CET-6以上),能够支持跨境结算业务需求沟通。 3. 核心素质: - 逻辑严谨,具备风险意识与商业敏感度,能从数据中提炼优化方向。 - 抗压能力强,擅长跨部门协作,推动复杂项目落地。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
工作职责: 1、遵循公司制度与技术规范完成岗位工作; 2、独立承担软件模块的设计、开发、自测文档等工作,确保交付软件的质量和安全; 3、分析和查找关联复杂问题的根本原因,制定解决方案; 4、识别软件开发风险,并做好风险应对预案; 5、外部协同,与关联岗位做好沟通,协同保证软件整体交付; 6、完成上级交办其他开发相关工作。 任职资格: 1、计算机相关专业本科及以上学历。 2、3年以上数据开发经验,有IFRS17新会计准则项目开发经验者优先。 3、精通SQL语言,具备复杂查询、性能调优、存储过程编写等能力。 4、熟练使用至少两种主流数据库(Greenplum,Oracle,MySQL,PostgreSQL)进行开发、管理和优化,理解其核心架构与特性。 5、熟练掌握Python和Shell脚本编程,能够独立完成开发任务。 6、了解至少一种国产或新兴数据库(如OceanBase,TiDB,人大金仓)的基本原理和使用方式。 7、了解ETL工具(如Informatica,DataStage,Kettle等)或调度工具(如Airflow,DolphinScheduler,Moia等)
-
工作内容: 1、根据业务需求进行数据业务开发,分析后台已有数据,理解数据维度和含义,并根据计算公式进行数据应用开发及分析。 2、参与数据治理工作,根据目前已有数据,解析数据依赖,编排数据拓扑结构,数据元数据结构优化;提升数据易用性及数据质量,统一数据口径,制定数据标准化规则。 3、对数据平台和执行引擎遇到问题时有一定的解决能力,负责 ETL 流程的优化及解决 ETL 相关技术问题,对数据稳定性和性能有一定的优化能力。 4、支撑采购供应链业务域的搜索、用户画像、推荐系统等业务的数据需求,确保输出时效性与准确性。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上工作经验; 2、精通Python语言,能够使用python写数据分析算法; 3、精通FineBI、FineReport的开发、维护技术(有帆软高级工程师认证的优先)能够独立完成BI项目的开发; 4、精通数仓及BI系统业务建设流程; 5、熟练掌握SQL,能够熟练编写复杂的查询语句、存储过程、函数等,对常见关系型数据库(如Oracle、MySQL等)的性能优化有一定经验; 6、有良好的沟通和业务流程描述能力,书面表达能力,高度自驱。
-
我们正在招募一位经验丰富的产品经理,并具备项目管理经验。 候选人需要有强大的技术能力,拥有丰富的项目管理和交付经验和卓越的组织能力,能够理解复杂的技术要求并找到解决方案。此外,还需具备优秀的书面和口头沟通能力,能够与利益相关者建立融洽关系,并为内部和外部利益相关者提供卓越的支持。乐于在充满活力的“初创”模式下工作,应对各种项目和挑战。 作为产品经理,您将负责从构思和战略到产品发布和迭代的整个产品生命周期,并专注于推动创新。您将与开发、项目经理、销售等跨职能团队紧密合作,提供无缝、可扩展且面向未来的支付解决方案。该职位向总经理汇报。 工作职责: ● 管理整个产品开发流程,从产品概念到发布以及发布后的产品优化。 ● 与工程团队合作,明确产品需求,确定创新功能的优先级,并确保及时交付突破行业界限的解决方案。 ● 管理和规划项目并监督交付 ● 具有项目运营经验,有数据敏感度,能够通过数据分析挖掘需求,不断优化运营计划,并通过系统迭代实现项目目标 ● 管理项目资源,负责制作项目文档 ● 负责境内外合作伙伴的需求沟通协调及线上问题处理 ● 安排、参加并记录会议 ● 与开发人员、QA工程师、客户和供应商联络,确保项目按优先级和时间表交付 ● 能够承担责任并有效及时地完成任务 任职资格 ● 有OTA,aggregator与航空公司API对接项目经验,API产品功能设计优先 ● 熟悉主流airline 系统API及其功能, 如NDC API, navitaire API, sabre API, radixx API等 ● 3年以上产品经验,需具备丰富的项目管理经验。 ● 具备一定的SQL或者MYSQL阅读和查询能力 ● 英文口语流利,需要跟海外航司客户开会 ● 强大的数字和分析能力 ● 懂NDC,有机票/旅游行业相关工作经验是加分项。


