• 20k-30k 经验3-5年 / 本科
    人工智能,物联网 / D轮及以上 / 500-2000人
    我们正在寻找一位自然语言数据处理工程师,负责处理和分析海量文本数据,以支持我们的业务需求。作为一家领先的科技公司,我们致力于将自然语言处理技术应用于多个领域,并为客户提供高质量的服务和产品。 工作职责 1、 设计和实现大语言模型(类ChatGPT)的语料加工和优化,确保数据的质量和可用性; 2、 遵循编码规范,编写高质量的代码,保证代码的可读性、可维护性和可扩展性。 任职资格 1、具有3年以上的Python编程经验,并熟练掌握相关的数据处理和分析库(如Pandas,NumPy,SciPy等); 2、熟悉数据结构与算法、面向对象思想、设计模式、可重用代码设计等; 3、有大数据处理经验者优先考虑; 4、 具有卓越的问题解决和分析能力,能够有效地处理和解决复杂的数据问题; 5、 有良好的英文阅读和写作能力,能够理解和编写技术文档和报告; 6、本科及以上学历,计算机科学、软件工程或相关专业。
  • 14k-22k 经验5-10年 / 本科
    移动互联网 / 上市公司 / 150-500人
    任职要求: 1、从事过大数据开发。 2、熟练掌握JAVA语言,熟悉Spring、mybatis等框架。 3、有微服务项目开发经验者优先。 4、良好的沟通能力和一定的抗压能力。 岗位职责: 1、根据系统设计和详细设计完成功能模块编码。 2、负责接口及关键业务函数的单元测试。 3、根据测试任务完成集成测试。 4、根据项目需要前往项目现场进行技术支持。 5、承担项目运维工作时按运维组工作要求及时解决现场问题。 6、积极参与公司组织的各种技术和业务培训。 7、定期对自己的工作进行总结,并在技术交流总结会上分享工作成果和经验,以及建议,每年2次。 8、服从部门领导的工作安排。 9、按时完成指定的开发任务。 10、参与项目的需求分析和系统分析讨论,切实给出设计建议。 11、负责功能模块的详细设计,按要求完成设计文档。 12、协助上级完成领域模块设计和核心功能设计。
  • 13k-20k 经验5-10年 / 本科
    IT技术服务|咨询 / 上市公司 / 2000人以上
    职位描述 1、参与保险业务数据治理工作,负责推动DSMM数据安全基础工作; 2、负责公司数据分类分级电子化推进工作,满足数据安全的相关监管要求; 3、负责数据安全相关项目管理工作; 4、负责数据安全各相关系统的对接与运维工作。 任职要求: 1、本科及以上学历,计算机相关专业,3年以上数据治理领域或数据仓库开发经验; 2、数据治理领域基础知识扎实,对数据治理有浓厚兴趣; 3、熟悉数据安全实施路径和方式,包括数据全生命周期安全管理、数据分类分级方法论; 4、具备一定的数据分析、ETL开发、调度及报表开发等经验; 5、良好的沟通、表达、团队合作能力,优秀的文档能力; 6、熟悉保险业务、有保险等项目经验优先; 7、有DCMM、DSMM实施经验优先。
  • 16k-19k 经验3-5年 / 本科
    移动互联网,金融 / 不需要融资 / 500-2000人
    工作职责 主要负责资讯中台数据采集、清洗、加工等ETL任务的开发与运维工作,并保障数据服务高可用。具体如下: 1. 参与数据需求梳理、方案设计、开发测试工作; 2. 参与数据质量保障等工作; 3. 参与数据服务日常运行维护与问题排查。 任职要求 1. 计算机相关专业本科及以上学历;3年以上开发经验; 2. 熟悉mysql、sqlserver、oracle等数据库,熟悉高斯DB、TiDB、ES等数据库者优先; 3. 熟悉kettle、datax等ETL数据处理工具,熟悉spark、flink批流数据处理引擎; 4. 熟悉数仓模型,有数仓实战经验者优先; 5. 熟悉java/python/golang至少一门语言,有linux系统使用经验; 6. 对金融领域知识有一定了解,有金融领域相关开发工作经验; 7. 具有良好的沟通能力、解决问题能力、持续学习能力,积极且富有责任心,具有团队合作意识。 注意: 1.要求本科计算机专业,若项目经历做过证券类资讯数据处理的,可以放宽到专科; 2. 熟悉mysql、sqlserver、oracle等数据库,熟悉高斯DB、TiDB、ES等数据库者优先; 3. 熟悉kettle、datax等ETL数据处理工具,熟悉spark、flink批流数据处理引擎;
  • 8k-9k 经验3-5年 / 本科
    金融,数据服务 / 未融资 / 150-500人
    工作职责 1. 参与银行/保险业管理分析类系统的开发和维护; 2. 负责业务分析、数据建模和相关程序开发; 3. 参与数据库设计与相关的程序开发工作。 任职要求 1. 计算机/电子/数学类相关专业本科以上学历,3-4年数据开发经验; 2. 良好的数据库理论知识,精通SQL编程,有较好的SQL性能调优经验,具有ORACLE数据库开发经验者优先; 3. 熟练使用Cognos,FineBI,FineReport等BI工具; 4. 熟练使用Datastage、Shell 等数据处理工具; 5. 拥有良好的自学能力和自律能力,以及良好的沟通表达能力; 6. 拥有银行相关的业务分析、数据分析和ETL开发经验者优先。
  • 20k-35k 经验5-10年 / 本科
    营销服务|咨询 / 天使轮 / 50-150人
    工作职责: 1、负责大数据平台的架构设计、核心代码开发等任务,根据项目要求编写相关技术文档。 2、负责大数据平台的代码评审、上线评审,参与数据应用需求设计和评审。 3、负责大数据核心模块研发、大数据平台的搭建,完成系统调试、集成与实施。 4、负责建立和维护大数据平台技术标准规范,指导开发人员进行开发。 5、跟踪业界前沿技术,应用到实际项目中,负责大数据部门的技能传递与培训。 6、积极参与业务部门,运营部门等部门的协作。 岗位要求: 1、本科以上学历,10年以上工作经验,5年以上大数据架构经验。 2、熟悉大数据hadoop技术生态圈,包括但不限于hive,presto,spark,kafka,hbase等组件。 3、精通ods/dw数据仓库架构和数据模型设计,具有海量数据处理及设计经验。 4、熟悉使用python、scala等语言进行数据开发。 5、团队管理及客户化思维能力强,具有优秀的沟通协调能力及分析解决问题的能力。
  • 15k-24k 经验3-5年 / 本科
    IT技术服务|咨询 / 不需要融资 / 50-150人
    职位描述 • 独立完成大数据ETL及其他相关的技术功能开发 • 与技术主管一起参与需求和设计的评审,并进行开发进度的评估 • 在重大开发、设计中规避风险提出设计建议 • 和其他工程师沟通并共同完成技术架构升级 任职条件 • 本科及以上学历,统计、数学、计算机、通讯等相关专业优先, 技术优异者可放宽条件 • 熟悉大数据数仓模型; 有ETL ,可视化分析,BI产品应用等经验 • 熟悉大数据技术生态圈,对大数据基础架构和平台有深刻理解,对基于Hadoop的大数据体系有深入认识,具备相关产品(Hadoop、Hive、HBase、Spark、Flink、 Flume、Kafka、ES等)项目应用研发和管理、优化经验 • 掌握大数据各环境软、硬件、组件配置 • 具备linux操作系统经验 • 掌握scala/java/python/sql/shell 等一种或多种语言 • 有MA(Marketing Automation)相关项目开发经验优先 • 有前后端web开发经验优先 • 具有敏捷项目开发经验者优先 • 具备优秀的团队意识和良好的沟通能力,学习能力和主动性强,具有钻研精神,充满激情,乐于接受挑战
  • 25k-30k 经验3-5年 / 本科
    金融 / 上市公司 / 2000人以上
    工作职责 ​1.负责大数据平台的功能组件开发 2.对接产品经理,落地实现相关的数据加工作业,并对作业质量负责 3.架构、维护、调优数据中台,不断提升数据中台能力,满足业务的快速发展 4.治理整合多方、异构数据,合理实现数据中台的数据分层、组织管理 5.对接AI算法团队,对数据挖掘、机器学习模型落地存储并满足应用场景 任职要求 1、本科以上学历,计算机相关专业,三年以上大数据项目开发实战经验; 2、熟悉Linux系统,具备shell、python等脚本开发能力者优先; 3、熟悉HQL语言,熟悉Hadoop/Flink/Spark/Hive/HBase等大数据工具,参与过大型数据平台建设者优先; 4、有丰富的Java开发经验,熟练掌握Springboot开发框架,熟练进行Java代码编写,熟悉多线程编程; 5、了解微服务开发理念、实现技术,熟悉常见设计模式; 6、有Flink实时数据处理应用开发经验优先,熟练掌握实时计算引擎 Flink, 对hadoop生态其他组件有一定了解,比如 HBase, hadoop, Hive, Druid等; 7、精通SQL,熟悉常用的关系型数据库、非关系性数据库和数据仓库,具有SQL性能优化经验; 8、熟悉数据仓库理论,具备复杂业务需求梳理能力; 9、学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力,具备扎实的计算机理论基础, 对数据结构及算法有较强的功底。
  • 短视频 / 上市公司 / 2000人以上
    职位描述 1、建设全站的基础数据能力,提供丰富、稳定的短视频社区公共基础数据,探索更多数据能力的增量价值; 2、各类数据专题体系(如社交、内容生产/消费、直播等)的建设,通过数据+算法+产品,赋能业务,提供全链路、可分析、可复用的数据能力,提供更直观、更具分析指导性的产品化能力; 3、建设公司层面的核心数据资产,与业务场景深度结合,为社区服务提供数据服务化、数据业务化的数据&产品解决方案; 4、建设全站数据治理和管理体系,结合业务+元数据+技术,保障公司各个业务服务的数据质量和产出稳定。 任职要求 1、较为丰富的数据仓库及数据支持业务经验,期望通过对业务的深入理解,进行数据仓库、数据体系和数据价值的建设和优化; 2、有从事分布式数据存储与计算平台应用开发经验,熟悉Hive,Kafka,Spark,Storm,Hbase,Flink 等相关技术并有相关开发经验; 3、熟练掌握数据质量的保障规范和执行步骤,擅长系统性的解决问题; 4、3-5年及更长的经验均有不同岗位。
  • 11k-18k 经验1-3年 / 本科
    科技金融 / A轮 / 50-150人
    岗位职责: 1、使用NLP相关技术,针对金融领域文本数据进行结构化处理、文本分类等任务的开发工作; 2、针对MySQL、MongoDB等数据库读写和同步数据,并进行优化和持续维护; 3、研究NLP领域的算法并开发实现,如命名实体识别、情感分类等模型的训练及运维工作; 任职要求 1、计算机、数学或统计等相关专业本科及以上学历,1年以上文本处理与挖掘分析经验; 2、扎实的编程基础,熟悉正则表达式、精通python开发优先; 3、熟悉MySQL、MongoDB等数据库引擎的操作和使用; 4、熟悉深度学习及机器学习的框架与算法(至少熟悉TF和PyTorch中的一种),具有自然语言处理相关经验者优先; 5、善于研究和学习,善于团队协作,能积极主动地参与公司产品研发等相关工作。
  • 18k-25k·14薪 经验5-10年 / 本科
    旅游|出行,科技金融 / 不需要融资 / 500-2000人
    岗位职责: 1、负责数据仓库模型脚本开发、优化、维护; 2、负责数据仓库的管理工作,包括元数据管理、指标体系、数据质量分析等; 3、负责数据需求报表开发; 4、负责数据仓库数据回流推送; 5、日常业务的提数支持; 6、负责大数据平台作业的稳定、及时解决报错作业问题。 任职要求: 1、5年以上数据仓库开发工作经验,需具备实时开发实战经验,有金融模型开发经验优先; 2、熟悉主流数据库的sql语法及相关调优方法,如hive、mysql、oracle、sqlserver等; 3、熟悉数据仓库各类模型建模理论,了解数据仓库数据分层架构、维度模型设计等; 4、熟悉使用BI工具的使用最少一种,如fineBI、tableau、biee、cognos、qlikview等; 5、掌握hadoop大数据平台生态圈组件(flink、kafka、spark、doris、clickhouse等);具备实时数仓0-1建设经验优先; 6、学习能力强,能够快速接受学习新兴技术;充满激情、对金融平台业务感兴趣,团队意识强; 7、能承受一定的工作压力;独立、负责、团队沟通协作,技术意识。
  • 15k-17k 经验3-5年 / 本科
    软件服务|咨询 / 上市公司 / 2000人以上
    技能要求: 1、熟悉常用数据库,熟悉Oracle、Mysq、hivel等数据库的设计和开发; 2、熟悉Hadoop平台,熟悉hive、,mapreduce、hbase、impala、Kafka、spark等大数据组件中的一种或多种,有hive、spark调优经验优先; 3、具备大型数据仓库架构设计、模型设计、ETL设计的相关经验; 4、熟悉一种或多种脚本语言,有良好的代码编写习惯,熟悉使用git等代码管理工具; 5、三年及以上工作经验,在金融、互联网行业从事过开发、运维、数据等工作,专科及以上计算机相关学历。 工作职责: 1、指标开发与运维; 2、数据ETL任务实施与运维; 3、运维监控程序设计与开发
  • 25k-40k·14薪 经验3-5年 / 本科
    软件服务|咨询,科技金融 / 不需要融资 / 500-2000人
    岗位职责: 1、负责数据应用的开发和维护; 2、负责日常数据需求的开发和维护; 3、负责数据建模和数据分析等工作。 任职要求: 1、本科以上学历,3年以上大数据开发经验,有金融项目经验优先; 2、熟练掌握java和python开发语言; 3、熟悉Hadoop、Mapreduce、Hive、Hbase、Yarn、Flink等技术等并有一定的开发经验; 4、熟悉ETL工具airflow、kettle、Sqoop等; 5、较强的责任心和沟通能力。
  • 10k-20k·13薪 经验不限 / 本科
    物联网 / B轮 / 50-150人
    岗位职责: 1. 收集、完善和维护公司产品业务数据,及时感知数据反映的问题; 2. 监测行业数据,发现业务增长点和创新点,并输出高质量的洞察和判断。 任职要求: 1. 计算机科学与技术或相关专业,本科及以上学历,深入理解计算机原理,具备扎实的数据结构和算法基础; 2. 熟练掌握 Python 编程语言,并熟悉数据工具库如 Numpy、Pandas、matplotlib 等; 3. 熟练使用 PostgreSQL、MySQL 等数据库; 4. 掌握常用的数据可视化方法和工具,熟悉常用机器学习模型和算法框架; 5. 具备 Linux 系统基本操作技能,能够熟练使用 Shell 脚本; 6. 具备良好的沟通能力和团队合作精神; 7. 具备优秀的快速学习和自我激励能力。 加分项: 热爱开源,有自己的开源项目或为开源项目做过贡献;
  • 28k-35k 经验3-5年 / 本科
    数据服务,人工智能 / 天使轮 / 15-50人
    *此岗位为全英文工作岗位 We are looking for a mid-senior data engineer who is experienced with data platform architect design and implementation MLOps Responsibilities • Design and Implement model training and delivery pipeline for our data scientists; • Participate in the design and development of our big data platform; • Conduct research on state-of-the-art technologies to solve business problems; • Apply big data analytic technologies to implement cloud-native analytic algorithms for structured data; • Work with developers and application analysts within the team to deliver results in an easy-to-understand format. Job Requirements • Bachelor's degree or above in Computer Science, Data Engineering, or a similar field; • Fluent in English (this is essential, Chinese is not required); • 3-5 years of work experience in a data engineering or related role; • Have experience in leading successful MLOps projects; • Experience in big data technologies and architecture; • Hands-on skills in Python, and Spark and familiar with sci-kit-learn, spark-ml; • Able to work independently coupled with strong interpersonal skills; • Experience in cloud-native applications and AWS environment will be an advantage; • Experience in applying AI and big data in a production environment will be an advantage. What’s in it for you • Great office location in Shanghai • Working within an international team that truly values your contribution • Growing company full of opportunities & awarded by Google, McKinsey, and Rocket Internet for best B2B startup in Europe • An awesome culture of responsibility and the freedom to turn your ambition into reality - regardless of your role and level • Exciting work atmosphere with no shortage of snacks, drinks, birthday treats, and social events • Monthly team events and weekly Friday company catch-ups and drinks • A hybrid working policy with a combination of working from home and working on-site About us Dashmote is a start-up focusing on the next generation of data products powered by AI technology, with offices in Amsterdam (HQ) and Shanghai. We connect the offline and online worlds by decoding the digital footprint of locations, allowing our enterprise clients to understand the market and make smarter decisions. With about 40 employees, Dashmote has ambitious plans for the upcoming years and therefore we need to make sure that we have the right people in place to put such plans into practice. Do you want to boost your career by contributing to Dashmote’s core product, used by some of the biggest Fortune 500 companies? Then we're looking for you.