-
职位职责: 1、负责抖音电商数据治理工作,包括不限于成本、质量、效率,提升数据易用性、安全性及稳定性; 2、深入理解数据业务,发现并总结数据研发、数据成本、数据质量、数据安全等方面数据问题,提炼数据治理方法论,推动数据治理方法实施; 3、孵化并持续迭代优化数据治理产品,以系统化、智能化能力高效支撑数据业务快速发展。 职位要求: 1、熟练使用SQL、Python、Java等工具进行大型数据分析及建模; 2、熟练使用Hadoop、Hive、Spark、Flink等组件进行大数据场景数据开发; 3、有较强的逻辑分析、沟通及工作推进能力,具备优秀的技术与业务结合能力; 4、对数据治理有一定的实践经验,有良好业务意识,对数据业务场景敏感,能够横向协同、跨团队整合资源,形成完整的方案解决业务/产品的问题; 5、有良好数据治理产品经验者、有实时数据研发经验者优先。
-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
工作职责: 1、充分理解业务需求及痛点,利用数据挖掘、数据分析、机器学习等技术挖掘业务价值,解决业务需求; 2、负责风控、定价等板块具体的数据挖掘项目,包括但不限于数据加工、数据分析、特征工程、构建模型等工作,并就对应项目阶段性成果进行汇报与分享,为业务发展提供支持; 3、参与构建用户全生命周期营销管理,构建以用户运营为核心的高质量的标签体系; 4、与业务团队构建良好的合作关系,积极沟通交流,推动合作项目成功。 任职资格: 1、3年以上数据分析/数据挖掘/机器学习等相关领域经验;**本科或以上学历;熟悉保险业务优先考虑; 2、熟练使用Python/Scala/Java中一门或多门语言;熟悉Spark/Hadoop/Hive等大数据处理技术,有阿里大数据生态Maxcompute、Dataworks、PAI项目经验的优先考虑;熟练使用Sql进行数据处理; 3、熟悉机器学习基本理论、数据分析常用方法论等相关理论知识,了解概率论与统计学基础; 4、有多类数据挖掘项目的实施落地经验,全链路打通并工程化部署,且能不断优化,进而产生业务效果; 5、自我驱动,能主动深入了解业务,适应业务变化;有良好的个人表达和组织沟通能力,推进项目开展。
-
工作职责: 1、对接企业管理、运营侧的用户数据需求,对数据需求进行分析归纳,输出需求文档 2、基于业务需求,配合业务完成业务流程及业务指标梳理,参与KPI指标设计,撰写需求文档PRD,协助数据团队完成相关数据报表、数据服务及BI看板的设计与开发; 3、有良好的用户需求分析把握能力,能够独立完成需求调研,捕获用户需求痛点,扩展需求,挖掘潜在需求 任职资格: 1、至少3年以上需求分析或产品设计经验 2、了解保险行业业务,具有保险行业数据中台、数据仓库、数据平台、数据应用、数据治理项目经验者优先 3、具备较强的需求分析、产品设计能力、文档撰写能力 4、有数据分析经验,数据敏感性高,熟悉SQL语言、有数据类项目经验优先; 5、候选人需具备较强的逻辑、沟通与组织能力和抗压能力,有项目协调/团队管理的经验优先
-
(此岗位需要在南京或者深圳办公) 岗位职责: 1.大数据新技术规划、调研、选型及推广落地。 2.负责大数据组件内核开发优化,推进组件容器化,进行组件二次开发与适配等工作。 3.日常负责大数据框架组件的性能优化,稳定性保障,异常监控及线上问题对接解决。 4.参与平台功能研发,提供业务系统化的解决方案。 任职标准: 1.至少6年以上相关经验,有扎实的计算机编程基础,精通java/scala,熟悉jvm的原理和调优。 2.精通spark/hive/flink组件原理和内核优化,有超大规模数据计算的架构设计和优化经验。 3.掌握大数据行业趋势,熟悉Kubernetes/Docker,有组件容器化相关经验。 4.具备较强的问题解决能力,能独立分析和攻坚复杂的技术难题。 5.有公有云使用经验者优先。 6.有良好的服务意识、沟通能力和团队协作精神。
-
公司介绍: 我们是一家专注于金融科技服务的创新公司,致力于通过技术手段推动金融行业的进步。我们拥有优秀的团队,注重员工发展和企业文化建设。 职位详情: 1. 职位职责: * 负责银行数据仓库的架构设计、开发和维护工作; * 负责数据平台的优化和改进,提高数据质量和性能; * 参与数据治理和数据安全相关的工作。 2. 任职要求: * 本科及以上学历,计算机、数学或相关专业; * 3-5年相关工作经验,有银行背景优先; * 熟练掌握数据结构和算法,熟悉至少一种主流数据库; * 具备出色的架构设计能力,能够独立完成复杂系统的设计; * 具备良好的沟通能力和团队协作精神; * 对数据敏感,具备较强的分析问题和解决问题的能力。 3. 福利待遇: * 五险一金,带薪年假,节日福利,定期团建活动; * 优秀的培训体系和职业发展机会; * 舒适的工作环境和便利的交通。 4. 工作地点:杭州市拱墅区(需要能接受远程面试) 5. 简历请发送至邮箱:****************(注意在邮件主题中注明应聘职位) 以上职位是我们正在招聘的数据开发工程师,希望有相关工作经验和符合我们要求的人才加入我们的团队。我们期待着你的加入,共同推动公司的技术进步。 公司文化:我们重视创新、协作和团队精神,鼓励员工持续学习和进步。我们的团队由一群热爱工作、充满激情的人组成,我们相信只有优秀的团队才能创造出卓越的成果。
-
开拓新客户,维户老客户、进行客户资料管理 配合处理销售过程中的相关问题,配合开展应收账款的管理,另时交办的事。公众号运营、广告图片策划。 大专及以上学历,接受过市场营销的培训,有较强的沟通能力,
-
技能要求: office,资料管理 工作职责: 1、负责公司金融数据库信息的采集; 2、负责对加工完成的数据进行自查和修正; 3、负责整理、收集各项金融数据、进行归类及深加工; 4、保证准确性、及时性及完整性,有问题及时向上级反馈。 任职要求: 1、大专及以上学历,金融类、经济类专业优先; 2、计算机操作熟练,有较强的学习能力; 3、对金融行业有浓厚兴趣,熟悉证券市场优先; 4、吃苦耐劳,有责任心,勤奋踏实; 5、实习通道全年打开,实习优秀者签订三方协议,毕业留用
-
工作职责: 1. 负责数据采集爬虫项目的开发维护、性能优化等, 2. 以架构思维,确保数据采集架构的扩展性、稳定性 3. 规划数据采集爬虫的技术路线,研究和破解相关平台的反爬措施,保证数据获取的速度和稳定性。 任职条件: 1. 熟练掌握各种爬虫技能,丰富的Java/Python数据采集开发经验,编程基础扎实; 2. 熟悉常见分布式系统架构和设计,熟悉分布式、缓存、消息等机制;能对分布式常用技术进行合理应用,解决问题; 3. 熟悉反爬机制,有安卓逆向 / ios逆向经验的优先
-
岗位职责: 1、负责数据采集系统架构和业务开发; 2、建立完整的数据采集、解析、入库和监控流程,并不断优化迭代完善; 3、解决常见的反爬虫问题,并建立相关的系统化策略; 4、深入理解系统数据处理流程以及业务功能需求; 5、保证数据的完整性和准确性; 6、对高难度的技术问题的探索和解决有着极强的自我驱动力。 任职资格: 1、掌握Frida、Xposed、APKTool、JADX、IDA等常用逆向工具; 2、熟悉常见的Web和APP反爬手段和策略; 3、熟练掌握Python、Javascript或Go网络编程; 4、熟悉至少一种关系型数据库(如mysql等); 5、计算机基础扎实,对数据结构、操作系统、计算机网络等技术技术有一定程度的掌握; 6、一年以上的数据采集开发经验,有丰富的Web及APP逆向工程经验;
-
岗位职责: 1、负责企业各类数据采集,进行多平台信息的采集和分析; 2、建立完整的数据获取、解析、入库和监控流程,优化系统瓶颈,不断迭代完善; 3、有验证码破解、反扒、分布式爬虫架构经验; 4、研究优化算法,提升爬虫系统的稳定性和可扩展性; 5、快速支撑业务所需数据落地; 岗位要求: 1、全日制本科以上学历,计算机或其他相关专业; 2、熟练掌握Python/Java语言,熟练掌握JS语言; 3、精通数据采集技术,熟悉HttpClient/jsoup/XPath/CSS/正则表达式/验证码加密处理/代理池等网页信息抽取技术,熟悉HTTP底层协议; 4、精通各种反爬技术,并能够通过多种应对策略(如代理池、模拟登录、验证码与滑块的处理、浏览器渲染等)来保证数据的持续交付; 5、熟悉网页数据采集原理及技术,熟悉基于Cookie的网站登录原理; 6、熟悉数据清洗、去重、入库等技术,具有数据挖掘、机器学习背景者优先; 7、良好的编码能力,工作认真细致踏实,逻辑思维缜密,善于分析,以解决技术难题为乐趣,具备良好的沟通交流能力;
-
岗位职责: 1. 数据采集与管理,调研并收集工业场景中可采集的数据源,制定数据采集目标、策略与规范;探索多模态数据(如图像、视频、文本、传感器数据)的获取与清洗方法; 2. 数据质量与标准化,根据业务需求,制定数据集设计标准和标注规范;建立数据质量评估体系,定期进行数据清洗与优化,提升数据价值; 3. 数据分析与应用支持,对采集到的数据进行特征分析和可视化展示,输出数据驱动的分析报告;与模型工程师紧密合作,明确数据需求,持续提供高质量、符合要求的数据集; 4. 前沿技术研究,跟踪数据工程领域前沿技术,探索自动化数据标注、数据增强等新方法;将新技术应用于工业场景,优化数据处理流程与效率。 所需知识/技能 1. 具备 2 年以上数据工程、数据处理或相关领域工作经验,熟悉工业场景数据者优先; 2. 了解多模态数据处理技术,如计算机视觉、自然语言处理、传感器数据分析等; 3. 优秀的沟通与团队协作能力,能够与算法工程师、产品经理等跨部门协作; 4. 具备较强的需求分析能力,能够根据业务需求设计高效的数据解决方案; 5. 自主学习能力强,对新技术有浓厚兴趣。
-
岗位职责 为大模型应用和智能化业务提供高质量数据集 1. 在安全领域包含内容认知、流媒体、智能审标、智能凭证等场景,参与建设高质量、多样性的数据,通过数据采集、AIGC生成等技术手段不断提高数据规模 2. 深入了解数据内容,分析数据的特征,持续优化数据低质过滤、去重和增强等能力,提升数据的质量 3. 制定严格的数据质量标准,对数据进行分析和分类,评估数据质量,解决数据主题分布、内容合规、反毒性、反偏见等问题 4. 构建Data-Centric AI数据闭环,探索在固定模型和评测情况下提高数据质量的路径,包括持续优化数据质量,复现大模型数据相关论文,研究数据和模型的Scaling Law、研究数据配比、数据混入策略与混入时机 5. 围绕更具体细分类数据(如内容检测、图像理解、视频理解等)构建相应大模型的数据-训练-评测链条,并针对细分类数据建立质量评估与优化体系,促进细分类数据质量提升。 岗位要求 1. 本科学历及以上,3年及以上工作经验,人工智能、机器学习、模式识别、统计学相关专业优先 2. 较为丰富的大数据研发经验,有PB级别数据处理经验;熟悉Spark/ODPS/Ray等大数据分布式平台 3. 熟悉数据挖掘、人工智能、多模态领域的相关研究工作和实践经验,拥有发表顶会论文、大模型研究工作、知名竞赛获奖、研究机构或一线互联网工作经验者优先 4. 熟练使用Python、Pytorch和CUDA等语言及工具,具备快速阅读和复现论文的能力,能够系统性对比研究领域的相关成果,并制定改进计划 5. 具备优秀的数据分析和解决问题能力,良好的团队合作精神及沟通意识 6. 具备良好的学习能力和主动性,能够跟进领域内最新技术研究成果,并结合应用场景快速实验和调优
-
岗位职责: 1. 负责爬虫产品的开发与维护; 2. 参与爬虫系统架构的设计和开发; 3. 优化爬虫系统代码、算法,提高爬虫系统的稳定性和扩展性; 4. 研究网站的反爬策略,并给出反爬措施; 5. 对抓取的数据进行清洗、预处理、入库,包括去除重复数据、处理缺失值、规范化数据格式等; 6. 维护爬虫项目代码仓库; 测试网站: 1.http://cx.cnca.cn/CertECloud/resultSn/skipResultSnFull?currentPosition=%E9%A3%9F%E5%93%81%E5%86%9C%E4%BA%A7%E5%93%81%E8%AE%A4%E8%AF%81 2.https://www.nmpa.gov.cn/datasearch/home-index.html?3jfdxVGGVXFo=*************#category=yp 岗位要求: 1. 要求至少2-3年工作经验,千万级数据采集经验 2. 熟练使用 Pyhton,熟练使用常用的爬虫框架( 比如 scrapy 等 ),了解反爬套路及破解方法 3. 熟悉 web 前端技术,对 cookie 管理、登录等流程有深入理解,熟练使用 bs4、xpath 等文本解析工具 4. 熟悉各种网络协议,熟悉 web 前端,熟悉 js、html 等 5. 熟悉 Linux 开发环境,熟悉 git 工具 6. 熟悉 Oracle、Mysql 数据库,对 Mongodb、Redis 有一定的使用经验 7. 有了解过瑞数,有验证码破解经验者优先
-
岗位职责: 1.对各产品线的数据收集、集成、传输、清洗、数据加工和落地数仓; 2.高效支撑数据任务开发,赋能数据能力,保障数据质量; 3.参与数据仓库模型的设计,为上层应用提供优质的数据;参与数据项目的开发。 任职要求: 1.熟悉hadoop、hdfs、hive、hbase,clickhouse,flink等开源工具的架构; 2.了解数据仓库建设理论与方法、具备丰富的实践经验;精通SQL;熟悉python或者java编程语言其中一个 3.熟悉flink的运行原理和特性,有实时开发的经验 3.具有大数据平台、数据仓库相关领域项目开发实施经验,熟悉但不限于数据采集/数据处理/数据分析/报表开发; 4.了解大数据产品datawork特性和原理; 5.对数据敏感,有较强的逻辑分析能力,良好的团队协作,乐于沟通交流和分享。