-
大数据开发工程师(浏览器 岗位职责: 1、制定数据仓库设计与开发规范,推动落地; 2、设计并实现链上全域业务(地址信息,defi业务信息,标签)的数据仓库模型; 3、重点建设链上标签体系和特征工程; 4、数据治理相关的规划和建设,提高数仓数据质量; 5、与合作部门共同建设实时数仓和落地应用; 6、日常告警监控运维。 任职要求: 1、大学本科及以上学历,计算机、软件、信息等相关专业; 2、相对丰富的数据开发或数据仓库经验; 3、精通Hive Sql; 4、熟悉数据仓库建模、ETL过程、ETL和BI工具、技术和开发流程,一定的调优经验; 5、熟悉常用的shell命令,掌握java语言,能够开发udf/udtf等简单程序者优先; 6、熟悉阿里云大数据产品MaxCompute、DataWorks、Flink等经验优先; 7、熟悉AWS大数据产品经验优先; 8,了解机器学习(决策树、随机森林、聚类、逻辑回归)者优先
-
职责: 负责数据仓库的设计、开发和优化,确保数据的准确性和时效性。 开发和维护数据处理流程,包括数据清洗、转换、集成和存储等。 与算法团队,产品团队,和业务团队紧密合作,共同开发商品画像,用户画像,以及特征平台。 搭建和优化数据可视化平台,帮助各部门更好地理解和利用数据。 跟踪最新的数据技术发展动态,为公司数据基础设施的持续优化提供建议。 保障数据安全和合规性,遵守相关法律法规和公司政策。 任职要求: 计算机科学、数据科学或相关专业本科及以上学历。 3年以上电商平台数据工程或类似岗位工作经验,有大数据处理尤其是商品画像用户画像特征平台相关经验者优先。 熟练掌握Python、Java、Scala等至少一种编程语言。 熟悉Hadoop、Spark、Hive、Kafka等大数据处理技术和工具。 熟练使用关系型数据库和NoSQL数据库,如MySQL、PostgreSQL、MongoDB等。 具备良好的数据敏感度和分析能力,能从数据中发现问题和机会。 良好的团队合作和沟通能力,能够适应跨部门协作和快速变化的工作环境。 加分项: 有旅行、电商或在线服务平台相关工作经验者优先。 有数据仓库或ETL项目实施经验者优先。 熟悉数据可视化工具如Tableau、Power BI等者优先。
-
职位职责: 1、负责网络基础业务的数据开发、数仓建模工作; 2、负责网络基础业务的数据分析、挖掘工作; 3、参与网络基础数据治理工作,提升数据易用性与数据质量; 4、理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作。 职位要求: 1、本科及以上学历,计算机、通信、统计、数学等相关专业; 2、熟悉 Hive/Spark/Flink 等分布式计算框架,熟悉大数据的离线和实时处理技术; 3、熟悉常用的数据建模理论,可独立把控数据仓库的各层级设计; 4、有丰富的数据开发经验,对数据处理、数据建模、数据治理等有深刻认识和实战经验; 5、具有优秀的逻辑思维能力、很强的数据分析和解决问题能力; 6、有数据中心网络业务背景者优先。
-
岗位职责 1、负责Finereport报表开发; 2、负责Finereport与外部系统的接口交互开发; 3、依据开发详细设计,负责数据仓库报表设计,报表设计代码开发; 4、负责帆软PC端、移动端报表产品的开发、调优、测试与上线、发版工作; 5、配合上级进行技术决策,进行技术风险评估,确保报表产品稳定性强、响应性能优秀、用户体验友好; 任职条件 1、计算机、电子信息学科相关专业,大学本科及以上学历;5年以上帆软报表开发经验; 2、精通Fine Report,FineBI产品设计,熟悉帆软报表产品的性能调优,有移动端报表开发经验和有FCRP证书者优先; 3、熟练运用ETL工具,了解各种ETL工具的优缺点,依据需求合理选择ETL工具; 4、具有报表平台以及服务器的运维技能; 5、熟练使用SqlServer,MySql等关系数据库,有SQL优化经验,会编写复杂的存储过程和自定义方法; 6、逻辑思维能力较强,具有良好的学习能力、团队协作能力和沟通能力; 7、能够积极创新,乐于面对挑战,负责敬业,具有高度的责任心及团队精神,执行力强; 8、有软件开发经验优先;
-
任职要求: 1、精通Unix/Linux操作系统下Java或Scala开发,有良好的编码习惯,有扎实的计算机理论基础; 2、熟练掌握大数据处理技术栈,有丰富的Hadoop/Spark/SparkStreaming/Storm/Flink的实际项目使用经验; 3、熟练掌握HDFS/HBase/Hive/S3等分布式大数据存储技术。 岗位职责: 1、4年以上大数据项目经验;具有实际的代码编写经验; 2、有电信大数据平台经验者优先; 3、热衷于追求技术完美与创新。
-
区块链数据开发工程师:接受2023届毕业生 岗位描述: 1、采集API接口数据入库; 2、数据解析、索引查询; 3、利用工具生成数据报表、图形看板与监控报警; 任职要求: 1、本科及以上学历,金融、数学、计算机应用或信息技术相关专业; 2、熟练使用java、pathon、php语言其中之一; 3、对区块链行业有浓厚兴趣; 4、积极主动,拥有较强自驱力,学习能力强,逻辑能力强; 加分项: 1、有数据批量抓取、数据库建模经验者优先; 2、具备全栈开发经验优先,例如熟练使用Reactjs、HTML/CSS等; 3、英语的口语及写作能力达到熟练水平;
-
1. 计算机或相关专业,本科及以上学历; 2. 有良好的oracle的技术功底及良好的编程习惯和质量意识; 3. 熟悉tableau及MSTR等BI工具; 4. 掌握并熟悉运用PL/SQL编程工具; 5. 熟练掌握SQL语法和关系数据库开发、数据模型设计; 6. 两年及以上数据库开发经验,有资产管理、投行、金融证券行业的数据仓库开发经验优先; 7. 有良好的沟通能力和团队协作精神。
-
职位诱惑: 双休;五险一金;每月部门活动;年度旅游、体检 职位描述: 岗位职责: 1、参与数据分析相关项目设计、开发工作; 2、根据项目需要进行需求规划、产品设计功能; 3、编制软件技术文档。 任职资格: 1、计算机、数学或相关专业本科或以上学历; 2、掌握分析的理论知识与数据分析方法,并能灵活运用到实践工作中。 3、具有较强的文档撰写能力; 4、具有良好的职业道德和工作态度,良好的团队合作和协调能力; 5、具备数据处理编程基础,懂Oracle数据库、R语言、Python语言、大数据处理技术等优先。 实习生:毕业视为实习结束、考核合格后可转正,暂不接受短期实习。 附加信息: 工作时间:周末双休 上下班时间:09:00-18:30
-
技能要求: 数据处理,Spark,Hadoop,Flink,SQL,ElasticSearch 职责描述: 1. 负责基于Hadoop、spark、flink、ElasticSearch平台的离线/实时数据处理、数据计算、数据开发; 2. 负责数据中台建设开发、数据治理、分析、处理、编码、拉通等工作; 3. 负责数据中台的高可用性、高可扩展性、高并发的持续优化; 4. 负责基于现有数据中台的迭代优化工作; 5. 负责搜索引擎ElasticSearch数据加工及分词优化工作。 任职要求: 1、具备扎实的离散数据、数据结构、线性代数、概率论等基础知识; 2、有3年以上的Python、spark、ElasticSearch实际开发经验; 3、熟悉Python、scala进行spark代码开发工作; 4、精通SQL语句,对数据敏感,有较强的逻辑分析能力,对大数据处理和分析技术有丰富的经验和强烈热情; 5、有数据中台实际开发经验、较强的日常故障诊断和性能调优能力; 6、对基于Hadoop集群高并发、高可用、高可扩展性体系系统有一定的理解; 7、有DataWorks、MaxComputer实战经验者优先; 8、有Spark GraphX实战经验者优先; 9、有机器学习、数据分析等相关工作经验优先; 10、熟悉微服务技术架构、Docker技术的优先; 11、熟悉Kafka、Zookeeper、spark、Flink底层源码者优先; 12、性格开朗,善于交流,有良好的团队合作精神和协调沟通能力。
-
岗位职责: 1. 负责公司大数据服务应用平台建设,数据仓库建设; 2.负责公司AB平台的建设搭建,为算法提供数据支持; 3. 参与配合数据经理设计大数据服务应用,为应用场景建立合适的数据模型; 4. 对重大项目的数据架构分析和设计,提供端到端的解决方案。 岗位要求: 1.计算机等相关专业,3-5年大数据开发经验; 2.熟悉Hadoop集群的部署、优化和维护; 3.具有Linux系统环境下的开发经验,掌握Python、Java、Scala等开发语言; 4.精通离线和实时计算,熟悉常用大数据组件:Hive、Spark、Flink等; 5.熟悉常见的数据库:MySQL、PostgeSQL、MongoDb、Redis等; 6.了解常见的OLAP数据库,例如:clickhouse、doris等。
-
岗位职责: 1、针对顺丰海量信息分析,负责业务数据的清洗、加工、分析、挖掘及可视化开发; 2、和算法同事一起与各业务团队有效沟通,准确把握业务需求,进行数据开发支持; 3、依据不同业务的需求,构建业务模型,建立完善的指标监控体系,支撑业务运营需求。 任职要求: 1、计算机、数学、统计学等相关理工科专业背景,本科以上学历; 2、有两年以上数据开发工作经验,熟悉数据开发环境,具备较强的数据处理能力; 3、掌握Python/SQL/Scala中的一门语言,熟练使用Hadoop/Hive/Spark等大数据处理框架; 4、有较强的业务数据敏感性,具备良好的数据分析和系统性思维能力; 5、沟通协调能力和学习能力出色,具备钻研精神, 重视团队协作,务实,成长诉求高。
-
高级工程师至专家岗皆有需求 岗位职责 1.负责本地零售与仓配业务相关基础数据的建设,包括数据埋点的设置,数据仓库的建立和维护,报表的开发,业务系统的数据开发等; 2.负责保证数据的正确性和丰富性; 3.负责开发实时数据和离线数据,推动全链路的线上化和数字化。 任职要求 1、良好的SQL能力,从事过数据仓库开发和业务分析等相关工作; 2、熟悉互联网公司数据模型、数据标准,具备电商数据集市建设经验和数据治理经验; 3、认真负责,有较强的执行力,书面表达能力,积极而有效的沟通;良好的适应能力。
-
[工作描述]1. 开发数据生产系统2. 开发对接数据源的接口程序3. 负责数据的研究和加工处理4. 监控程序的运行状态,核对数据正确性,排查错误原因5. 数据文档的撰写与更新6. 维护与数据提供商的联络交流7. 负责公司内的数据库日常运维[必须条件]1. 毕业于211以上院校2. 熟练使用python,能够写超过300行规模的程序3. 能够对数据进行简单的研究4. 有责任心,认真细致,有职业精神,工作态度端正积极5. 熟悉unix命令,熟悉windows操作6. 熟练使用数据库
-
Essential: Strong data science/engineering interest and background Strong development experience in Scala, Hadoop, Spark, Java, Python Strong experience and understanding in big data processing systems or functional programming paradigm Has good development habits such as writing quality Technical Design documents, High level Conceptual Data Process designs for review by data analysts. Overall good general technical knowledge in Java or Hadoop platforms. Useful: Experience in JVM, data structure & algorithms Experience in graph computing or social network analysis Experience on Google Cloud Platform Essential Technical Skills: Scala, Spark/Java Development with Hadoop platform Essential Interpersonal Skills: Excellent communication skills English and Chinese, verbal and written Ability to navigate a complex organisation. Ability to be self-directed/motivated. Keen to learn new skills and approaches. Inquisitive nature. Excellent organisation skills and capability to manage multiple parallel activities. Strong problem solving and analytical skills Useful Skills/Knowledge: Elastic Search Hive/SparkSQL Ansible/Jenkins Shell Script/Python Google Cloud Platform
-
岗位职责: 1. 负责终端相关业务领域的机器学习、深度学习建模工作; 2. 负责推动相关模型在实际业务场景中的落地应用; 3. 根据业务场景的实际应用效果持续优化终端相关模型和算法; 4. 完成领导交办的其他工作任务。 任职要求 1. 大学本科及以上学历,计算机相关专业背景; 2. 3年以上大数据建模相关工作经验; 3. 有运营商、银行、大型互联网公司数据建模经验;有运营商DPI数据建模经验优先; 4. 精通大数据平台主流框架和算法; 5. 积极主动,具备团队意识,沟通能力强,具有高度责任心,能承受较大的工作压力。