-
岗位职责: 1. 大数据平台组件运维及优化,进行必要的二次开发; 2. 数据湖、数据仓库技术研究及落地; 3. 实时、离线数据产品设计及开发。 任职要求: 1. 本科及以上学历,计算机及相关专业; 2. 3-5年Java/Scala开发经验,熟悉多线程编程; 3. 熟悉大数据生态相关技术,有二次开发经验者优先; 4. 熟悉实时及离线数仓架构及开发流程,有Phoenix/StarRocks使用经验优先; 5. 熟悉常见设计模式,熟悉如Spring/SpringMVC/Mybatis等主流框架; 6. 有较强的学习能力与逻辑思维能力,良好的团队合作精神。
-
职位职责: 1、负责即时零售业务的离线与实时数据仓库的构建; 2、负责数据模型的设计,ETL实施,ETL性能优化,ETL数据监控以及相关技术问题的解决; 3、负责指标体系建设与维护; 4、深入业务,理解并合理抽象业务需求,发挥数据价值,与业务团队紧密合作; 5、参与大数据应用规划,为数据产品、挖掘团队提供应用指导; 6、参与数据治理工作,提升数据易用性及数据质量。 职位要求: 1、熟悉数据仓库实施方法论、深入了解数据仓库体系,并支撑过实际业务场景; 2、熟练使用Hadoop及Hive,熟悉SQL、Java、Python等编程语言; 3、善于沟通,对业务敏感,能快速理解业务背景,具备优秀的技术与业务结合能力。
-
职位职责: 团队介绍:集团信息系统部(Corporate Information System)负责字节跳动信息系统建设。通过构建领先的信息系统,助力公司业务和组织的长期高效经营与发展。与此同时,在安全、隐私、合规层面持续治理,为公司的稳健发展保驾护航。字节跳动的员工分布在全球超过120个城市,业务模式复杂,用户规模大。到现在,集团信息系统部已经覆盖人事、财务、法务、采购、审批、职场等多个领域,隐私安全工作同步开展,AIGC创新孵化也在逐步落地实现。 1、负责公司统一数据引擎大数据方向的架构设计和技术研发工作; 2、负责设计安全高效的大数据架构,推动数仓、BI团队搭建高效的数据流程与服务栈; 3、深入了解字节跳动各业务线的数据业务,发现并总结数据研发、数据质量、数据安全等方面数据问题,合理抽象方案,推动相关业务实施落地。 职位要求: 1、计算机基础知识扎实,具备良好的工程和算法能力; 2、有大数据体系工作经验,对数仓或BI体系的建设流程和分工有清晰的认识; 3、熟悉大数据相关工具/框架经验者优先,如Hadoop、Hive、Spark、Kafka、Flink、Clickhouse等; 4、有分布式、高性能系统研发经验者优先;对系统稳定性建设有实践经验者优先;熟悉多种存储系统者优先; 5、对技术有热情,具备良好的问题分析和解决能力,喜欢思考问题深层次的原因,并善于归纳和总结。
-
【工作内容】 1.跨团队沟通内部需求,与之建立并维护良好的内部工作关系; 2.筛选符合部门需求的简历,和目标候选人沟通,初步电话面试; 3.安排候选人面试,跟进面试流程;配合社招流程调度及面试安排; 4.负责周报及月报的制作,部分招聘数据的分析,为提升招聘效率提供有依据的优化方案。 【工作要求】 1.大学本科及以上在校生,人力资源管理相关专业优先; 2.工作细致,责任心强,具有优秀的沟通能力、抗压能力和数据分析能力; 3.热爱互联网,对互联网行业有一定的了解和自己的想法,有互联网企业招聘HR实习经验的优先。 【工作时间】 现场实习3个月以上,每周保证3天以上的实习时间。 【待遇】 本科薪资:130-180RMB/天 研究生薪资:160-200RMB/天 【岗位亮点】 国际化的视野和平台,与曾生活在美/英/澳/德/法的多元化团队协同工作,多维度的工作视角和一线经验积累; 人性化的办公环境,咖啡厅、室内草坪、健身房、浴室......应有尽有;关注生活:双休周周羽毛球 /宠物日等类型的活动.....
-
岗位职责: 1.协助国际租车部门销售数据统计及渠道销售价格追踪、问题反馈。 2.协助开发新的全球战略合作伙伴,并与MKT部门、BD部门及Ops部门日常联动、沟通及串联,从而协助推进项目开展及落地。 3.协助管理全球核心合作商户的销售运营,并与MKT部门、BD部门及Ops部门日常联动、沟通及串联,从而协助推进项目开展及落地。 4.协助部门对市场竞争力调研要求,按要求做好市场洞悉及报告反馈。 任职要求: 1.热爱旅游,对未知有探索的精神,不拘泥于现状,勇于发现问题及提出意见。 2.大三大四、研二研三同学优秀在读生,到岗至少4天/周,实习期至少3个月或以上。 3.英语CET-6或以上,已考取IELTS/TOEFL/BEC等语言类证书优先,工作语言为英文和中文。 4.有电商产品运营或旅游相关实习经验优先。 5.性格外向,有很强的中英文沟通能力。 6.有一定的数据分析能力,熟悉excel的数据模型搭建,并有基本的PPT制作能力。 工作时间 现场实习3个月以上,每周保证4天以上的实习时间。
-
1.学历与专业:计算机、工程管理、工商管理、市场营销等相关专业本科在读(大三/大四优先)或应届生,对招投标领域有兴趣,愿意从基础工作积累经验。 2.办公技能:掌握基础Office软件操作(Word/Excel/PPT),能完成文档排版、简单数据统计(如Excel表格整理);具备快速学习新工具(如图文编辑、资料归档系统)的意愿。 3.供应商资料协助收集:在导师指导下,协助联系供应商(电话/邮件),获取产品基础资料(如资质文件、技术参数摘要)、初步报价单;按类别整理资料(如按产品类型、供应商名称归档),建立简易资料台账。 4.需求记录与传递辅助:协助对接客户或直属领导,记录招标项目基础需求(如项目名称、截止时间、核心参数关键词),整理成清晰的需求清单;同步传递给内部团队,跟进简单反馈记录。 5.招投标流程节点跟进:学习主流招投标规则(如公开招标、竞争性谈判基本流程),协助跟踪项目关键节点(如报名时间、保证金缴纳提醒、开标时间),更新项目进度表。 6.标书制作辅助工作:协助整理标书基础材料(如公司资质复印件、过往业绩案例摘要、报价明细核对);按模板排版标书章节(如目录、页码、格式统一),校对文字错漏(如公司名称、数字准确性);配合导师完成标书封装前的材料清点。 7.细致耐心与责任心:对数据、文字敏感,能专注处理重复性基础工作(如资料去重、表格核对),确保零低级错误;主动记录工作疑问,及时向导师确认。 8.学习与沟通意愿:积极学习招投标基础知识(如《招标投标法》基础条款、标书编制逻辑),主动请教工作流程;具备基础沟通能力,能礼貌对接供应商或内部同事。 9.培养方向:通过3-6个月实习,掌握招投标全流程基础操作、标书编制规范、供应商对接技巧,为转正或未来从事商务/采购岗位铺垫。 10.有校园活动策划、社团物资采购、简单文档整理等实践经验; 11.学习过《商务沟通》《项目管理》等相关课程,或参与过招投标模拟项目; 12.每周能保证4天以上实习时间,实习期不低于3个月。
-
迷岛是创新的兴趣社区建站方案,具备零门槛入手、功能最全、前置成本最低、定制程度高、留存效率最高等多种优势,是“一人公司”、中小组织搭建和运营垂直社区的最佳范式。我们正在让这种创新范式流行起来。 工作内容: - 参与市场调研和竞品分析,协助PR和营销工作 - 协助筛选和触达KOL以及关键客群 任职要求: - 26届/27届本科或以上同学,每周出勤≥4天/≥3个月 - 逻辑分析能力好,善于拆解和归纳 - 有良好沟通能力和文案基础 - 对市场营销具有一定认知 我们提供: - 高价值的实习工作经历 - 实习期有奖金,上不设限 - 有转正机会 [特别说明]请在发消息时扣个“1”,标识真人真实意愿,我会优先沟通。招聘平台各种道具和AI,对双方都是在消息里大海捞针,比较浪费时间。
-
岗位职责: 1.根据需求进行功能及程序设计,功能优化 2.使用cocos2dx-lua引擎开发手机游戏 3.负责客户端核心游戏模块的开发和维护 4.针对游戏特效进行优化 岗位要求: 1、熟练使用cocos2dx-lua 2、具有1-3年以上移动端(android/ios)游戏开发经验 3、精通lua语言并有良好的C/C++基础 4、有独立作品或独立项目的优先 5、熟练掌握数据结构相关知识,熟悉并掌握游戏设计常用的设计模式 6、有机型适配、UI布局优化、性能优化等经验者优先 7、对休闲游戏游戏有深入理解者优先
-
职责描述: 1、负责公司大数据平台的运维保障工作,保障平台的正常运行和相应数据服务的稳定高效; 2、对接数据开发侧团队,主动优化和完善服务巡检、监控工具、脚本等,减少人工操作提高运维效率;负责数据平台的故障处置、推动性能优化。如平台产品技术问题,提交给平台产品技术组进行后台处理,并及时反馈. 3、负责数据平台二线运维支撑保障,响应运维/服务台一线请求:处置生产事件,跟踪问题处理; 4、定期组织团队人员开展大数据平台的技术知识积累和移交; 5、负责设计日常运维相关的自动化工具或系统,并完成相应需求收集和需求管理 ; 任职要求: 1. 具有1年以上金融行业数据类项目运维经验,熟悉保险业务操作与管理。具有大数据平台相关技术进行数据仓库、数据中台开发、维护、优化等项目经验的人员,或长期在类似的运维项目上承担运维工作优先; 2. 具备较强的数据开发分析能力,熟练掌握SQL等技能,熟练掌握大数据平台、UNIX、LUNIX和中间件的技能。有java或Python开发基础优先; 3. 具备较强的数据分析,问题分析,逻辑思维能力,团队协作能力,有良好的沟通能力和责任感,能够承担工作压力,独立分析和解决问题者优先; 4. 强烈的自驱力和责任感,面对复杂业务问题,可以从业务和技术多角度推进,最终达成目标。
-
【岗位职责】 1、负责基于hive、spark、flink技术的大数据平台需求分析、设计及开发工作; 2、负责基于datax、HQL、传统ETL 或基于spark、flink的大数据平台数据抽取、清洗、转换、加工等入仓的开发,优化大数据平台跑批作业; 3、负责使用Dolphinscheduler(海豚调度)批量配置跑批调度任务及调度优化工作; 4、负责使用flink采集并加工kafka、binlog等数据源。 【岗位要求】 1、能熟练使用大数据基础组件,不限于hdfs/kudu、hive、impala、yarn、Tez/spark、flink、hbase、sqoop、flume、datax、elasticsearch、kafka等,熟悉相关架构和原理,有一定的组件性能调优能力; 2、有CDH/CDP平台使用经验,熟悉基于Cloudera Manager的平台使用管理; 3、具有airflow/azkaban/xxl-job/Dolphinscheduler等一种基几种调度工具的开发使用经验,有Dolphinscheduler使用经验优先; 4、具备海量数据采集、加工、分析处理、高并发查询等数据平台的开发设计能力,并有具体的构建海量数据存储、离线/实时数仓等项目实施经验; 5、具有金融行业大数据平台实施项目经验; 6、了解常见的大数据产品和技术路线,如:ClickHouse、Doris、GBase、Kylin、Linkis、Flink CDC、Hudi/Iceberg等更优; 7、学习能力强,适应能力好,有强烈的责任心,主动关注数据发现问题并提出解决方案,具备良好的沟通能力及团队合作精神。
-
岗位职责 1、通过不同的渠道资源邀约客户沟通,达成意向谈判 2、了解海外批发市场,能结合产品开发新客户,稳定维护老客户 3、熟悉产品供应链的基本情况,对产业分布有一定的基本了解 岗位要求 1、本科及以上学历(接受24届应届毕业生),英语口语流利,能克服不同口音进行交流 2、具备良好的沟通、抗压、应变能力 3、具备1年外贸销售工作经验者优先考虑
-
岗位描述: 1.负责大数据平台调度作业的日常监控、维护及协助优化; 2.负责建立大数据开发规范并持续完善,能够对技术风险、技术交付质量进行管控; 3.负责常规需求中底层数据开发及数据服务封装开发; 4.深入理解数据平台架构,发现并协助解决性能屏障; 5.新技术研究和应用,并推动适合的技术应用于生产。 任职要求: 1.本科及以上学历,计算机及软件工程相关专业; 2.2年以上大数据系统开发或运维经验,熟悉hadoop生态圈、CDH大数据平台; 3.熟悉数据规范流程及数据维度模型,精通sql、shell,了解spark、python、scala、flink; 4.具有较强的计算机网络、系统运维专业基础,熟悉掌握常用linux命令; 5.有体系化大数据平台运维工作经验优先考虑。
-
岗位职责: 1.承担建设基于Hadoop/Spark生态的大数据离线/实时处理平台; 2.参与业务数据.生产日志的抽取.转储.检索等相关工作; 3.跟进大数据前沿技术的发展,将合适的技术方案适时引入业务场景。 任职要求: 1.3年以上计算机.统计.数学等相关本科或以上学历; 2.掌握Hadoop.HBae.Hive.Kafka.Flume.Spark等大数据技术; 3.掌握数据挖掘,python,机器学习经验者优先; 4.有较强的学习能力,勤奋踏实,责任心强,有较强的沟通协调能力,有一定创新能力;
-
岗位职责: 1.负责ETL相关开发工作,深度参与数据仓库的建设与优化,保障数据存储的高效性与稳定性,支撑公司战略级数据项目的落地。 2.主导复杂数据处理流程的开发与优化,基于 Python 编写高性能的数据处理脚本,结合 spark、pandas、duckdb等进行大规模数据清洗、转换与分析,实现数据挖掘与机器学习模型开发,推动数据价值的深度挖掘。 3.设计和维护基于 Airflow 的工作流调度系统,实现数据处理任务的自动化调度与监控,确保数据处理任务按时、准确执行,提升数据开发与运维效率。 4.与业务部门紧密协作,深入理解业务需求,将业务逻辑转化为数据解决方案,通过数据驱动业务决策,助力业务增长。 5.研究大数据领域的前沿技术,持续优化数据开发技术栈与流程。 任职资格: 1.具备 3 年及以上大数据开发相关工作经验,拥有丰富的大数据项目实战经验,能够独立承担复杂数据开发任务。 2.熟练掌握 Python 编程,具备基于 Python 的大数据开发工作经验,能够运用 Python 进行高效的数据处理与算法实现。 3.熟悉数仓建设方法论 1)熟悉etl分层建设方法 2)熟悉主题建设方法,能独立抽象主题,建设主题,并且物理化和性能调优 3)熟悉常用的BI系统建设方法,理解实现原理,理解各个工具使用场景 4.精通大数据开发相关技术栈,包括但不限于 Hadoop、Spark、Hive 等,能够熟练运用这些技术进行数据处理与分析。 5.熟练掌握 Airflow,能够基于 Airflow 进行工作流设计、调度与监控;熟练使用相关技术进行数据处理与分析并能够运用其实现常见的数据挖掘与机器学习算法。 6.熟练掌握sql和调优。 7.熟练掌握python。 加分项 1.具备统计学、数学建模等相关知识,能够运用统计方法进行数据分析与模型构建。 2.有分布式系统开发、数据可视化开发经验者优先。 薪资待遇 ****,我们提供具有竞争力的薪酬体系与广阔的职业发展空间,期待优秀的你加入!
-
1、分析业务对整车数据埋点采集、边缘智能车控算法的需求场景,负责整车数据埋点采集组件、边缘计算平台及智能算法的功能设计开发及优化 2、负责车载边缘端软件(边缘数据库、边缘计算引擎等)的数据接入、端云协同交互等扩展功能的方案设计、开发及测试 3、负责产品系统方案设计、技术选型及关键模块的验证 4、负责车载边缘端软件的自动化测试开发 5、跟踪整车埋点数据采集、边缘计算引擎等技术发展趋势,推动技术落地应用 1.工作经验:5年以上C++开发经验,有智能网联汽车埋点相关经验优先 2.其他: ①、熟悉常用数据结构、算法,具备Linux系统编程经验 ②、熟练掌握多线程、网络通讯协议(如TCP/IP、CAN、MQTT等)的基础实现 ③、熟悉Boost开发框架,能够熟练使用makefile、cmake、gdb等工具链 ④、工作认真、负责、仔细,有良好的团队合作精神,良好的分析及沟通能力


