-
岗位说明: 1. 针对重点行业(能源电力、大型装备、金属冶炼、半导体、精密电子等行业)的智能制造与数智化升级,利用设备和生产数据,灵活运用数据分析相关技术解决客户实际业务问题; 2. 基于公司的数据平台产品,开展如下工作:数据预处理、特征工程、数据分析模型的开发、测试和部署、并支持相关数据分析应用的开发和落地。 岗位要求: 1. 精通统计分析、时序数据和关系数据处理,了解常用数据挖掘/机器学习等算法,有将数据算法实际应用于设备健康、故障诊断、质量追溯、工艺优化等实际项目的经验。 2. 精通数据分析语言Python及常用的算法包的使用(如numpy, pandas, scipy, sklearn, tsfresh, matplotlib, seaborn, pyecharts, plotly等),有实际项目代码开发经验。 3. 工业专业教育背景或工作经验,具有电力、电子、能源动力、半导体、化工或自动化等专业背景 4. 有良好的业务理解和团队合作能力;有项目管理或技术管理经验者优先(高级)。 5. 有较强的新领域知识学习能力、文档写作能力、客户沟通能力;能快速搜索、阅读中英文文献者(高级)。 6. 具有工业软件开发背景者优先:例如自动化行业软件开发者(例如SCADA、MES、EAM、PLM、MPC等),或具有工业机理模型开发经验者(例如基于Matlab/Simulink、ANSYS等仿真模型),或熟悉精益生产管理、六西格玛流程和工具者。 7. 了解精益生产、六西格玛等概念,或熟悉工业流程、工业通信协议,SCADA/MES/PLM等工业软件者优先。
-
岗位职责: 1.负责数据要素平台等系统的架构设计工作; 2.参与产品的需求分析,负责软件需求确认、软件需求分解、软件开发工作量评估和风险识别; 3.负责解决开发过程中的核心技术问题; 4.负责软件架构研究,跟踪技术动态,开展技术预研,主导技术选型工作; 5.负责完成领导交办的其他工作任务。 任职要求: 1.中共党员优先,***本科及以上学历,211及以上高校毕业优先,计算机软件等相关专业,5年以上系统架构师工作经验,有数据交易平台架构设计经验者优先; 2.精通Java常用框架及原理,熟悉常用中间件,掌握分布式系统的设计原理及常用的算法,具备分布式架构实践经验; 3.熟练掌握容器、K8s相关技术,有云原生相关项目经验、参与过开源社区者优先; 4.熟悉大数据平台架构者优先; 5.有隐私计算、多方安全计算等相关经验者优先; 6.特别优秀者可适当放宽条件
-
岗位职责 1.数据分析与挖掘: - 负责门票业务数据的采集、清洗、整理和分析,挖掘数据价值,为业务决策提供支持。 - 通过数据分析发现业务问题和机会,提出优化建议和解决方案。 2.数据可视化与报表开发: - 根据业务需求,搭建数据可视化报表与监控体系,支持各部门日常数据需求。 - 使用BI工具(如Tableau、Power BI、FineBI等)制作可视化分析报告,优化报表交互体验。 3.数据支持与监控: - 监控核心业务指标,及时发现异常并进行原因分析,提出改善方案。 - 设计并维护数据报表,确保数据准确性、时效性和完整性。 4.跨部门协作: - 与产品、运营、技术等团队紧密合作,推动数据驱动的业务优化。 - 参与数据平台需求分析和设计,协助数据工程团队优化数据模型和流程。 任职要求 1.专业背景: - 本科及以上学历,统计学、计算机科学、数学、信息管理、数据分析等相关专业优先。 2.技术能力: - 熟练掌握SQL,能够高效完成数据查询、处理、分析和优化。 - 了解至少一种BI工具(如Tableau、Power BI、FineBI等)的使用,能够独立开发报表和仪表盘。 - 具备一定的数据分析基础,熟悉常见的数据分析方法(如A/B测试、回归分析等)。 - 熟悉Excel、Python或R等数据处理工具者优先。 3.工作经验: - 具备1-3年互联网行业BI分析相关经验者优先。 - 了解互联网业务逻辑(如电商、用户增长、流量分析等),有数据驱动决策的实战经验者优先。 4.通用能力: - 具备良好的逻辑思维能力,能够通过数据发现问题并解决问题。 - 具有良好的沟通能力和团队协作能力,能够与跨部门成员高效协作。 - 具备强烈的责任心和自我驱动力,能够适应快节奏的互联网行业环境。
-
岗位职责: 工厂 TPMS 及智能平合规划与设计 ADS 提取资料,DW/DM清洗及建模与看板开发:数据以Grafana 做视觉呈现,数据探勘等算法撰写具有 IOT 嵌入式编程更佳 岗位要求: 1.大专及以上,计算机,电子相关专业即可 2.1 年以上 IoT 设备开发及 Data Engineer 之经验,或曾有过可视化开发经验 程序语言及工具要求: 1.kafka ,kettle 以及flink 或其他类似 tool 2.SQL Node.js and TypeScript 3.Python&grafana
-
工作职责 1、负责多模态大语言模型的研发与优化,包括模型架构、训练方法和调优策略等,方向包括但不限于文本和结构化数据理解、图文/视频理解等; 2、与业务部门合作,为各个业务场景定制大语言模型训练和部署方案,提升业务效果; 3、负责大模型平台级产品的技术性和业务性方向规划,推动前沿技术的应用,提升产品竞争力; 4、关注前沿技术,跟进业内最新研究进展和应用趋势,提出创新思路和方向。 任职资格 1、硕士研究生及以上学历,计算机科学、人工智能、数据科学或相关理工科专业; 2、具备数据挖掘、NLP、知识图谱、Graph相关算法原理知识背景,有多模态和大模型结合经验者优先; 3、拥有3年以上工作经验,具有丰富的大模型研发和人工智能项目落地经验; 4、熟练掌握Python进行编程开发,熟练掌握并使用torch,tensorflow,paddlepaddle等至少一种深度学习框架。 市政府牵头,联合国内t0p大学研究院成立,致力于推动全市在人工智能领域的基础研究,技术研发、成果转化、人才培养和产业孵化。
-
我们正在寻找一位有经验的数据算法工程师,加入我们的团队,负责开发和维护数据算法模型,为公司提供数据支持和业务决策。 主要职责: -设计和实现数据算法模型,使用机器学习和统计学习技术进行数据分析和预测 -开发和优化数据算法模型,以提高准确性和效率 -与业务团队沟通,理解他们的需求并为他们提供数据支持 -部署和维护数据算法模型,确保其可扩展性和可靠性 -跟踪行业趋势和技术发展,持续优化和更新数据算法模型 职位要求: -研究生学历,计算机、数学、统计学等相关专业 -3年以上数据算法工程师经验,有大型项目实施经验 -熟悉机器学习、统计学习、深度学习等数据算法领域 -熟悉常用的数据算法库和框架,如Scikit-learn、TensorFlow、PyTorch等 -具备良好的编程能力,熟悉Python等编程语言 -具备良好的沟通能力和团队合作精神,能够与不同部门和层次的人员合作。 我们提供具有竞争力的薪酬和福利待遇,包括灵活的工作时间、完善的培训和晋升机会、多元化的团队文化等。如果你对这个岗位感兴趣,并且符合上述要求,请提交你的简历和个人陈述,我们期待你的加入。
-
工作内容: 1、负责数据分析和相关数据服务的架构设计和系统开发; 2、负责数仓实时/离线建设; 3、负责数据工具建设以及流程优化,完善数据应用系统的建设。 任职条件: 1、掌握Java、Python语言,编码基本功扎实; 2、具备分布式数据存储与计算平台应用开发经验,精通Hadoop、Hive、Spark、Flink、Sqoop、Flume等大数据平台处理技术; 3、熟练掌握关系型数据库、NoSQL数据库:Redis、MongoDB、Cassandra、HBase、TiDB、ClickHouse、Doris中的一种或多种; 4、良好的沟通、表达、团队协作能力,认真踏实的工作态度; 5、具备3年以上大数据实际项目开发经验,具备数据仓库建设经验; 6、精通数据仓库建模及ETL设计; 7、具备丰富的UJM和数据中台架构经验,或大数据风控、用户画像、推荐系统相关开发经验者优先
-
具体职责: 1、参与公司爬虫项目的开发和维护 2、确保对爬取的数据完整性和正确性,对爬虫结果负责 3、负责对爬取数据进行分类,清洗,入库等工作 4、系统解决动态网页内容抓取、网页内容深度抓取关键技术; 任职要求: 1、熟练使用python编程、爬虫相关库进行网络爬虫开发 2、熟悉多线程、多进程、协程,有分布式爬虫架构,数据分析经验者优先 3、熟练使用常用爬虫框架和工具:scrapy,selenium等 4、熟练掌握SQL,并熟练使用mysql、mongodb等 5、掌握网页抓取原理及技术,熟悉html,dom,xpath,beautifulsoup,动态js数据解析,精通正则等,可以从结构化和非结构化的数据中获取信息 6、熟练使用常用 Linux 命令,有一定的Shell脚本编写能力。 7、具备良好的沟通、合作和问题解决能力,具备独立分析和解决问题的能力。
-
岗位职责: 1.负责公司爬虫系统的设计、开发、维护等; 2.负责数据清洗,满足业务系统的数据需求; 3.负责网络爬虫相关技术的攻关,如:网络反爬、加密破解、验证码识别、ip池搭建、cookie池搭建等; 4.监控和优化爬虫系统,提升性能和增强功能; 岗位要求: 1、精通 Python,熟练使用 Requests 、Scrapy 进行爬虫开发 2、熟练调用模拟浏览器进行数据抓取,数据采集 3、熟练使用各类抓包工具,如 Charles 、Fiddler 、Wireshark 等等 4、熟练应对 IP 封禁、参数加密、验证码、字体反爬、人机检测、账号封禁等反爬措施 5、熟悉 Linux 平台开发,能完成爬虫程序的部署。 6、会使用python处理各种数据,对数据规格化有一定经验。 7、熟悉爬虫的各种更新数据的策略。 8、喜欢钻研技术,喜欢阅读优秀开源项目源码,热衷于解决各类技术问题
-
岗位职责: 1.根据业务需求及算法模型特性,收集整理文本语料,进行文本标注、数据验收等相关工作; 2.制定语料标注规则,负责标注项目的推进、检验; 3.协助算法工程师完成其他相关工作。 岗位要求: 1.本科以上学历,计算机相关背景或文本标注经验者优先; 2.具备良好的沟通能力,较好的逻辑思维、沟通表达和组织协调能力; 3.工作效率高,严谨认真、细致耐心,富有责任感。 需驻场苏州客户现场
-
【工作职责】 1、为平台业务增长提供数据,分析,策略支持; 2、战区,省区,城市与平台的对接协调,及赋能支持; 3、城市经营目标制定,指标拆解,落地,监测; 4、复盘业务运营日报,周报,月报及相关运营会议数据支持,汇报复盘; 5、结合经营分析模型的智能化工具研究,搭建,复用推广。 【任职要求】 1、**本科及以上学历; 2、熟悉经纪公司经营管理,熟悉业务流程,熟悉主要行业内公司业务模式; 3、基础的SQL和BI能力; 4、Excel+PPT良好; 5、具备平台数据运营经验,能很好的将数据流与业务流,组织流对接管理起来。
-
1、对新需求进行研究分析,收集数据源; 2、日常数据支持、优化,确保业务目标的达成; 3、关注行业动态,对现有数据进行数据整理、衍生计算; 4、审核重要数据的准确性和专业性,确保数据的高质量; 任职资格 1、本科及以上学历,金融、经济、会计等数学计算相关专业; 2、熟练使用Excel等office办公软件,对数据敏锐度高; 4、能运用SQL调用数据、核查数据的准确性; 5、具备快速学习能力,有较强的沟通能力,做事认真、细心、有强烈的责任感。
-
1、负责公司服装/面料订单的跟进,核算,数据的统计整合; 2、负责服装/面料事业部数据等服务的业务支持(包括订单核对,开票核对,日常的生产数据统计核对) 3、有一定的数据分析能力,能通过数据发现问题并结合自己的思考提出一定的改善方案; 4、结合经营管理技术,和工厂实际运营情况,配合软件部开发工厂JIT平台系统(公司会培训); 5、擅长数据收集,整理,分析,有统筹协调能力,对服装生产有一定的了解; 岗位要求: 1、自信,善于沟通,有强烈的目标感和提升自我工作能力的意愿度; 2、价值为刚,不怕吃苦, 有客户意识和服务意识,有学习力和钝感力; 3、为人正直、做事认真、踏实诚恳、性格开朗、有责任心; 4、认同公司经营哲学,有以结果为导向的思维方式; 5、熟悉操作Excel、Word、PPT等基础办公软件;
-
岗位职责: 1.负责数据治理体系建设,制定解决方案并协调推动数据质量、数据标准等问题落地; 2.负责制定数据安全策略,确保数据的保护与合规。包括深入了解企业的业务需求和法规要求,以制定有效的数据安全策略; 3.建立适用于企业的数据安全框架,并确保各项安全流程如访问控制、身份验证、加密等得到有效执行,针对具体业务场景给出数据安全方面的有效建议; 4.定期演练和评估安全响应计划。帮助企业建立和测试安全响应计划,组织定期演练活动,模拟安全事件,评估企业对事件的响应能力; 5.数据资产相关工作。 任职要求: 1.***大学本科及以上学历,3年及以上工作经验; 2.有数据治理经验,参与过数据标准的制定、数仓开发、数据质量管控等的落地。对整体的数据框架流向有一定的认知; 3.对数据治理整体架构有一定的认知,了解整个体系以及规章制度、议事章程。; 4.具有一定的制度编写能力,对银行业数据治理相关制度规范有所了解,有过类似经验更佳; 5.有过具体的数据治理工作落地经验,包括但不限于数据质量,数据标准,数据安全,数据模型管理的实操落地经验; 6.对数据治理系统认知,熟悉DAMA数据管理知识体系,对元数据管理、数据标准管理、数据质量管理、数据安全管理等有一定理解;有CDGA或CDGP证书尤佳; 7.良好的沟通能力,能协调沟通各部门,完成需求对接评估。 8.善于内部协作与跨团队沟通协作; 9.有过数据安全管理经验,熟悉数据安全要求,能够自主推动方案落地。
-
岗位职责: 1.负责监管报送平台系统建设,监管需求涉及、研发、应用调优维护、问题排查对接处理等工作; 2.负责使用大数据平台进行报送逻辑开发,报送数据质量分析等; 3.负责数据质量检测,开发相应指标,完成系统性检测数据质量问题,并及时预警; 4.负责数据治理落实相关工作,包括不限于数据安全、数据标准落标,制定解决方案并协调推动落地。 任职要求: 1. ***大学本科及以上学历,3年及以上工作经验; 2.熟悉监管报送类:如1104、EAST报送、人行大集中报送、利率报备等; 3.熟悉主流报表工具,可以独立开发报表,并能独立完成相关数据质量分析需求; 4.熟悉LINUX操作系统及日常操作命令,能使用SHELL脚本进行服务器文件处理及操作,熟悉主流中间件有限; 5. 熟悉相关数据治理理念和流程,并有过相关实操经验; 6.良好的沟通能力,能协调沟通各部门,完成需求对接评估。


