上市公司,市值350亿~400亿
岗位职责
1.大模型研发与优化:负责大模型(如GPT、LLaMA、ChatGLM等)的预训练、微调(SFT、RLHF、LoRA等)及二次训练,提升模型在垂直领域的性能表现,探索大模型高效训练技术(如分布式训练、量化压缩、推理加速等),优化计算资源利用率;研究大模型架构优化方法,包括但不限于注意力机制改进、参数高效微调等
2.负责大语言模型(LLM)在医疗场景下的算法设计、模型训练和性能优化;
3.基于开源基础大模型(如Qwen、DeepSeek、LLaMA等)进行微调、指令调优(SFT)、RLHF、RAG等技术研发;
4.参与医疗垂类数据的构建与清洗,推动医疗知识图谱、多模态融合等在大模型中的应用;
5.与工程化团队协作,将大模型技术落地至医生助手、病历生成、药品推荐、问诊系统等实际业务场景;
6.跟踪前沿AI算法动态,持续推动模型架构与推理效率的优化。
任职要求:
1.计算机、人工智能、自动化等相关专业,硕士及以上学历,具备扎实的机器学习、深度学习理论基础;
2.熟悉主流大模型架构(Transformer、LLM),有LLaMA、Qwen、ChatGLM、DeepSeek等相关模型微调经验者优先;
3.熟练掌握PyTorch、Transformers、Deepspeed、PEFT等常用框架和工具,有模型推理加速、量化部署经验者优先;
4.了解分布式训练技术(如DeepSpeek、Megatron-LM等)者优先
具备良好的编码能力、工程化能力和沟通协作能力,具备较强的学习与问题解决能力。
拉勾安全提示