参与基于 Transformer 架构的大模型研发,负责核心模块设计与优化
搭建大规模预训练流程(自回归语言模型),优化 Attention 与 FFN 结构
设计并实现分布式训练方案DP/TP/PP,支持多 GPU 高效扩展
实现混合精度训练(FP16/BF16)与梯度优化策略,大大提升训练效率。
构建数据清洗与 Tokenization 流程,支撑亿级文本语料训练
参与 SFT/RLHF 对齐流程,提升模型指令理解能力
点击空白处退出提示
参与基于 Transformer 架构的大模型研发,负责核心模块设计与优化
搭建大规模预训练流程(自回归语言模型),优化 Attention 与 FFN 结构
设计并实现分布式训练方案DP/TP/PP,支持多 GPU 高效扩展
实现混合精度训练(FP16/BF16)与梯度优化策略,大大提升训练效率。
构建数据清洗与 Tokenization 流程,支撑亿级文本语料训练
参与 SFT/RLHF 对齐流程,提升模型指令理解能力
参与基于 Transformer 架构的大模型研发,负责核心模块设计与优化
搭建大规模预训练流程(自回归语言模型),优化 Attention 与 FFN 结构
设计并实现分布式训练方案DP/TP/PP,支持多 GPU 高效扩展
实现混合精度训练(FP16/BF16)与梯度优化策略,大大提升训练效率。
构建数据清洗与 Tokenization 流程,支撑亿级文本语料训练
参与 SFT/RLHF 对齐流程,提升模型指令理解能力
参与基于 Transformer 架构的大模型研发,负责核心模块设计与优化
搭建大规模预训练流程(自回归语言模型),优化 Attention 与 FFN 结构
设计并实现分布式训练方案DP/TP/PP,支持多 GPU 高效扩展
实现混合精度训练(FP16/BF16)与梯度优化策略,大大提升训练效率。
构建数据清洗与 Tokenization 流程,支撑亿级文本语料训练
参与 SFT/RLHF 对齐流程,提升模型指令理解能力




评论