云上的小小搬砖工
1月前来过
全职 · 500/日  ·  10875/月
工作时间: 工作日09:30-20:30、周末09:30-21:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是程序员客栈的一名AI工程师,负责大模型相关的研发与落地工作。与擅长数据爬取的朋友合作,具备从原始网页爬虫采集、数据清洗处理、无监督自动标注,到标准化数据集构建的完整能力链,能够根据项目需求提供定制化的训练数据集,支持大模型训练与微调。具备人工智能领域的数据处理与模型应用全流程能力,包括训练数据的采集、清洗、无监督标注及标准化整理,可高效支撑大模型训练和微调任务。同时,熟悉大语言模型(LLM)的参数高效微调(如LoRA、QLoRA),具备将大模型应用于实际场景的经验,涵盖RAG(检索增强生成)系统、智能Agent构建与模型部署优化等方向。

工作经历

  • 2025-02-25 -2025-06-20科大讯飞ai应用开发工程师

    我是程序员客栈的一名AI工程师,负责大模型相关的研发与落地工作。与擅长数据爬取的朋友合作,具备从原始网页爬虫采集、数据清洗处理、无监督自动标注,到标准化数据集构建的完整能力链,能够根据项目需求提供定制化的训练数据集,支持大模型训练与微调。

教育经历

  • 2017-09-01 - 2021-06-30合肥工业大学计算机科学与技术本科

语言

普通话
0
1
2
3
4
5
0
1
2
3
4
5

技能

大数据 spark hadoop hive
python 开发
云服务器,linux
python 后端
python django
SQL数据库
0
1
2
3
4
5
0
1
2
3
4
5
作品
大模型专业方向能力微调

项目名称:大模型专业方向能力微调 项目周期:2024年8月 – 2025年1月 技术栈:Python、PyTorch、Transformers、Deepspeed、LoRA、CUDA、FastAPI、Docker、Redis、LLM Serving(vLLM) 角色:核心研发工程师 / LLM 算法工程师 项目背景: 为提升公司在垂直行业(如医疗/法律/教育)中大模型应用能力,本项目致力于构建一个可支持国产及开源大语言模型微调、评估与在线部署的一体化平台。通过参数高效微调技术(如LoRA)与分布式训练框架,降低大模型应用门槛并显著压缩部署成本。 主要工作内容: 模型选型与微调: 基于LLama2-7B、InternLM-Chat-7B、Baichuan2-13B等模型进行对比评估。 使用QLoRA技术在低成本GPU环境下进行指令微调,构建领域问答能力。 编写用于自监督微调的预处理脚本,支持大规模数据增广与token级清洗。 推理部署与服务化: 使用vLLM + Huggingface Transformers进行高并发在线部署,性能相较HF原生模型提升2.3倍。 实现多租户Prompt路由机制,支持不同用户基于角色动态注入上下文。 利用FastAPI构建推理API,集成JWT权限验证与调用限流(Redis实现QPS控制)。 工具链与可视化: 搭建训练监控看板(Prometheus + Grafana),实时追踪loss、lr、GPU利用率。 开发自动数据标注接口,接入OpenAI API辅助生成高质量Instruction数据。 优化与压缩: 尝试4bit量化部署,减少80%以上显存占用,便于消费级GPU部署。 结合PEFT与AdapterFusion技术,完成多领域模型参数模块融合。 项目成果: 成功部署3个大语言模型服务实例,稳定支持日均10万次API调用。 微调后模型在公司内部测评集上准确率提升18%,满意度评分提升至92%。 项目交付成果被用于两项对外商业合作,支撑多个行业客户私有化部署。

0
2025-06-23 18:09
下载次数:0
¥2000
更新于: 06-20 浏览: 16