个人介绍
工作经历
2022-09-01 -至今聚时科技算法工程师
负责光伏组件生产过程中的缺陷检测,涉及到图像分类,图像分割(deeplabv3-plus),目标检测(yolox,yolov8)
2021-07-07 -至今上海电气算法工程师
从事算法工程师,对计算机视觉、图像处理、视频分析等相关算法相关内容。熟练掌握深度学习与机器学习技术,熟悉pytorch开发端至移动端的算法开发。
教育经历
和TA聊聊APP扫码和程序员直接沟通
该用户选择隐藏教育经历信息,如需查看详细信息,可点击右上角“和TA聊一聊”查看
技能
负责相机的标定、激光雷达的标定程序开发。首先参考的是旷视的标定算法,代码链接附上:https://github.com/MegviiRobot/CamLaserCalibraTool,里面有详细的原理介绍和操作步骤。这里使用的是单线激光,即scan,不是一般用的激光点云图(velodyne_points)。由于当时是使用打印在白纸上的棋盘格做的测试,效果不好,方法应该没有问题。 方案二 参考的是无目标标定方法,代码链接附上:https://github.com/hku-mars/livox_camera_calib,使用的是固态激光雷达livox,使用Velodyne VLP16激光雷达采集的激光点云过于稀疏,重建出来的效果不是很好,在尝试了建图算法提升点云密度后,效果依旧不是很好,决定放弃。 方案三 使用autoware的calibration toolkit,代码链接附上:https://github.com/Autoware-AI/autoware.ai,安装主要参考:https://www.icode9.com/content-3-778900.html,其次参考:https://blog.csdn.net/xz1203/article/details/111474782,博主装的是有cuda的版本,不带cuda的版本编译没有通过。 使用第一个博客在最后编译的时候出现了问题,参考第二个博客更新ros的方法,然后成功了
本算法基于计算机视觉与深度学习的技术,实现自动化对工地或生产区域内的人员是否佩戴安全帽进行识别、报警。本产品可自动识别两个款类型的安全帽:轻便型安全帽与ABS型安全帽。对于复杂场景识别准确率可达90%以上,并且不依赖于安全帽的颜色,对运动和静止人员均可精确检测。对于没有佩戴安全帽的行为进行报警同时将报警记录与快照一同存储,可根据时间段对报警记录和快照进行查询。系统在实时性和准确率方面处于国内领先水平。
通过对胃部CT图片分析,以深度学习技术为基础,实现自动化分割胃部肿瘤并进行相应分类。首先,针对在胃部肿瘤分割与T分期任务过程中出现的特征利用率低、分割结果不佳和分类结果不准确等问题,本研究在Y-Net算法模型的基础上设计了一种新型的网络模型AY-Net,该模型有两条主干线:分割主线、分类主线。这种新型的算法分为两步进行训练,第一步只训练分割主线得到肿瘤的粗分割结果,然后在第一步的基础之上联合训练分割分类主线得到最终的精分割和肿瘤T分期结果。为了提高算法对胃癌区域的关注度,引入了注意力机制来加强算法的准确性。此外还使用多核残差模块和密集连接空洞卷积模块提取深层的特性信息。本文主要对比U-Net、Y-Net、AttU-Net、CE-Net等算法,并把平均交并比(Mean Intersection over Union, MIoU)和准确率(Accuracy, Acc)作为实验结果的评价准则,AY-Net结果中的两项准则分别为0.721和0.732均优于其他网络。 其次,针对胃部肿瘤在图中所占比较小的数据,会产生过多的干扰信息缺乏针对性的问题。在AY-Net的基础上结合多尺度输入与自适应特征融合模块提出了一种多任务卷积神经网络MAAY-Net。与AY-Net相比,MAAY-Net拥有多尺度输入的特性,在分割网络上采样结束之后加入自适应特征融合模块,结合多尺度信息提取自适应特征系数。此外,为了改善小目标的分割和梯度变化,将Dice损失函数与focal损失相结合提出了混合损失函数加速网络训练并避免梯度消失和梯度爆炸。对所提方法进行定量定性的评估和分析,结果表明,MAAY-Net优于同类方法,MIoU和Acc分别达到0.843和0.794。此外还对所改进模块进行了消融实验,也证明了所提方法的可行性。