个人介绍
我是程序员客栈的maniacs,一名算法工程师,毕业于太原科技大学硕士研究生,担任过北京卓视智通的算法工程师,担任过北京铭毅 的算法工程师负责过车辆目标检测,红绿灯目标检测,单色图像基因测序算法的开发;熟练使用Python、C++、Matlab,PyTorch、Opencv、Numpy、Pandas、CV技术,分类模型(AlexNet、VGGNet、GoogleNet、ResNet、DenseNet),熟悉目标检测模型(RCNN、SPPNet、Fast RCNN、Faster RCNN、YOLO v1、v2、v3、v4、v5) 如果我能帮上您的忙,请点击“立即预约”或“发布需求”!
工作经历
2022-05-27 -2023-09-11北京铭毅算法工程师
图像基因测序算法 图像基因测序算法就是从荧光信号的产生到碱基序列的识别这一过程,主要包括图象校正(即空间校正)、簇的识别、荧光校正(即光学校正)、phasing/prephasing(即化学校正)、碱基识别、PF、质量评估等7个步骤。(由于保密,不详细阐述,见谅) 分析的目的有两个:(1)对每一个簇(cluster)进行识别,确定其坐标;(2)提取每个簇分别在A、G、C、T四个波长的信号强度值。最终通过每个cycle采集S1和S2共两张图像,通过荧光强度将cluster点分为亮点(1)和暗点(0),这里将A、G、C、 T4种碱基通过(1,0)、(0,0)、(0,1)、(1,1)表示。 该算法最终测序结果PF值达到90%以上,Q30值达到92%以上,Q20值达到96%以上。
2021-07-01 -2021-12-01北京卓视智通算法工程师
参与公司通用目标检测相关项目,负责训练及优化道路目标检测模型,模型运用于太原、上海、吉林 等城市道路的目标检测系统,主要项目经历如下: 项目一:基于 Pytorch 框架,通过 YOLO 系列模型训练实现对车辆检测 筛选从不同环境下收集到的数据,将其分成白色、黑色、红色、等各个类别,每个颜色的类别下再分 成白天和夜间的情况; 通过 YOLO v3、YOLO v4、YOLO v4-tiny 等网络进行训练及测试,并对模型进行优化,最终使其准确 率达到 90%以上。 项目二:基于 Pytorch 框架,通过 Resnet 模型训练实现对车辆品牌、车牌颜色等任务分类 针对不同地区项目现场采集的图片数据,对采集数据进行切割及相关标注等处理补充数据集,以 8:2 的比例分成训练集和测试集; 通过对 Resnet-18 模型进行训练及优化,实现对车辆品牌、车牌颜色等任务进行分类,使模型分类效果 达到 95%以上; 根据项目现场反馈的问题,对相关数据进行测试,并对相关模型进行优化,提高模型泛化性。
2021-03-01 -2021-05-31全星翼网络科技有限公司前端工程师助理
参与公司前端研发部门相关后台管理项目,负责在项目框架上调整相关页面布局、进行相关页面功能 修改及后端数据接口调用等。 项目:快餐店收银系统 本项目是一个收银系统,实现了类似快餐店自助选餐的功能,解决了用户线上点餐的需求。 技术栈:Vue + Webpack + Element + Axios + Vue-Router
教育经历
2019-09-02 - 2022-05-20太原科技大学电子与通信工程硕士
主修课程:信息论、概率与数理统计、Matlab 与 OpenCV、机器学习等(专业前 10%) 研究方向:智能信息处理(人工智能) 发表论文:一篇核心期刊 多源图像相位丢失恢复算法 Python + Matlab
2014-09-01 - 2018-07-02太原科技大学电子与通信工程本科
主修课程:通信原理、电路设计与系统、数字通信、图像信号处理、数电模电等
技能
YOLOv5实现红绿灯检测 红绿灯检测数据集 基于约1W+的红绿灯(交通信号灯)检测数据集进行训练测试; 由于数据集相对较少,针对数据集做数据增强处理:翻转,旋转,裁剪,缩放,平移,拼接等; 配置好文件进行训练; 训练模型收敛后,yolov5s红绿灯检测的mAP指标大约mAP_0.5=0.93919;而,yolov5s05_416 mAP_0.5=0.77174左右;yolov5s05_320 mAP_0.5=0.71944左右;相比而言,yolov5s05比yolov5s差了很多,mAP掉了近20个点,这主要是因为减小输入input-size,不利于小目标检测。
图像基因测序算法就是从荧光信号的产生到碱基序列的识别这一过程,主要包括图象校正(即空间校正)、簇的识别、荧光校正(即光学校正)、phasing/prephasing(即化学校正)、碱基识别、PF、质量评估等7个步骤。(由于保密,不详细阐述,见谅) 分析的目的有两个:(1)对每一个簇(cluster)进行识别,确定其坐标;(2)提取每个簇分别在A、G、C、T四个波长的信号强度值。最终通过每个cycle采集S1和S2共两张图像,通过荧光强度将cluster点分为亮点(1)和暗点(0),这里将A、G、C、 T4种碱基通过(1,0)、(0,0)、(0,1)、(1,1)表示。 该算法最终测序结果PF值达到90%以上,Q30值达到92%以上,Q20值达到96%以上。
基于YOLOv5s的车辆检测,完成Android版本车辆检测模型算法开发,APP在普通Android*上可以达到实时的检测和识别效果,CPU(4线程)约30ms左右,GPU约20ms左右 ,基本满足业务的性能需求。 1.数据集处理 (1)车辆检测数据集 收集约10W+的车辆检测数据集:UA-DETRAC车辆检测数据集+Vehicle-Dataset车辆检测数据集+BITVehicle车辆检测数据集。 (2)自定义数据集 如果需要增/删类别数据进行训练,或者需要自定数据集进行训练,如下步骤: 采集图片,建议不少于200张图片; 使用Labelme等标注工具,对目标进行拉框标注:labelme工具; 将标注格式转换为VOC数据格式; 生成训练集train.txt和验证集val.txt文件列表; 修改engine/configs/voc_local.yaml的train和val的数据路径; 重新开始训练。 2.训练测试模型 训练完成后,在模型输出目录中有个results.csv文件,记录每个epoch测试的结果,如loss,mAP等信息; 训练模型收敛后,yolov5s车辆检测的mAP指标大约mAP_0.5=0.57192;而,yolov5s05_416 mAP_0.5=0.47022左右;yolov5s05_320 mAP_0.5=0.44788左右。