个人介绍
我是程序员客栈的平凡安全java程序员,一名主java副渗透的研发工程师; 我毕业于河北科技学院,担任过北京宏远贵德科技有限公司和 融安云网北京科技有限公司的java开发岗位,担任过北京华云安信息技术有限公司的后端开发岗位;灵知.互联网威胁监测预警中心 负责过灵知互联网威胁监测预警中心的产品研发工作,两个漏洞库项目的开发,其他大大小小的项目研发工作; 熟练使用springcloud、mysql、redis、rabbitmq、kafka、flink、streamsets等技术; 如果我能帮上您的忙,请点击“立即预约”或“发布需求”!
工作经历
2021-11-15 -至今北京华云安信息技术有限公司后端开发工程师
1.接手LYY项目的开发运维工作,配合产品经理与项目经理进行系统开发、运维、验收工作。 2.完成数据项目的开发工作,独立完成从Hbase架构到Es架构的变更。 3.完成JK项目的从0到1的架构开发工作,根据产品经理原型与prd文档进行系统架构设计与系统开发,提出产品需求逻辑问题,配合产品经理更改,最后顺利验收完成。 4.目前主要负责灵知产品的研发工作,从2022年6月份加入灵知产品研发,至今一直在进行灵知产品的研发工作,从0到1完成架构开发工作,核心功能的编写,主要负责前后端任务工作流编排,任务中心,暴露面,攻击面等核心业务的编写,主要对采集数据进行大数据处理入库,数据处理组件涉及到streamsets、flink方面,数据库使用mysql,搜索引擎使用es,缓存方面使用redis,mongo作用于定时爬虫原始数据入库(未处理数据),kafka作于数据中转;任务中心可支持分布式任务拆分、任务回调、任务日志查看等功能;基于定时任务完成任务工作流编排、任务工作流执行等核心逻辑,可对任务执行进行并行、串行的灵活调整,任务组件配置可支持动态增删改查;暴露面和攻击面实现高级语法检索功能,基于an
2021-03-01 -2021-11-12融安云网北京科技有限公司java开发工程师
1.参与过多个项目的后端开发,公交云课堂项目,智能建造项目,解决方案项目,专技项目,主要负责公交云课堂与智能建造的开发。公交云课堂是内部教育项目,主要包含课程,考试,证书,面授等业务。智能建造是一个物联网项目,包括了很多种设备,比如塔吊黑盒子,环境监测设备,升降机,考勤闸机等。 2.主导过代码质量审核,监督新员工的代码问题并告知调整。
2018-08-01 -2021-03-03北京宏远贵德科技有限公司java开发工程师
1.参与产品的开发,参与过张家口监管数据治理项目组的开发,主要负责 ras+(监管合规预警分析)系统的开发,dgs(数据督办)系统的开发,dk(数据质量管控)系统的开发,EAST4(监管数据标准化)系统的开发。这几个系统都会通过owl 调度平台进行调度并做相应的交互。 2.去过两个项目组的项目现场进行实施工作并给客户培训系统的知识,这两个项目分别是南海农商银行,宁海东海银行,当时这两个项目都是自己一个人出差,在现场完成了项目的部署工作,培训工作并获得了客户的认可,当时也学习到了很多的知识。
教育经历
2015-09-01 - 2019-07-01河北科技学院计算机科学与技术本科
技能
1. 项目主要分为两个系统,分别为前台系统与后台系统,前台系统提供C端用户进行查看漏洞库数据等,后台系统可对漏洞库数据进行增删改查、发布等操作,也可以通过爬虫采集功能从互联网上公共漏洞库进行数据采集、数据清洗、数据融合操作。 2. 此项目主要难点为爬虫采集与数据处理功能,需要保证爬虫采集的稳定性和数据处理时的准确性。 3. 此项目从后端架构设计、数据库设计、功能开发全是我个人开发。
1. 系统分为仪表盘、漏洞知识图谱、漏洞库管理、源数据库管理、任务管理、系统管理、用户管理、角色管理、日志管理、备份管理模块 2. 此系统后端部分从架构设计、数据库设计、功能开发全部是我个人开发,此系统主要逻辑为通过任务中心的 定时任务进行爬虫任务采集,定期的进行增量数据的采集并使用etl进行数据清洗、数据融合等操作并展示到漏洞库中。 3.此系统主要难点为任务调度如何保证调度成功,可以进行节点监测等内容,保证数据处理的准确性,数据融合等问题。
灵知是一个SAAS系统,主要负责对企业进行外部攻击面资产梳理,基于企业认证的名称进行暴露面资产数据采集与梳理,攻击面弱点发现,生成资产数据报告等功能。当租户创建完账号后,会进行企业认证,当企业认证完成后,系统会根据企业名称在数据底图库中挖掘出暴露面资产,租户可根据当前的暴露面资产进行任务下发,可选择系统已配置好的策略进行定期探活、漏扫、端口扫描、子域名爆破、cdn检测、waf检测等主动扫描功能(需授权功能)收集出攻击面弱点数据,租户也可以设置事件监测任务,对某一类资产可根据高级语法进行定期的资产变更事件监测,例如信息系统资产在资产变更时包含某一些指纹的特征可进行预警(发送邮件等方式),租户可以定期生成数据报告并下载。数据底图在收集时为通过api和爬虫的方式进行的,通过任务中心的工作流编排先把api和爬虫的任务编排为企业数据收集(被动)策略,包含天眼查API、fofa-api、zoomeye-api、hunter-api、quake-api、*小程序爬虫、*公众号爬虫、github、gitee、csdn、百度文库、站长之家等爬虫进行企业数据收集,此系统任务平台与引擎完全分离,引擎节点全部支持动态的扩容与缩容,任务中心支持工作流任务编排、分布式任务拆分并下发、任务暂停、任务恢复、任务停止等功能,web页面与后端接口通信时都通过rabbitmq做任务事件队列,工作流任务执行引擎下发任务使用rabbitmq通信,分布式任务队列使用redis做缓存队列,引擎节点与任务服务通信为http接口,引擎节点输出数据使用kafka队列,kafka数据到mysql使用streamsets、flink进行大数据处理,mysql到es统一使用监听binlog到kafka队列,在从kafka队列到es中,数据处理全部使用流式处理,效率极高。