




个人介绍
本人从事软件开发行业八年,主要从事行业信息管理、网络通信安全和电商供应链,主要开发使用C#开发WPF桌面应用程序、使用Java开发web信息管理应用系统、使用python、Java大数据开发数据处理计算分析工作,还使用过html、jquery、css做过前端页面开发,现在主要从事大数据数据处理、数据计算和数据分析工作
工作经历
2019-05-01 -至今国美电器大数据专家工程师
主要从事供应链系统的开发和大数据处理计算分析工作,使用JAVA做应用系统开发,使用hive,spark做数据计算分析,使用Python做数据计算分析开发
2015-07-01 -2019-04-01长安通信科技有限责任公司高级软件工程师
主要从事网络通信和安全方面的软件和系统开发,使用C#开发桌面应用程序,使用JAVA开发信息系统,使用hive,spark做大数据处理计算
2012-11-01 -2015-05-01中科软软件工程师
主要从事编码工作,主要使用C#开发wpf桌面应用程序,使用JAVA开发web应用信息管理系统,使用CSS,jquery开发前端页面
教育经历
2009-09-01 - 2012-06-01天津电子信息职业技术学院软件技术专科
主要学习软件技术开发,主要开发技术为C#,JAVA,数据库和C,和一些前端技术,js,CSS,HTML
技能

通过销售数据通过不同维度进行预测商品销售量,并根据库存、采购订单、预售进行计算各仓库需要采购数量。通过sqoop定时抽取业务系统中销售数据、库存数据和采购订单数据到hive仓库中,并通过Azkaban定时调度spark任务首先进行计算模型计算与未来十三周销量、库存数据、采购订单数据,最后通过一定算法计算出需要采购数量,最后将计算结果输出到MySQL中,最终业务系统通过java开发的API进行查询来进行采购业务下单。


该系统主要是以路由硬件的方式为用户提供匿名网络服务。此系统主要分为四部分, 分别为:路由设备硬件系统、匿名网络服务、后台管理服务系统和用户流量分析系统;路由设备系统主要技术为:openwrt+luci;后台管理服务系统主要技术是:springMVC+bootstrap+MyBatis,并通过nginx做反向代理做分布式,通过redis做数据分布式缓存,减少路由设备心跳服务对频繁查询造成的压力,利用openresty+nginx做流量分流缓解服务器压力;匿名网络服务主要是:自定义协议代理+Tor网络,用户流量分析系统主要分析用户使用匿名网络服务中长生流量信息的存储和分析,并实施监控各个用户使用匿名网络服务的情况,主要使用flume进行流量采集pcap文件存储到Hadoop的HDFS上,并通过MR流量分析程序进行解析pcap文件并存储成特定格式信息导入到hive中,通过Azkaban进行任务调度进行执行脚本,并通过sqoop把分析完成的结果导入到MySQL数据库中,并通过echarts进行展示。
