个人介绍
熟悉数据仓库基本架构;
熟悉java,jsp,jquery,js,css,shell,python等脚本。
熟悉linux及aix操作系统、control-m批量管理工具;
熟悉ultraEdit文本编辑器、svn及clearcase版本工具。
熟悉mysql、DB2、oracel、greenplum数据库。
工作经历
2013-07-22 -2015-09-30苏州凌志软件工程师
客户服务管理系统,通过收集客户的相关数据,管理并分析,帮助企业实现以客户为中心的管理模式。以此来协调企业和客户在销售、市场营销和服务上的交互,提升客户服务体验和质量,提高企业自身在市场上的竞争力。 1、java、css、jsp代码开发。 2、负责Oracle数据库环境的搭建和维护; 3、负责通过shell脚本,在linux环境对数据库进行日常数据备份、数据迁移工作; 4、根据详细设计,使用PL/SQL编写存储过程,函数等;
教育经历
2009-09-01 - 2013-06-30徐州工程学院计算机科学与技术本科
全日志本科院校,学校为徐州工程学院。
技能
分行数据托管区(Branch Date Host Area),简称BDHA;此系统主要功能是,由各个源系统(包括数据仓库edwh、odss、desk报表系统等)通过转码交换平台ADE,下发到数据共享区的数据文件,经过BDHA,按各分行标识,把属于各个分行的数据下发到相应分行,使各分行自己的数据落地,分行可利用这些数据,进行分行自己特色业务的报表开发等… 使用平台、工具及开发语言: control-m批量管理工具,xshell,linux,ultraEdit文本编辑器,dbvisualizer客户端,db2数据库,shell、perl脚本 1、负责新增需求的分析,通过与需求发起人员沟通及需求文档,使用标准SQL语言进行相应的ETL脚本开发及测试; 2、负责新脚本的投产,在ETL开发及测试完成后,进行相应的在线投产,将新脚本更新或添加至生产环境中; 3、负责配置更新,当生产环境有新的脚本投产时,对control-m批量管理工具进行相应批量的增加、删除或修改; 4、负责生产批量的运维工作,当生产批量由于比如数据库表空间不足、某个表锁超时或者脚本问题导致的批量发生报错时,进行及时的处理; 5、负责db2数据库环境的搭建,包括创建新数据库、表空间、schema、表等,以及各种权限的设定及配置; 6、负责linux环境相应配置,包括linux用户的新增、密码设定、分组等等; 7、负责db2数据库的运维,对db2数据库的表空间、事务日志等进行日常监控; 8、负责db2数据库的优化,分布式的db2数据库,在table中数据量过大时,初期hash键的合理设定,会使表中数据分布不均匀而产生数据倾斜,很是影响数据库在读取表中数据的速度,此时,就要选择合适的hash键并进行重新设定; 如:实际生产环境中,外部账户流水表,初期建表时,定义”流水号”作为hash键,后期数据慢慢 累积后,单台数据库服务器上的n个节点中,单节点最低使用率为68%,最高为100%,在某一 天,执行批量加载作业的时候,因表空间满导致报错,通过排查,是由于流水表数据倾斜严重, 并非是真的表空间满。后通过调整hash键,设置了”流水号+会计日期”等联合hash键,,使用数 据分布均匀,读取速度也明显变快了。 9、负责常用自动化脚本开发,开发常用的shell或者perl自动化脚本; 10、负责mysql数据库、Apache、phpStudy环境搭建; 11、负责mysql的逻辑备份、php的代码修正维护; 12、负责db2数据库的数据迁移工作,由于流水表数据量特别大,数据量越大,即使有索引,也会影响系统性能,需要定期对流水表数据进行迁移,并删除原表中比较靠前期的数据; 13、负责每周项目组周报的编写(包含对各分行表空间使用情况、表、涉及系统、生产日常跑批等情况的现状描述及其他一些待办、注意事项等)。
ODSS系统,是属于EDWH数据仓库的一个下游系统,由于EDWH主要是为了进行一个长期的趋势分析,存储了大量的数据,需要进行复杂的数据转换,通常执行时间较长,数据时效性比较低,但在日常经营中,常常需要用到一些日常管理的数据。ODSS 克服了数据仓库系统数据过于臃肿,处理时间过长等问题。提供了中 低层决策者以快捷准确的分析信息。 ODSS系统分为odm层(该层为源系统每日下发的贴源增量数据)、fdm层(该层通过累加每天的odm 层的贴源增量数据,形成了某一时间段的源系统全量数据)、idm(应用接口层)、gdm(轻量整合数据层)。 使用平台、工具及开发语言: control-m批量管理工具,xshell工具,aix系统,ultraEdit文本编辑器,dbvisualizer客户端,db2数据库,shell、perl脚本等等。 1、负责ETL脚本开发,通过与需求发起人员沟通及需求文档,使用标准SQL语言进行相应的ETL脚本开发。进行基本简单的数据分析。 如:通过源系统(ECPP网络支付清算系统)下发过来的交易数据, 分析集团商户和个体商户在618大促的前三天、当天及后三天的交易; 分析交易金额前十的收款商户和付款商户; 分析其交易渠道以及分析商户所属的国标行业等。 2、负责对开发的SQL脚本,进行SIT测试,配合UAT测试; 3、负责db2数据库的维护及优化,对db2数据库的表空间、表状态等进行定期检查及优化; 4、通过生产上报错处理,记录原因,严格监控并及时处理上源或本系统数据质量问题。
客户零售数据集市的客户标签项目组,专门针对客户的一系列指标,对客户进行标准化标签定义,如:是否代发客户,是否mgm客户(客户推荐的客户),是否结构性存款客户等。 下游系统,可通过客户的不同标签,对不同的客户,进行不同的精准营销。 开发工具及语言等: git,svn版本管理工具,secureCRT,pgadmin客户端,shell脚本,perl脚本,greenplum数据库,control-m批量管理工具,ultraedit文本编辑器,aix系统 主要工作: 1、根据需求说明,对接业务人员,与其沟通并确认相关业务口径,起到用户画像及精准营销的作用。 如:是不是长期不动户(超过3个月没有相关交易的客户); 是不是结构性理财客户; 客户的年贡献度(贡献=收入-支出-成本)等等。 2、根据需求,跨系统对接需求相关的若干外系统技术人员,确定并统一技术口径。 3、数据模型设计,将上游给到本系统的数据加载并保存到相对应的主题库表中。 4、对外接口模型设计,设计针对外系统的接口,定义并规范统一相关码值映射。 5、数据加工/清洗,针对不同需求,通过不同的数据源,提取出所需要的相关数据。并保存到对应的模型中。 数据卸载/下发,导出数据并上传到数据交换平台。使外系统能够拿到相关数据。 4,负责tfs平台自动化脚本的开发及平台作业配置发布。用于相关作业的自动化及运行时监控。 6,使用python脚本,用爬虫的方式,获取相关网页上的数据。 如:通过百度地图api接口,获取指定经纬度范围内的省、市、区、小区名、小区下的楼号等相关数据。