个人介绍
1、熟悉 Java语言,熟悉Linux 系统操作、掌握 Shell 脚本的开发编写。
2、熟悉CDH、hadoop、hive、hue、impala、kudu、yarn,kyligence等组件的运维,spark、flink实时计算开发
3、熟练使用Hive 搭建数仓,对数据进行ETL 预处理、HQL 分析、优化、自定义 UDF、UDTF 函数等。
4、熟练使用ETL 工具sqoop、datax 做数据采集、清洗、推送,文件格式转换
5、熟练使用Tableau、fineBI 可视化工具的系统运维和使用
5、熟练常用 SQL语句,熟悉Oracle,Mysql,hive,impala,postgreen等数据库安装部署,熟悉 redis。
6、熟悉运用Spring、springmvc、mybatis、springBoot、Spring Data Redis等主流框架。熟悉使用MVC开发模式,webservice 等技术。
7、掌握canal、zookeeper、kafka、Nginx、ActiveMQ安装和部署等。
工作经历
2019-03-01 -至今欧冶云商高级后端工程师
主要从事hadoop平台运维,平台功能研发及ETL采集、推送,flink、spark实时数据研发; tableau、fineBI可视化工具运维。
教育经历
2017-03-01 - 2020-01-01广东海洋大学信息工程本科
2012-09-01 - 2015-07-01武汉船舶职业技术学院船舶动力工程专科
技能
是dubbo这个分布式的框架把整个平台搭建起来,启动Web功能使用SpringMVC作为控制层,使用MyBatis来作为数据访问层,由Redis集群作为缓存缓解数据库的压力,使用的是Nginx做请求的分发完成负载均衡,根据短信接口平台Web Service提供的接口实现短信发送,使用solr索引库实现数据的大量搜索,根据实物商品交易服务集成技术,*支付在线支付Web Service提供的接口实现
:该系统是将业务数据库所有数据集中到hadoo大数据平台,进行分层、建模,通过不同维度的指标,全面分析总体运营情况,并依据市场变化做出正确对策,同时对产品进行改进和优化等。 项目架构:Sqoop + hadoop + Hive +impala+ crontab+kylingence+tableau+fineBI 技术要点: 1.通过shell开发出批量生产能自动适配 mysql、oracle、sqlserve等关系型数据库sqoop采集指令和impala建表语句的功能; 2.对Sqoop采集功能配置文件研究,使采集,解决MySQL和Hive的空值、null,转义字符,及数据类型不一致等问题。 3.使用impala,parquet格式进行压缩和列式存储,提供快速sql查询和开发 4.利用kylingence工具对sql进行建模,能加速页面的响应,让可视化工具更快展示。 5.数据仓库的搭建: (1)ODS原始数据层:将业务库数据增量或全量采集到ODS层,保证业务库和ods表1:1完全一致 (2)DWD明细数据层:对ODS层数据进行数据清洗和脱敏(有需要可创建非脱敏层)。进行维度建模,选择最小粒度对关心的业务进行分析,以便后续进行更大粒度的计算。构建维度和事实表时进行表维度,构建星型模型。DWD层采用Parquet列式存储。 (3)DWS数据服务层:对DWD的数据进行轻度聚合,粒度为每天或者区域,分别对关心的主题进行数据分析聚合成中间公共层,提供给ads主题层使用。 (4)ADS应用数据层:以分析的主题对象为建模驱动,基于上层的应用和产品的指标需求,构建主题对象的全量宽表。基于DWS层的主题构建全量主题宽表,主要关心各个主题的累计值。 (5).使用Sqoop将ADS层统计的指标导入到MySQL数据库中。同时将ads主题表通过可视化工具tableau展示出来,提供给业务分析 职责描述: 1.参与技术选型,需求分析以及具体方案设计讨论。 2.ods表的采集,ads层提取至tableau或者fineBI工具,其中固化的hivesql建成kylingence模型加速页面响应。 3.维护离线数仓系统的正常使用,解决大数据平台多种问题。同时也维护可视化工具tableau、finebi应用的日常运维 4.tableau和fineBI可视化工具的部署和答疑用户可视化工具的功能使用问题等。