个人介绍
硕士研究生毕业,8年大数据运维开发工作经验。目前为大数据平台架构师。熟悉Hadoop生态体系,数仓开发设计及数据治理工作;拥有上千节点集群运维能力。熟悉SHELL,PYTHON, JAVA, SCALA等编程语言;熟悉常见的运维管理工具[如:ansible]及监控告警工具[如:promethus,grafana];多年头部互联网公司工作经验。希望可以为您服务!
工作经历
2018-12-01 -2021-05-10小米移动通信数据开发工程师
◎ 负责小米有品电商用户增长数据分析平台搭建和设计,实现用户增长数据分析从无到有。从实时和离线分别处理有品电商日常打点数据 实时分析:kafka + sparkstreaming + druid –> 展示 离线分析: hive + spark + kylin - > 展示 ◎ 调研开源系统并进行二次开发 a.将实时和离线处理的数据接入superset进行展示。开发superset定时邮件功能。 b.搭建azkaban调度系统用于日常处理程序调度 ◎ 固化日常取数需求,开发简易web系统实现通过上传用户包对常用通用指标进行分析 使用springboot开发简单的web系统,通过前台页面即可实现人群包上传和自定义hql进行人群包圈定。后台定时执行人群包通用指标的计算。
2017-10-18 -2018-12-20爱奇艺大数据运维开发工程师
负责爱奇艺大数据平台集群运维、调优。包括: a. HDFS集群搭建及日常运维: bug 解决及调优。 b. yarn 程序调优:主要针对运行在 yarn 上的 application,如 mapreduce、 spark 等进行排错及参数调优。 c. hive 优化:主要对 hive sql 执行过程中的错误进行优化。 ◎负责爱奇艺 HBase 集群架构设计运维与优化: a. 编写自动化申请脚本: 表创建、表跨集群同步等。 b. Hbase 集群架构设计与运维: 读写 QPS 降低、节点阻塞、同步阻塞、数 据倾斜等 Hadoop DevOps 平台设计与开发(本人参与设计和开发部分) a. 运维执行模块 a1.使用 cmdb 存储 hadoop 相关资产、服务资源、 acl、 client 等信息。 结合 ansible 进行资产部署。 a2.集中化服务运维脚本开发 b. 服务状态模块—hadoop 大数据分析(调研阶段) b1. Hdfs 元数据分析: 针对 fsimage 和 fsEditlog 的数据,分析用户在 HDFS 容量方面的使用情况, 包括热度、小文件等,最终为了
2016-07-01 -2017-10-18中国电子科技集团公司第 32 研究所大数据运维开发工程师
开发国产自主可控的大数据平台管理工具,该工具主要用于管理常用的大数 据项目组件: zookeeper、 hadoop、 hbase、 hive、 spark 等,可以实现自动部署,启停服务角色、监控状态等功能。 我主要负责: 1、编写 shell 脚本,实现自动部署管理工具,包括自动搭建ftp 服务器,配置基于 ftp 的 yum 源,自动时间同步等。 2、构建 rpm 包,将各个大数据组件如 hadoop、 zookeeper 打成 rpm 包,放到 ftp 服务器中,以便使用yum 安装。 3、提供各个组件常用的参数配置。
教育经历
2013-09-01 - 2016-06-30中国人民解放军理工大学计算机科学与技术硕士
解放军理工大学计算机科学与技术专业,机器学习与人工智能方向研究生,连续三年获得校优秀学员,一等奖学金。
2009-09-01 - 2013-06-30合肥师范学院计算机科学与技术本科
合肥师范学院计算机科学与技术专业本科学历,在校期间获得三好学生,优秀学生,优秀毕业生等称号。
技能
本项目主要是应对Hadoop生态体系组件的日常运维,包括部署、扩容、灰度上线、状态检查等,以及提供HDFS、hive、hbase等工具包,包括HBase region迁移,热点定位,创建表等工具包。 该项目主要是使用ansible进行统一管理,编写ansible playbook进行自动化工作。
该项目为军工类项目,为开发国产大数据平台管理平台项目; 1.项目包含可视化界面,一体化部署Hadoop/HIve/HBase/Spark等hadoop生态体系组件并动态扩容上下线,并监控告警等功能; 2. 我在项目中第一是负责使用ansible playbook编写自动化部署,运维Hadoop大数据平台功能;第二是负责建设大数据集群的监控和告警,使用promethus进行数据采集并在grafana中进行展示;
项目为电商构建指标体系;对埋点及下单数据进行分析构建出潜在有价值客户及活动拉新客户流失等指标体系展示 我在项目中主要承担以下职责: 1. 全面架构设计,由于研发人员资源紧张,我负责全面架构设计,经过调研各大公司实际落地项目,选择开源工具进行开发设计;通过spark/flink对接hive/kafka进行离线和流式数据加工,并将加工好的数据接入OLAP数据库[druid/clickhouse];并最终选择superset作为指标dashboard展示搭建; 2. 离线和实时指标数据开发:买点数据和订单数据接入kafka并sink到hive中,使用spark进行离线开发,并使用flink进行实时指标开发。