个人介绍
2. 熟练掌握Shell、Python开发语言,可进行相关自动化脚本编写
3. 熟练掌握负载均衡软件Nginx + Keepalived以及Haproxy + Keepalived,了解LVS
4. 熟练使用Django框架和Rest Framework,了解Django项目的优化
5. 掌握自动化运维工具Ansible以及ansible playbook,熟悉SaltStack了解Puppet
6. 熟练掌握分布式监控,如Zabbix,了解Open-falcon、Prometheus
7. 熟练掌握ELKB(Fliebeat、Logstash、Elasticsearch、Kafka、Kibana)集中式日志管理。
8. 熟悉Docker、docker-compose,了解k8s
9. 熟悉Mysql、Redis,熟练掌握mysql主从复制和备份
10.熟悉CICD架构,熟练使用Jenkins、Gitlab、Ansible,能够编写Pipeline
11.熟悉jumpserver堡垒机代码审计平台
12.了解web前端的相关知识,如HTML5,CSS3,JavaScript,Jquery,Bootstrap以及Vue
工作经历
2018-08-01 -2020-06-01宏时数据运维开发工程师
1.负责应用服务器环境的搭建与项目实施部署 2.负责自动化运维平台的开发与维护 3.负责相关故障、疑难问题的排查处理,保障应用系统稳定运行 4.搭建日志管理平台,实现日志收集、过滤、存储、可视化 5.搭建代码更新平台,实现CI/CD,实现:代码发布、更新、回滚的自动化操作
教育经历
2014-09-01 - 2018-07-01中北大学信息商务学院软件工程本科
软件工程专业在校学习过Java,前端,毕业后学习过Linux之后主做运维开发
技能
项目描述: 随着公司业务的发展,客户的增多,项目的增加,测试及生产环境代码更新频繁,运维工作繁重,为了降低工作强度,加强版本控制,提高开发效率,决定搭建自动化部署系统,Jenkins+Gitlab,实现测试环境和生产环境的持续集成和持续交付。 项目职责: 1、 部署Gitlab+Jenkins并整理相关文档 2、 配置Jenkins在测试、预发布、生产的任务,编写构建所需的脚本 3、 测试环境使用触发式构建,自动拉取代码,完成部署 4、 用该系统进行项目上线测试,开发人员将dev分支合并到master分支,并打上Tag 5、 生产环境使用参数化构建的方式拉取代码,灵活也确保安全 6、 编写技术文档
项目描述: 项目初期查看日志是通过ssh的方式登陆服务器查看日志,随着业务的增多,使用ssh的方式查看日志效率太低,也容易出现很多纰漏,经过内部会议决定搭建ELKB日志管理平台,方便运维与开发人员查找日志,来提高工作效率。 ELKB:Elasticsearch、Logstash、Filebeat、Kibana 项目职责: 1、 通过Ansible来进行批量部署Filebeat用来收集各个服务的日志传输到Logstash 2、 Filebeat设置key和value,Logstash服务器上接收Filebeat传来的日志判断Key值来实现服务日志的数据分流 3、 ES进行日志存储,通过判断条件输出到ES不同的索引中 4、 Mysql慢日志通过elastaler配置报警规则、KQL达到阈值设置,进行Email邮件报警 5、 Kibana实现日志信息展示,实时监控业务日志信息 6、 编写技术文档以供开发使用
项目描述: 在没有使用自动监控的情况下,需要运维人员来监控各个服务器的运行状态,无法完全保证服务7*24小时不间断运行,后决定使用zabbix,实现自动监控主机系统和各个服务的运行状态,并实现自动报警及时通知相关运维人员第一时间进行处理。 项目职责: 1、 通过zabbix-server、zabbix-agent、zabbix-server-porxy实现服务器基础监控 2、 使用Ansible批量部署zabbix-agent,并自定义监控项,实现对资产的监控 3、 实现对服务器服务监控(Mysql、Redis、Nginx、公司web网站) 4、 实现对服务器的硬件监控(mem使用率、disk使用率、CPU使用率等) 5、 实现业务监控(API接口信息、端口、进程状态) 6、 使用shell和python编写发送邮件脚本实现自定义监控报警 7、 设置报警媒介,当监控指标达到触发器阈值时触发动作,通过钉钉和邮件发送报警信息,实现报警升级,将不同的报警信息发送给不同小组 8、 通过Grafana实现数据展示