

全职 · 300/日 · 6525/月信用正常
工作时间: 工作日09:00-21:00、周末09:00-21:00工作地点:
远程
服务企业:
0家累计提交:
0工时
联系方式:
********
********
********



个人介绍
>> 会编写python,网页爬虫,数据清理、整理
① 爬取过公司内部的erp网站,用做月报数据、会员数据等。
② 爬取过天气网址,清洗数据,并对接公司内部的BI分析系统。
③ 清洗银行流水对账单数据。
④ 处理、清洗、整理发给客户的日常运维数据报表
⑤ 系统数据搬迁时,无法数据库搬迁。通过爬虫把原来系统上万个文件按规则下载下来。
>> 会编写excel宏
① 编写客户需求的excel模板并对接公司系统
② 为了方便客户管理合约和规章,制作自动规章生成的工具。
>>excle
① 客户数据整理、汇总、分析
工作经历
2019-01-01 -2022-02-28维杰斯it运维
负责部门方便于运维的脚本编写,使用python、excel宏、oracel、excel、finereport等工具来实现目标。
教育经历
2016-07-01 - 2019-06-30浙江机电计算机应用专科
在学校获得过省内专科组计算机编程三等奖
技能
0
1
2
3
4
5
0
1
2
3
4
5