后厂村小张
1月前来过
全职 · 300/日  ·  6525/月
工作时间: 周末09:30-06:00工作地点: 远程
服务企业: 1家累计提交: 1工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

我是程序员客栈的后厂村小张,就职于亚信安全

从事测试开发工作两年以上

熟练于Linux终端操作

熟悉大数据组件操作 flink、filebeat、hadoop、hive、hbase、kafka等

数据库操作熟练 MySQL、Oracle、pgsql、antdb、gp

代码能力:python、shell

工作经历

  • 2018-10-15 -至今亚信安全测试开发工程师

    现场项目 自动化部署 脚本开发工作 接口的自动化单元测试工作 性能测试脚本的开发工作

教育经历

  • 2014-09-06 - 2018-07-06河北农业大学计算机科学与技术本科

技能

0
1
2
3
4
5
0
1
2
3
4
5
作品
python爬虫-3

爬取 https://lcsc.com/products/Connectors_365.html 下方2000多页的 表格数据(程序运行需要在30分钟内全部爬去完毕),保存到mysql 中 “爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫”

0
2023-03-29 22:23
python爬虫-2

1. 爬取任意新浪微博博主的某条超过100条评论的评论,保存为excel 文件 “爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫” 使用 urllib.request , urllib.parse ,re模块,写入到excel文件

0
2023-03-29 22:24
Python爬虫-1

1. 爬取 网站http://www.1ppt.com/ 上所有的ppt文件 “爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫” 使用 urllib.request , urllib.parse 模块 下载之后,放到单独一个目录,压缩成zip压缩包

0
2023-03-29 22:29
更新于: 2023-03-10 浏览: 197