

全职 · 300/日 · 6525/月信用正常
工作时间: 周末09:30-06:00工作地点:
远程
服务企业:
1家累计提交:
1工时
联系方式:
********
********
********



个人介绍
我是程序员客栈的后厂村小张,就职于亚信安全
从事测试开发工作两年以上
熟练于Linux终端操作
熟悉大数据组件操作 flink、filebeat、hadoop、hive、hbase、kafka等
数据库操作熟练 MySQL、Oracle、pgsql、antdb、gp
代码能力:python、shell
工作经历
2018-10-15 -至今亚信安全测试开发工程师
现场项目 自动化部署 脚本开发工作 接口的自动化单元测试工作 性能测试脚本的开发工作
教育经历
2014-09-06 - 2018-07-06河北农业大学计算机科学与技术本科
技能
作品

爬取 https://lcsc.com/products/Connectors_365.html 下方2000多页的 表格数据(程序运行需要在30分钟内全部爬去完毕),保存到mysql 中 “爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫”

2023-03-29 22:23

1. 爬取任意新浪微博博主的某条超过100条评论的评论,保存为excel 文件 “爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫爬虫” 使用 urllib.request , urllib.parse ,re模块,写入到excel文件

2023-03-29 22:24