




个人介绍
掌握技能:
熟练掌握python、requests、scrapy、feapder、flask、JavaScript、html5、ajax、css等技术
熟练掌握selenium
熟悉使用charles、fiddler等抓包工具
熟悉js逆向
熟悉常见反爬及反反爬
熟悉补环境、hook等技术
熟练掌握MySQL、redis等
自我评价:
1.热爱工作,学习能力强
2.本人性格稳重,责任心强
3.在工作中有较强的团体合作意识,善于沟通交流,乐于倾听他人意见
工作经历
2021-09-01 -2023-11-14米琪云软件公司python爬虫工程师
负责公司爬虫项目的开发与日常维护,应对常见反爬措施并绕过,设计高性能爬虫,提高数据采集速度
教育经历
2016-09-01 - 2020-09-01贵州理工大学计算机科学与技术本科
在校期间多次参与国家创新创业,有夯实的基础,能独立完成项目
技能

本项目是一款采集tiktok数据的项目,项目场景:客户需要手动在直播间寻找满足条件的主播邀请加入公会,在后台进行邀约。项目实现:通过逆向分析接口,在直播页面采集到主播信息(如主播id,昵称,头像,签名,粉丝数等等),通过kafaka消息队列,将主播id发布成生产者,使用后台账号消费该消息,判断用户是否满足条件,满足条件将该主播id发布成另一生产者,通过后台账号得到该主播id,发起邀约链接和消息模板。该项目还使用flask框架作为管理系统后台,在采集主播数据时,将该主播加入一个排除列表,下次访问到该主播时将不在重复采集,前台使用vue+elememt实现,主要是可以配置tiktok搜索的关键词和发送消息的模板,以及查询已经关注过的主播的信息和浏览过的主播信息。

用户评价

相似推荐 换一批
技术leader
1000元/天
达而观信息科技(上海)有限公司
技能:Python,HTML、CSS、JavaScript、Jquery、Vue,Linux,git,mysql、mongodb、redis,Flask、Django,Nginx、uWSGI 、Gunicorn,celery,ElasticSearch,Scrapy、Scrapy-Redis,Matplotlib、Numpy、Pandas、Scikit-Learn,Docker
高级后端工程师
600元/天
览辉科技有限公司
技能:PHP,Python,JavaScript
高级后端工程师
500元/天
北京文思海辉
技能:Python
高级后端工程师
888元/天
武汉安天信息技术有限责任公司
技能:Linux,Linux,Python,Django,Django,Redis,MySQL,MongoDB,爬虫,爬虫,scrapy