




个人介绍
我是程序员客栈的[少年],毕业于[浙江大学],担任过[浙江扩散云公司] 的[开发工程师]
负责过 [扩散云APP],[招财火小程序],[小说网站]的开发,
熟练使用[Python] ,[Django] ,[Flask] ,[Mysql] ,[Golang] ;
熟练使用[Linux+Nginx+Mysql+Python/Go]技术栈
如果我能帮上您的忙,请点击“立即预约”或“发布需求”!
工作经历
2018-03-01 -2020-01-01杭州扩散云开发工程师
公司主要是负责商城APP/小程序多端开发,这是一个电商项目,系统完善,运行良好。
教育经历
2014-09-01 - 2018-07-01浙江大学计算机科学与技术本科
技能

- 开发了一个新闻内容爬虫系统,定时抓取多个新闻网站的头条新闻,并存储到MongoDB中进行后续数据分析。 - 使用Requests库发送HTTP请求获取网页内容,使用BeautifulSoup解析HTML页面,提取关键信息。 - 设计了分布式架构,使用Celery和Redis实现任务队列和分布式任务调度,提高了爬虫的效率和稳定性。 - 对抓取的新闻内容进行文本分析、情感分析和关键词提取等,为用户提供定制化的新闻推荐服务。 - 编写了自动化测试脚本,保证了爬虫系统的稳定性和可靠性。


- 开发了一个新闻内容爬虫系统,定时抓取多个新闻网站的头条新闻,并存储到MongoDB中进行后续数据分析。 - 使用Requests库+Scrapy发送HTTP请求获取网页内容,使用BeautifulSoup解析HTML页面,提取关键信息。 - 设计了分布式架构,使用Celery和Redis实现任务队列和分布式任务调度,提高了爬虫的效率和稳定性。 - 对抓取的新闻内容进行文本分析、情感分析和关键词提取等,为用户提供定制化的新闻推荐服务。 - 编写了自动化测试脚本,保证了爬虫系统的稳定性和可靠性。
