




工作经历
2019-03-01 -2022-02-28深圳点猫科技有限公司少儿编程老师
专注于线上6-14岁儿童,图形化及python编程教育 图形化是拼接积木的方式展现程序逻辑,python是教授基本的数据类型,语法及一些库的使用,比如pyecharts,pillow,turtle,pyside2库等等
教育经历
2012-09-01 - 2017-07-01长江大学学前教育本科
主修课程:普通心理学、人体解剖生理学、教育学原理、中国教育史、外国教育史、计算机基础、音乐美术等。
技能

本项目是一个文档统计工具,通过使用PyPDF2库,实现了统计文件及文件夹里的文档页面总数的功能。项目主要分为两个功能模块:文件遍历和页面统计。对使用者来说,他们可以通过拖拽文件或文件夹,快速获取其中所有文档的总页数。 在该项目中,我负责了整个工具的设计和开发工作。使用了Python语言作为主要技术栈,并利用PyPDF2库来处理PDF文件,以及调用win32com.client来处理Word文档。最终实现了一个简单易用的工具,能够准确统计各种格式文档的页面总数。 在开发过程中,遇到的难点主要是不同格式文档的处理。为了解决这个问题,我采用了多种方法,如判断文件扩展名、尝试不同的库等,以确保工具能够兼容多种文档类型。同时,我还进行了异常处理,以应对可能出现的错误情况,提高了工具的稳定性和可靠性。


本项目为一个Python爬虫,旨在实现自动化下载网络上的文章。项目主要包含以下功能模块:网页请求与解析、文章提取、文件保存和用户交互界面。通过这个程序,用户可以输入文章所在网页的URL,选择保存格式,然后自动抓取并下载文章内容到本地。 网址:https://gaowuyou.com/ 在这个项目中,我负责整个爬虫的设计和开发,使用了requests库进行网络请求,BeautifulSoup库来解析HTML文档,以及os库处理文件操作。最终实现了从指定网页抓取文章内容并以txt或pdf格式保存到本地的功能。 在开发过程中,遇到的难点包括应对网站的反爬机制和文章格式的多样性。为了解决这些问题,我采用了设置随机User-Agent和延时请求等策略来模拟正常用户的浏览行为,避免被网站封锁;同时,通过分析不同网站的HTML结构,编写了灵活的解析规则以适应各种页面布局,确保文章能够正确提取。


本项目为一个Python爬虫,旨在实现自动化下载网络上的文章。项目主要包含以下功能模块:网页请求与解析、文章提取、文件保存和用户交互界面。通过这个程序,用户可以输入文章所在网页的URL,选择保存格式,然后自动抓取并下载文章内容到本地。 在这个项目中,我负责整个爬虫的设计和开发,使用了requests库进行网络请求,BeautifulSoup库来解析HTML文档,以及os库处理文件操作。最终实现了从指定网页抓取文章内容并以txt或pdf格式保存到本地的功能。 在开发过程中,遇到的难点包括应对网站的反爬机制和文章格式的多样性。为了解决这些问题,我采用了设置随机User-Agent和延时请求等策略来模拟正常用户的浏览行为,避免被网站封锁;同时,通过分析不同网站的HTML结构,编写了灵活的解析规则以适应各种页面布局,确保文章能够正确提取。
