



个人介绍
大家好,我是程序员客栈的悲伤的修勾,一名python程序员。我毕业于河南理工大学,
作为一名Python程序员,我拥有丰富的编程经验和技能,能够快速高效地开发各种类型的应用程序。我善于分析问题、解决问题,具有良好的团队合作精神和沟通能力。
如果您需要我的帮助,请点击“立即预约”或“发布需求”!
工作经历
2021-09-11 -至今郑州员工
使用Python编写数据处理程序,对从不同数据源获取的数据进行清洗、转换和分析,生成可视化报告并提供决策支持。 使用Python编写Web应用程序,使用Django框架搭建Web应用程序,实现用户注册、登录、数据上传、数据查询等功能。
教育经历
2018-09-01 - 2021-06-01河南理工大学计算机科学与技术本科
技能

这段代码的作用是爬取黑客工具网站blackarch.org上的工具名称和说明,并将说明翻译成中文后写入Excel文件中。具体实现过程如下: 首先,使用requests库向blackarch.org发送访问请求,获取页面源代码。然后,使用lxml库解析页面源代码,提取出工具名称和工具说明。接着,使用xlsxwriter库创建Excel文件,并在其中创建一个名为“blackarchtools”的数据表单。将工具名称写入第一列,将工具说明翻译成中文后写入第二列。翻译使用了百度翻译API,需要提供appid和secretKey。最后,将Excel文件保存为“out.xlsx”。


这段代码的用途是从一个网站上爬取小说《斗罗大陆》的内容,并将其保存到一个文本文件中。代码使用requests库发送GET请求到网站,并使用lxml库解析HTML响应。然后提取章节的标题和内容,并将其保存到一个文本文件中。代码还检索下一章节的URL,并重复这个过程,直到没有更多的章节为止。


title():此函数打印脚本的标题和版本号。 check_host():此函数读取输入文件并从每个URL中提取主机。如果主机是IP地址,则将其添加到ips列表中。如果是域名,则使用tldextract库将注册域添加到domains列表中。 ip_check(ip):此函数使用IP138网站对给定的IP地址执行反向查找。它使用XPath从HTML响应中提取域名,并将注册域添加到domains列表中。 multi_ip_check():此函数使用线程池在ips列表中的每个IP地址上执行ip_check()函数。它检查domains列表中唯一域名的数量在函数调用前后是否相同,如果不同,则再次调用该函数以确保提取所有域名。 seo_check():此函数使用ZZCN8 API查询domains列表中每个域名的权重。它使用JSONPath从JSON响应中提取每个搜索引擎(百度PC、百度移动、360 PC、360移动、搜狗PC、搜狗移动、神马)的权重,并将结果添加到列表中。然后,它使用rich库创建表格并输出结果。
