Python

Python是一门诞生于1991年的高级、解释型编程语言,由吉多·范罗苏姆创造。其核心设计哲学强调代码的极简性和可读性,尤其依赖清晰的缩进来定义代码结构,这使得它语法接近英语,非常易于学习和使用。作为动态类型语言,它为快速开发和原型设计提供了极大的灵活性,并支持面向对象、命令式、函数式等多种编程范式。Python的巨大优势在于其拥有一个由庞大活跃社区支撑的丰富第三方库生态系统(PyPI),覆盖了几乎所有应用领域:无论是Web开发(Django, Flask)、数据科学(Pandas, NumPy, Matplotlib)、人工智能(TensorFlow, PyTorch)还是自动化脚本和系统运维,都能找到成熟高效的工具库。这种“开箱即用”的特性使其成为解决各类实际问题的“瑞士军刀”,兼具强大的功能与简单的语法。
项目分为注册登录模块,个人站点,文章详情,文章的增删改查等等 我是全栈 难点主要是在于xss攻击的应对,还有多表查询比较繁琐
1230pythonpython
├── auth 用户验证模块 │   ├── admin.py │   ├── apps.py │   ├── migrations │   ├── models.py 用户信息-数据模型 │   ├── urls.py 登录注册相关视图-路由地址配置 │   └── views.py 登录注册相关视图 ├── bs-frontend-template 前端vue目录 │   ├── LICENSE │   ├── encrypt.js │   ├── index.html │   ├── jest.config.js │   ├── mock │   ├── package-lock.json │   ├── package.json │   ├── public │   ├── src │   ├── tailwind.config.js │   ├── test │   ├── tsconfig.json │   └── vite.config.ts ├── co2 二氧化碳排放数据模块 │   ├── __init__.py │   ├── admin.py 后台二氧化碳排放管理显示控制 │   ├── apps.py │   ├── migrations │   ├── models.py 二氧化碳排放数据-数据模型 │   ├── tests.py │   ├── urls.py 二氧化碳排放数据-路由配置地址 │   └── views.py 二氧化碳排放数据视图 ├── co2_analyse_system 后端全局配置 │   ├── __init__.py │   ├── asgi.py │   ├── settings.py 后端全局配置文件 │   ├── urls.py 后端全局路由地址配置 │   └── wsgi.py ├── dataset 原始数据集 │   ├── 1997年30个省份排放清单.xlsx │   ├── 1998年30个省份排放清单.xlsx │   ├── 1999年30个省份排放清单.xlsx │   ├── 2000年30个省份排放清单.xlsx │   ├── 2001年30个省份排放清单.xlsx │   ├── 2002年30个省份排放清单.xlsx │   ├── 2003年30个省份排放清单.xlsx │   ├── 2004年30个省份排放清单.xlsx │   ├── 2005年30个省份排放清单.xlsx │   ├── 2006年30个省份排放清单.xlsx │   ├── 2007年30个省份排放清单.xlsx │   ├── 2008年30个省份排放清单.xlsx │   ├── 2009年30个省份排放清单.xlsx │   ├── 2010年30个省份排放清单.xlsx │   ├── 2011年30个省份排放清单.xlsx │   ├── 2012年30个省份排放清单.xlsx │   ├── 2013年30个省份排放清单.xlsx │   ├── 2014年30个省份排放清单.xlsx │   ├── 2015年30个省份排放清单.xlsx │   ├── 2016年30个省份排放清单.xlsx │   ├── 2017年30个省份排放清单.xlsx │   ├── 2018年30个省份排放清单.xlsx │   ├── 2019年30个省份排放清单.xlsx │   └── crawl_excel.py 从网站抓取下载原始数据集的爬虫代码 ├── db.sqlite3 数据库文件,下载这个软件 https://www.sqlitestudio.pl/,然后用它打开项目里的db.sqlite3文件即可查看表结构啥的 ├── dist 由vue前端最终构建得来的前端文件 │   ├── assets │   └── index.html ├── index 前端文件配置目录 │   ├── __init__.py │   ├── admin.py │   ├── apps.py │   ├── migrations │   ├── models.py │   ├── static │   ├── tests.py │   ├── urls.py 前端页路由配置 │   ├── utils.py 工具函数代码 │   └── views.py 渲染前端页面的视图 ├── loaddata.py ├── manage.py 后端启动入口文件 python manage.py runserver ├── middlewares 后端中间件目录
3420python网络爬虫
该项目涵盖了从后端逻辑到前端界面设计、从数据库管理到系统安全维护的全栈开发。 在后端开发上,我使用了Django框架,它提供了强大的ORM功能和模板引擎,使得我可以高效地进行数据库交互和页面渲染。数据库方面,我选择了MySQL,以其高性能、稳定性和可扩展性来满足商城网站对数据存储和查询的需求。 在前端开发上,我运用了HTML、CSS和JavaScript来构建用户友好的界面,并利用Ajax技术实现前后端数据的异步交互,提升用户体验。同时,我使用了Bootstrap等前端框架来加速开发进程并美化页面。 在安全性方面,我充分利用了Django的用户认证和权限管理功能,确保用户数据的安全性和隐私性。此外,我还对输入数据进行了严格的验证和过滤,以防止SQL注入等常见的安全漏洞。 商城网站的性能优化是一个重要问题,我通过优化数据库查询、使用缓存技术等方式来提升系统性能。其次,实现前后端数据的异步交互是一个技术难点,我通过深入研究Ajax技术并结合Django的视图和模板功能,成功实现了实时数据交互。最后,确保系统的安全性是一个持续的挑战,我采取了多种安全措施来保护用户数据,并不断学习最新的安全知识来应对潜在的安全威胁。
6310pythonWeb框架
简单的猜数字游戏在这个游戏中,一个玩家(通常是裁判)会在一定范围内(如1到100)选择一个数字,然后其他玩家轮流猜测这个数字。裁判会根据玩家的猜测给出提示,比如“太大了”或“太小了”,直到有玩家猜中这个数字为止负责写代码,实现简单的数字游戏,通过上网查资料中解决代码报错问题。
1950C/C++游戏(Gaming)
简单的猜数字游戏在这个游戏中,一个玩家(通常是裁判)会在一定范围内(如1到100)选择一个数字,然后其他玩家轮流猜测这个数字。裁判会根据玩家的猜测给出提示,比如“太大了”或“太小了”,直到有玩家猜中这个数字为止负责写代码,实现简单的数字游戏,通过上网查资料中解决代码报错问题。
1870C/C++游戏(Gaming)
提供公司人员定位、电子围栏、检测整改、视频监控、道闸门禁、人员轨迹、数据大屏、数据分析、onenet 物联网 、项目管理、承包商管理 等等
2860javaREST/RESTful项目
边缘计算盒子加摄像头,通过模型识别监控违章,如抽烟、安全帽、烟火、摔倒 等等,违章视频保存 mqtt 消息通知服务器。
2680python图形/图像处理
对任务流数据进行了可视化设计,使用图表、图形等方式展示了任务流的关键信息,帮助用户更直观地理解和掌握任务情况
2160python项目构建
基于LangChain + 开源 LLM构建个人知识库,用 LangChain 对文档进行向量化,然后检索内容,在调用 LLM 对得到的内容进行总结输出
4590python机器学习/深度学习
1、系统分为通信、感知、决策、规划、控制、监测等模块。 2、该系统为矿山场景下的自动驾驶项目,实现采运排全流程无人化运行。
1240C/C++ros/ros2
1、全国建筑市场企业资质公示信息 按地市采集 数据量100万+ 2. 全国破产重整案件网公开案件 按月采集 数据量60万+,持续增加中
1710python爬虫
1、全国建筑市场企业资质公示信息 按地市采集,数据量100万+,持续增加中 2. 全国破产重整案件网公开案件 按月采集,数据量60万+,持续增加中 建筑市场企业资质公示信息的数据采集通常涉及以下步骤: 1. **确定数据来源**:确定您想要采集的建筑市场企业资质公示信息的来源,例如官方网站、数据库或其他渠道。 2. **制定数据采集计划**:制定详细的数据采集计划,包括需要采集的信息内容、采集频率、采集方式等。 3. **选择合适的工具**:根据数据来源和采集计划,选择适合的数据采集工具,比如网络爬虫、数据抓取软件等。 4. **编写数据采集脚本**:如果需要定制化的数据采集,您可能需要编写数据采集脚本来自动化数据采集过程。 5. **执行数据采集**:根据计划执行数据采集,确保数据的准确性和完整性。 6. **数据清洗和处理**:采集到的数据可能需要进行清洗和处理,确保数据质量和可用性。 7. **数据存储和分析**:将采集到的数据存储在适当的数据库或文件中,并进行分析和利用。
2320python网络爬虫
1、全国建筑市场企业资质公示信息 按地市采集 337/337 数据量100万+,持续增加 2. 全国破产重整案件网公开案件 按月采集 数据量60万+,持续增加
11590python网络爬虫
主要是运用modbus485通信技术 使用python的serial库收发消息,我来解析并且保存消息到excel文件,并且实时更新至网页,网页使用echarts折线图,方便观察记录 此外还能解析配置文件,方便解析不同的485协议的点表 全部由我完成,1000多行代码
3430pythonecharts
项目用于解析can通信 使用tkinter做界面框架 支持can卡选择,实时解析can-read消息,保持运行状态和故障信息,长时间can-write保持心跳,控制下位机 全部由我独立完成,共500多行代码
3770pythonpython
全站开发,全方位展示客户企业信息,CONTACT US保存用户姓名,电话,邮箱,和需求信息,保存到数据库,并有后台管理面板,方便查看感兴趣的客户信息。google地图标记企业位置信息。
1820pythonJavaScript
本项目是一个Python脚本工具,用于从中国国家统计局获取数据,并将数据存储到MySQL数据库中。它包含了创建数据库表、插入数据以及管理数据库连接等功能 数据库配置 在 national_data.py 模块中的 config 字典里设置数据库连接参数。根据数据库设置更新这些参数。 模块介绍 mysql_connect.py:处理MySQL数据库连接和操作。 national_data.py:从国家统计局API获取数据,并将其存储到数据库中。 数据编码对应 dbcode.json:存储数据库代码及其相应的名称。 zb.json:包含用于查询不同类型国家数据的类别和子类别代码。 wbcode.json:可能包含与数据获取过程相关的额外代码(如果使用的话)。
3381pythonpython
支持从多种不同格式的在线文件中提取和解析文本内容,并将其转换为Document对象。 适用于自然语言处理和文本分析的场景,例如构建问答系统、知识图谱等。 分类完成了: 文档,在线csv,文本处理,pdf文件处理和 自然语言分割.
2150pythonpython
定时统计任务,根据项需求完成相应的统计报表. 然后定时发送到需求方指定邮箱. 部分内容 获取,使用爬虫技术,利用 python + selenium 调起网页进行获取.
1490pythonmysql
该项目为公司后台数据统计使用. 前端100%由个人开发,使用layui框架搭建完成. 后台100%由个人开发,使用pandas进行数据统计任务. 涉及数据库mysql,clickhouse,redis等的相关操作.
2100python数据库连接池
当前共5938个项目more
×
寻找源码
源码描述
联系方式
提交