Python

Python是一门诞生于1991年的高级、解释型编程语言,由吉多·范罗苏姆创造。其核心设计哲学强调代码的极简性和可读性,尤其依赖清晰的缩进来定义代码结构,这使得它语法接近英语,非常易于学习和使用。作为动态类型语言,它为快速开发和原型设计提供了极大的灵活性,并支持面向对象、命令式、函数式等多种编程范式。Python的巨大优势在于其拥有一个由庞大活跃社区支撑的丰富第三方库生态系统(PyPI),覆盖了几乎所有应用领域:无论是Web开发(Django, Flask)、数据科学(Pandas, NumPy, Matplotlib)、人工智能(TensorFlow, PyTorch)还是自动化脚本和系统运维,都能找到成熟高效的工具库。这种“开箱即用”的特性使其成为解决各类实际问题的“瑞士军刀”,兼具强大的功能与简单的语法。
客户是一家专注于生产和销售电子产品的企业,公司成立于2014年。随着业务的日益发展壮大,公司的业务范围也逐渐扩大,包括生产管理、采购管理、销售管理、仓库管理等多个方面。 随着公司规模的不断扩大,原有的手工操作已经无法满足日益增长的业务需求,导致出现了很多管理和运营上的问题,比如生产计划不够合理,采购管理效率低下,销售订单处理繁琐等。为了提高业务的运营效率和管理水平,XYZ有限公司决定引入一套企业内部ERP管理系统来实现信息的集成和业务流程的优化。 该企业内部ERP管理系统将涵盖各个部门的管理需求,包括生产计划管理、采购管理、销售管理、仓库管理、财务管理等方面。通过系统的实施,公司将实现生产计划与销售订单的有效对接,采购需求与库存管理的精准匹配,仓库存货的精确监控和管理,财务数据的及时汇总和分析等功能。 通过引入企业内部ERP管理系统,企业将实现信息的高效集成和业务流程的优化,提高业务管理的效率和水平,加强内部各个部门之间的协同作业,为公司的长远发展打下坚实的基础。
1380javaCRM
训练yolo的模型, 对游戏内的状态,位置, 技能cd等技能判断, 通过按键模拟, 消息传递等方式实现游戏的脚本功能 使用 OpenMMLab 的yolo框架实现。
7720pythonpython
做了一个可以爬取各种漫画网站信息,使用mongodb 存储, 并做一个前台站,负责展示这些信息, 另外还包括1:使用waifu2x的图片放大工具, 2:基于英伟达的pix2pix实现的去码功能,3: 基于orc做漫画中的文字识别,并传入gpt实现自动翻译的功能。
3520python爬虫
1.描述: 基于树莓派 zero 2w的云端智能灌溉系统,实现远程对农作物进行灌溉,通过云端服务器通信,实时监控土壤湿度数据并由手机 app 发出浇水和停止浇水指令实现控制。树莓派和云服务器端由 python 代码,app 使用 kotlin 完成。 2. 核心技术点: ●树莓派引脚的操作:通过 MPC3008对湿度传感器的模拟数据进行转化,再连接到树莓派的引脚得到湿度数据。 ● sockets 通信:使用 sockets 实现全双工通信,传递打包好的 json 数据以及指令。 ●多线程的使用:在树莓派和云服务器,云服务器和手机 app 的通信中,使用多线程提高并发性能,实现异步通信,提高响应速度。 ●远程通信的安全连接:在通信连接时,使用了密钥技术实现安全连接。 ●mysql 的使用:将湿度数据存储在云服务器的 mysql 数据库里面。
3110pythonSocket
订单模块:处理玩家的购买订单,包括订单的创建、支付、取消和查询等功能。 玩家数据模块:管理和分析玩家账户信息,包括等级、装备、虚拟货币等。 市场数据模块:监控和分析游戏内的交易市场,提供市场趋势、价格等信息。 运营数据模块:收集和分析游戏运营的相关数据,如用户活跃度、留存率等。 数据总览模块:为管理员提供平台各项数据的综合展示,方便监控和管理。 后台权限模块:管理后台用户的权限和角色,确保不同角色的用户能够访问相应的功能。 在项目中,我主要负责了订单模块、玩家数据模块和后台权限模块的开发工作。我选择了Python作为开发语言,利用Flask框架构建后端服务,通过Redis实现高速缓存,使用Nginx作为反向代理服务器,以及PostgreSQL数据库来存储和处理数据。在这些技术的支持下,我成功地实现了上述功能模块,并处理了单张表1亿+的数据量,实现了模块化数据功能,确保了1亿数据能够快速响应增删查改操作,同时使得后台活动的Web页面能够灵活配置。 在开发过程中,我遇到了包括大数据处理效率、系统安全性和用户体验等多方面的挑战。为了解决大数据处理效率问题,我优化了数据库查询语句,并利用Redis进行缓存,大大提高了数据读取速度。在系统安全性方面,我采用了多种安全措施,如SSL加密、密码学原理保护用户数据,以及实施定期的安全审计和漏洞扫描。为了提升用户体验,我仔细研究了用户交互流程,并对界面进行了优化,确保了操作的流畅性和直观性。此外,为了应对高并发情况,我还对系统进行了性能测试和优化,确保了平台在高流量下的稳定运行。
3060pythonpython
游戏上线模块:负责游戏的发布和更新,确保玩家始终能体验到最新最热的游戏内容。 后台管理模块:提供给管理员使用的界面,用于监控游戏状态、管理用户账户、处理财务和运营数据等。 订单支付模块:集成支付系统,支持玩家购买游戏内的虚拟物品或服务。 防沉迷系统模块:根据国家相关规定,对未成年玩家进行游戏时间限制,以保护他们的身心健康。 登录注册模块:为玩家提供创建账户和登录游戏的平台 在项目中,我主要负责了游戏上线、后台管理、订单支付、防沉迷系统和登录注册模块的开发工作。我选择了Python作为开发语言,利用Flask框架构建后端服务,通过Redis实现高速缓存,使用Nginx作为反向代理服务器,以及PostgreSQL数据库来存储和处理数据。在这些技术的支持下,我成功地实现了上述功能模块,并处理了单张表1亿+的数据量,确保了平台的稳定运行和高效数据处理能力。
3490python短信API
项目分为采样算法,优化算法,后处理模块 全部由我一人开发 主要包含多目标多约束的遗传算法,粒子群算法,模拟退火算法 拉丁超立方采样,低差异序列采样
620C/C++python
1.本源码使用了DrissionPage来调用Chrome浏览器打开特定网页并进行登录操作。 2.使用DrisssionPage库中的ChromiumPage类查询网页元素,定位考试操作。 3.调用ChromiumPage类模拟考试操作并自动循环至考试次数用尽。 4.使用random来随机选定答案(由于企业内部管理原因,此套考试题不能答满分)
1940python其他(Others)
熟练使用当前主流网络模型(CNN or Transformer)搭建深度学习网络,能帮助用户搭建自己的网络模型,运行并且跑通,可支持代码讲解
1090深度学习python
移动底盘 机械臂 视觉识别 等 负责底层程序编写 以STM32F407VET6单片机为核心,通过MPU6050与激光雷达确定机器人行驶路径,通过摄像头识别果实颜色程度来判断成熟度反馈给单片机,单片机根据返回来的数据进行处理控制舵机实现机械臂的采摘。最后通过仿真测试,优化机器人性能,提高采摘搬运效率和质量。
1170C/C++机器学习/深度学习
在当今现代都市生活中,空气质量的预测已经成为人们日常关注的重要话题。 随着工业化和城市化的加剧,以及交通工具的增多,空气污染已成为影响居民健康的主要因素之一。 因此,及时准确地预测空气质量变化,对于人们健康和生活质量具有重要意义。该系统实现了对原始数据的可视化,每年AQI平均值对比,每年污染等级统计,未来5天的空气质量预测,不同模型间的效果对比等功能。
1910python时间序列预测
1.语音助手提供给使用者语音识别和语音合成的服务。语言识别方面,采用了基于CNN+CTC的声学模型与基于N-gram的语音模型的组合,能够接收用户的输入的音频文件,生成语言识别结果;语言合成方面,采用了GPT-SoVITS模型,能够接受用户的文本输入以及音色选择,生成对应的音频文件。 2.前端使用vue来编写,后端使用flask来进行连接。
1130pythonvue
针对2021-22赛季欧冠数据集进行数据清洗,kmeans聚类分析,层次聚类,各种属性之间的关系柱状图条形图,还有不同数据之间生成球员综合评分,并进行对比
1570python数据分析
实现了对安卓apk的特征提取,在前端展示出来,并且可以前端上传apk文件到后端,后端调用联邦学习进行判断并返回是否恶意回到前端
2400python联邦学习
1、基于索引架构的相似匹配系统,素材容量达到 600 万 +,可支持检索多种媒体素材 2、主要使用技术:golang框架,微服务,django,MySQL,MongoDB,ElasticSearch 3、重构服务系统 (老旧服务延迟大,扩展性不足),机器资源占用大幅减少,存储容 量节省 50% 以上。
1520python微服务
图像分类课设(yolov5cls,yolov8,cnn,effientnet,resnet),蓝牙模块果蔬识别 机器视觉,数据处理分析,目标检测,大数据hadoop等一系列相关知识
1410python手机相关软件
1.实现了8路继电器通断口,3路RGB等待接口。 2.基于micropython实现 3通过物联网协议mqtt与mqtt服务器进行通信实现控制信息的传输
3030python智能硬件
1.实现了8路继电器通断口,3路RGB等待接口。 2.基于micropython实现 3通过物联网协议mqtt与mqtt服务器进行通信实现控制信息的传输
1240python智能硬件
1. 用于采集京东视频中的达人账号下面的相关产品数据 2. 采集后的数据以产品SKU为名创建文件夹,并爬取相关的封面图片和视频 3. 使用内嵌浏览器,能够缓存登录状态,无需每次启动都重新登录 4. 主界面使用winform开发,该项目也包含了控制台版本
9250python爬虫
scrapy工作流程原理: 1.由爬虫器确认起始url,构造一个request对象,交给引擎(在spiders里面设置) 2.引擎把request对象交给调度器,是一个队列,相当是一个容器(先进先出,后进后出),排序的功能 3.调度器把排序之后的request对象发送给引擎 4.引擎把request对象交给了下载器 5.下载器拿了request对象发送了网络请求,获取了响应对象response,交给了引擎 6.引擎把响应response交给了爬虫器(在spiders里面的response) 7.爬虫器拿到了response进行解析 --(1)如果直接保存的数据data,返回给引擎之后,那么引擎就交给了管道 --(2)是需要继续发送请求的url,返回给引擎之后,把之前的流程再走一遍 8.管道拿到了由引擎发送过来的数据data,直接进行保存
900python爬虫
当前共6121个项目more
×
寻找源码
源码描述
联系方式
提交