Python

Python是一门诞生于1991年的高级、解释型编程语言,由吉多·范罗苏姆创造。其核心设计哲学强调代码的极简性和可读性,尤其依赖清晰的缩进来定义代码结构,这使得它语法接近英语,非常易于学习和使用。作为动态类型语言,它为快速开发和原型设计提供了极大的灵活性,并支持面向对象、命令式、函数式等多种编程范式。Python的巨大优势在于其拥有一个由庞大活跃社区支撑的丰富第三方库生态系统(PyPI),覆盖了几乎所有应用领域:无论是Web开发(Django, Flask)、数据科学(Pandas, NumPy, Matplotlib)、人工智能(TensorFlow, PyTorch)还是自动化脚本和系统运维,都能找到成熟高效的工具库。这种“开箱即用”的特性使其成为解决各类实际问题的“瑞士军刀”,兼具强大的功能与简单的语法。
区块链期权套利系统 - 搭建高并发底层数据架构,接入交易所API采集数据并整理入库。 - 搭建 风险管理系统,构建 不同情况下的 Greeks 推演、Cash PnL 归因分析、VRP时序计算等。 - 设计 BS modol、PM 矩阵、Monte Carlo 三者相结合生成风险路径,并计算其依赖程度。 - 搭建 Outgoing robot 做风险预警,Grafana 做风险推演后的可视化报表。 - 构建 stochastic volatility 套利策略,以 SABR 模型为基础,搭配 LM 算法约束后拟合短期限的 3D 隐波曲面,识别其中潜 在的凸性套利机会进行交易。 - 构建 vrp 波动率套利策略,使用 静态对冲 做 厚尾增强 处理,并辅以 auto ddh 控制敞口。
2550Python区块链
本项目使用Google提供的vit-base-patch16-224-in21k模型进行微调,完成了犬类品种分类任务。 训练时长: 5个epochs。 深度学习框架: PyTorch。 前后端实现: Flask 和 HTML。 通过简单的操作,即可在本地端口5050访问前端WebUI,并拖拽图片实现犬类品种的识别。
1290Pythonwebapp
整合文本、语音、图像交互的企业级智能客服平台,同时具备营销自动化能力。Java 后端支持日均千万级消息处理,保障 99.99% 可用性;Python 模块部署的多模态模型可理解用户发送的商品图片并自动推荐相关产品,结合用户画像实现精准营销。提供客服工作台与管理者数据面板(转化率、问题解决率等指标)。服务某知名电商平台后,客服人力成本降低 53%,营销转化率提升 17%。
1180JavaAPP
银河万通软件开发工作室主页 实现工作室外部交互 API 等内容,优秀的前端页面质量和后端支持系统。 INDEX SVG 基本入场动画,响应式页面,渐显动画组件,支持手机端。 显示成员基本信息,卡片化设计,_base 模板渲染,后端使用 flask 和 jinja2 渲染。 可以作为模板,提供给其它工作室或组织使用。
1920Pythonweb
大模型开发产品系统
各大平台无代码智能体搭建、大模型本地部署、本地智能体搭建、知识库、大模型微调、ai插件开发 各大平台无代码智能体搭建、大模型本地部署、本地智能体搭建、知识库、大模型微调、ai插件开发 各大平台无代码智能体搭建、大模型本地部署、本地智能体搭建、知识库、大模型微调、ai插件开发 各大平台无代码智能体搭建、大模型本地部署、本地智能体搭建、知识库、大模型微调、ai插件开发
650PythonLLM (大语言模型)
MySQL 封装项目 - New SQL (NSQL) 一个轻量级、线程安全的 PyMySQL Python 封装器,具有增强功能。 Python MySQL PyMySQL 目录 优势 技术原理 功能特性 API参考 使用示例 局限性 对比 优势 与其他MySQL封装器的比较 ✔ 线程安全 - 内置线程锁机制 ✔ SQL注入防护 - 严格的标识符验证 ✔ 自动类型转换 - 智能结果类型处理 ✔ 灵活参数绑定 - 支持元组和字典参数 ✔ 连接弹性 - 自动重连处理 ✔ 调试模式 - 详细的SQL日志记录 技术原理 事务处理 使用PyMySQL原生事务支持 每次成功操作后自动提交COMMIT 可通过原始连接手动控制事务 连接池 非传统连接池 带线程锁的单一持久连接 适用于中等工作负载的轻量级方案 适合长期运行的应用程序 功能特性 核心功能 参数化查询构建 自动FROM子句补全 JSON数据类型支持 二进制数据处理工具 带SQL日志记录的调试模式 字典式结果格式化 安全特性 SQL注入预防 严格标识符验证 正确的字符串转义 查询与参数分离 API参考 主要类 MySQL(host, port, charset="utf8", debug=False) 主封装类构造函数 NewCursor(parent) 带增强方法的游标类 核心方法 方法 描述 参数 use(db, Table=None) 切换数据库 db: 数据库名 select(_Table, FROM=None, WHERE=None, _limit=None) 基础SELECT _Table: 选择列 selectashead(_Table, FROM=None, WHERE=None, _limit=None) 字典式结果 同select insert(_Table, values=None, WHERE=None, **k) INSERT操作 支持字典或关键字参数 update(WHERE, FROM=None, **k) UPDATE操作 必须包含WHERE子句 delete(FROM=None, WHERE=None) DELETE操作 istrue(FROM=None, WHERE=None) 存在性检查 返回布尔值 辅助函数 函数 描述 示例 Func.NOW() 当前时间戳 Func.NOW() Func.JSON_ARRAY() JSON数组构建器 Func.JSON_ARRAY(1,2,3) Func.insertbytes() 二进制数据处理 Func.insertbytes(b'data') 使用示例 基础用法 db = MySQL('localhost', 3306, debug=True) db.__login__('user', 'password') cursor = db.NewCursor() # 查询示例 cursor.use('mydb', 'users') results = cursor.select('*', WHERE=('age > %s', (18,)), _limit=10) # 插入示例 cursor.insert('users', {'name': '张三', 'age': 25}) # 事务示例 try: cursor.update(WHERE=('id=%s', (1,)), FROM='users', balance=100) cursor.update(WHERE=('id=%s', (2,)), FROM='users', balance=200) except: cursor.conn.rollback() 高级功能 # 二进制数据插入 cursor.insert('files', { 'name': 'data.bin', 'content': Func.insertbytes(b'\x00\x01\x02') }) # JSON数据处理 cursor.insert('config', { 'settings': Func.JSON_ARRAY('item1', 'item2') }) # 字典式结果 users = cursor.selectashead('*', FROM='users') for user in users: print(user['name'], user['age']) 局限性 不推荐场景 ❌ 高并发应用(考虑连接池方案) ❌ 复杂事务场景 ❌ 类ORM的对象映射 ❌ 异步应用 性能考量 单连接模型在重负载下可能成为瓶颈 未针对批量操作优化 类型转换会增加少量开销 与其他项目的对比 特性 NSQL PyMySQL SQLAlchemy Django ORM 线程安全 ✔ ✖ ✔ ✔ 连接池 ✖ ✖ ✔ ✔ ORM功能 ✖ ✖ ✔ ✔ SQL构建 ✔ ✖ ✔ ✔ 二进制支持 ✔ ✔ ✔ ✔ 调试模式 ✔ ✖ 部分 部分
2850Python数据库
调用多模态大模型,通过系统化的提示词(Prompt)工程优化与迭代,构建一套高效、准确的图片识别与信息提取服务,并进一步扩展为支持复杂视觉问答(Visual Question Answering, VQA)的一体化AI能力平台。该服务实现对图像内容的结构化提取、语义理解与自然语言交互应答,并通过标准化API接口与企业现有系统进行无缝对接和联合调试。最终将整体能力封装为可独立部署、高可用、可扩展的微服务,支持多模态输入与智能化输出,适用于多样化的业务场景如智能审核、内容分析、自动化运维等。
1820Python图形和图像工具
效能平台系统产品系统
该系统为提高公司员工部门效能,对接jira数据源进行分析和展示来提升部门整体效能为目的而形成。 1. 针对用户提出的重新登录进行权限系统的重新设计和优化 2. 针对系统出现的OOM问题进行问题跟踪和优化 3. 脚本平台出现的慢sql 1. 对于用户提到的数据源变更使用规则引擎实现 2. 对权限系统使用redis做持久层 3. 数据看板特殊数据结构存储在mongo 4. 使用python对原数据进行加工和清洗 5. Xxl-job定时对数据进行更新 6. 技术栈使用到了spring cloud gateway、open feign、eureka、oauth2等
1520Java程序文档工具
通过构建智能语音客服系统,旨在为旅客提供高效、便捷、人性化的服务。 平台参与者包括:机场呼叫中心、信息中心以及旅客 功能架构设计 1、通过freeswitch语音网关接入机场已有华为语音网关设备,集成拨号计划,实现旅客语音接入 2、获取旅客语音流,利用asr技术将语音转成文本 3、利用通义千问文本大模型结合本地知识库,对文本内容进行处理得出应答 4、通过tts语音转译将大模型返回的结果转成语音,交给freeswitch播放
1000JavaTTS/语音合成和处理
本项目以 “静态知识活化 + 动态交互赋能” 为核心,构建 “多模态知识库 + LLM 智能引擎 + 高拟真实时数字人” 三位一体的服务体系。通过将结构化(如产品手册、课程大纲、景区导览数据)与非结构化(如语音问答记录、视频教学片段、游客反馈文本)知识资源整合为标准化知识库,依托 LLM(大语言模型)实现知识的深度理解、精准检索与逻辑生成,最终通过实时数字人载体,将抽象知识转化为拟人化、场景化的交互服务,解决传统知识服务中 “响应不及时、交互不自然、场景适配弱” 的痛点,可广泛应用于商业服务、文旅体验、教育教学等领域,实现 “知识触达更高效、用户体验更沉浸、服务价值更多元” 的目标。
1210PythonAI
HAP机器人流程自动化软件业务亮点与问题解决介绍 业务亮点: HAP机器人流程自动化软件具备全面且强大的功能体系。拥有可视化设计流程,让操作不再依赖复杂代码,业务人员也能轻松上手构建流程;集成OCR能力,可精准识别图片、扫描文件中的文字信息,实现非结构化数据的高效提取;支持Python调试,赋予用户利用Python强大功能扩展自动化能力的权限;具备AI持续集成特性,能不断优化自动化流程,使其更智能、高效。此外,涵盖系统文件、办公软件、网页等多场景自动化,还有丰富的海量模板,大幅降低开发成本与时间。 解决的问题: 在企业运营中,HAP软件致力于解决重复性、规律性人工操作任务耗时耗力的问题。例如,大量数据录入、文件格式转换、跨系统数据搬运等工作,易出错且效率低下。通过自动化流程,可减少人工干预,降低错误率,释放人力去从事更具创造性和价值的工作。同时,对于数据提取场景,OCR和元素捕捉等功能解决了从纸质文档、图片中获取数据难的问题;在多系统交互方面,软件能打通系统壁垒,实现数据流畅传输与业务协同,提升企业整体运营效率,助力企业数字化转型。
1110PythonRPA
AI在线训练平台是一个面向企业和个人开发者的零门槛 AI 开发平台,为零算法基础的开发者提供定制高精度 AI 模型的服务,包括数据处理、模型训练、服务管理、模型部署功能模块。零代码交互式获取 AI 能力模型,助力各行业快速实现 AI 赋能物体检测模型用于定制识别图片中目标的位置、名称,适合有多个目标主体,或要识别目标位置及数量的场景。常见应用场景:视频监控、工业检测、零件计数等。 我负责全部的Java后端业务接口以及Python端AI能力接口。技术栈使用了Spring Boot以及Mybaitsplus框架来做业务侧API,Pytorch,MMDetection,Celery,FastAPI来做AI侧API能力开发。
1350JavaAI
使用 SimpleImputer 处理缺失值 使用 StandardScaler 或 MinMaxScaler 对数值特征进行标准化/归一化 使用 OneHotEncoder 或 OrdinalEncoder 对分类变量进行编码 应用 SelectKBest, RFECV (递归特征消除与交叉验证) 或基于模型的特征重要性(如来自 RandomForest 的 feature_importances_)来选择最相关的特征,以降低过拟合风险并提高模型可解释性 使用 Pipeline 对象将预处理步骤和估计器(模型)链接成一个单一对象。这避免了数据泄露,并简化了代码。
1420Pythonsklean
互联网信息推荐算法安全评估平台(http://116.62.162.16/home)是一个面向算法治理与信息安全分析的专业工具。该平台支持从快手、微博、抖音、小红书等多类主流平台进行数据抓取与分析,实现对推荐算法行为的全面监测和量化评估。 平台核心功能包括宏观数据看板、账号群体画像分析、安全指标追踪等,能够精准识别如“诱导控制”和“干扰识别”等算法风险行为,并以可视化方式呈现其变化趋势。它已管理超600万账号、37类群体画像,支撑起对信息传播机制与算法影响的深入洞察。 该平台适用于监管机构、研究单位及平台企业,为其提供算法安全评估、舆论风险预警和治理策略制定方面的数据支持,最终推动推荐算法透明、可信、向善发展。
2800PythonUI组件库
产品api无法实现对端口进程的批量整理、SAP与非SAP的自动判断、以及端口对应Web url的自动批量整理 通过本程序集,可使用万相主机安全api+蔷薇微隔离api,批量识别并整理可视化的,暴露至某个范围的机器端口、端口对应进程、进程对应weburl(如有),节省了暴露面排查时的手工操作。 1、实现某能源企业ERP项目梳理端口暴露面的需求; 2、使用python的requests包、openpyxl包等实现; 3、调用产品api实现非自带功能,实现多线程发包节省时间、增量判断节省人工成本; 4、部署至服务器定期执行。
1490Python网络安全
爬虫脚本产品系统
行业:智慧农业、植物保护、农业信息化 业务场景:农业知识库构建、病虫害识别模型训练、数据分析和决策支持 功能模块:代理管理模块、请求调度模块(并发)、数据解析与存储模块、状态管理模块(断点续爬、增量更新)、定时任务模块 实现功能:自动爬取植小保小程序中的问答数据、病虫害识别结果、专家回复等。将爬取的数据结构化存储到数据库和本地文件中。支持增量爬取,避免重复爬取已处理的内容。支持高并发、代理轮换,提升爬取效率和稳定性。提供日志记录和错误重试机制,保证爬虫的鲁棒性。 技术选型:语言:Python 3,网络请求:httpx、requests,数据库:PostgreSQL,并发处理:threading + ThreadPoolExecutor,定时任务:schedule,JSON处理:json,日志管理:logging,代理服务:自定义代理池服务(通过HTTP接口获取代理)
1300Python网络爬虫
KMblog 是一套面向交付的静态站点引擎,我们把“写作—构建—分发”整条链路打磨成一条可复制的 DevOps 流水线,让客户在零后端投入的前提下获得企业级性能与可维护性。 核心架构上,我们采用 Vue 3 + Vite 作为前端底座,利用 Vite 的原生 ESM 与 Rollup 双引擎,在开发阶段实现毫秒级热更新,在生产构建时则借助 Vite-SSG 预渲染全部页面,配合自动路由拆分与懒加载,首屏 JS 体积较传统方案缩减 60 % 以上。样式层使用 TailwindCSS 的 JIT 模式,按需原子类打包,最终产物 CSS < 10 kB;同时通过 PostCSS 插件链路自动处理浏览器前缀与压缩,无需额外配置即可满足 Lighthouse 95+ 的评分要求。 在内容处理层面,Markdown 通过统一的 remark-rehype 管道解析,抽象出可插拔的 AST 节点,任何自定义 Vue 组件都能以 `` 形式直接在正文中引用。构建时,我们利用 esbuild 将组件编译成异步 Chunk,运行时仅加载当前页面所需逻辑;全文搜索则基于 FlexSearch 离线索引,索引文件随构建产出,查询延迟稳定在 10 ms 以内,无需后端服务即可实现动态站点级别的搜索体验。 部署环节未来将内置 GitHub Actions 模板,流水线分为 Lint → Test → Build → Deploy 四阶段,平均耗时 90 秒即可完成一次灰度发布;产物可一键推送到 GitHub Pages、Vercel、Netlify 或任何支持静态托管的边缘节点,天然具备全球 CDN 缓存与 HTTPS 证书。 对客户而言,只需 fork 仓库、填写 `config.js` 中的品牌信息,即可在五分钟内获得一套可定制、可扩展、可自动交付的高性能博客系统;后续升级只需合并上游主干,CI 会自动回归测试并平滑发布,真正做到“写内容,不操心运维”。
1760Python博客
新抖网站数据爬虫(数据采集),根据提供的主持人数据,使用selenium库,模拟浏览器操作,搜索主持人并获取需要的数据,有效规避反爬措施。 爬取内容(以月为单位):直播次数、总音浪、总音浪合人民币、平均单次直播时长、场均直播音浪、场均直播音浪合人民币、单场参与人数峰值、最常直播时长及占比、最常直播时间点及占比、带货直播次数、带货直播次数占比、总上架商品数、总商品品类、总商品品牌数、总涉及平台数、top商品品类、top商品品牌、top平台及占比。 将爬取到的信息梳理,生成Excel文件,方便阅读、使用和整理。
1900Python爬虫
就是单纯的展示我有开发的能力以及技术,结合了html,python后端撰写的伪全栈开发,前后端不分离,服务器端渲染前端。采取redis的本地缓存技术存储验证码等数据进行验证,代码进行数据库数据自动写入修改。采用flask——Email包实现邮箱发送接受验证的功能,用以实现注册。采用css对页面进行渲染,使得页面更美观。
1060Python网页开发工具
1.本项目简介:爬取飞瓜抖音网站,模拟浏览器操作,根据提供的主持人名单进行精确搜索、数据爬取,并将获取到的数据汇总,输出为Excel文件。 2、对飞瓜抖音网站进行搜索:按抖音号;飞瓜网站有反爬,不可以用selenium自动化登录,selenium打开后,配合手机扫描继续爬取。 3、爬取内容:名单中每个主持人的抖音名,抖音号,30天直播场次,30天直播销量,30天直播销售额,30天场均音浪(用于计算30天音浪增量)
2830Python爬虫
当前共6380个项目more
×
寻找源码
源码描述
联系方式
提交