Python

Python是一种广泛使用的解释型、高级和通用的编程语言,[1]由荷兰数学和计算机科学研究学会的Guido van Rossum创造,第一版发布于1991年,它是ABC语言的后继者,也可以视之为一种使用传统中缀表达式的LISP方言。[2]Python提供了高效的高级数据结构,还能简单有效地面向对象编程。Python语法和动态类型,以及解释型语言的本质,使它成为多数平台上写脚本和快速开发应用的编程语言,随着版本的不断更新和语言新功能的添加,逐渐被用于独立的、大型项目的开发。Python支持多种编程范型,包括函数式、指令式、结构化、面向对象和反射式编程。Python解释器易于扩展,可以使用C或C++(或者其他可以通过C调用的语言)扩展新的功能和数据类型。Python也可用于可定制化软件中的扩展程序语言。Python
人类染色体核型智能分析系统,是一款基于人工智能技术,对人类染色体中期图像进行自动分割、识别、计数,并自动生成核型图的遗传实验室辅助工具。 功能包括:图像管理、一键识别、导出核型图、手动编辑(笔刷、多边形、缩放、旋转、移动等)、配置管理。 达到的性能:分割准确率>90%,核型准确率>75%,GPU识别速度12张/分钟,CPU识别速度4张/分钟,支持GPU、CPU、XPU、NPU、TRT环境,支持Win、Linux操作系统。 目前已被多家医院遗传实验室采用。
2671python机器学习/深度学习
1,100%是由我来完成整套过程,数据爬取与数据可视化。 2,用matplotlib绘图,条形图与饼状图, 3,客户只需告诉我想要什么数据,需要绘制什么图形。
3170python绘图(Drawing)
只要与在GPU服务器部署的模型服务互联完成对业务数据的处理,通过该软件调用大模型完成相应的推理任务,并在软件中监控和管理数据
2400pythonPython开发工具
1. 项目主要的功能是根据用户输入的金额来进行人民币、美金换算 2. 项目需要用到爬虫来获取最新的汇率信息并进行转换
7901python爬虫
web端接口测试源文件源码
这是一个基于YAML文件驱动的数据驱动型Web端自动化测试框架。它支持添加、删除、修改等操作的自动化接口测试,并主要面向产品测试人员。通过使用这个框架,测试人员可以方便地编写和执行测试用例,从而提高测试效率和准确性。 该框架具有高度的可扩展性和灵活性,可以根据不同的测试需求进行定制和扩展。此外,它还支持多种编程语言,使得测试人员可以根据自己的技能和偏好选择合适的编程语言来编写测试脚本。 该框架的主要特点包括: 数据驱动:所有测试数据都存储在YAML文件中,方便测试人员管理和维护。 可扩展性:可以根据不同的测试需求进行定制和扩展。 灵活性:支持多种编程语言,方便测试人员选择合适的编程语言来编写测试脚本。 易于使用:提供简单易用的API和命令行工具,方便测试人员快速上手和使用。 高效性:通过自动化测试,可以大大提高测试效率和准确性,从而缩短测试周期,降低测试成本。
1430python浏览器
1.项目的主要功能是通过语音或者拍照的方式将垃圾识别为分为可回收垃圾,有害垃圾,厨余垃圾,其他垃圾四种类型,帮助用户对垃圾进行分类识别。主要模块分为语音识别模块和图像识别模块。语音识别模块通过部署whisper模型将输入语音转为文字来判断垃圾类型。图像识别模块采用convnext模型对图像进行识别,首先使用收集整理的垃圾图片数据进行训练,然后将模型部署到后端。 2.负责前端和后端的开发和部署,模型的训练和部署。前端采用uniapp框架,后端采用python flask框架,最终实现用户输入语音或者图像之后,系统能够识别并且返回垃圾类型的效果
2200python图形和图像工具
1、本项目是一个分享开发经验的系统,旨在为程序开发者提供一个交流心得的平台,系统由文章管理、个 人信息管理等关键模块组成。可以兼容安卓,IOS,HTML5,微信小程序4个平台,提高了用户体验 2、在技术选型上,选择了uni-app框架进行开发,使用云函数处理前端发起的请求,数据保存在云数据 库,实现了前后端的统一管理。UI界面设计上使用与uni-app同一厂家的uni-ui库,该ui库基于vue组件、 flex布局,而且可以跨全端,极大的提高了开发效率 1. 负责用uni-app和uni-ui开发奇技分享俱乐部系统的界面和功能模块 2. 开发云函数,处理前端的请求,返回处理结果 3. 实现系统的权限管理和安全策略,包括登录验证,权限控制等 4. 进行界面和性能优化,确保管理系统的用户体验和操作效率
730Java小程序
资料获取:分析网页,使用数据库获取数据;发送HTTP请求获取数可以使用第三方库如requests来发送HTTP请求,从网络上获取数据;读取文件中的数据;从用户输入获取数据;正则表达式(re库);BeautifulSoup(bs4);lxml 爬取 社交、资料、数据等
3620pythonpython
利用python语言拿到网址上数据,进行数据清洗拿到自己需要的数据,利用数据进行可视化窗口绘制,批量爬取音乐,抖音,图片
4830python网络爬虫
API接口数据和线下表格数据实现结构配置化接口上传. 1、实现批量数据上传 2、实现接口与目标数据源的自动化匹配生成API接口 3、实现读取指定行数上传
2520pythonPython开发工具
Python实现图像处理项目,为以下几个功能模块: 1. **图像采集**: - 负责从摄像头或其他来源获取图像数据。 2. **图像预处理**: - 包括去噪、增强、转换颜色空间等,目的是改善图像质量,使其更适合后续处理。 3. **图像特征提取**: - 从预处理后的图像中提取特征,如边缘、纹理、颜色分布等。 4. **图像分类与识别**: - 使用机器学习或深度学习模型对图像进行分类或识别。 5. **结果展示**: - 将处理结果以图像或文本形式展示给用户。 6. **用户接口**: - 提供与用户的交互界面,如命令控制、结果反馈等。 对于使用者来说,能够实现的功能包括: - 实时图像采集与显示。 - 图像编辑和处理,如裁剪、缩放、颜色调整等。 - 图像分类和标签化。 - 使用图像进行搜索或匹配。 任务包括: - 项目规划与管理,确定项目目标、进度和资源分配。 - 需求分析,了解用户需求,确定功能模块。 - 技术选型,选择合适的图像处理库和机器学习模型。 - 编码实现,开发图像处理算法和用户界面。 - 测试与优化,确保系统性能稳定,用户体验良
2490pythonpython
负责(基于python语言,torch框架,开源yolov5的目标检测项目,标记图片数据来源—robotflow) 其他(非本人)(包装为安卓测试应用)
3260机器学习/深度学习
1,用户只要告诉我所需要的数据,我用Python爬虫技术就可以将网站数据爬取下来。 2,100%都是我写出的,最终给用户数据就行。 3,数据完整,不缺失。
3270python网络爬虫
python angular redis mysql nginx linux 作品分类(1-5个分类)(必填): 机器学习/深度学习 脚本编程语言 网络爬虫 日志分析和统计 项目构建 添加标签,按回车确认 HTML5开发相关文件管理器其他jQuery插件Chrome插件/扩展论坛系统BBS作业/任务调度网络爬虫日志分析和统计图形和图像工具Emoji 表情相关终端/远程登录搜索引擎项目构建REST/RESTful项目嵌入式操作系统
2930python机器学习/深度学习
通过js逆向的方式对h5st3.1加密算法进行破解,h5st3.1由8个部份组成,其中包括当前时间、fp 浏览器指纹、function的id、token、appid+body+fp+token+rd+function等进行一次加密的返回数据、加密算法的版本、13位时间戳、浏览器ua+pin+fp 的加密,其中主要需要逆向第5部分,先对appid+fp+token+rd+function进行字符串拼接并对其做SHA512加密,在对body进行加密,然后将两个加密结果进行字符串拼接并对其做HmacSHA256加密,第8部分虽然也做了加密处理,但都是系统参数可以直接对其写死
4600python爬虫
功能有两个: 1.爬取微博文娱榜前10条:目的是获取微博文娱榜的热度数据,并将标题和热度信息写入一个 CSV 文件中。 2爬取微博的一级评论:目的是通过微博 API 获取某条微博的评论。
2780pythonpython
破解雪球网站和马蜂窝网站的cookie 首先分析网站请求的信息,分析cookie的生成顺序,然后使用python代码对网站进行请求,获取到对应的js代码,在本地补环境并执行js代码,获取到对应的cookie再对网站进行请求,正确获取到网站的数据
4450python网络爬虫
1.web应用自动化操作 2.定时获取web应用内的指定内容 3.将获取到的内容列成excel文件发送至企微 4.使用python实现定时自动化操作 5.使用python代码绕过反爬验证
2030python
数据提取产品系统
项目名称:二手房数据抓取与存储系统 项目简介: 本项目旨在实现一个自动化的数据抓取工具,用于抓取二手房出售信息,并将提取的数据存储到MongoDB数据库中。该工具采用Python编程语言,结合了requests库进行网络请求、lxml库进行HTML解析以及concurrent.futures模块进行多线程处理,实现了高效的数据采集和存储功能。 系统架构: 系统主要分为以下几个部分: 1. 数据抓取模块:使用requests库向目标URL发送HTTP请求,获取网页内容;利用lxml库解析HTML源码,提取所需数据。 2. 数据解析模块:对抓取到的数据进行清洗和格式化,提取出房源标题、小区名称、房屋详情、价格等关键信息。 3. 数据存储模块:将解析后的数据通过MongoDB连接器批量插入到数据库中,同时提供了事务回滚机制以保证数据的一致性。 4. 多线程执行模块:利用ThreadPoolExecutor管理多个线程并发执行数据抓取任务,提高整体效率。 核心功能: 1. 自动化数据抓取:通过配置好目标URL,工具能够自动访问链家网的二手房页面,并获取相应的房源信息。 2. 数据解析与存
1140python大数据
爬取1688商品列表数据 1、多关键词换行隔开 2、新增价格区间、销量筛选 3、新增采集日志 4、采集字段为:商品名称、商品链接、价格、销量、复购率、店铺星级、诚信通年限、图片链接 5、日志显示显示采集的关键词,页码
4440python网络爬虫
当前共5595个项目
×
寻找源码
源码描述
联系方式
提交