机器深度学习

机器学习,深度学习是人工智能的核心分支,致力于让计算机系统通过数据驱动的方式自动学习和改进性能,而无需显式编程。其核心是从数据中识别模式或规律,构建数学模型,使计算机能完成预测、分类、聚类等任务。主要类型包括监督学习、无监督学习和强化学习。机器学习广泛应用于自然语言处理、计算机视觉、推荐系统等领域,正重塑各行各业,是当前AI爆发的核心技术之一。
利用pytorch训练图片集,模型选用mobilenet,识别率95%以上。结合yolov8使用预训练模型,可视频动态识别物品的材质。yolo可以自己搜集图片集训练自己的模型
1860深度学习人工智能
基于国内外通用大模型OpenAI、千问、DeepSeek,结合几何造型引擎,搭建基于AI的工业设计: 1、以“交付结果”代替“给予工具”为目标; 2、基于自然语言作为优先交互方式; 3、创建可修改、可编辑的BRep三维图形,而非拟合式三角面的固定三维特征; 4、交付工业级图形应用; 5、当前以包装设计为应用点进行展示。
1700C/C++图形和图像工具
实时语音识别 (Real-time Speech Recognition): 能够捕捉麦克风输入,并将用户的语音实时、准确地转换为文本。 自然语言理解 (Natural Language Understanding - NLU): 分析转换后的文本,理解用户的意图和关键信息(例如指令、询问的对象、参数等)。 对话管理 (Dialogue Management): 在多轮交互中维护对话状态和上下文,使对话更加连贯自然。 任务执行与技能调用 (Task Execution & Skill Invocation): 根据理解的用户意图,执行相应的操作,例如: 信息查询: 获取天气预报、时间、百科知识、新闻等。 媒体控制: 播放/暂停音乐、调整音量。 简单助理任务: 设置提醒、创建待办事项。 语音合成 (Text-to-Speech - TTS): 将助手的文本回复通过 edge-tts 转换成清晰自然的语音进行播放。 Web 界面交互 (Web Interface Interaction): 提供一个用户友好的网页界面,可以: 显示语音识别的文本和助手的回复。 允许用户通过文本输入与助手交互。 (可能) 展示图片、链接等多媒体信息。 多模态反馈 (Multimodal Feedback): 结合语音、文本以及可能的视觉元素(在Web界面上)来呈现信息和交互结果。 图像分析(Image Analysis): 可以通过pygame.camera调用摄像头或者截图当前页面,并与llm互动获取想要的信息 剪切板提取(Clipboard Management): 可以通过pypercli获取剪切板中的文本内容并自动判断是否需要进行执行 上下文管理(Context management): 通过EnhancedConversationContext类管理对话记录,支持记住或者遗忘特定信息,根据相似度判断是否清除旧的上下文,能够根据对话历史生成更相关的回复 日志记录(Logging): 使用rich库美化日志输出,并将日志保存到文件中 网页搜索(Search): 使用DuckDuckGo搜索用户指定的内容,并返回搜索结果摘要
3060Torch机器学习/深度学习
金融数据大模型分析平台是一款集实时新闻分析、股票监控和市场趋势预测​​于一体的专业工具。通过整合新浪财经新闻与天勤量化行情数据,结合大模型智能分析能力,为投资者提供:  实时金融新闻与AI影响评估  板块关联性分析与股票筛选  全市场监控与可视化统计  异常波动股票实时预警 平台采用​​多进程架构​​(新闻处理 + 股票监控并行),确保数据获取与分析的高效性 盘前部分: 一、建立负面清单,剔除不交易的个股 剔除st股、北交所、市值低于20亿、上市交易不足180日的股票 二、板块个股分类,每一个票更新热点概念和所属板块 1、分析当日涨停票的涨停原因,以及所属板块 三、盘前重点新闻分析 1、通过新浪财经新闻24小时获取新闻,在早上9点25前对前日15点后到当日9点半的新闻进行分析; 2、同步分析对应板块的个股的上涨情况,如果有涨幅超过5%的股票的板块,罗列该板块5只涨幅最大的股票; 盘中: 一、建立数据库,实时通过新闻热点 API 获取信息,归档到数据库 1、通过新浪财经新闻24小时获取新闻,每30秒更新一次,分析对应利好的板块; 二、热点相互通信,匹配最佳个股 2、同步分析对应板块的个股的上涨情况,如果有涨幅超过7%的股票的板块,罗列该板块5只涨幅最大的股票; 如果有没有涨幅超过7%的股票,则系统继续跟进;有的话重复前述操作;没有则持续跟进到当日收盘。
4910Python机器学习/深度学习
项目技术:数据增强(镜像反转、左右各旋转30度、增加噪点、MSRCR处理光线)、迁移学习、ReduceLROnPlateau缩小学习率、Xception/InceptionResNet-V2特征融合 项目成果:从Kaggle中获取999条数据,采用迁移学习及微调模型比较多个深度学习模型的准确率后,得到Xception模型最高仅为95.6%,对模型进行特征融合,模型准确率提升至98.4%
1740Python机器学习
项目技术:随机森林、LSTM、SVR 项目成果:总计1825条数据20个特征,构建了4个新特征总计24个特征,绘制饼状图、箱形图等对特征选择并比较不同特征效果,随机森林、SVR采用R2、MAE、MSE评估指标,LSTM采用MAE、MSE评估指标,比较两个模型的结果后,最终采用LSTM模型,MAE与MSE分别为0.01416,0.0026
2020Python机器学习
项目内容:使用k-prototypes聚类方法对好大夫在线网站获取的医生数据进行分析,构建用户画像分析互联网医疗行业的分级诊疗情况。 项目技术:Scrapy爬虫、SWOT分析、哈工大LTP分词、K-prototypes聚类、PCA/t-sne降维可视化、构建用户画像、文献调研 项目成果:根据2952447条数据29个特征建立模型,识别8类核心用户群体,为互联网+医疗促进分级诊疗制度的实施提供数据支持
1200Pythonnlp
1. 本软件使用了前后端分离技术,前端使用 QML/JS 使其界面开发快,迭代快,后端使用 C++/Qt 框架,处理数据性能高; 2. 软件的产品简介:针对穿戴式运动心电信号(精度有限、易受噪声干扰),结合统计域分析、频谱分析、图拉姆角场(Gramian Angular Field, GAF)图像转换三种方法,以下是 12 个易提取、抗噪声能力较强的特征指标,涵盖心率、呼吸率、心率变异性等核心信息。
1250C/C++GUI开发框架
传统视频特征提取高度依赖领域知识,切鲁棒性差,泛化能力也不够。深度学习的方法通过多层非线性变换,从原始数据中学习层次化的特征表示,从而实现更准确、更鲁棒的特征提取。操作步骤如下: (1)对原始短视频做简单的预处理,使用FFmpeg工具快速将视频按照帧抓取图片; (2)依照准确率和时间的需求决定输入模型的图片的数目N,以相等的间隔均匀地从所有图像中抽取输入图像,组成一段有序的输入帧,并剪切成224像素×224像素的大小; (3)将步骤(2)中处理好的图片输入二维卷积神经网络,输出浅层特征表示图; (4)将步骤(3)的输出结果,输入伪三维卷积神经网络,进行时间信息和高维空间信息学习.
1820Python机器学习/深度学习
本项目基于经典的泰坦尼克号乘客数据,完成了从数据清洗、可视化分析到机器学习建模的完整流程,旨在探索影响乘客生存概率的关键因素,并构建预测模型。 主要工作内容包括: 数据预处理:处理缺失值(如年龄、登船港口等),提取特征(如客舱等级、家庭成员数),并构造衍生变量(如“是否独自一人”等)。 可视化分析:利用 Seaborn 和 Matplotlib 进行数据探索,如性别、年龄、舱位与生存率的关系分析。 建模与评估:使用 Scikit-learn 构建逻辑回归模型,评估其准确率与混淆矩阵等指标,探索模型在实际预测中的表现。 展示与复现:通过 Jupyter Notebook 全流程演示,图表与代码相结合,逻辑清晰、易于理解。 该项目体现了我在 数据清洗、EDA可视化、特征工程与模型构建 方面的实战能力,适合作为数据分析、AI建模等项目的参考案例。
2820Python数据分析
1. 产品面向科研院所,解决了自动处理遥感图像,自动识别机场和飞机的需求。 2. 相比市场常规方案,此方案具有速度快,识别准确的特点。 3. 方案用到了opencv的图像处理算法,包括图像增强,图像分割。用到了matlab实现的注意力算法,用到了tensorflow架构实现的图片分类和目标检测模型.方案的部署采用了docker技术.
2670C/C++图形/图像处理
双能X射线全身骨密度系统由上位机软件、STM32、FPGA组成,主要由上位软件进行扫描测控。技术包括操作系统原生Socket进行通讯、自主设计通讯协议设计与解析、骨密度算法实现/验证,线阵探测器图像重建、图像处理(降噪、增强、ROI分割)、深度学习训练以集成、软件架构设计、项目搭建、软件开发(QT)等。
1950C/C++C/C++开发工具
项目描述:DataCluster Pro - 智能聚类分析工具集 1. 行业与业务场景 适用行业:跨行业通用型数据分析,特别适用于公共卫生(WHO数据集)、金融客户分群、市场细分等场景 核心业务场景: 多维度客户/群体智能分群(如健康水平分组、用户价值分层) 自动化数据探索与特征工程(缺失值处理、时间特征生成) 可视化聚类结果解读(2D投影、特征雷达图) 多语言分析报告输出(中英双语一键切换) 2. 功能模块与用户价值 四大核心模块架构: 数据预处理引擎 智能处理缺失值(中位数填充数值/众数填充类别) 自动化特征工程(面板数据变化特征生成) 分类变量编码与标准化处理 用户价值:节省80%数据清洗时间,保证分析数据质量 聚类分析核心 K-means聚类优化(轮廓系数确定最佳K值) 多维特征降维(PCA可视化) 聚类结果解释(特征重要性分析) 用户价值:无需算法知识,自动获得最优分组方案 智能可视化系统 缺失值热力图 + 分布直方图 变量关系矩阵 + 相关系数热力图 聚类雷达图 + 2D投影散点图 用户价值:复杂数据关系一目了然,支持专业图表输出 多语言报告生成 中英文双语界面切换 自动生成分析报告(PDF/TXT) 聚类特征统计表输出 用户价值:国际团队协作无障碍,符合学术/商业报告标准 3. 技术选型与架构特点 核心技术栈: 数据处理:Pandas(缺失值处理) + NumPy(矩阵运算) 机器学习:Scikit-learn(KMeans, PCA, Silhouette) 可视化:Matplotlib/Seaborn + 字体自适应渲染 架构亮点: 配置驱动模式:通过修改全局变量即可切换数据集和分析目标 模块化流水线:数据加载 → 清洗 → 聚类 → 可视化 标准化流程 智能自适应: 自动检测中文字体(支持Windows/macOS) 大型数据集智能采样(>1000条自动降载) 高基数分类变量自动优化展示 面板数据专项处理:时间序列特征自动生成(变化率/差值)
1980Python机器学习150.00元
一、软件面向的行业和业务场景 本项目聚焦低成本深度感知需求,适用于小型企业或创业团队的轻量级应用场景,例如: 电商3D商品展示:用手机拍摄商品(如杯子、玩具)的左右视图,生成深度图,用于虚拟商城的“360°+深度”展示(比如用户可以看到杯子的凸起部分离屏幕更近,提升购物体验); 家用智能设备:扫地机器人的简单环境建模(用单相机移动拍摄,生成房间地面的深度图,判断障碍物距离,避免碰撞); 教育类APP:儿童编程软件中的“视觉实验”模块(让孩子用手机拍自己的玩具,生成深度图,直观理解“双目视觉”的原理)。 这些场景的核心需求是低成本、易部署(不需要专业双目相机),而本项目用“单相机+OpenCV”完美解决了这个问题,符合就业中“用最低成本实现核心功能”的要求。 二、项目功能模块与具体功能 项目按照“标定→双目校准→匹配→深度生成”的工业级 pipeline 设计,实现了4个核心功能,每个功能都对应任务书的考核点: 相机内参校准(张正友标定): 做什么:用手机拍15张不同角度的棋盘格照片(倾斜、旋转、远近),用OpenCV的cv2.calibrateCamera算法算出相机的焦距(镜头的“放大倍数”)、主点(图像中心)和畸变系数(消除镜头的“鱼眼效应”)。 为什么:没有内参,后续的深度计算会有很大误差(比如拍同一个杯子,畸变会让杯子看起来“变形”,导致深度图不准)。 相机外参定位(DLT标定): 做什么:用手机拍左右两个位置的立方体照片(6cm边长,硬纸板做的),手动标注立方体的顶点(比如前面的4个角、顶面的2个角),用cv2.solvePnP算法算出相机相对于立方体的旋转方向(比如相机向左转了10度)和平移位置(比如相机离立方体20cm)。 为什么:外参是“相机在哪里”的关键参数,后续双目标定需要左右相机的外参来算它们之间的相对位置。 双目姿态校准(双目标定): 做什么:结合左右相机的外参,算出它们之间的旋转矩阵R(右相机相对于左相机转了多少度)和平移向量T(右相机在左相机右边10cm),得到基线长度(双目系统的“眼睛间距”,决定深度计算的精度)。 为什么:没有双目姿态,左右图像的“对应关系”会乱,立体匹配无法正确找到同一个点在左右图像中的位置。 立体匹配与深度计算: 做什么:(1) 用手机拍左右两个角度的目标照片(比如杯子),用SAD滑动窗口算法(窗口大小可调,5x5/7x7)生成视差图(左右图像中同一个点的位置差);(2) 用视差图和之前的内参、基线长度,用公式算出深度图(灰度值表示距离,亮的地方离相机近,暗的地方离相机远)。 为什么:这是项目的核心功能——把“2D照片”变成“3D深度信息”,满足场景需求(比如电商的3D展示、扫地机器人的避障)。 三、项目的技术选型与架构特点 技术选型: 核心库:OpenCV(4.8.0版本)——工业级开源图像处理库,支持相机标定、立体匹配、深度计算等所有核心功能,跨平台(Windows/Android/iOS),适合就业中的“快速原型+部署”需求; 开发语言:Python(3.9版本)——开发效率高,语法简洁,适合快速调试(比如调整滑动窗口大小,马上就能看到深度图的变化); 硬件:手机(iPhone/Android)——低成本、易获取,不需要专业相机,符合“轻量级应用”的要求。 架构特点: 模块化 pipeline:每个功能(内参校准、外参定位、双目校准、深度计算)都是独立模块,比如“内参校准”模块可以用到其他单目项目中,“立体匹配”模块可以替换算法(比如把SAD换成更准确的SGBM),便于就业中的“功能复用”; 可参数化调整:滑动窗口大小、视差范围、最大深度阈值都是可调的,比如调整窗口大小(5x5→7x7),可以对比深度图的“清晰度”和“稳定性”(窗口大,深度图更模糊但更稳定;窗口小,更清晰但容易有误差),符合任务书“不同窗口尺寸对比”的要求; 可视化结果:生成的深度图是黑白的,直观看到目标的三维形状(比如杯子的凸起部分更亮),便于就业中的“结果展示”(比如给客户看“我们的系统能算出杯子的深度”)。
2550Python机器学习/深度学习
知识问答平台开源项目
项目介绍 silc-client 是一个基于 Vue 3 + TypeScript 构建的现代化前端应用项目。该项目使用了最新的前端技术栈,提供了一个响应式、高性能的用户界面。 技术栈 框架: Vue 3.5.13 (Composition API) 语言: TypeScript 5.8.0 构建工具: Vite 6.2.4 状态管理: Pinia 3.0.2 路由: Vue Router 4.5.0 UI组件库: Element Plus 2.9.9 图表库: ECharts 5.6.0 HTTP客户端: Axios 1.9.0 工具函数: Lodash 4.17.21 日期处理: Day.js 1.11.13 项目特性 ? 基于 Vue 3 Composition API 的现代化开发体验 ? 使用 Element Plus 提供的丰富UI组件 ? 集成 ECharts 支持数据可视化 ? 使用 Pinia 进行状态管理 ?️ Vue Router 实现单页应用路由 ? TypeScript 提供类型安全 ⚡ Vite 提供快速的开发服务器和构建
3250Python机器学习/深度学习
本项目针对集成电路先进工艺节点下,高精度参数电容提取耗时且困难的行业痛点,提出并实现了一种创新解决方案。核心技术融合了神经网络(NN) 构建高效的电容预测代理模型,利用有限元方法(FEM) 生成高精度训练数据并进行关键区域验证,以及采用多线程框架OMP 等算法优化数据采样与模型训练过程。该方案显著提升了提取效率,在保持与商业工具可比拟的精度的同时,大幅缩短了计算时间。项目成果有效解决了企业的实际工程难题,其性能和可靠性已获得合作企业的正式认可,成功应用于其实际芯片设计流程中,为复杂互连结构的快速精准建模提供了有力工具。
1470C/C++集成电路20.00元
本程序致力于提供一个强大且实用的人群计数工具,其核心目标在于精准地检测图像或视频流中出现的人体目标,并高效地统计其数量。为实现这一任务,程序采用了当前深度学习领域的主流框架——PyTorch,构建并部署了一个经过优化的YOLOv3 (You Only Look Once, version 3) 目标检测模型。 YOLOv3 被选为本程序的核心算法,主要得益于其卓越的性能平衡。作为一种单阶段(one-stage)检测器,YOLOv3 以其显著的速度优势闻名,能够在保持较高检测精度的同时,满足实时处理的需求。其核心原理是将目标检测视为一个回归问题,通过单次前向传播即可预测图像中所有目标的边界框位置及所属类别概率。本程序特别利用了 YOLOv3 的 Darknet-53 骨干网络提取深度特征,并结合其多尺度预测机制(在三个不同尺度的特征图上进行检测),使其能够有效应对人群计数中常见的尺度变化大(如近处个体大、远处个体小)和密集遮挡等挑战,精准捕捉不同大小的人体目标。
3160Python源文件源码
ADAS(Advanced Driver Assistance System,高级驾驶辅助系统))是一套集成传感器、算法和车辆控制技术的智能化系统,旨在通过实时环境感知、风险预警和部分自动化控制,显著提升行车安全性、驾驶舒适性和能源效率。作为自动驾驶(L1-L3级)的核心技术基础,ADAS已成为现代智能汽车的标配,并逐步推动汽车产业从“被动安全”向“主动智能”转型。
1470C/C++机器学习/深度学习
本项目主要开发设计了基于yolov11+SE的垃圾分类系统,本系统集成yolo模型以及引入se注意力机制,开发了一款app,界面简约,功能完善。可以用来学习如何调用yolo模型!以下是摘要介绍: 在当今这个城市化快速发展的时代,城市里的生活垃圾产量一直在持续不断地攀升,传统的人工进行垃圾分类的方式,它的效率特别低下,而且分类的准确性也不怎么高,很难契合现在资源循环利用以及环境保护方面的需求。本系统专门设计并且实现了一个基于深度学习的生活垃圾分类目标检测系统,这个系统借助了比较先进的图像识别技术,能够实现垃圾的自动化精准分类。凭借这样的分类方式,就可以提高垃圾分类的效率,还可以降低对环境的污染,促进资源的循环利用,在系统开发的过程当中,凭借多种不同的渠道去收集数据,把公开的数据集进行整合,收集到的数据经由去噪、标准化以及数据提高等一系列的预处理操作之后,按照7:2:1的比例划分成训练集、验证集和测试集,系统选用了YOLOv11模型,并且结合SE注意力机制来进行特征提取和模型训练,还利用Pytorch库对特征选择进行优化。在系统架构方面,前端是基于Vue.js框架来构建交互界面的,后端运用Flask框架来处理业务逻辑,搭配MySQL数据库来管理数据,这样就能实现实时检测、结果统计展示以及用户交互等功能,经由测试可以得出,这个系统对四类垃圾的分类精确度能够达到88%以上,就算是在复杂的环境之下,它仍然可以保持比较高的检测稳定性,有效地推动了垃圾分类智能化的发展,有很不错的应用前景。
4640PythonAPP
车牌识别源文件源码
本代码基于YOLO(You Only Look Once)算法实现了高效的车牌识别系统。YOLO作为单阶段目标检测模型,通过卷积神经网络同时预测边界框和类别概率,显著提升了检测速度。系统首先利用YOLO模型定位图像中的车牌区域,随后通过OCR技术识别车牌字符。实验表明,该方案在复杂场景下仍能保持较高的准确率和实时性,平均识别精度达90%以上,单帧处理时间低于50ms。该方法克服了传统车牌识别算法受光照、角度影响的缺陷,为智能交通、车辆管理等应用提供了可靠的技术支持。
1770Torch机器学习/深度学习
当前共1075个项目more
×
寻找源码
源码描述
联系方式
提交