机器深度学习

机器学习,深度学习是人工智能的核心分支,致力于让计算机系统通过数据驱动的方式自动学习和改进性能,而无需显式编程。其核心是从数据中识别模式或规律,构建数学模型,使计算机能完成预测、分类、聚类等任务。主要类型包括监督学习、无监督学习和强化学习。机器学习广泛应用于自然语言处理、计算机视觉、推荐系统等领域,正重塑各行各业,是当前AI爆发的核心技术之一。
1.数据库模块。保存产品信息,异物缺陷信息。2.通信模块。负责上位机与下位机的交互通信。3.人机交互模块。负责人机交互。4.算法模块。负责3D点云下的异物检测预与测量,2d场景下的异物分类。
970C++机器深度学习
本软件是一个语音合成、语音识别软件,支持以下功能:1语音合成功能用户可输入文字,将用户输入的文字转换成语音播放给用户。2语音识别功能用户说话或者播放语音,将用户的语音转换成文字显示给用户。3设置功能用户可以设置语音合成发音人、音量、语调、语速,语音识别语种、最大时间等。4语音合成历史记录功能记录了每
1680C++机器深度学习
1.自动爬取下载信息,将人工流程的点击,复制粘贴等操作全部通过脚本实现。2.“AI建议”与“AI决策”双模式切换,AI建议模式通过AI预测和人工筛选结果进行模型增量学习。AI决策模式实现全流程自动化,并设计阈值,将模糊AI无法判断的博主保存到人工复审数据库。设计复审功能,人工审核模糊的博主3.设计数
1620Python机器深度学习
本项目是一个面向计算机视觉领域的算法库,聚焦于图像分类任务,旨在为科研开发者提供简洁、可复用的模型实现与实验基础。其主要功能模块包括:核心模型集:提供多种经典卷积神经网络实现,包括LeNet、AlexNet、VGG、GoogLeNet、ResNet、Inception系列、DenseNet等,涵盖从
4800Python人工智能
1.支持实时的对话服务(Real-timeCrawlerIntegration)功能描述:对话系统不再仅限于其内置的静态知识。当用户的提问涉及最新事件、实时数据或特定网站内容时,系统可通过集成的实时服务,动态地从互联网上获取最新信息。价值:彻底解决了大模型知识陈旧、无法回答时效性问题的痛点,使服务能
6950Python人工智能
利用pytorch训练图片集,模型选用mobilenet,识别率95%以上。结合yolov8使用预训练模型,可视频动态识别物品的材质。yolo可以自己搜集图片集训练自己的模型
1500深度学习人工智能
基于国内外通用大模型OpenAI、千问、DeepSeek,结合几何造型引擎,搭建基于AI的工业设计: 1、以“交付结果”代替“给予工具”为目标; 2、基于自然语言作为优先交互方式; 3、创建可修改、可编辑的BRep三维图形,而非拟合式三角面的固定三维特征; 4、交付工业级图形应用; 5、当前以包装设计为应用点进行展示。
1300C/C++图形和图像工具
实时语音识别 (Real-time Speech Recognition): 能够捕捉麦克风输入,并将用户的语音实时、准确地转换为文本。 自然语言理解 (Natural Language Understanding - NLU): 分析转换后的文本,理解用户的意图和关键信息(例如指令、询问的对象、参数等)。 对话管理 (Dialogue Management): 在多轮交互中维护对话状态和上下文,使对话更加连贯自然。 任务执行与技能调用 (Task Execution & Skill Invocation): 根据理解的用户意图,执行相应的操作,例如: 信息查询: 获取天气预报、时间、百科知识、新闻等。 媒体控制: 播放/暂停音乐、调整音量。 简单助理任务: 设置提醒、创建待办事项。 语音合成 (Text-to-Speech - TTS): 将助手的文本回复通过 edge-tts 转换成清晰自然的语音进行播放。 Web 界面交互 (Web Interface Interaction): 提供一个用户友好的网页界面,可以: 显示语音识别的文本和助手的回复。 允许用户通过文本输入与助手交互。 (可能) 展示图片、链接等多媒体信息。 多模态反馈 (Multimodal Feedback): 结合语音、文本以及可能的视觉元素(在Web界面上)来呈现信息和交互结果。 图像分析(Image Analysis): 可以通过pygame.camera调用摄像头或者截图当前页面,并与llm互动获取想要的信息 剪切板提取(Clipboard Management): 可以通过pypercli获取剪切板中的文本内容并自动判断是否需要进行执行 上下文管理(Context management): 通过EnhancedConversationContext类管理对话记录,支持记住或者遗忘特定信息,根据相似度判断是否清除旧的上下文,能够根据对话历史生成更相关的回复 日志记录(Logging): 使用rich库美化日志输出,并将日志保存到文件中 网页搜索(Search): 使用DuckDuckGo搜索用户指定的内容,并返回搜索结果摘要
2260Torch机器学习/深度学习
金融数据大模型分析平台是一款集实时新闻分析、股票监控和市场趋势预测​​于一体的专业工具。通过整合新浪财经新闻与天勤量化行情数据,结合大模型智能分析能力,为投资者提供:  实时金融新闻与AI影响评估  板块关联性分析与股票筛选  全市场监控与可视化统计  异常波动股票实时预警 平台采用​​多进程架构​​(新闻处理 + 股票监控并行),确保数据获取与分析的高效性 盘前部分: 一、建立负面清单,剔除不交易的个股 剔除st股、北交所、市值低于20亿、上市交易不足180日的股票 二、板块个股分类,每一个票更新热点概念和所属板块 1、分析当日涨停票的涨停原因,以及所属板块 三、盘前重点新闻分析 1、通过新浪财经新闻24小时获取新闻,在早上9点25前对前日15点后到当日9点半的新闻进行分析; 2、同步分析对应板块的个股的上涨情况,如果有涨幅超过5%的股票的板块,罗列该板块5只涨幅最大的股票; 盘中: 一、建立数据库,实时通过新闻热点 API 获取信息,归档到数据库 1、通过新浪财经新闻24小时获取新闻,每30秒更新一次,分析对应利好的板块; 二、热点相互通信,匹配最佳个股 2、同步分析对应板块的个股的上涨情况,如果有涨幅超过7%的股票的板块,罗列该板块5只涨幅最大的股票; 如果有没有涨幅超过7%的股票,则系统继续跟进;有的话重复前述操作;没有则持续跟进到当日收盘。
4530Python机器学习/深度学习
项目技术:数据增强(镜像反转、左右各旋转30度、增加噪点、MSRCR处理光线)、迁移学习、ReduceLROnPlateau缩小学习率、Xception/InceptionResNet-V2特征融合 项目成果:从Kaggle中获取999条数据,采用迁移学习及微调模型比较多个深度学习模型的准确率后,得到Xception模型最高仅为95.6%,对模型进行特征融合,模型准确率提升至98.4%
1430Python机器学习
项目技术:随机森林、LSTM、SVR 项目成果:总计1825条数据20个特征,构建了4个新特征总计24个特征,绘制饼状图、箱形图等对特征选择并比较不同特征效果,随机森林、SVR采用R2、MAE、MSE评估指标,LSTM采用MAE、MSE评估指标,比较两个模型的结果后,最终采用LSTM模型,MAE与MSE分别为0.01416,0.0026
1560Python机器学习
项目内容:使用k-prototypes聚类方法对好大夫在线网站获取的医生数据进行分析,构建用户画像分析互联网医疗行业的分级诊疗情况。 项目技术:Scrapy爬虫、SWOT分析、哈工大LTP分词、K-prototypes聚类、PCA/t-sne降维可视化、构建用户画像、文献调研 项目成果:根据2952447条数据29个特征建立模型,识别8类核心用户群体,为互联网+医疗促进分级诊疗制度的实施提供数据支持
980Pythonnlp
1. 本软件使用了前后端分离技术,前端使用 QML/JS 使其界面开发快,迭代快,后端使用 C++/Qt 框架,处理数据性能高; 2. 软件的产品简介:针对穿戴式运动心电信号(精度有限、易受噪声干扰),结合统计域分析、频谱分析、图拉姆角场(Gramian Angular Field, GAF)图像转换三种方法,以下是 12 个易提取、抗噪声能力较强的特征指标,涵盖心率、呼吸率、心率变异性等核心信息。
1010C/C++GUI开发框架
传统视频特征提取高度依赖领域知识,切鲁棒性差,泛化能力也不够。深度学习的方法通过多层非线性变换,从原始数据中学习层次化的特征表示,从而实现更准确、更鲁棒的特征提取。操作步骤如下: (1)对原始短视频做简单的预处理,使用FFmpeg工具快速将视频按照帧抓取图片; (2)依照准确率和时间的需求决定输入模型的图片的数目N,以相等的间隔均匀地从所有图像中抽取输入图像,组成一段有序的输入帧,并剪切成224像素×224像素的大小; (3)将步骤(2)中处理好的图片输入二维卷积神经网络,输出浅层特征表示图; (4)将步骤(3)的输出结果,输入伪三维卷积神经网络,进行时间信息和高维空间信息学习.
1500Python机器学习/深度学习
本项目基于经典的泰坦尼克号乘客数据,完成了从数据清洗、可视化分析到机器学习建模的完整流程,旨在探索影响乘客生存概率的关键因素,并构建预测模型。 主要工作内容包括: 数据预处理:处理缺失值(如年龄、登船港口等),提取特征(如客舱等级、家庭成员数),并构造衍生变量(如“是否独自一人”等)。 可视化分析:利用 Seaborn 和 Matplotlib 进行数据探索,如性别、年龄、舱位与生存率的关系分析。 建模与评估:使用 Scikit-learn 构建逻辑回归模型,评估其准确率与混淆矩阵等指标,探索模型在实际预测中的表现。 展示与复现:通过 Jupyter Notebook 全流程演示,图表与代码相结合,逻辑清晰、易于理解。 该项目体现了我在 数据清洗、EDA可视化、特征工程与模型构建 方面的实战能力,适合作为数据分析、AI建模等项目的参考案例。
2440Python数据分析
1. 产品面向科研院所,解决了自动处理遥感图像,自动识别机场和飞机的需求。 2. 相比市场常规方案,此方案具有速度快,识别准确的特点。 3. 方案用到了opencv的图像处理算法,包括图像增强,图像分割。用到了matlab实现的注意力算法,用到了tensorflow架构实现的图片分类和目标检测模型.方案的部署采用了docker技术.
2330C/C++图形/图像处理
双能X射线全身骨密度系统由上位机软件、STM32、FPGA组成,主要由上位软件进行扫描测控。技术包括操作系统原生Socket进行通讯、自主设计通讯协议设计与解析、骨密度算法实现/验证,线阵探测器图像重建、图像处理(降噪、增强、ROI分割)、深度学习训练以集成、软件架构设计、项目搭建、软件开发(QT)等。
1620C/C++C/C++开发工具
项目描述:DataCluster Pro - 智能聚类分析工具集 1. 行业与业务场景 适用行业:跨行业通用型数据分析,特别适用于公共卫生(WHO数据集)、金融客户分群、市场细分等场景 核心业务场景: 多维度客户/群体智能分群(如健康水平分组、用户价值分层) 自动化数据探索与特征工程(缺失值处理、时间特征生成) 可视化聚类结果解读(2D投影、特征雷达图) 多语言分析报告输出(中英双语一键切换) 2. 功能模块与用户价值 四大核心模块架构: 数据预处理引擎 智能处理缺失值(中位数填充数值/众数填充类别) 自动化特征工程(面板数据变化特征生成) 分类变量编码与标准化处理 用户价值:节省80%数据清洗时间,保证分析数据质量 聚类分析核心 K-means聚类优化(轮廓系数确定最佳K值) 多维特征降维(PCA可视化) 聚类结果解释(特征重要性分析) 用户价值:无需算法知识,自动获得最优分组方案 智能可视化系统 缺失值热力图 + 分布直方图 变量关系矩阵 + 相关系数热力图 聚类雷达图 + 2D投影散点图 用户价值:复杂数据关系一目了然,支持专业图表输出 多语言报告生成 中英文双语界面切换 自动生成分析报告(PDF/TXT) 聚类特征统计表输出 用户价值:国际团队协作无障碍,符合学术/商业报告标准 3. 技术选型与架构特点 核心技术栈: 数据处理:Pandas(缺失值处理) + NumPy(矩阵运算) 机器学习:Scikit-learn(KMeans, PCA, Silhouette) 可视化:Matplotlib/Seaborn + 字体自适应渲染 架构亮点: 配置驱动模式:通过修改全局变量即可切换数据集和分析目标 模块化流水线:数据加载 → 清洗 → 聚类 → 可视化 标准化流程 智能自适应: 自动检测中文字体(支持Windows/macOS) 大型数据集智能采样(>1000条自动降载) 高基数分类变量自动优化展示 面板数据专项处理:时间序列特征自动生成(变化率/差值)
1700Python机器学习150.00元
一、软件面向的行业和业务场景 本项目聚焦低成本深度感知需求,适用于小型企业或创业团队的轻量级应用场景,例如: 电商3D商品展示:用手机拍摄商品(如杯子、玩具)的左右视图,生成深度图,用于虚拟商城的“360°+深度”展示(比如用户可以看到杯子的凸起部分离屏幕更近,提升购物体验); 家用智能设备:扫地机器人的简单环境建模(用单相机移动拍摄,生成房间地面的深度图,判断障碍物距离,避免碰撞); 教育类APP:儿童编程软件中的“视觉实验”模块(让孩子用手机拍自己的玩具,生成深度图,直观理解“双目视觉”的原理)。 这些场景的核心需求是低成本、易部署(不需要专业双目相机),而本项目用“单相机+OpenCV”完美解决了这个问题,符合就业中“用最低成本实现核心功能”的要求。 二、项目功能模块与具体功能 项目按照“标定→双目校准→匹配→深度生成”的工业级 pipeline 设计,实现了4个核心功能,每个功能都对应任务书的考核点: 相机内参校准(张正友标定): 做什么:用手机拍15张不同角度的棋盘格照片(倾斜、旋转、远近),用OpenCV的cv2.calibrateCamera算法算出相机的焦距(镜头的“放大倍数”)、主点(图像中心)和畸变系数(消除镜头的“鱼眼效应”)。 为什么:没有内参,后续的深度计算会有很大误差(比如拍同一个杯子,畸变会让杯子看起来“变形”,导致深度图不准)。 相机外参定位(DLT标定): 做什么:用手机拍左右两个位置的立方体照片(6cm边长,硬纸板做的),手动标注立方体的顶点(比如前面的4个角、顶面的2个角),用cv2.solvePnP算法算出相机相对于立方体的旋转方向(比如相机向左转了10度)和平移位置(比如相机离立方体20cm)。 为什么:外参是“相机在哪里”的关键参数,后续双目标定需要左右相机的外参来算它们之间的相对位置。 双目姿态校准(双目标定): 做什么:结合左右相机的外参,算出它们之间的旋转矩阵R(右相机相对于左相机转了多少度)和平移向量T(右相机在左相机右边10cm),得到基线长度(双目系统的“眼睛间距”,决定深度计算的精度)。 为什么:没有双目姿态,左右图像的“对应关系”会乱,立体匹配无法正确找到同一个点在左右图像中的位置。 立体匹配与深度计算: 做什么:(1) 用手机拍左右两个角度的目标照片(比如杯子),用SAD滑动窗口算法(窗口大小可调,5x5/7x7)生成视差图(左右图像中同一个点的位置差);(2) 用视差图和之前的内参、基线长度,用公式算出深度图(灰度值表示距离,亮的地方离相机近,暗的地方离相机远)。 为什么:这是项目的核心功能——把“2D照片”变成“3D深度信息”,满足场景需求(比如电商的3D展示、扫地机器人的避障)。 三、项目的技术选型与架构特点 技术选型: 核心库:OpenCV(4.8.0版本)——工业级开源图像处理库,支持相机标定、立体匹配、深度计算等所有核心功能,跨平台(Windows/Android/iOS),适合就业中的“快速原型+部署”需求; 开发语言:Python(3.9版本)——开发效率高,语法简洁,适合快速调试(比如调整滑动窗口大小,马上就能看到深度图的变化); 硬件:手机(iPhone/Android)——低成本、易获取,不需要专业相机,符合“轻量级应用”的要求。 架构特点: 模块化 pipeline:每个功能(内参校准、外参定位、双目校准、深度计算)都是独立模块,比如“内参校准”模块可以用到其他单目项目中,“立体匹配”模块可以替换算法(比如把SAD换成更准确的SGBM),便于就业中的“功能复用”; 可参数化调整:滑动窗口大小、视差范围、最大深度阈值都是可调的,比如调整窗口大小(5x5→7x7),可以对比深度图的“清晰度”和“稳定性”(窗口大,深度图更模糊但更稳定;窗口小,更清晰但容易有误差),符合任务书“不同窗口尺寸对比”的要求; 可视化结果:生成的深度图是黑白的,直观看到目标的三维形状(比如杯子的凸起部分更亮),便于就业中的“结果展示”(比如给客户看“我们的系统能算出杯子的深度”)。
2050Python机器学习/深度学习
知识问答平台开源项目
项目介绍 silc-client 是一个基于 Vue 3 + TypeScript 构建的现代化前端应用项目。该项目使用了最新的前端技术栈,提供了一个响应式、高性能的用户界面。 技术栈 框架: Vue 3.5.13 (Composition API) 语言: TypeScript 5.8.0 构建工具: Vite 6.2.4 状态管理: Pinia 3.0.2 路由: Vue Router 4.5.0 UI组件库: Element Plus 2.9.9 图表库: ECharts 5.6.0 HTTP客户端: Axios 1.9.0 工具函数: Lodash 4.17.21 日期处理: Day.js 1.11.13 项目特性 ? 基于 Vue 3 Composition API 的现代化开发体验 ? 使用 Element Plus 提供的丰富UI组件 ? 集成 ECharts 支持数据可视化 ? 使用 Pinia 进行状态管理 ?️ Vue Router 实现单页应用路由 ? TypeScript 提供类型安全 ⚡ Vite 提供快速的开发服务器和构建
2880Python机器学习/深度学习
当前共998个项目more
×
寻找源码
源码描述
联系方式
提交