报表/图表制作

项目介绍: 对传统污水处理厂管理方式进行改进,开发一个基于现代网络技术和数据分析技术的城市污水信息系 统 技术选型:前端使用Echarts和Bootstrap框架进行可视化设计使用HTML5和vue组件进行页面开发;后端技术栈 MyBatis+SpringBoot+MySQL+Git+Maven。使用Kafaka与Spark进行数据清理和数据分发 1、数据解析和分发:使用Jsoup工具,获取网页数据,同时使用Spark进行数据处理,可以快速有效地对大量的污 水数据进行处理和分析;通过Kafka与Zookeeper处理Jsoup发送的数据,并传回到Scala程序;基于搭建Kafka和 Zookeeper环境下进行数据分发功能; 2、数据处理部分:用spark框架,在scala项目中,基于StructuredStreaming执行环境,进行数据处理。结合 spark和kafka可以实现大规模、高速、实时的数据处理能力。 3、信息可视化:前端页面设计基于HTML和vue组件,同时以Bootstrap为模版,通过ECharts框架完成页面的布 局和可视化展示 4、配置和管理:利用Mybatis
1450Java报表/图表制作
该项目旨在打造国内比较先进的 olap 数据库。在对接外部 BI 之前首先需要搭建出同类产品如 Doris、starrocks、clikhouse 的 能力如 sql 解析流程匹配添加 ai 能力作为辅助实现 sql 优化快速查询、链路追踪 trace 及集群性能监控。 在项目中我主要完成的是对于系统自监控能力,链路追踪能力。 业绩: 1.完成系统自监控框架技术方向的确定去框架搭建。 2.将系统中性能暴露出来 trace及 metrics 指标监控。 3.集群资源包括存储计算及物理节点的管控。 4.让系统使用我的框架完成线程粒度的监控便于提升系统性能。 5.使用Jaeger将预埋在系统中的metrics上送到prometheus再通过grafana将系统的运行情况展示出来。
1460Java报表/图表制作
Scrapy 是一个用于 Python 的快速高级 Web 爬虫框架,旨在帮助开发者以简单而高效的方式抓取网站数据。Scrapy 提供了一个完整的开发环境,包括请求调度、数据提取、数据处理以及存储等功能。 项目结构 settings.py:配置文件,用于定义项目的设置。 items.py:定义数据结构,用于存储爬取的数据。 middlewares.py:定义中间件,用于处理请求和响应。 pipelines.py:定义管道,用于处理已提取的 Item 数据。 spiders 目录:存放 Spider 类,每个 Spider 类负责从一个或多个网站抓取数据。
1540python报表/图表制作
1、展示应用平台和管理后台 2、应用页面用户使用的页面展示对应相关数据 3、管理后台配置应用平台相关数据 4、图标增加特色定制
2070JavaHTTP服务器
本产品是一款高效的数据处理工具,专为大数据环境下的Excel用户设计。它能够无缝对接并处理任何符合标准的Excel文件,执行一系列精细化操作,如关键字快速查询以精准定位数据,智能去重功能有效清理冗余信息,同时提供重复次数统计,帮助用户深入了解数据分布。此外,还支持一键删除重复的行或列,确保数据集的清洁与准确。处理完成后,产品能够自动生成并保存为全新的报表或图表文件,便于用户直观展示数据成果,提升工作效率与决策质量。
4410python脚本编程语言1000.00元
采用媒体查询、rem、自适应布局等方法完成pc端和移动端的适配展示; 对数据进行可视化展示,使数据更直观、更清晰
1390jQuery多媒体插件
CRM系统 产品系统
CRM 系统:钉钉消息订阅和任务同步、Echarts 各种统计图表等; 业绩报表数据;产品投放后台管理;组织架构的优化调整;客诉系统;财务系统;社群系统;教务系统;学员分配系统;百家云直播课程信息;企微应用管理;数据报表分析;
421电话/通讯/IM聊天
1.在设计阶段--模型创建方面,可用于企业级标准化的全过程正向设计,设计过程的多端跨企业协同,实现正向设计快速建模出图,基于同一项目群展开工作,基于线上平台开展数据统一的高效跨企业协同工作。 2.在设计阶段--模型管理方面,基于标准化,在平台上实现项目的全流程线上化管理,支持多源BIM数据轻量化转换、在线查看,实现多源异构数据的线上整合,统一查看,提高数据传输、文件打开的效率,实现标准化的项目线上化管理。 3.在生产阶段,模型管理方面,可用于设计+算量、造价、生产等以设计BIM数据为源头的一体化应用,实现以设计BIM数据为源头,突破各阶段数据传递瓶颈,支持多参建方计划管理,任务文档自动收归,实现设计、造价、生产阶段的BIM协同集成一体化应用。 4.在施工阶段,模型管理方面,可用于深化设计,对设计模型进行拆解和深化,实现BIM设计模型往施工模型的进一步应用,支持模型上传归档、在线合模、模型审查;另外支持图纸模型的移动端查看,现场巡检管理。
270网站API
企业内部客户关系管理系统; 主要包括账号管理,客户流转,销售管理,运营管理,数据采集,报表展示等模块 前后端均为团队独立研发
1890PHP邮件服务器
CRM‌是由我司推出的一款专为企业设计的专业软件,旨在帮助外贸企业管理客户关系、提升销售效率和拓展市场。其主要功能包括工作台、系统公告、短信邮件沟通、客户管理、统计、客户关怀、文档管理、工作报告、企业管理等,能够提供统一的客户沟通平台,并支持邮件营销,提供多场景解决方案和支持个性化定制,旨在帮助企业高效管理客户关系等‌。
410PHP金融/财务/证券系统5999.00元
我负责“青岛高速综合管理驾驶舱”项目的前端开发工作。 ◆ 负责驾驶舱八大模块(基础设施、路网运行、应急调度、出行服务、机电运维、养护管理、项目管理、收费管理)的大屏页面开发和 维护工作,对 Vue/Vuex/Vue-router 有了深刻理解并熟练掌握;负责用 Echarts 实现驾驶舱中五十余个图表、进度条、动态效果的制作, 对 Echarts 暴露接口的使用和封装属性的访问有了深刻理解。 ◆ 负责高德地图扎点、搜索行政区划、地图路线标注、事故范围圆绘制、救援车位置及路径规划实时更新等功能方法的封装及使用。 ◆ 熟练对接各系统接口(青岛高速单点登录系统接口、高德地图接口、高速路各关卡摄像头视频接口、高速工作人员电话接口)。
1450Java报表/图表制作
1、本项目免费应用于企业的人员,部门资产等数据的管理 2、本项目使用springboot框架搭建,持久层使用mybatis以及阿里druid连接池进行数据存储,性能方面能够满足1000QPS并发量,足以满足初创公司的使用 3、gitee上搜索若依,可以下载源码阅读readme进行部署,或者查阅文档 http://doc.ruoyi.vip 使用
400JavaREST/RESTful项目
爬取网站信息源文件源码
根据微医网网站抓取里面医生列表的信息,包括医生姓名, 图片, 职称, 科室, 就诊医院, 擅长, 图文问诊, 视话问诊,医生图片网址。抓取每个医生的具体信息,批量下载医生图片以及批量制作医生名片。 使用的技术包括:requests网络请求,re正则表达式,json数据解析,CSV文件格式文件的读写操作以及docx文档的读写模版的操作
3560pythonPython开发工具
1、首页,展示商品信息,搜索框,轮播图,活动商品,实现登录注册页面,以及用户信息修改 2、商品列表:主要是分类商品的列表展示,调用后台接口拿到数据动态的渲染页面,使用懒加载,每次拿到10条,上拉加载下拉刷新,提高用户体验 3、分类商铺:采用uni-app组件,实现多级分类菜单 4、购物车模块:使用 vuex暂时存储购物车数组,当用户点击加入购物车时,实现购物车商品的添加商品的删除、商品数量的增加和减少、清空购物车、显示购物车所有商品的总价等等。 技术栈:前台: uniapp + request.js + uni-ui组件 + vuex + sass 后台: vue-router + vueX +element Uladmin+ axios + Echartsis+ animate css动画库
1650图像(Image)
背景:为了高速铁路的行车安全,调度人员需要实时准确的了解铁路沿线的气象信息, 从而合理规避突发的隐患,以确保铁路系统的安全运行。该系统的数据流是高铁沿线风、 雨、雪、地震等传感器实时采集数据到防灾基站,防灾基站通过 OPC 协议将数据打包上 传到自然灾害服务器,自然灾害服务器将数据分析处理存储后分发到已连接的客户终端, 如行调终端,工调终端,工务段终端,维护终端等铁路局的各个相关部门。各终端根据 各自职能显示数据及处理结果。 贡献:完成初代自然灾害监测系统的服务端和客户端的软件开发,包括数据采集,存储 分析,数据转发及展示。后期,毫无保留地为系统的二次迭代提供了技术支持。
1900C/C++嵌入式操作系统
智慧园区系统产品系统
该园区系统主要面向模具制造企业、园区运营商及地方政府,旨在解决传统模具产业面临的资源分散、生产效率低、环保治理难、协同能力弱等问题。通过智能化升级,该方案助力企业降低运营成本、提升高端制造能力,同时推动区域产业向绿色化、集约化转型。
580Java网页(Webview)
对电子商务平台上的产品的评论数据进行分析和挖掘,可以为潜在买家提供有用的购买建议,还可以发现产品在某些方面存在问题。本文基于电商产品的评论数据,研究电商产品评论的情感分析及可视化, 首先,采集电商产品的评论数据,为后续的研究提供数据支撑。选取京东商城作为评论数据采集的目标源网站,并对其进行分析,再基于网络爬虫技术设计、编写数据采集程序,并确保数据采集程序可以正常运行。对采集到的电商产品评论数据,存储到数据库中,方便后续使用。 其次,对采集到的电商产品评论数据进行情感分析及LDA主题分析,使用数据清洗、分词、去停用词等对评论数据进行预处理,使用Word2vec模型对评论数据进行向量化表示,为提取评论数据的深度情感特征,使用栈式自编码网络对评论数据做特征提取,使用LSTM模型对评论数据进行情感分析,对情感分析后的积极评论和消极评论分别进行LDA主题分析,分析评论数据中的潜在主题。 最后,对电商产品评论数据的情感分析结果和LDA主题分析结果进行可视化,设计并实现分析结果可视化系统,以饼图、词云图和表格的形式展示评论数据的情感分析结果和LDA主题分析结果,提供清晰、直观的可视化展示
480PythonjQuery分页插件
1,我负责过数据中心,指标管理,考勤等多页面的前端网页开发 2,我开发过项目通用模组,提高项目代码的复用性和可维护性 3,将angular项目转移为React项目,提高项目运行效率
1360css前端
定制桌面PC软件应用服务,支持企业公司和个人的,工控软件开发,生产管理工具,个人应用等。 1.熟练使用Python语言,桌面应用,,后端服务器接口开发, 2.熟练应用vue3+js+antdv前端开发单页应用,个人主页,公司主页。 3.一些运维技术
1690python报表/图表制作
1.该项目使用 Vue-cli 搭建项目基础框架,确定、技术栈 2.配置路由,创建各级路由组件,封装接口模块、请求模块,搭建项目结构 3.配合使用 element-ui 构建各个组件静态结构,封装公 共组件 4.使用 localStorage+vuex 实现数据的持久化存储 5.使用 axios 动态获取数据进行页面数据渲染 6.采用 git 提交数据到远端仓库
1660图数据库
当前共190个项目
×
寻找源码
源码描述
联系方式
提交