项目分为:空气质量分析-首页、空气质量分析-区县空气质量排名、空气质量分析-站点月度超标情况、空气质量分析-降尘站点分析、空气质量分析-气象条件分析、空气质量分析-优良天数统计、市内区县分析-考核达标分析 我负责:空气质量分析-首页、空气质量分析-区县空气质量排名、空气质量分析-站点月度超标情况等模块的后端开发,使用JAVA语言开发,基于springcloud+mybatis框架实现,数据库采用mysql,缓存采用redis
1450JavaOA办公/协作平台
负责mysql、oracle安装和运维 sql语句的编写、存储过程开发和定时器处理 mysql慢查询分析和binlog日志解析 mysql性能调优。参数优化
1290数据库连接池
:该系统是将业务数据库所有数据集中到hadoo大数据平台,进行分层、建模,通过不同维度的指标,全面分析总体运营情况,并依据市场变化做出正确对策,同时对产品进行改进和优化等。 项目架构:Sqoop + hadoop + Hive +impala+ crontab+kylingence+tableau+fineBI 技术要点: 1.通过shell开发出批量生产能自动适配 mysql、oracle、sqlserve等关系型数据库sqoop采集指令和impala建表语句的功能; 2.对Sqoop采集功能配置文件研究,使采集,解决MySQL和Hive的空值、null,转义字符,及数据类型不一致等问题。 3.使用impala,parquet格式进行压缩和列式存储,提供快速sql查询和开发 4.利用kylingence工具对sql进行建模,能加速页面的响应,让可视化工具更快展示。 5.数据仓库的搭建: (1)ODS原始数据层:将业务库数据增量或全量采集到ODS层,保证业务库和ods表1:1完全一致 (2)DWD明细数据层:对ODS层数据进行数据清洗和脱敏(有需要可创建非脱敏层)。进行维度建模,选择最
2230ETL工具框架
1.我个人负责整个项目的组织和协调工作。使用了VUE3框架来构建整个网上商城系统,并使用了Vue Router来实现页面路由。还负责与后端进行数据交互,通过axios库发送HTTP请求来获取数据和提交表单。还负责设计页面的UI和UX,利用Element UI库来快速构建美观的界面。 2.本项目是
2000JavaHTML5开发相关
1.爬取英国各个地区的疫情数据到本地。 2.对疫情进行数据分析和可视化处理,将其中的数据做成简易明了的可视化图形。 3.根据得到的数据,得出一些统计性结论。
1330python爬虫
1、二手车线上化平台,使用用户群体分别为平台方、二手车商、外部合作机构和政府部门等; 2、平台的主要前端触客渠道为App、小程序以及H5页面,同时带有后管系统做支持; 3、在功能层面上 1)为平台防提供车辆出入库管理、平台运营监测、营销平台管理和二手车商审核认证以及权限调整、智能驾驶舱等功能; 2)为二手车商提供用户注册、车辆上下架、库存管理、营销管理、店铺管理等功能。
730javascript
1.负责公司服务器基础环境部署.配置.日常.巡检.维护.故障应急响应和问题处理; 2.配合研发,参与系统的架构规划和优化; 3. 负责生产环境的监控和报警处理以及问题的跟踪; 4.负责公司自有服务器、阿里云服务器、客户服务器的漏洞修复; 5. 负责应用系统的部署、更新及日常监控工作; 6.负责 docker 容器部署安装运维工作; 7.负责应用方向的工作,保障系统稳定性、可用性,如应用环境的搭建、调优、监 控巡检、故障处理、补丁升级等工作; 8.负责公司中间件软件(如 weblogic、tomcat、apache、nginx 等)的运维工作; 9.负责应用的部署上线、维护和升级工作及故障处理; 10.负责 Linux 系统运维,包括监控、参数调整、基础服务软件的安装配置等工作; 11.配合其他运维部门,协助完成其相关工作;  制定应用运维规范,持续改进运维质量;
1950系统补丁
能够从国研网、橘子资讯、人行网站、新浪财经等多个公开数据来源采集信息。通过Python编程语言,我们将实施网络爬虫,定期抓取这些网站上的数据,包括经济、金融、政策等各个领域的信息。这些数据将被整理并存储,以供进一步分析、研究和决策使用。
2290python网络爬虫
项目介绍 :该系统适用于中国移动APP+小程序各功能模块前端展示跳转的后台管理配置平台 软件架构 :SpringBoot + Mysql + Canal + RocketMq + Quartz + Activiti + Redis 功能模块 :各模块工单配置 ,审核流模块 ,三方数据传输 ,统计报表 ,工单异常巡检模块 ,用户角色管理模块等 项目职责 :需求文档设计 ,数据库设计 ,需求功能开发; 主要负责功能结合Canal实现异常巡检模块 ,数据报表相关功能;
1570JavaWeb框架
本项目旨在开发一个数据分析工具,能够自动解析上市公司的PDF报告数据,进行文本分析和提取关键信息。使用Python编程语言,我们将开发能够处理PDF文档的模块,并应用自然语言处理技术来提取财务数据、关键字和趋势。这个工具将有助于金融从业者更快速、精确地理解上市公司的财务状况和发展趋势,为决策提供有力支持。
2320python数据处理
这个项目旨在开发一个自动化工具,可从巨潮资讯网、上交所和深交所网站上,批量下载上市公司的定期报告。该工具将使用Python编程语言开发,并利用网络爬虫技术从指定来源收集数据。下载的报告将被保存在指定的文件夹中,以便后续分析和处理。此项目将提高定期报告的获取效率,为金融从业者提供有用的信息。
1610python
1.渠道拜访项目属于红狮在线中台下面的一个子应用,这个项目是为了给红狮销售人员去拜访经销商使用。这个项目前后端分离,支持pc端和移动端。 2.主要有基础信息模块,拜访计划、拜访日志及相关的签到流程。 3.我主要负责基础模块的开发。 由于是公司内部项目,软件版权属于公司所有,故不能展示作品相关图片
3070Java后台管理系统(模板)
根据设备投运安全性原则,将复杂设备投运操作进行原子性拆解,形成带时序的断面,基于多个断面就行操作合并,最后生成方案内容并将操作进行对象化管理供第三方系统使用。(涉及保密规定,图片内容进行了打码处理)
1440
● 整个项目技术包括MVP架构 + Fragment嵌套UI框架+ okhttp网络框架;主要包括实现对图片压缩,滤镜,裁切处理;经典蓝牙通信,数据转换; ● 项目由我单独负责,负责通信协议搭建,图片数据处理,数据错误处理,屏幕适配,语言国际化,插件整体框架;跟据数据通信协议完成蓝牙通信,数据传输
1190
针对每日实测采用公式的调整与填报,基于springboot,达梦7,mybatis,tk.mybatis,redis,vue等技术进行开发。整个项目应用于公式填报的同时进行公式版本管理,对于差异公式进行特殊标注,同时根据不同大分区的划分自动代入子分区最新版公式进行辅助编制。(涉及保密规定,图片内容进行了打码处理)
1340
我主要负责性能优化 游戏测试 各项游戏的服务器测试 技术保证到位 有各类的技术经验 主要以性能优化为优势
1790游戏(Gaming)
1. 快递查询:用户可以通过输入快递单号查询快递的实时物流信息。 2. 快递寄送:用户可以选择快递公司、填写寄件人和收件人信息,并生成寄件单号。 3. 快递收取:用户可以将快递包裹寄到驿站,填写相关信息,并等待驿站工作人员收取。 4. 快递派送:驿站工作人员会将收取的快递送往目的地,并更新物流信息。 5. 预约取件:用户可以预约时间段前往驿站取回已到达的快递包裹。 1. 地理定位技术2. 数据存储与交互3. 实时物流信息查询4. 预约系统 1. 快递公司接口:不同快递公司的接口可能不统一,需要与各个快递公司进行对接和调试。 2. 数据一致性:需要确保用户输入的信息与后台数据库的数据一致性,避免出现错误或冲突。 3. 用户体验优化:在小程序中提供方便、简洁的界面和操作流程,以提升用户的使用体验。 4. 驿站工作人员管理:需要设计和开发驿站工作人员的管理系统,包括工作人员的权限管理、订单分配等功能。 通过合理规划和技术实现,可以克服这些困难,实现一个便捷高效的快递驿站小程序。
3840Java可视化
1. 负责了快乐众app产品技术选型、概要设计、详细设计、需求评估、数据库设计,制定了开发规范和接口规范。 2. 负责了电商商城商家入驻、商家交易订单分账系统、支付、短视频、直播、实时推荐算法系统相关技术的调研与选型。 3. 负责搭建了快乐众app服务端的架构与设计、具体后端服务包含用户登录授权服务、用户中心服务、支付服务、商品服务、 订单服务、秒杀服务、消息服务、短视频服务、直播服务、自动检查恢复数据服务、任务调度服务、apollo配置中心服务。 4. 负责与第三方平台技术沟通与对接。 5. 搭建了Serilog+Seq的开源日志系统。 6. 搭建了后端服务的配置中心服务,集成到各个后端服务中。 7. 制定产品的开发计划与测试计划,上线计划与app内测方案,并安排执行。 8. 安排开发部与产品部、测试部完成测试用例评审会,并制定测试方案和测试结果报告。 9. 整体统筹协调技术部与产品部、测试部、运营部完成产品的开发与测试、运营推广。 10. 负责研发技术架构设计、系统分析、产品开发、平台搭建、性能优化等具体研发任务。 11. 参与竞品的分析,优化产品相关功能。 技术架构: 1. 主要
1870电商
项目简介: 段子数据采集,对网站上段子作者,段子内容,点赞数据,不喜欢数据进行采集 项目架构: Scrapy框架+pymysql+pandas+Xpath 技术描述: 1.使用Scrapy框架对数据进行采集 2.使用xpath插件分析数据特征,对数据进行提取 3.添加请求头,Cookie,IP代理等信息,解决反扒问题 4.使用Git代码版本工具对项目代码进行管理 5.使用PyMysql将数据存储到Mysql数据库中 6.使用numpy对数据进行处理
2400python数据存储
此项目分为app和后台管理界面,后台管理界面包裹基础数据维护,航班,座位号信息,等。app负责下单选座订票以及支付功能
1920Java手机操作系统
当前共161669个项目
×
寻找源码
源码描述
联系方式
提交