凋零丶
1月前来过
全职 · 600/日  ·  13050/月
工作时间: 工作日19:00-23:00、周末00:00-23:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

熟练使用socket、solr、zookeeper等技术。

熟练使用hadoop、hbase、hive、spark等主流大数据框架。

能够独立完成hadoop集群的搭建和调试优化,能够独立完成solr集群的搭建和优化。

熟练使用linux操作系统,熟悉linux基本命令。

熟悉JavaScript、CSS等网页设计语言

熟悉 JSP、Servlet、XML等WEB开发技术

熟练easyUI、bootstarp前端框架

熟悉Struts、Hibernate、Spring、springside等J2EE企业架构核心技术

熟练MYSQL、SQLServer、Oracle等各种数据库操作会使用Eclipse、Dreamweaver等开发工具

熟练Tomcat、JDK等WEB服务器的应用

熟练eclipse、myeclipse平台,熟练在weblogic或tomcat服务下编程,

对于struct、hibernate、spring、springside技术框架应用精通、

熟悉javascript、xml、jquery、commons-fileupload等技术,

数据库主要使用的是oracle、mysql、SQL server

对于.net等语言也熟悉

有规范的开发文档写作能力

熟悉websocket通信技术

会使用easyui、bootstrap等前端框架

熟练使用solr部署开发技术

熟练使用hadoop、zookeeper、hbase等大数据相关技术

能够独立搭建hadoop相关集群,并维护优化集群

工作经历

  • 2013-03-15 -至今北京博艺java

    管理综合应用系统 项目描述: 1、依托大数据架构为底层处理海量数据 2、对各区域采集数据设备进行管理 3、对数据进行各类统计、查询 4、对数据进行各类分析 责任描述: 1、底层架构的优化维护 2、底层数据接口的编写 3、数据入库统计 4、应用层对外接口编写 5、各类文档的编写 数据中心平台 项目描述: 1、构建公司通用大数据平台 2、集中处理优化海量数据存储 3、提供通用接口 4、优化数据存储结构 5、使用hadoop、hbase、flume、spark、solr等组件搭建底层架构处理海量数据(日均5000W+) 责任描述: 1、数据中心对外接口的协调 2、个性化接口业务的开发 3、系统平台的搭建 wifi认证 项目描述: 1、提供wifi上网认证功能 责任描述: 1、整体项目编码 卡口后台管理系统 项目描述: 1、以hdfs、hbase、hive、impala为底层架构处理海量数据 2、对采集数据进行查询管理 3、对数据进行有效分析 责任描述: 1、需求的整理确定 2、对底层架构维护优化 3、整体项目进度把控 4、模块编写 5、按照职能进行分工 综合信息查询系统 项目描述:

教育经历

  • 2018-01-01 - 2021-01-01国家开放大学计算机管理大专

    6Java开发经验,熟悉hadoop 生态圈。熟练应用springboot springcloud 等技术。有自己的开发框架

技能

springboot
Hive
solr
hbase
impala
Hadoop
SpringMVC
Socket
webservice
0
1
2
3
4
5
0
1
2
3
4
5
作品
大数据智能分析平台

该项目是为政府安全部门提供基本情报分析,和vpn劫持,vpn分析 该系统使用hadoop+hbase+hive+solr的分布式底层架构,为查询效率,和算法提供平台。 前端使用springside+mysql为基础,提供数据展示平台。

0
2021-02-05 11:37
综合信息查询系统

该项目是为政府安全部门提供快速高效的情报分析平台, 拥有人物分析,好友分析等功能,快速高效定位个人。实现一键式查询人物相关所有信息。 底层使用大量算法,从庞杂的数据中分析有价值的数据为前端展示提供数据支撑。 该系统使用hadoop+hbase+hive+solr的分布式底层架构,为查询效率,和算法提供平台。 前端使用springside+mysql为基础,提供数据展示平台。 该项目由我带领6人团队从需求采集,开发实现。

0
2021-02-05 11:34
卡口后台管理系统

该项目为网安部门提供数据分析 前端卡口设备采集到数据后,经由本系统进行数据接收,清洗,入库 后台管理系统提供数据可视化,数据统计,碰撞分析,伴随分析,等功能为网安部门实施人员定位,抓捕提供有效的技术支撑 1、以hdfs、hbase、hive、impala为底层架构处理海量数据 2、对采集数据进行查询管理 3、对数据进行有效分析

0
2021-02-05 11:30
更新于: 浏览: 138