Zz_Wang
全职 · 300/日  ·  6525/月
工作时间: 周末08:00-21:00工作地点: 远程
服务企业: 0家累计提交: 0工时
联系方式:
********
********
********
聊一聊

使用APP扫码聊一聊

个人介绍

熟练掌握Java核⼼知识(集合、多线程并发、JVM),具有良好的编程习惯以及代码规范;

熟悉Spring、SpringMVC、SpringBoot、Mybatis、ElasticSearch等开源框架,可以根据需求快速搭建项目;

熟悉MySQL底层原理,包括 基础架构、⽇志、事务、索引 等,具备⼀定的SQL调优能⼒;

熟悉Redis线程模型及主从、哨兵、集群部署模式,掌握缓存、分布式锁、限流等使⽤场景;

熟悉Kafka,对可靠性保证、leader选举、分区分配、零拷⻉有⼀定理解;

熟悉RabbitMQ,对可靠性保证、集群模式、持久化、灵活路由等等特性有⼀定的理解;

掌握分布式常⻅问题及解决⽅案:分布式锁、分布式事务、分布式session、分布式任务调度;

理解微服务架构设计:服务注册发现、配置中⼼、限流、熔断、降级、⽹关路由等;

熟悉Linux操作系统及常⽤命令、Docker常⽤命令;

工作经历

  • 2019-04-05 -至今先特网络java开发工程师

    园区服务 + etl 项目背景:园区服务项目,包含多种业务模块,如空间资产、财务管理、企业办公、物业管理等,并建立数据仓库。我的工作:①设计与研发动态表单与工作流以及相关功能的开发,如业务回调,行列权限,流程监控,特殊字段,行转列 等;②开发数据仓库及BI相关功能。集成kettle并开发可视化的etl作业系统,梳理各个业务线数据逻辑,建立数据模型贴源层,统一梳理维度层、事实层、集市层,以提供标准的指标数据。难点与方案:①非结构化数据的检索:利用ES的检索优势,将表单数据同步至ES中,条件检索时先通过ES筛选出符合条件的记录,再根据主键回表查询完整数据;②业务与etl的数据一致性问题:通过canal监听业务数据库的binlog,投放到kafka消息队列中,etl服务消费其中的数据,并触发数据模型的处理作业;③实现了多种数据源的适配,包括 静态导入、mysql、clickhouse、达梦、kafka、http通信 等数据来源。④kettle在处理超过100万数据量时,可能会出现超时或内存不足,所以在kettle工具中开发了分页处理的组件,避免出现阻断性异常情况。同时,将模型部分迁入clic

教育经历

  • 2014-09-01 - 2018-06-30云南财经大学统计学本科

语言

普通话
英语
0
1
2
3
4
5
0
1
2
3
4
5

技能

0
1
2
3
4
5
0
1
2
3
4
5
更新于: 1天前 浏览: 8