项目是做的一款软件,系统不仅面向企业也面向用户,其中服务有(管理平台,厂商端,用户端与导购员端),管理平台核心是溯源码的生成,厂商端核心业务是防伪码与产品和活动的绑定,导购端只是导购员对自己业绩的一个管理,用户端中核心有用户信息录入、积分商城、活动领取。
1580微信公众号
一个综合图片社区。 用户可以自行上传图片和文章,后端会对图片进行压缩。 前端使用Vue Nuxt.js 后端使用go go-zero postgresql redis
1700IT
1、食谱创作者中心 http://creater.hetscene.com/#/login 2、美食详情 http://h5.hetscene.com/#/ 本人掌握技术栈、 vue、react、小程序、h5
1280H5网站
啄木鸟 负责服务:pay,oms,mapp 项目描述: Pay:支付服务, 1接入各个支付第三方接口,2接入银联分账系统 Oms:订单管理服务 1监控订单状态,订单执行流程,并对订单进行管理 2接入第三方渠道订单,并进行管理
2390电商
本项目是基于C++11编写的Web服务器,解析了get、head请求,可处理静态资源,支持HTTP长连接,并实现 了异步日志,记录服务器运行状态功能; • 主要工作:1.使用Epoll边沿触发的IO多路复用技术,非阻塞IO,使用Reactor模式; 2.为减少内存泄漏的可能,使用智能指针等机制; 3.使用多线程充分利用多核CPU,并使用线程池避免线程频繁创建销毁的开销; 4.使用双缓冲区技术实现了简单的异步日志系统; • 个人收获:通过编写简单的Web服务器来完成对多线程网络编程的知识巩固,加深对陈硕老师的《Linux多线程服务端编 程》中知识点的理解。
2400 PC网站
项目名称:移动终端上网数据离线分析处理系统(电信项目)(2016.01-2016.07) 开发环境:Eclipse、Jdk1.7、Maven 主要技术:HDFS、Mapreduce、Hive、Spark、SparkStreaming、Sqoop、Impala、Oozie 项目介绍: 数据源端通过ftp服务将用户上网记录以文件的形式,上传到我们的采集机对应的目录下,通过脚本定时将数据Put到Hdfs上。 编写MapReduce对电信的离线话单数据进行分析,统计用户使用业务(流量套餐、话费套餐、铃声套餐等)情况,感知用户使用行为和使用习惯,确定移动业务推广走向的一套系统。使用Oozie调度。主要统计的指标有: 1、通话时长和流量统计,最长延迟1小时。 2、app下载Top N排名,每小时统计一次。 3、业务使用量实时统计,完成业务使用量实时排名和预警。 职责描述: 1、编写shell脚本,将用户上传到采集机上的原始数据上传到hdfs上。 2、编写MapReduce代码对hdfs话单流量数据进行统计。 3、编写Spark代码离线计算App下载排名。
1500大数据
项目名称:网站日志分析系统(2016.08-2017.04) 开发环境:Eclipse、Mysql、Maven、Jdk 主要技术: 实时:Storm、Kafka、Mysql 离线分析:Flume、Hdfs、MapReduce、Redis、Hive、Sqoop、kettle、Mysql 项目介绍: 根据网站的Access、UGC日志,分App维度、总的,离线统计每天的UV、PV、登录人数、次日留存和七日留存。根据用户实时产生的UGC日志,分App维度、总的,实时统计用户每分钟一次的充值和消费情况 。 离线分析:整个离线处理流程使用kettle监控任务并调度。 1、数据采集:将用户的Access、Ugc等日志通过Flume采集,按天和业务分目录存储到HDFS上。 2、数据清洗:每天定时通过MR清洗前一天的原始日志数据,Load到Hive表中。 3、数据分析:编写Hive语句和Shell脚本统计指标,并将统计之后的指标使用Sqoop导入到Mysql,使用Kettle将Mysql中与hive表对应的
1850大数据
主要业务方向:后台系统,三方平台,微信小程序,响应式官网。 技术点:vue全家桶,uniapp,微信小程序原开发。 对前端性能优化有着丰富的开发经验,掌握节流,防抖,长列表懒加载,webpack打包等优化方案。 有后端开发经验,使用过express,QA,egg等中间件进行开发。
1660文档原型图
项目名称:实时处理平台(2017.05-2017.11) 开发环境:Eclipse、JDK1.7 主要技术:Log4j、Flume、Kafka、Storm、Mysql、Hbase 项目介绍: 监控比价项目中爬虫的爬行能力、每天的抓取数量、抓取一个网站需要的时间、还 有抓取失败的商品数据等指标信息,项目中使用Flume、Kafka、Storm实现一个流式处理 平台。 项目主要分5个模块:日志数据收集层、数据缓存层、数据处理层、指标展现层、 数据备份层。 1、日志数据收集层:在每台爬虫机器上部署一个Flume Agent,负责采集爬虫日志 信息,并发送给Kafka集群。 2、数据缓存层:使用Kafka接收Flume的日志信息并缓存,等待Storm处理。 3、数据处理层:主要是Storm实现,对日志信息处理,统计关键性指标做汇总,定时的存入MySql中,供Web界面统计出图表。 4、指标展现层:主要使用Echarts出图表。 5、数据备份层:目的是对爬虫的原始数据进行备份。 项目问题: Storm重复消费数据问题,Storm和Kafka整合log4j实现冲突问题,
1370大数据
本项目就是基于Redis中跳表数据结构实现的轻量级键值型存储数据库,使用C++实现。主要功能有插入数 据、删除数据、查询数据、数据展示、数据落盘、文件加载数据,以及数据库大小显示;如果想自己写程序使用这个键 值对型存储引擎,只需要在你的CPP文件中导入接口就可以使用。 • 主要工作:1.针对跳表进行增,删,改,查的操作; 2.可以将数据保存到自定义文件,与Redis中将数据生成数据快照保存到dump.rdb文件功能类似; 3.压力测试,通过shell脚本测试数据库的性能; • 个人收获:通过编写简单的基于跳表数据结构实现的键值对存储数据库,可以熟悉跳表这种熟悉结构,并且也可以学习 关于Redis中存储方式一些知识;虽然这个项目只能存储整型,字符串类型,后期可以将其他的类型都加进去,尽量做 的完整的存储引擎。
3360 PC网站
1. 系统设置,管理用户信息,权限管理 2.调度管理,对系统跑批进行调度,任务进度,已经跑批日志 3.参数管理,对系统的基础参数做修改及查看 4.情景模式,对不同的情况,做不同的部署 5.报表管理,包含监管指标,检测指标,存款指标,同业指标等,以及缺口分析,压力测试等
1690运维
主要负责特陈资源方面后台的开发与维护 超市的堆头处理 与供应商的合同管理 进行之前代码的优化 与新需求的开发 主要针对特别陈列的统一管理
1350
主要是维护步步高钱包小程序 参与小程序方面的优化修改 增加支付渠道 西瓜分期 与第三方联调接口 封装接口
2690金融
项目分为:商品管理、商品类型管理、活动管理、优惠券管理、红包管理、众筹管理、订单管理、购物车管理、广告管理、文章管理、砍价、评论管理、主题管理等功能模块; 我负责:需求分析、后台系统架构及开发、数据库设计、接口开发及调试、公众号api接口对接,项目部署; 后台使用liunx+nginx+mysal+redis+php,框架thinkphp; 前端使用HTML+vue开发; 用微信分享+微信支付+消息模版推送;
2140电商
唯图网致力于打造专业的摄影及创意的交易平台,为摄影师\模特\创意设计师 /插画师提供一个图片作品交易及拍。摄服务的网络交易平台。为广告、媒体、 传媒、企业、相关机构提供一个专业的图像资源服务平台。 职责: 1、主要负责唯图网平台中图片的在线发布、在线购买以及管理功能 2、主要负责平台bug的修改
1100金融
独立开发的 uniapp “链每天”小程序以平稳运营三年左右,日活量有几千人。该小程序是积分商城项目,项目有着复杂的积分逻辑。
1850
国网湖北省电力公司定制开发的变电运维系统,满足电力公司变电验收、变电运维、变电检测、变电评价和变电检修五个寿命环节,同时提供排班人员定位签到等功能方便客户使用 责任描述:根据需求开发项目,修复客服反馈的问题,前往现场进行与客户沟通提供技术支持,与其他数据中台以及其他公司进行对接 1. 人员轨迹功能开发,根据任务卡与工作地点自动计算工作人员到位情况 4. 数据采集功能设计开发,对接其他公司的测量仪器,自动收集测量数据,同时集成图像识别模块,支持用户在手机端拍摄或上传图片自动识别数据
2050
包装设计,根据客户的需求进行设计,设计到客户满意为止,下面是一部分真实成交的案例,这之中不乏一些根据客户要求修改了5次以上的
1570UI设计
项目名称:比价平台(2017.12-2018.06) 开发环境:Eclipse、Tomcat7、JDK1.7 主要技术:Httpclient、Htmlcleaner、Xpath、Hbase、Redis、Solr、SpringMvc、jquery、Echarts、Zookeeper、Ganglia 项目介绍: 该项目主要是抓取京东、易迅、国美、苏宁等电商网站的商品,获取商品的标题、价格、规格参数等信息,在前台界面为用户提供商品搜索查询,以及商品比价等功能。 项目主要分为6个模块:数据下载层、数据解析层、数据存储层、数据处理层、数据展现层、系统监控层。 项目问题:ip被封,网站页面结构变动。 职责描述: 1、负责商城的数据爬取收集,从电商页面,解析出商品的明细信息,商品的价格,商品的图片等信息 2、负责系统的监控,利用zookeeper对集群中的各个节点进行监控,当其中的有节点宕机了,会用邮件通知运维人员进行相应的处理 3、负责将获取来的数据信息存放到hbase数据库中,并且对数据建立索引等操作
1530大数据
项目名称:智网大数据平台(2018.07-2018.12) 开发环境:SecurceCRT、Centos7.2 主要技术:Shell、Jenkins 项目介绍: 在大数据时代的环境下,公司需要有效利用多源、多结构数据,安全地进行数据加工和增值,建设公司自有数据能力并进行转化。因此公司对于大数据平台的数据生产(汇聚存储多源数据、自动化清洗与入库)、分析加工能力(公司经营分析报告、公司数据洞察报告)、数据安全(严格保证数据安全、多租户环境用户控制)和能力开放(多样化对外开放能力、平台能力模块化租赁)四个方面有极高的需求。 职责描述: 1、编写shell脚本每天定时采集接口机数据并入库到Impala数据库中。接口机数据包括JPO、AMSP、廊坊。 2、负责在线商店、TBOSS等结构化数据采集到Impala数据库中。 3、编写shell脚本对AMSP数据进行数据清洗操作。 4、编写shell脚本对接口机数据、入库后Impala表中的数据进行监控。 5、通过Jenkins对服务器之间的脚本进行作业调度与监控。 6、周期性检查每天的数据是否都入库,对于缺失的数据采取对应的措施。
1540大数据
当前共162699个项目
×
寻找源码
源码描述
联系方式
提交