收集业务⽇日志到MQ,⽤用spark-streaming完成清洗得到明细数据并落地到 hive,⽤用定时etl计算⼩小时级指标,指标存⼊入hbase,供bi系统展示。
项⽬目细节:使⽤用flume收集业务服务的⽤用户⾏行行为⽇日志,将数据打到kafka,下游使⽤用spark- streaming将数据清洗成明细数据表落地到hive,使⽤用定时任务每⼩小时调度spark统计程 序,统计上⼀一⼩小时的⽤用户⾏行行为指标(pv,uv,⽤用户评论数等),数据落地到hbase,供BI 做报表展示使⽤
点击空白处退出提示











评论