1、通过flume接入压缩文件,每天接入300T数据,数据量约6000亿; 2、数据进行清洗后入库,存储HDFS,再通过Spark做离线计算和分析;
评论
您好 👋
我们能提供什么帮助?
向我们发送消息
常见问题、使用帮助、人工咨询等
使用微信扫一扫
评论