基于 hive 和 clickhouse 进行数仓搭建,将埋点日志等数据通过 sparkstreaming 消费 kafka 方式存 入 hive,同时将业务方报表数据存入 hive,构建原始数据层;之后进行数据清洗,剔除脏数据等, 存入数据明细层;根据业务需求进行报表整合,生成数据集合层;之后按照业务方具体要求,生成应 用层数据,存入 clickhouse。对于存入clickhouse的数据进行finebi的搭建以及公司dmp平台的搭建
评论