以下操作需要进入druid-io安装文件的根目录下操作,比如我的druid-io安装目录为:/hadoop/dc/druid-0.9.1.1 那么咱们需要操作 cd /hadoop/dc/druid-0.9.1.1
修正Druid装备
修正_common/common.runtime.properties
装备文件
vim _common/common.runtime.properties
修正文件中druid.storage
装备信息为以下内容
druid.extensions.hadoopDependenciesDir=/hadoop/dc/druid/hadoop-dependencies/hadoop-client/2.7.3
druid.storage.type=hdfs
druid.storage.storageDirectory=hdfs://nameservice1/druid/segments
#注释掉本来的本地存储
#druid.indexer.logs.type=file
#druid.indexer.logs.directory=/hadoop/dc/indexing-logs
#druid.storage.type=local
#druid.storage.storageDirectory=/hadoop/dc/segments
druid.extensions.hadoopDependenciesDir
: 用于装备Hadoop相关依靠的jar文件夹地址
druid.storage.storageDirectory
: 装备数据存储的地址,关于ha的集群来说只需要填写ha的地址即可
装备hadoop依靠
咱们在druid.extensions.hadoopDependenciesDir
装备中指定了hadoop依靠的位置,就需要咱们将依靠jar放置到该位置
复制hadoop集群相关的装备信息到_common文件夹中(改装备文件在集群中可下载CDH or HDP均可)
mv core-site.xml /hadoop/dc/druid/conf/druid/_common/
mv hdfs-site.xml /hadoop/dc/druid/conf/druid/_common/
mv mapred-site.xml /hadoop/dc/druid/conf/druid/_common/
mv yarn-site.xml /hadoop/dc/druid/conf/druid/_common/
将hadoop相关的依靠jar复制到druid.extensions.hadoopDependenciesDir
装备的目录中即可
复制修正后的装备文件发送到各个节点重启服务器即可