在完成Atlas编译以后,就可以进行Atlas的安装了。Atlas的安装主要是安装Atlas的Server端,也就Atlas的管理页面,并确保Atlas与Kafka Hbase Solr等组件的集成。 Atlas的系统架构如下,在确保 底层存储与UI界面正常后,之后就可以进行与Hive等组件的集成调试了。 一、环境准备安装之前 先要准备好 JDK1.8 Zookeeper Kafka Hbase Solr 在启动Atlas时会配置这些环境变量的地址,所以一定要确保以上组件正常运行。 由于在编译时可以选择内部集成,所以这些Atlas是可以自带的,但是JDK一定要安装好。 在安装Altas中,需要Solr 预先创建好collection
在solr中验证创建成功。 二、安装Atlas到编译好的包的路径下 apache-atlas-sources-2.1.0/distro/target 将生成好的安装包 apache-atlas-2.1.0-server.tar.gz 拷贝到目标路径下。 解压:
三、修改配置进入conf目录下:
在此指定JAVA_HOME和是否要用内嵌启动
如果使用内嵌,那么配置结束,直接去 启动Atlas 但是大部分时候,需要使用已经有的组件进行集成,所以设置为false。
修改其他配置
这里就是设置Hbase Solr等配置
四、启动Atlas
启动成功后访问: admin/admin登录 成功!! 踩坑全纪录HBase: apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /hbase/hbaseidhbase的问题 我的是因为没有指定对hbase的配置文件 hbase配置文件的 zookeeper.znode.parent 并不是 /hbase/hbaseid could not instantiate implementation: org.janusgraph.diskstorage.solr.Solr6Indexcannot connect to cluster at ... cluster not found /not ready提示无法找到solr,在填写atlas.graph.index.search.solr.zookeeper-url时需要添加znode,如2181/solr 具体是什么去solr配置文件里,或者页面上找 could not register new index field with index backendSolr有问题,检查Solr 确保Solr正常启动了 Can not find the specified config set: vertex_indexsolr需要先建 三个索引 了解大数据实时计算 感受数据流动之美 欢迎关注 实时流式计算 |
|