成人午夜视频全免费观看高清-秋霞福利视频一区二区三区-国产精品久久久久电影小说-亚洲不卡区三一区三区一区

Atlas如何集成HIve

這篇文章主要為大家展示了“Atlas如何集成HIve”,內(nèi)容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領(lǐng)大家一起研究并學(xué)習(xí)一下“Atlas如何集成HIve”這篇文章吧。

網(wǎng)站建設(shè)哪家好,找創(chuàng)新互聯(lián)公司!專注于網(wǎng)頁設(shè)計、網(wǎng)站建設(shè)、微信開發(fā)、微信平臺小程序開發(fā)、集團企業(yè)網(wǎng)站建設(shè)等服務(wù)項目。為回饋新老客戶創(chuàng)新互聯(lián)還提供了珠海免費建站歡迎大家使用!

 

Atlas集成Hive

在安裝好Atlas以后,如果想要使用起來,還要讓Atlas與其他組件建立聯(lián)系。

其中最常用的就是Hive。

Atlas如何集成HIve

通過Atlas的架構(gòu),只要配置好Hive Hook ,那么每次Hive做任何操作就會寫入Kafka從而被atlas接收。

并在Atlas中已圖的形式展示出來。

 

Hive Model

都會記錄Hive哪些操作信息呢?Altas對Hive Model進行了定義。

包含以下內(nèi)容:

 
1、實體類型:
 
hive_db

類型:Asset

屬性:qualifiedName, name, description, owner, clusterName, location, parameters, ownerName

 
hive_table

類型:DataSet

屬性:qualifiedName, name, description, owner, db, createTime, lastAccessTime, comment, retention, sd, partitionKeys, columns, aliases, parameters, viewOriginalText, viewExpandedText, tableType, temporary

hive_column

類型:DataSet

屬性:qualifiedName, name, description, owner, type, comment, table

hive_storagedesc

類型:Referenceable

屬性:qualifiedName, table, location, inputFormat, outputFormat, compressed, numBuckets, serdeInfo, bucketCols, sortCols, parameters, storedAsSubDirectories

hive_process

類型:Process

屬性:qualifiedName, name, description, owner, inputs, outputs, startTime, endTime, userName, operationType, queryText, queryPlan, queryId, clusterName

hive_column_lineage

類型:Process

屬性:qualifiedName, name, description, owner, inputs, outputs, query, depenendencyType, expression

 
2、枚舉類型:

hive_principal_type 值:USER, ROLE, GROUP

 
3、構(gòu)造類型

hive_order 屬性:col, order

hive_serde 屬性:name, serializationLib, parameters

HIve實體的結(jié)構(gòu):

hive_db.qualifiedName:     <dbName>@<clusterName>
hive_table.qualifiedName:  <dbName>.<tableName>@<clusterName>
hive_column.qualifiedName: <dbName>.<tableName>.<columnName>@<clusterName>
hive_process.queryString:  trimmed query string in lower case
   

配置Hive hook

hive hook會監(jiān)聽hive的 create/update/delete 操作,下面是配置步驟:

1、修改hive-env.sh(指定包地址)

export HIVE_AUX_JARS_PATH=/opt/apps/apache-atlas-2.1.0/hook/hive
 

2、修改hive-site.xml(配置完需要重啟hive)

<property>
   <name>hive.exec.post.hooks</name>
   <value>org.apache.atlas.hive.hook.HiveHook</value>
</property>
1234
 

注意,這里其實是執(zhí)行后的監(jiān)控,可以有執(zhí)行前,執(zhí)行中的監(jiān)控。

3、同步配置 拷貝atlas配置文件atlas-application.properties到hive配置目錄 添加配置:

atlas.hook.hive.synchronous=false
atlas.hook.hive.numRetries=3
atlas.hook.hive.queueSize=10000
atlas.cluster.name=primary
atlas.rest.address=http://doit33:21000
   

將Hive元數(shù)據(jù)導(dǎo)入Atlas

bin/import-hive.sh

Using Hive configuration directory [/opt/module/hive/conf]

Log file for import is /opt/module/atlas/logs/import-hive.log

log4j:WARN No such property [maxFileSize] in org.apache.log4j.PatternLayout.

log4j:WARN No such property [maxBackupIndex] in org.apache.log4j.PatternLayout.

輸入用戶名:admin;輸入密碼:admin

Enter username for atlas :- admin

Enter password for atlas :-

Hive Meta Data import was successful!!!

 

踩坑全記錄

 
一、找不到類 org.apache.atlas.hive.hook.hivehook

hive第三方j(luò)ar包沒加進去

小技巧 使用hive-shell 看一下jar包加進去沒有 set這將打印由用戶或配置單元覆蓋的配置變量列表。

以加入elsaticsearch-hadoop-2.1.2.jar為例,講述在Hive中加入第三方j(luò)ar的幾種方式。

1,在hive shell中加入

hive> add jar /home/hadoop/elasticsearch-hadoop-hive-2.1.2.jar;

連接方式是否有效
Hive Shell不需要重啟Hive服務(wù)就有效
Hive Server無效

2,Jar放入${HIVE_HOME}/auxlib目錄

在${HIVE_HOME}中創(chuàng)建文件夾auxlib,然后將自定義jar文件放入該文件夾中。此方法添加不需要重啟Hive。而且比較便捷。

連接方式是否有效
Hive Shell不需要重啟Hive服務(wù)就有效
Hive Server重啟Hive服務(wù)才生效

3,HIVE.AUX.JARS.PATH和hive.aux.jars.path

hive-env.sh中的HIVE.AUX.JARS.PATH和hive-site.xml的hive.aux.jars.path配置對服務(wù)器無效,僅對當(dāng)前hive shell有效,不同的hive shell相互不影響,每個hive shell都需要配置,可以配置成文件夾形式。HIVE.AUX.JARS.PATH和hive.aux.jars.path僅支持本地文件。可配置成文件,也可配置為文件夾。

連接方式是否有效
Hive Shell重啟Hive服務(wù)才生效
Hive Server重啟Hive服務(wù)才生效
 
二、HIVE報錯 Failing because I am unlikely to write too

HIVE.AUX.JARS.PATH配置不對

hive-env.sh腳本中有一段

# Folder containing extra libraries required for hive compilation/execution can be controlled by:
if [ "${HIVE_AUX_JARS_PATH}" != "" ]; then
 export HIVE_AUX_JARS_PATH=${HIVE_AUX_JARS_PATH}
elif [ -d "/usr/hdp/current/hive-webhcat/share/hcatalog" ]; then
 export HIVE_AUX_JARS_PATH=/usr/hdp/current/hive-webhcat/share/hcatalog
fi
 

如果給HIVE_AUX_JARS_PATH設(shè)值,則/usr/hdp/current/hive-webhcat/share/hcatalog就會被忽略掉。

hive只能讀取一個HIVE_AUX_JARS_PATH

在一個地方集中放置我們的共享jar包,然后在/usr/hdp/current/hive-webhcat/share/hcatalog下面建立一相應(yīng)的軟連接就可以

sudo -u hive ln -s /usr/lib/share-lib/elasticsearch-hadoop-2.1.0.Beta4.jar /usr/hdp/current/hive-webhcat/share/hcatalog/elasticsearch-hadoop-2.1.0.Beta4.jar

以上是“Atlas如何集成HIve”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

當(dāng)前名稱:Atlas如何集成HIve
轉(zhuǎn)載源于:http://jinyejixie.com/article38/jopopp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設(shè)計、網(wǎng)站排名、虛擬主機、做網(wǎng)站、關(guān)鍵詞優(yōu)化、企業(yè)網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站建設(shè)
瓦房店市| 亚东县| 海宁市| 彩票| 望江县| 鸡泽县| 离岛区| 科尔| 黑水县| 常宁市| 上饶市| 和田市| 偃师市| 康乐县| 寻乌县| 多伦县| 合肥市| 于田县| 阿拉尔市| 宣威市| 呼伦贝尔市| 吴忠市| 安达市| 京山县| 平武县| 张家川| 墨脱县| 祥云县| 若尔盖县| 静乐县| 福海县| 深水埗区| 镇安县| 新津县| 韶山市| 平遥县| 海原县| 明溪县| 九龙城区| 新郑市| 南投县|