這篇文章主要為大家展示了“hive執(zhí)行spark任務的示例分析”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“hive執(zhí)行spark任務的示例分析”這篇文章吧。
站在用戶的角度思考問題,與客戶深入溝通,找到安慶網站設計與安慶網站推廣的解決方案,憑借多年的經驗,讓設計與互聯(lián)網技術結合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:網站設計制作、網站建設、企業(yè)官網、英文網站、手機端網站、網站推廣、主機域名、網絡空間、企業(yè)郵箱。業(yè)務覆蓋安慶地區(qū)。
public static void main(String[] args) throws Exception{
if (args.length < 1) {
System.err.println(" Usage: JavaWordCount <file> <savepath> ");
System.out.println(" examle: ./bin/spark-submit --name \"WorktrendJob\" "+ "--master spark://192.168.0.61:7077 --executor-memory 1G "
+ "--class et.theme.vis.job.WorktrendJob spark-1.jar "+ "/data/china/china.txt file:///data/china ");
System.exit(1);
}
SimpleDateFormat sdf = new SimpleDateFormat( "yyyy-MM-dd" );
DATE_MATH = sdf.format(new Date());
System.out.println("--------****WorktrendJob*****----------------");
System.out.println("-----------------------------------------------");
System.out.println("-----------spark開始計算------------------------");
//job name
SparkConf sparkConf = new SparkConf().setAppName("MyCustomerJob");
//spark連接
JavaSparkContext ctx = new JavaSparkContext(sparkConf);
//創(chuàng)建hive連接
HiveContext hiveContext = new HiveContext(ctx);
//MySQL 配置
Properties connectionProperties = new Properties();
connectionProperties.setProperty("user", MYSQL_USER);
connectionProperties.setProperty("", MYSQL_PASSWORD);
//查詢所有
DataFrame queryall = queryAll(hiveContext,null);
//注冊臨時表
queryall.registerTempTable("first");
//查詢臨時表計算1
String sql = "";
//查詢 計算2
String sql1 = "";
//將計算結果轉化DataFrame
DataFrame sql_a = hiveContext.sql(sql);
DataFrame sql_b = hiveContext.sql(sql1);
// 合并2個DataFrame 相當與 left join
DataFrame join = sql_a.join(sql_b,sql_b.col(DATE_END).equalTo(sql_a.col(DATE_END)),"left_outer");
//在mysql建表
sql_a.write().mode(SaveMode.Append).jdbc(MYSQL_JDBC_URL, "test", connectionProperties);
//關閉
ctx.stop();
}
public static DataFrame queryAll(HiveContext hiveContext, String arg){
String sql = "";
DataFrame queryAll = hiveContext.sql(sql);
//查詢結果轉化成RDD抽象數(shù)據(jù)集
JavaRDD<WorktrendInfo> name = queryAll.javaRDD().map(new Function<Row, WorktrendInfo>(){
@Override
public WorktrendInfo call(Row v1) throws Exception {
//將RDD抽象數(shù)據(jù)集放入vo.class
CustomerInfo customerInfo = new CustomerInfo();
customerInfo.setCity(v1.getString(0));
return null;//將customerInfo返回
}
});
//將結果vo轉化成DataFrame ~return
DataFrame df = hiveContext.createDataFrame(name, WorktrendInfo.class);
return df;
}
以上是“hive執(zhí)行spark任務的示例分析”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!
當前文章:hive執(zhí)行spark任務的示例分析
標題來源:http://jinyejixie.com/article14/gdpcde.html
成都網站建設公司_創(chuàng)新互聯(lián),為您提供App開發(fā)、靜態(tài)網站、網站內鏈、Google、定制開發(fā)、App設計
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)