然后在Linux命令行啟動Spark:

// this works
$ MASTER=local[4] SPARK_CLASSPATH=AlsApacheLogParser.jar ./bin/spark-shell

對于Spark 0.9,有些方式并不起效:

// does not work
$ MASTER=local[4] ADD_JARS=AlsApacheLogParser.jar ./bin/spark-shell
// does not work
spark> :cp AlsApacheLogParser.jar

上傳成功后,在Spark REPL創建AccessLogParser 實例:

import com.alvinalexander.accesslogparser._
val p = new AccessLogParser

現在就可以像之前讀取readme.cmd一樣讀取apache訪問日志accesslog.small:

scala> val log = sc.textFile(accesslog.small)
14/03/09 11:25:23 INFO MemoryStore: ensureFreeSpace(32856) called with curMem=0, maxMem=309225062
14/03/09 11:25:23 INFO MemoryStore: Block broadcast_0 stored as values to memory (estimated size 32.1 KB, free 294.9 MB)
log: org.apache.spark.rdd.RDD[String] = MappedRDD[1] at textFile at <console>:15
scala> log.count
(a lot of output here)
res0: Long = 100000

分析Apache日志

我們可以分析Apache日志中404有多少個,創建方法如下:

def getStatusCode(line: Option[AccessLogRecord]) = {
 line match {
  case Some(l) => l.httpStatusCode
  case None => 0
 }
}

其中Option[AccessLogRecord]是分析器的返回值。

然后在Spark命令行使用如下:

log.filter(line => getStatusCode(p.parseRecord(line)) == 404).count

這個統計將返回httpStatusCode是404的行數。

深入挖掘

下面如果我們想知道哪些URL是有問題的,比如URL中有一個空格等導致404錯誤,顯然需要下面步驟:

過濾出所有 404 記錄
從每個404記錄得到request字段(分析器請求的URL字符串是否有空格等)
不要返回重復的記錄

創建下面方法:

// get the `request` field from an access log record
def getRequest(rawAccessLogString: String): Option[String] = {
 val accessLogRecordOption = p.parseRecord(rawAccessLogString)
 accessLogRecordOption match {
  case Some(rec) => Some(rec.request)
  case None => None
 }
}

將這些代碼貼入Spark REPL,再運行如下代碼:

log.filter(line => getStatusCode(p.parseRecord(line)) == 404).map(getRequest(_)).count
val recs = log.filter(line => getStatusCode(p.parseRecord(line)) == 404).map(getRequest(_))
val distinctRecs = log.filter(line => getStatusCode(p.parseRecord(line)) == 404).map(getRequest(_)).distinct
distinctRecs.foreach(println)

總結

對于訪問日志簡單分析當然是要grep比較好,但是更復雜的查詢就需要Spark了。很難判斷 Spark在單個系統上的性能。這是因為Spark是針對分布式系統大文件。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持三五互聯

更多關于云服務器域名注冊,虛擬主機的問題,請訪問三五互聯官網:m.shinetop.cn

贊(0)
聲明:本網站發布的內容(圖片、視頻和文字)以原創、轉載和分享網絡內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。郵箱:3140448839@qq.com。本站原創內容未經允許不得轉載,或轉載時需注明出處:三五互聯知識庫 » 詳解如何使用Spark和Scala分析Apache訪問日志

登錄

找回密碼

注冊

主站蜘蛛池模板: 亚洲欧美高清在线精品一区二区| 全球成人中文在线| 尚义县| 激情伊人五月天久久综合| 亚洲综合久久精品国产高清| 亚洲一级片一区二区三区| 久久精品国产6699国产精| 汉川市| 亚洲综合欧美在线…| 亚洲欧洲一区二区福利片| 免费看的一级毛片| 国内精品久久久久影院网站| 成人免费在线播放av| 午夜福利看片在线观看| 人妻体内射精一区二区三区| 精品少妇爆乳无码aⅴ区| 日韩精品一区二区三区色| 精品国产色情一区二区三区| 中文字幕日韩精品国产| 亚洲第一二三区日韩国产| 无码日韩做暖暖大全免费不卡| 国产免费午夜福利在线播放| 亚洲av成人一区在线| 日韩精品亚洲专区在线观看| 在线日韩日本国产亚洲| 亚洲性无码av在线| 精品久久丝袜熟女一二三| 欧美肥老太牲交大战| 武平县| 色噜噜狠狠一区二区三区果冻| 中文字幕理伦午夜福利片| 久久人与动人物a级毛片| av无码精品一区二区乱子| 黄色特级片一区二区三区| 内射干少妇亚洲69xxx| 欧美老熟妇乱子伦牲交视频| 日本黄色一区二区三区四区| 草草浮力影院| 四虎精品寂寞少妇在线观看| 亚洲第一狼人天堂网伊人| 欧美va天堂在线电影|