本文共 3334 字,大约阅读时间需要 11 分钟。
转载请注明出处:
博主微博: Github:Spark对于统计量中的最大值,最小值,平均值和方差(均值)的计算都提供了封装,这里小编知道两种计算方法,整理一下分享给大家
example.json文件格式如下
{"name":"thinkgamer","age":23,"math":78,"chinese":78,"english":95}{"name":"think","age":25,"math":95,"chinese":88,"english":93}{"name":"gamer","age":24,"math":93,"chinese":68,"english":88}
// persist(StorageLevel.MEMORY_AND_DISK) 当内存不够时cache到磁盘里val df = spark.read.json("/path/to/example.json").persist(StorageLevel.MEMORY_AND_DISK)df.show()df.describe()
我们便可以看到如下的形式
+---+-------+-------+----+----------+|age|chinese|english|math| name|+---+-------+-------+----+----------+| 23| 78| 95| 78|thinkgamer|| 25| 88| 93| 95| think|| 24| 68| 88| 93| gamer|+---+-------+-------+----+----------++-------+----+-------+-----------------+-----------------+----------+|summary| age|chinese| english| math| name|+-------+----+-------+-----------------+-----------------+----------+| count| 3| 3| 3| 3| 3|| mean|24.0| 78.0| 92.0|88.66666666666667| null|| stddev| 1.0| 10.0|3.605551275463989| 9.29157324317757| null|| min| 23| 68| 88| 78| gamer|| max| 25| 88| 95| 95|thinkgamer|+-------+----+-------+-----------------+-----------------+----------+
如果是想看某列的通知值的话,可以用下面的方式
df.select("age").describe().show()
+-------+----+|summary| age|+-------+----+| count| 3|| mean|24.0|| stddev| 1.0|| min| 23|| max| 25|+-------+----+
假设同样还是上边的数据,只不过现在变成按t分割的普通文本
thinkgamer 23 78 78 95think 25 95 88 93gamer 24 93 68 88
这里可以将rdd转换成dataframe洗形式,也可以使用rdd计算,转化为df的样例如下
val new_data = data_txt .map(_.split("\\s+")) .map(one => Person(one(0),one(1).toInt,one(2).toDouble,one(3).toDouble,one(4).toDouble)) .toDF()
接下来就是进行和上边df一样的操作了。
那么对于rdd形式的文件如何操作:
import org.apache.spark.mllib.linalg.Vectorsimport org.apache.spark.mllib.stat.{MultivariateStatisticalSummary, Statistics}val data_txt = SparkSC.spark.sparkContext.textFile(input_txt).persist(StorageLevel.MEMORY_AND_DISK) val new_data = data_txt .map(_.split("\\s+")) .map(one => Vectors.dense(one(1).toInt,one(2).toDouble,one(3).toDouble,one(4).toDouble)) val summary: MultivariateStatisticalSummary = Statistics.colStats(new_data) println("Max:"+summary.max)println("Min:"+summary.min)println("Count:"+summary.count)println("Variance:"+summary.variance)println("Mean:"+summary.mean)println("NormL1:"+summary.normL1)println("Norml2:"+summary.normL2)
输出结果为:
Max:[25.0,95.0,88.0,95.0]Min:[23.0,78.0,68.0,88.0]Count:3Variance:[1.0,86.33333333333331,100.0,13.0]Mean:[24.0,88.66666666666667,78.0,92.0]NormL1:[72.0,266.0,234.0,276.0]Norml2:[41.593268686170845,154.1363033162532,135.83813897429545,159.43023552638942]
这里可以得到相关的统计信息,主要区别在于dataframe得到的是标准差,而使用mllib得到的统计值中是方差,但这并不矛盾,两者可以相互转化得到。
当然如果要求四分位数,可以转化成df,使用sql语句进行查询
Select PERCENTILE(col,<0.25,0.75>) from tableName;
1:错误1
scala.Predef$.refArrayOps([Ljava/lang/Object;)Lscala/collection/mutable/Array
原因是Spark中spark-sql_2.11-2.2.1 ,是用scala 2.11版本上编译的,而我的本地的scala版本为2.12.4,所以就错了,可以在
里边把相应的scala版本就行修改就行了2:错误2
java.lang.NoSuchMethodError: scala.Product.$init$(Lscala/Product;)V
原因也是因为我下载安装的scala2.12版本,换成scala2.11版本就可以了