【Spark-SQL学习之二】 SparkSQL DataFrame创建和储存

时间:2019-04-16 16:21:12   收藏:0   阅读:190

环境
  虚拟机:VMware 10
  Linux版本:CentOS-6.5-x86_64
  客户端:Xshell4
  FTP:Xftp4
  jdk1.8
  scala-2.10.4(依赖jdk1.8)
  spark-1.6

1、读取json格式的文件创建DataFrame
注意:
(1)json文件中的json数据不能嵌套json格式数据。
(2)DataFrame是一个一个Row类型的RDD,df.rdd()/df.javaRdd()。
(3)可以两种方式读取json格式的文件。
sqlContext.read().format(“json”).load(“path”)
sqlContext.read().json(“path”)
(4)df.show()默认显示前20行数据。
(5)DataFrame原生API可以操作DataFrame(不方便)。
(6)注册成临时表时,表中的列默认按ascii顺序显示列。

数据:json
{"name":"zhangsan","age":"20"}
{"name":"lisi"}
{"name":"wangwu","age":"18"}

示例代码:
Java:

package com.wjy.df;

import org.apache.spark.SparkConf;
import org.apache.spark.SparkContext;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.rdd.RDD;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SQLContext;

/**
 * 读取json格式的文件创建DataFrame
 * 
 * 注意 :json文件中不能嵌套json格式的内容
 * 
 * 1.读取json格式两种方式
 * 2.df.show默认显示前20行,使用df.show(行数)显示多行
 * 3.df.javaRDD/(scala df.rdd) 将DataFrame转换成RDD
 * 4.df.printSchema()显示DataFrame中的Schema信息
 * 5.dataFram自带的API 操作DataFrame ,用的少
 * 6.想使用sql查询,首先要将DataFrame注册成临时表:df.registerTempTable("jtable"),再使用sql,怎么使用sql?sqlContext.sql("sql语句")
 * 7.不能读取嵌套的json文件
 * 8.df加载过来之后将列按照ascii排序了
 * @author root
 *
 */
public class CreateDFFromJosonFile {

    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setMaster("local").setAppName("CreateDFFromJosonFile");
        SparkContext sc = new SparkContext(conf);//注意 这里不是JavaSparkContext
        //创建SQLContext
        SQLContext sqlContext = new SQLContext(sc);
        
        /**
         * DataFrame的底层是一个一个的RDD  RDD的泛型是Row类型。
         * 以下两种方式都可以读取json格式的文件
         * {"name":"zhangsan","age":"20"}
           {"name":"lisi"}
           {"name":"wangwu","age":"18"}
         */
        DataFrame df = sqlContext.read().format("json").load("./data/json");//{"name":"zhangsan","age":"20"};
        df.show();// 显示 DataFrame中的内容,默认显示前20行。如果现实多行要指定多少行show(行数) 注意:当有多个列时,显示的列先后顺序是按列的ascii码先后显示。
        DataFrame df2 = sqlContext.read().json("./data/json");
        df2.show();
        /*
         * +----+--------+
           | age|    name|
           +----+--------+
           |  20|zhangsan|
           |null|    lisi|
           |  18|  wangwu|
           +----+--------+
         */
        
        //DataFrame转换成RDD
        JavaRDD<Row> javaRDD = df.javaRDD();
        //树形的形式显示schema信息
        df.printSchema();
        /*
         * root
             |-- age: string (nullable = true)
             |-- name: string (nullable = true)    
         */
        
        //dataFram自带的API 操作DataFrame 这种方式比较麻烦 用的比较少
        //select name from table
        df.select("name").show();
        /*
         * +--------+
           |    name|
           +--------+
           |zhangsan|
           |    lisi|
           |  wangwu|
           +--------+
         */
        //select name ,age+10 as addage from table
        df.select(df.col("name"),df.col("age").plus(10).alias("addage")).show();
        /*
         * +--------+------+
           |    name|addage|
           +--------+------+
           |zhangsan|  30.0|
           |    lisi|  null|
           |  wangwu|  28.0|
           +--------+------+
         */
        //select name ,age from table where age>19
        df.select(df.col("name"),df.col("age")).where(df.col("age").gt(19)).show();
        /*
         * +--------+---+
           |    name|age|
           +--------+---+
           |zhangsan| 20|
           +--------+---+
         */
        //select age,count(*) from table group by age
        df.groupBy(df.col("age")).count().show();
        /*
         * +----+-----+
           | age|count|
           +----+-----+
           |  18|    1|
           |  20|    1|
           |null|    1|
           +----+-----+
         */
        
        //将DataFrame注册成临时的一张表,这张表相当于临时注册到内存中,是逻辑上的表,不会物化到磁盘  这种方式用的比较多
        df.registerTempTable("person");
        DataFrame df3 = sqlContext.sql("select age,count(*) as gg from person group by age");
        df3.show();
        DataFrame df4 = sqlContext.sql("select age, name from person");
        df4.show();
        
        sc.stop();
    }

}

 

Scala:

package com.wjy.df

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext

object CreateDFFromJsonFile {
  def main(args:Array[String]):Unit={
    val conf = new SparkConf().setMaster("local").setAppName("CreateDFFromJsonFile");
    val sc = new SparkContext(conf);
    val sqlContext = new SQLContext(sc);
    
    val df1 = sqlContext.read.json("./data/json");
    df1.show();
    val df2 = sqlContext.read.format("json").load("./data/json");
    df2.show();
    
    val rdd = df1.rdd;
    df1.printSchema();
    
    //select name from table
    df1.select(df1.col("name")).show();
    //select name from table where age>19
    df1.select(df1.col("name"),df1.col("age")).where(df1.col("age").gt(19)).show();
    //select count(*) from table group by age
    df1.groupBy(df1.col("age")).count().show();
    
    //注册临时表
    df1.registerTempTable("person");
    val df3 = sqlContext.sql("select * from person");
    df3.show();
    /*
     * +----+--------+
             | age|    name|
       +----+--------+
       |  20|zhangsan|
       |null|    lisi|
       |  18|  wangwu|
       +----+--------+
     */
    sc.stop();
  }
}

 


2、通过json格式的RDD创建DataFrame
RDD的元素类型是String,但是格式必须是JSON格式
示例代码:
Java:

Scala:

3、通过非json格式的RDD来创建出来一个DataFrame
(1)通过反射的方式 (不建议使用)
(1.1)自定义类要可序列化(注意变量被关键字transient修饰 则不会被序列化;静态变量也不能被序列化)
注意ava中以下几种情况下不被序列化的问题:
  1.1.1.反序列化时serializable 版本号不一致时会导致不能反序列化。
  1.1.2.子类中实现了serializable接口,父类中没有实现,父类中的变量不能被序列化,序列化后父类中的变量会得到null。
  注意:父类实现serializable接口,子类没有实现serializable接口时,子类可以正常序列化
  1.1.3.被关键字transient修饰的变量不能被序列化。
  1.1.4.静态变量不能被序列化,属于类,不属于方法和对象,所以不能被序列化。
另外:一个文件多次writeObject时,如果有相同的对象已经写入文件,那么下次再写入时,只保存第二次写入的引用,读取时,都是第一次保存的对象。
(1.2)自定义类的访问级别是Public
(1.3)RDD转成DataFrame后会根据映射将字段按Assci码排序
(1.4)将DataFrame转换成RDD时获取字段两种方式,一种是df.getInt(0)下标获取(不推荐使用),另一种是df.getAs(“列名”)获取(推荐使用)
示例代码:
Java:

Scala:

(2)动态创建schema的方式
示例代码:
Java:

Scala:


4、读取parquet文件创建DF
注意:
可以将DataFrame存储成parquet文件。保存成parquet文件的方式有两种
df.write().mode(SaveMode.Overwrite)format("parquet").save("./sparksql/parquet");
df.write().mode(SaveMode.Overwrite).parquet("./sparksql/parquet");
SaveMode指定文件保存时的模式。
  Overwrite:覆盖
  Append:追加
  ErrorIfExists:如果存在就报错
  Ignore:如果存在就忽略


示例代码:
Java:

Scala:


5、读取JDBC中的数据创建DataFrame(MySql为例)
两种方式创建DataFrame
第一种方式读取MySql数据库表,加载为DataFrame
第二种方式读取MySql数据表加载为DataFrame
示例代码:
Java:

Scala:


6、读取Hive中的数据加载成DataFrame
HiveContext是SQLContext的子类,连接Hive建议使用HiveContext。
由于本地没有Hive环境,要提交到集群运行,提交命令:

./spark-submit 
--master spark://node1:7077,node2:7077 
--executor-cores 1 
--executor-memory 2G 
--total-executor-cores 1
--class com.bjsxt.sparksql.dataframe.CreateDFFromHive 
/root/test/HiveTest.jar

 

示例代码:
Java:

Scala:



附:Spark On Hive的配置
1、在Spark客户端配置Hive On Spark
在Spark客户端安装包下spark-1.6.0/conf中创建文件hive-site.xml:
配置hive的metastore路径

<configuration>
<property>
<name>hive.metastore.uris</name>
<value>thrift://node1:9083</value>
</property>
</configuration>

 

2、启动Hive的metastore服务
hive --service metastore

3、启动zookeeper集群,启动HDFS集群,启动spark集群。

4、启动SparkShell 读取Hive中的表总数,对比hive中查询同一表查询总数测试时间。

./spark-shell 
--master spark://node1:7077,node2:7077 
--executor-cores 1 
--executor-memory 1g 
--total-executor-cores 1

......

scala>import org.apache.spark.sql.hive.HiveContext;
scala>val hc = new HiveContext(sc);
scala>hc.sql("show databases").show();
scala>hc.sql("user default").show();
scala>hc.sql("select count(*) from jizhan").show();

 

注意:
如果使用Spark on Hive 查询数据时,出现错误:Caused by:java.net.UnkonwnHostException:....
找不到HDFS集群路径,要在客户端机器conf/spark-env.sh中设置HDFS的路径:

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

 

参考:
Spark

原文:https://www.cnblogs.com/cac2020/p/10717889.html

评论(0
© 2014 bubuko.com 版权所有 - 联系我们:wmxa8@hotmail.com
打开技术之扣,分享程序人生!