하둡 실행

{hadoop의 root directory}/sbin/start-all.sh

Spark를 통해 데이터를 HDFS에 쓰기

writeSparkHDFS.py

from pyspark.sql import SparkSession

sparkSession = SparkSession.builder.appName("example-pyspark-write").getOrCreate()

data = [('First', 1), ('Second', 2), ('Third', 3), ('Fourth', 4), ('Fifth', 5)]
df = sparkSession.createDataFrame(data)

df.write.csv("hdfs://localhost:9000/example.csv")
  • HDFS의 path는 하둡의 core-site.xml 설정 파일에서 fs.defaultFS에 지정한 값 이 경우에는 hdfs://localhost:9000

spark-submit을 통해 writeSparkHDFS.py 실행

spark-submit writeSparkHDFS.py

HDFS shell을 통해 생성된 파일 확인

hadoop fs -ls /

Untitled-00

Spark를 통해 데이터를 HDFS에서 읽기

readSparkHDFS.py

from pyspark.sql import SparkSession

sparkSession = SparkSession.builder.appName("example-pyspark-read").getOrCreate()

df = sparkSession.read.csv("hdfs://localhost:9000/user/example.csv")
df.show()

spark-submit을 통해 readSparkHDFS.py 실행

spark-submit readSparkHDFS.py

Untitled-01