pyspark 读取csv文件创建DataFrame的两种方法
更新时间:2018年06月07日 08:36:22 作者:Stephen__Chou
今天小编就为大家分享一篇pyspark 读取csv文件创建DataFrame的两种方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
方法一:用pandas辅助
from pyspark import SparkContext from pyspark.sql import SQLContext import pandas as pd sc = SparkContext() sqlContext=SQLContext(sc) df=pd.read_csv(r'game-clicks.csv') sdf=sqlc.createDataFrame(df)
方法二:纯spark
from pyspark import SparkContext
from pyspark.sql import SQLContext
sc = SparkContext()
sqlContext = SQLContext(sc)
sqlContext.read.format('com.databricks.spark.csv').options(header='true', inferschema='true').load('game-clicks.csv')
以上这篇pyspark 读取csv文件创建DataFrame的两种方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持脚本之家。
相关文章
python使用lxml xpath模块解析XML遇到的坑及解决
这篇文章主要介绍了python使用lxml xpath模块解析XML遇到的坑及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教2024-05-05
Python基于Tkinter的HelloWorld入门实例
这篇文章主要介绍了Python基于Tkinter的HelloWorld入门实例,以一个简单实例分析了Python中Tkinter模块的使用技巧,需要的朋友可以参考下2015-06-06


最新评论