国产片侵犯亲女视频播放_亚洲精品二区_在线免费国产视频_欧美精品一区二区三区在线_少妇久久久_在线观看av不卡

腳本之家,腳本語(yǔ)言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Python安裝spark的詳細(xì)過(guò)程

Python安裝spark的詳細(xì)過(guò)程

2022-01-25 00:26奮斗的源 Python

這篇文章主要介紹了Python安裝spark的詳細(xì)過(guò)程,本文通過(guò)圖文實(shí)例代碼相結(jié)合給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下

一.配置版本

Java JDK 1.8.0_111
Python 3.9.6
Spark 3.1.2
Hadoop 3.2.2

 

二.配置環(huán)境

1.配置JDK

從官網(wǎng)下載相應(yīng)JDK的版本安裝,并進(jìn)行環(huán)境變量的配置
(1)在系統(tǒng)變量新建JAVA_HOME,根據(jù)你安裝的位置填寫(xiě)變量值

Python安裝spark的詳細(xì)過(guò)程

(2)新建CLASSPATH
變量值:.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar;(注意前面所需的符號(hào))

Python安裝spark的詳細(xì)過(guò)程

(3)點(diǎn)擊Path

Python安裝spark的詳細(xì)過(guò)程

在其中進(jìn)行新建:%JAVA_HOME%\bin

Python安裝spark的詳細(xì)過(guò)程

(4)配置好后進(jìn)行確定
(5)驗(yàn)證,打開(kāi)cmd,輸入java -version和javac進(jìn)行驗(yàn)證

Python安裝spark的詳細(xì)過(guò)程
Python安裝spark的詳細(xì)過(guò)程

此上說(shuō)明jdk環(huán)境變量配置成功

2.配置Spark

(1)下載安裝:
Spark官網(wǎng):spark-3.1.2-bin-hadoop3.2下載地址

Python安裝spark的詳細(xì)過(guò)程

(2)解壓,配置環(huán)境

Python安裝spark的詳細(xì)過(guò)程

(3)點(diǎn)擊Path,進(jìn)行新建:%SPARK_HOME%\bin,并確認(rèn)
(4)驗(yàn)證,cmd中輸入pyspark

Python安裝spark的詳細(xì)過(guò)程

這里提醒我們要安裝Hadoop

3.配置Hadoop

(1)下載:
Hadoop官網(wǎng):Hadoop 3.2.2下載地址

Python安裝spark的詳細(xì)過(guò)程

(2)解壓,配置環(huán)境

Python安裝spark的詳細(xì)過(guò)程

注意:解壓文件后,bin文件夾中可能沒(méi)有以下兩個(gè)文件:

Python安裝spark的詳細(xì)過(guò)程

下載地址:https://github.com/cdarlint/winutils
配置環(huán)境變量CLASSPATH:%HADOOP_HOME%\bin\winutils.exe
(3)點(diǎn)擊Path,進(jìn)行新建:%HADOOP_HOME%\bin,并確認(rèn)
(4)驗(yàn)證,cmd中輸入pyspark

Python安裝spark的詳細(xì)過(guò)程

由上可以看出spark能運(yùn)行成功,但是會(huì)出現(xiàn)如下警告:

WARN ProcfsMetricsGetter: Exception when trying to compute pagesize, as a result reporting of ProcessTree metrics is stopped

這里因?yàn)閟park為3.x版本有相關(guān)改動(dòng),使用spar2.4.6版本不會(huì)出現(xiàn)這樣的問(wèn)題。
不改版本解決方式(因是警告,未嘗試):
方式一:解決方法一
方式二:解決方法二

 

三.Pycharm配置spark

(1)RunC>Edit Configurations

Python安裝spark的詳細(xì)過(guò)程

(2)對(duì)Environment Variables進(jìn)行配置

Python安裝spark的詳細(xì)過(guò)程

(3)FileC>SettingsC>Project StructureC>Add Content Root
找到spark-3.1.2-bin-hadoop3.2\python\lib下兩個(gè)包進(jìn)行添加

Python安裝spark的詳細(xì)過(guò)程

選擇結(jié)果:

Python安裝spark的詳細(xì)過(guò)程

(4)測(cè)試

# 添加此代碼,進(jìn)行spark初始化
import findspark

findspark.init()


from datetime import datetime, date

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

rdd = spark.sparkContext.parallelize([
  (1, 2., 'string1', date(2000, 1, 1), datetime(2000, 1, 1, 12, 0)),
  (2, 3., 'string2', date(2000, 2, 1), datetime(2000, 1, 2, 12, 0)),
  (3, 4., 'string3', date(2000, 3, 1), datetime(2000, 1, 3, 12, 0))
])
df = spark.createDataFrame(rdd, schema=['a', 'b', 'c', 'd', 'e'])
df.show()

運(yùn)行結(jié)果:

Python安裝spark的詳細(xì)過(guò)程

 

四.使用anconda中python環(huán)境配置spark

1.創(chuàng)建虛擬環(huán)境

conda create -n pyspark_env python==3.9.6

查看環(huán)境:

conda env list

運(yùn)行結(jié)果:

Python安裝spark的詳細(xì)過(guò)程

2.安裝pyspark

切換到pyspark_env并進(jìn)行安裝pyspark

pip install pyspark

Python安裝spark的詳細(xì)過(guò)程

3.環(huán)境配置

運(yùn)行上面的實(shí)例,會(huì)出現(xiàn)以下錯(cuò)誤:

Python安裝spark的詳細(xì)過(guò)程

這說(shuō)明我們需要配置py4j,SPARK_HOME
SPARK_HOME:

Python安裝spark的詳細(xì)過(guò)程

PYTHONPATH設(shè)置:

Python安裝spark的詳細(xì)過(guò)程

HADOOP_HOME設(shè)置:

Python安裝spark的詳細(xì)過(guò)程

path中設(shè)置:

Python安裝spark的詳細(xì)過(guò)程

4.運(yùn)行

Python安裝spark的詳細(xì)過(guò)程

# 添加此代碼,進(jìn)行spark初始化
import findspark

findspark.init()


from datetime import datetime, date

from pyspark.sql import SparkSession

spark = SparkSession.builder.getOrCreate()

rdd = spark.sparkContext.parallelize([
  (1, 2., 'string1', date(2000, 1, 1), datetime(2000, 1, 1, 12, 0)),
  (2, 3., 'string2', date(2000, 2, 1), datetime(2000, 1, 2, 12, 0)),
  (3, 4., 'string3', date(2000, 3, 1), datetime(2000, 1, 3, 12, 0))
])
df = spark.createDataFrame(rdd, schema=['a', 'b', 'c', 'd', 'e'])
df.show()

運(yùn)行結(jié)果同上

到此這篇關(guān)于Python安裝spark的文章就介紹到這了,更多相關(guān)Python安裝spark內(nèi)容請(qǐng)搜索服務(wù)器之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持服務(wù)器之家!

原文鏈接:https://blog.csdn.net/yuanfate/article/details/120706537

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 日本中文字幕在线观看 | 国产午夜精品久久久久久久 | 日韩免费av一区二区 | 亚色网站| 亚洲国内精品 | 亚洲bbw | 日韩中文字幕一区 | 国产亚洲精品久久久456 | 久久免费视频3 | 久久久久国产一区二区三区四区 | 一级片黄片毛片 | 精品在线一区 | 日本免费三片免费观看 | 免费看黄色的视频 | 天天干夜夜弄 | 午夜免费福利视频 | 久久这里只有精品免费 | 欧美激情第1页 | www日韩| 山岸逢花在线观看无删减 | 欧美一区二区三 | 日韩在线播放一区二区三区 | 欧美在线观看免费观看视频 | 精品久久网 | 国产欧美久久久久久 | 久草中文在线 | 美女久久久久 | 国产高清视频在线 | 亚洲视频在线免费观看 | 草久在线视频 | 久久妇女高潮片免费观看 | 中文字幕国产一区 | 亚洲视频自拍 | 欧洲一级毛片 | 日韩成人在线播放 | 日韩色区 | 午夜视频在线免费看 | av私库在线观看 | 欧美日韩在线免费 | 欧美在线视频网 | 日本99精品 |