Java版本:1.8.0.291
Spark版本:spark-3.2.0-bin-hadoop3.2
Windows作業系統64位
Spark初次安裝
配置完Java環境和Spark路徑之後,在cmd中執行Spark-shell時,出現如下錯誤
從控制台列印出的bug來看,貌似是啟動時執行的java檔案中有非法字元,導緻啟動失敗,反複尋找,沒能找到他啟動的哪一個java檔案出現錯誤,
嘗試降低版本,使用spark-3.1.2-bin-hadoop3.2後成功啟動
可能是高版本配置發生了變化,了解不深入,0.0