今天在DBVeaver中是使用hive運作sql正常,到了sparksql中運作,就變成了+8小時。
為了解決時區問題,需要在spark的配置中添加以下設定,具體時區根據實際情況來。
conf.set("spark.sql.session.timeZone","UTC")
作者:尤燈塔
出處:https://www.cnblogs.com/30go/
本文版權歸作者和部落格園共有,歡迎轉載,但未經作者同意必須保留此段聲明,且在文章頁面明顯位置給出原文連接配接,否則保留追究法律責任的權利.