![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLicmbw5iYzUjNkVDNwAzMjFjM4EWYxYmZzMjZlRGMlNTN4Q2Nh9CX0JXZ252bj91Ztl2Lc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
準備階段
-
Professional 版的 PyCharm
因為隻有 Professional 版的才有 ssh interpreter 功能。 下載下傳位址:http://www.jetbrains.com/pycharm/download/#section=windows我下載下傳下來是 pycharm-professional-2018.1.4.exe
- 激活 PyCharm
【2020.03.30測試可用:值南針:Jetbrains系列産品2019.3.3及以下版本最新激活方法】
- 确認伺服器的tensorflow 調用GPU 跑tf 程式沒問題。
- 準備好 SSH的username and password
配置階段
- 配置并選擇python遠端解釋器。
-
打開PyCharm,瞎建立一個test項目 -> File -> Settings -> Project Interpreter -> 點選齒輪 -> Add..
-> SSH Interpreter -> 輸入 host+port, ssh的username -> ssh的password
- 填上Interpreter,也就是伺服器端配好的python解釋器。可能是長這樣
; 修改Sync folders, 也就是項目檔案夾同步到伺服器端的指定檔案夾。建議建立一個,預設值會同步到一個奇怪的路徑。。/usr/...../python3.6
- 回到PyCharm的Project Interpreter, 標明剛才配置的解釋器。
-
- 跑一個tensorflow的GPU測試程式,輸出兩個True就是OK啦~
import tensorflow as tf
a = tf.test.is_built_with_cuda() # 判斷CUDA是否可以用
b = tf.test.is_gpu_available(
cuda_only=False,
min_cuda_compute_capability=None
) # 判斷GPU是否可以用
print(a)
print(b)
參考文章:https://blog.csdn.net/qq_28509513/article/details/80638823
給出了配置過程中對應的截圖示範,易于對照了解。
喜聞樂見的踩坑階段
- 運作最後測試程式時報錯 :
在伺服器上gpu版tf跑得好好的,但是上述環境中跑普通python程式都沒問題,帶上tf就報錯了。 原因:ImportError: libcublas.so.9.0: cannot open shared object file: No such file or directory
PyCharm無法找到伺服器端的CUDA的libcupti.so檔案。
我們需要手動配置PyCharm的環境變量。
解決方法: PyCharm的Run -> Edit Configurations.. -> 修改Environment variables -> 增加一項:NAME=
, Value=LD_LIBRARY_PATH
然而即使是将這個環境變量設定到Edit Configurations頁面的Defaults->python的環境變量裡,重新開機PyCharm之後,這個環境變量還是會消失,我也還在找可以一次設定一直使用的設定方法。。 參考文章::/usr/local/lib64:/usr/local/cuda/extras/CUPTI/lib64
https://blog.csdn.net/dl_chenbo/article/details/53262230
給出了圖示,給出了這個解決方法。但是沒提到徹底解決的方法。https://www.v2ex.com/t/355101
這裡說可能是最初配置tensorflow的時候出的問題..