鍍金池/ 問答/人工智能  Linux  網(wǎng)絡(luò)安全/ tensorflow-gpu 使用GPU時,跟CPU情況下效率不變問題

tensorflow-gpu 使用GPU時,跟CPU情況下效率不變問題

設(shè)置使用GPU,但是計算速度沒有什么變化,gpu利用率極低。
下面是部分代碼:


from tensorflow.python.framework import ops

ops.reset_default_graph()

config = tf.ConfigProto() 
config.gpu_options.per_process_gpu_memory_fraction = 0.85
config.gpu_options.allow_growth = True
sess = tf.Session(config=config)

with tf.device('/GPU:0'):
    x = tf.placeholder(shape=[None, 20],dtype=tf.float32, name="x_m")
    y = tf.placeholder(shape=[None, 2], dtype=tf.float32, name="y_m")

    with tf.name_scope("cross_entropy"):
        y_ = train_model_gpu(x)
        cross_entropy = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=y_, labels=y), name="cross_entropy_m")

圖片描述

圖片描述

回答
編輯回答
旖襯
  1. 任務(wù)管理器默認顯示3D、Copy這幾項,但是在用cuda的時候,主要使用的是Compute和Copy,你要切換一下
  2. Copy只有2%左右,數(shù)據(jù)量不大,模型太簡單也發(fā)揮不了GPU優(yōu)勢
2017年2月28日 13:44
編輯回答
解夏

那看你在什么數(shù)據(jù)上跑了,要是小數(shù)據(jù),本來就不需要多少計算量,反而數(shù)據(jù)在CPU和GPU之間來回傳輸還會拖慢計算。小數(shù)據(jù)量完全沒必要用GPU,發(fā)揮不出計算優(yōu)勢。

2018年7月6日 19:37