天天看點

tensorflow中control_flow_ops.while_loop

self.h0 = tf.zeros([self.batch_size, self.hidden_dim])
self.h0 = tf.stack([self.h0, self.h0])  ## 相當于 h0和C0

 # generator on initial randomness 
 gen_o = tensor_array_ops.TensorArray(dtype=tf.float32, size=self.sequence_length, dynamic_size=False, infer_shape=True)
 gen_x = tensor_array_ops.TensorArray(dtype=tf.int32, size=self.sequence_length, dynamic_size=False, infer_shape=True)

 def _g_recurrence(i, x_t, h_tm1, gen_o, gen_x): 
     h_t = self.g_recurrent_unit(x_t, h_tm1)  # hidden_memory_tuple, h_t其實包含h_t和c_t, tm1即是t減去1
     o_t = self.g_output_unit(h_t)  # batch x vocab , logits
     log_prob = tf.log(tf.nn.softmax(o_t)) 
     next_token = tf.cast(tf.reshape(tf.multinomial(log_prob, 1), [self.batch_size]), tf.int32) ## next_token的shape是[batch]
     x_tp1 = tf.nn.embedding_lookup(self.g_embeddings, next_token)  # batch x emb_dim
     gen_o = gen_o.write(i, tf.reduce_sum(tf.multiply(tf.one_hot(next_token, self.num_emb, 1.0, 0.0), tf.nn.softmax(o_t)), 1))
     gen_x = gen_x.write(i, next_token)  # indices, batch_size
     return i + 1, x_tp1, h_t, gen_o, gen_x  ## x_tp1其實就是p就是Plus

 _, _, _, self.gen_o, self.gen_x = control_flow_ops.while_loop(
     cond=lambda i, _1, _2, _3, _4: i < self.sequence_length, ## cond的值要麼為True或者為False 
     body=_g_recurrence,
     loop_vars=(tf.constant(0, dtype=tf.int32), tf.nn.embedding_lookup(self.g_embeddings, self.start_token), self.h0, gen_o, gen_x)  
     )
           

這段代碼出自文章《SeqGAN:Sequence Generative Adversarial Nets with Policy Gradient》源碼子產品target_lstm.py中,我其實是不太明白control_flow_ops.while_loop的用法,琢磨後為避免忘記特記錄在此。

代 碼 是 1 、 2 行 : \color{red}{代碼是1、2行:} 代碼是1、2行:

lstm或gru執行的初始狀态

代 碼 第 6 行 : \color{red}{代碼第6行:} 代碼第6行:

gen_x = tensor_array_ops.TensorArray(dtype=tf.int32, size=self.sequence_length, dynamic_size=False, infer_shape=True)

TensorArray可以看做是具有動态size功能的Tensor數組。通常都是跟while_loop或map_fn結合使用。

我是不是可以了解成一個list,在代碼第15行的時候即是将新生成的next_token寫入到gen_x中

代 碼 第 15 行 : \color{red}{代碼第15行:} 代碼第15行:

gen_x = gen_x.write(i, next_token)

指定index位置寫入Tensor, 我覺得write就類似與python中list的append方法,将生成的next_token存儲到gen_x中

代 碼 第 19 行 : \color{red}{代碼第19行:} 代碼第19行:

cond=lambda i, _1, _2, _3, _4: i < self.sequence_length

這行代碼是while_loop執行的條件,如果 i < self.sequence_length條件滿足, 則cond=True, 執行control_flow_ops.while_loop這個循環,再看lambda表達式,其可以有任意多個形參,在這個表達式裡有五個,分别是 i, _1, _2, _3, _4, 為什麼是五個參數呢?這裡暫且不說(問題1)

代 碼 第 20 行 : \color{red}{代碼第20行:} 代碼第20行:

body=_g_recurrence

循環主體,_g_recurrence函數已經定義(第8行到第16行),這個函數需要傳入5個參數,是以在cand這個條件中需要定義5個形參(問題1的答案),如果cand = True, 就一直執行body,需要注意一點的,每次執行_g_recurrence這個body時參數的參數是不同的,是上一步執行的結果作為本次傳入的參數

代 碼 第 21 行 : \color{red}{代碼第21行:} 代碼第21行:

loop_vars=(tf.constant(0, dtype=tf.int32), tf.nn.embedding_lookup(self.g_embeddings, self.start_token), self.h0, gen_o, gen_x)

loop_vars是循環起始參數,這五個是實參,對應與cand中五個形參

繼續閱讀