Ejecutando función en TensorFlow

Tengo algunas preguntas con respecto a este Código : redes neuronales en TensorFlow.

#!/usr/bin/env python import tensorflow as tf import numpy as np from tensorflow.examples.tutorials.mnist import input_data def init_weights(shape): return tf.Variable(tf.random_normal(shape, stddev=0.01)) def model(X, w_h, w_o): h = tf.nn.sigmoid(tf.matmul(X, w_h)) # this is a basic mlp, think 2 stacked logistic regressions return tf.matmul(h, w_o) # note that we dont take the softmax at the end because our cost fn does that for us mnist = input_data.read_data_sets("MNIST_data/", one_hot=True) trX, trY, teX, teY = mnist.train.images, mnist.train.labels, mnist.test.images, mnist.test.labels X = tf.placeholder("float", [None, 784]) Y = tf.placeholder("float", [None, 10]) w_h = init_weights([784, 625]) # create symbolic variables w_o = init_weights([625, 10]) py_x = model(X, w_h, w_o) cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=py_x, labels=Y)) # compute costs train_op = tf.train.GradientDescentOptimizer(0.05).minimize(cost) # construct an optimizer predict_op = tf.argmax(py_x, 1) # Launch the graph in a session with tf.Session() as sess: # you need to initialize all variables tf.global_variables_initializer().run() for i in range(100): for start, end in zip(range(0, len(trX), 128), range(128, len(trX)+1, 128)): sess.run(train_op, feed_dict={X: trX[start:end], Y: trY[start:end]}) print(i, np.mean(np.argmax(teY, axis=1) == sess.run(predict_op, feed_dict={X: teX}))) 

Gracias por adelantado. Soy nuevo en tensorFlow 🙂

El feed_dict traduce los marcadores de posición en valores reales. Así que proporcione una sola entrada para feed_dicts y evalúe py_x .

Lo siguiente debería funcionar:

Para el resultado (px_y):

 print(sess.run(py_x, feed_dict={X: [yoursample]})) 

Para h es (casi) lo mismo. Pero como en el código vinculado h es un miembro privado de model() , necesitará una referencia a h para poder evaluarla. La forma más fácil es probablemente reemplazar las líneas:

 (14) return tf.matmul(h, w_o) with (14) return (tf.matmul(h, w_o), h) (26) py_x = model(X, w_h, w_o) with (26) py_x, h = model(X, w_h, w_o) 

y use:

 print(sess.run(h, feed_dict={X: [yoursample]})) 

o alternativamente (evaluar múltiples variables):

 py_val, h_val = sess.run([py_x, h], feed_dict={X: [yoursample]}) print(py_val, h) 

Explicación: Por cierto, le dijimos a Tensorflow cómo se construye nuestra red, no necesitamos una referencia explícita a la variable (interior / oculta) h . Pero para evaluarlo, necesitamos la referencia para definir qué evaluar exactamente .

Hay otras formas de sacar las variables de las entrañas de Tensorflow, pero como creamos explícitamente esta variable unas líneas arriba, evitaría dejar caer algo en una caja negra y pedirle a la misma caja negra más adelante para devolverla.

Respecto a la segunda pregunta:

  • Del mismo modo, ¿cómo imprimir los valores de h dentro de la función model ()?

Con la función tf.Imprimir

 def model(X, w_h, w_o): print_h = tf.nn.sigmoid(tf.matmul(X, w_h)) # this is a basic mlp, think 2 stacked logistic regressions h = tf.Print(print_h,[print_h]) # add a node to the execution graph that prints h when ever h is needed and executed in the graph return tf.matmul(h, w_o) # note that we dont take the softmax at the end because our cost fn does that for us 

Buena explicación se puede encontrar aquí: https://towardsdatascience.com/using-tf-print-in-tensorflow-aa26e1cff11e