Estoy tratando de hacer una simple ttwig en el tensorboard, tal como lo tienen en la página de inicio, algo como esto: Para entender cómo funciona esto, he escrito lo siguiente: import tensorflow as tf import numpy as np x = tf.placeholder(‘float’,name=’X’) y= tf.placeholder(‘float’,name=’y’) addition = tf.add(x,y) with tf.Session() as sess: for i in range(100): […]
Instalé tensorflow (en python 2.7, debian linux) usando el método pip como se muestra en la documentación oficial: https://www.tensorflow.org/versions/r0.9/get_started/os_setup.html#pip-installation Probó exitosamente la instalación como lo indica la instalación, pero al hacer el tutorial: https://www.tensorflow.org/versions/r0.9/tutorials/tflearn/index.html#construct-a-deep-neural-network- clasificador Después de importar tensorflow correctamente, al intentar la línea: training_set = tf.contrib.learn.datasets.base.load_csv(filename=IRIS_TRAINING, target_dtype=np.int) Obtengo el error: el objeto ‘módulo’ tensorflow […]
Creé unas cuantas operaciones de resumen a lo largo de mi gráfica, así: tf.summary.scalar(‘cross_entropy’, cross_entropy) tf.summary.scalar(‘accuracy’, accuracy) y por supuesto se fusionó y consiguió un escritor: sess = tf.InteractiveSession() summaries = tf.summary.merge_all() train_writer = tf.summary.FileWriter(TENSORBOARD_TRAINING_DIR, sess.graph) tf.global_variables_initializer().run() y escribo esto en cada iteración de entrenamiento: summary, acc = sess.run([summaries, accuracy], feed_dict={…}) train_writer.add_summary(summary, i) cuando cargo […]
Quería guardar varios modelos para mi experimento pero noté que el constructor tf.train.Saver() no podía guardar más de 5 modelos. Aquí hay un código simple: import tensorflow as tf x = tf.Variable(tf.zeros([1])) saver = tf.train.Saver() sess = tf.Session() for i in range(10): sess.run(tf.initialize_all_variables()) saver.save( sess, ‘/home/eneskocabey/Desktop/model’ + str(i) ) Cuando ejecuté este código, solo vi […]
Estoy intentando una operación que no se comporta como se espera. graph = tf.Graph() with graph.as_default(): train_dataset = tf.placeholder(tf.int32, shape=[128, 2]) embeddings = tf.Variable( tf.random_uniform([50000, 64], -1.0, 1.0)) embed = tf.nn.embedding_lookup(embeddings, train_dataset) embed = tf.reduce_sum(embed, reduction_indices=0) Así que necesito saber las dimensiones del tensor embed . Sé que se puede hacer en el tiempo de […]
Estoy tratando de aprender a usar el tensorboard y me gustaría que se ejecute en mi progtwig. No entiendo cómo crear un directorio de registro. Estas son las líneas que tengo para ejecutar tensorboard. summary_writer = tf.train.SummaryWriter(‘/tensorflow/logdir’, sess.graph_def) tensorboard –logdir=tensorflow/logdir El mensaje de error que recibí fue Cannot assign to operator
Estoy tratando de transferir el aprendizaje de un modelo Inception-resnet v2 pre-entrenado en imagenet, usando mi propio conjunto de datos y clases. Mi base de código original era una modificación de una muestra tf.slim que ya no puedo encontrar y ahora estoy tratando de volver a escribir el mismo código utilizando el marco tf.estimator.* . […]
Así que básicamente copié el código del tutorial de tensorflow adaptado a este modelo: Que intenta modelar una neural network para identificar la forma de “escaleras”, como se muestra aquí: import numpy as np import tensorflow as tf import _pickle as cPickle with open(“var_x.txt”, “rb”) as fp: # Unpickling var_x = cPickle.load(fp) with open(“var_y.txt”, “rb”) […]
En números, con dos matrices de la misma forma, y , es posible hacer cortes como este y[x > 1] . ¿Cómo lograr el mismo resultado en tensorflow? y[tf.greater(x, 1)] no funciona y tf.slice tampoco admite nada como esto. ¿Hay una manera de indexar con un tensor booleano en este momento o es que actualmente […]
Estoy implementando un modelo que se basa en convoluciones 3D (para una tarea que es similar al reconocimiento de acciones) y quiero usar la normalización por lotes (ver [Ioffe y Szegedy 2015] ). No pude encontrar ningún tutorial que se centre en convs 3D, por lo que estoy haciendo un breve aquí que me gustaría […]