Articles of tensorflow

¿Visualizar imagen de gráfico en TensorFlow?

Escribí un sencillo guión para calcular la proporción de oro de 1,2,5. ¿Hay una manera de producir realmente un flujo visual a través de tensor (posiblemente con la ayuda de matplotlib o networkx ) de la estructura del gráfico real? El documento de tensorflow es bastante similar a un gráfico de factores, así que me […]

¿De dónde viene next_batch en el tutorial TensorFlow batch_xs, batch_ys = mnist.train.next_batch (100)?

Estoy probando el tutorial de TensorFlow y no entiendo de dónde viene next_batch en esta línea. batch_xs, batch_ys = mnist.train.next_batch(100) Miré from tensorflow.examples.tutorials.mnist import input_data mnist = input_data.read_data_sets(“MNIST_data/”, one_hot=True) Y tampoco vi next_batch allí. Ahora, al probar next_batch en mi propio código, obtengo AttributeError: ‘numpy.ndarray’ object has no attribute ‘next_batch’ Entonces me gustaría entender de […]

Modo de solo lectura en keras.

He clonado el modelo de keras de estimación de pose humana de este enlace. Keras de estimación de pose humana Cuando bash cargar el modelo en google colab, aparece el siguiente error código from keras.models import load_model model = load_model(‘model.h5’) error ValueError Traceback (most recent call last) in () 1 from keras.models import load_model —-> […]

Tensorflow SKCompat convierte los valores de float32 en el dataframe de Pandas a los valores de tf.float64, y luego da un error

Estoy utilizando el siguiente dataframe de Pandas como información de entrenamiento para un estimador de SKCompat: >>> training_data.info() Int64Index: 8709 entries, 4396 to 1889 Data columns (total 8 columns): season 8709 non-null int64 holiday 8709 non-null int64 workingday 8709 non-null int64 weather 8709 non-null int64 temp 8709 non-null float32 atemp 8709 non-null float32 humidity 8709 […]

TensorFlow: ¿Cómo calcular el gradiente mientras se ignoran los pesos cero?

Quiero implementar la poda estableciendo algunos pesos en 0.0 (pesos específicos en cada capa, seleccionados de una manera que no es importante discutir aquí) para (1) ignorarlos durante la inferencia y (2) ignorarlos durante el entrenamiento. Sé que puedo ignorarlos durante la inferencia aplicando una máscara a cada capa, con unas en los índices de […]

¿Cómo visualizar la salida de capas intermedias de la neural network convolucional en keras?

Recientemente creé el modelo CNN básico para la clasificación de perros y gatos (muy básico). ¿Cómo puedo visualizar la salida de estas capas usando keras? Usé el backend Tensorflow para keras.

Acolchado personalizado para convoluciones en TensorFlow

En la función de tensorflow tf.nn.conv2d , la opción de relleno solo tiene ‘SAME’ y ‘VALID’. Pero en la capa de convección de Caffe, hay una opción de relleno que puede definir el número de píxeles que se agregarán (implícitamente) a cada lado de la entrada. ¿Cómo lograr eso en Tensorflow? Muchas gracias.

Tensorflow: _variable_with_weight_decay (…) explicación

En este momento estoy mirando el ejemplo de cifar10 y noté la función _variable_with_weight_decay (…) en el archivo cifar10.py . El código es el siguiente: def _variable_with_weight_decay(name, shape, stddev, wd): “””Helper to create an initialized Variable with weight decay. Note that the Variable is initialized with a truncated normal distribution. A weight decay is added […]

Diferente curva de aprendizaje de Adán entre Tensorflow y Keras.

Actualmente estoy cambiando mi código de Keras a Tensorflow para usar la nueva función de entrenamiento cuantificado en Tensorflow 1.10.0. Sin embargo, descubrí que el proceso de entrenamiento en Keras y Tensorflow muestra una diferencia muy grande al usar el optimizador Adam. Aquí está el código para el uso de la práctica, que tiene el […]

No se puede replicar una architecture CNN matconvnet en Keras

Tengo la siguiente architecture de una neural network convolucional en matconvnet que utilizo para entrenar con mis propios datos: function net = cnn_mnist_init(varargin) % CNN_MNIST_LENET Initialize a CNN similar for MNIST opts.batchNormalization = false ; opts.networkType = ‘simplenn’ ; opts = vl_argparse(opts, varargin) ; f= 0.0125 ; net.layers = {} ; net.layers{end+1} = struct(‘name’,’conv1′,… ‘type’, […]