Articles of aprendizaje profundo

Modo de solo lectura en keras.

He clonado el modelo de keras de estimación de pose humana de este enlace. Keras de estimación de pose humana Cuando bash cargar el modelo en google colab, aparece el siguiente error código from keras.models import load_model model = load_model(‘model.h5’) error ValueError Traceback (most recent call last) in () 1 from keras.models import load_model —-> […]

No se puede replicar una architecture CNN matconvnet en Keras

Tengo la siguiente architecture de una neural network convolucional en matconvnet que utilizo para entrenar con mis propios datos: function net = cnn_mnist_init(varargin) % CNN_MNIST_LENET Initialize a CNN similar for MNIST opts.batchNormalization = false ; opts.networkType = ‘simplenn’ ; opts = vl_argparse(opts, varargin) ; f= 0.0125 ; net.layers = {} ; net.layers{end+1} = struct(‘name’,’conv1′,… ‘type’, […]

Keras modelo no aprendiendo

Mi modelo Keras no está aprendiendo nada y no puedo entender por qué. Incluso reduje el tamaño del conjunto de entrenamiento a 5 elementos y el modelo aún no se ajusta a los datos de entrenamiento. Función de pérdida visualizada con TensorBoard. Aquí está mi código: model = Sequential() model.add(Conv1D(30, filter_length=3, activation=’relu’, input_shape=(50, 1))) model.add(Conv1D(40, […]

¿Por qué no hay rastro de clasificadores auxiliares del modelo Inception v3 en Keras?

Cuando se usa el modelo Inception v3 en Keras, ni el gráfico de la red ni el modelo.summary () indican la presencia de los clasificadores auxiliares (como en Szegedy et al . Por que es esto entonces ? ¿Sigue Keras utilizando la architecture correcta pero ocultando esta especificidad al usuario? Si es así, ¿cómo podemos […]

Agregar varias capas a TensorFlow hace que la función de pérdida se convierta en Nan

Estoy escribiendo un clasificador de neural network en TensorFlow / Python para el conjunto de datos notMNIST . He implementado l2 regularización y abandono en las capas ocultas. Funciona bien siempre que solo haya una capa oculta, pero cuando agregué más capas (para mejorar la precisión), la función de pérdida aumenta rápidamente en cada paso, […]

Keras, ¿cómo puedo predecir después de entrenar un modelo?

Estoy jugando con el conjunto de datos de ejemplo de reuters y funciona bien (mi modelo está entrenado). Leí acerca de cómo guardar un modelo, para poder cargarlo más tarde y usarlo nuevamente. Pero, ¿cómo uso este modelo guardado para predecir un nuevo texto? ¿Utilizo models.predict() ? ¿Tengo que preparar este texto de una manera […]

¿Qué son c_state y m_state en Tensorflow LSTM?

La documentación de tensorflow r0.12 para tf.nn.rnn_cell.LSTMCell describe esto como el inicio: tf.nn.rnn_cell.LSTMCell.__call__(inputs, state, scope=None) donde el state es el siguiente: state: si state_is_tuple es False, este debe ser un Tensor de estado, 2-D, batch x state_size. Si state_is_tuple es True, debe ser una tupla de Tensors de estado, ambos 2D, con tamaños de columna […]

Keras: ¿implementación limpia para múltiples salidas y funciones personalizadas de pérdida?

Viniendo de TensorFlow, tengo ganas de implementar cualquier cosa que no sea básica, los modelos secuenciales en Keras pueden ser bastante difíciles. Hay tantas cosas que pasan automáticamente. En TensorFlow, siempre conoce sus marcadores de posición (entrada / salida), formas, estructura, … por lo que es muy fácil, por ejemplo, configurar pérdidas personalizadas. ¿Cuál es […]

Pre-entrenamiento no supervisado para redes neuronales convolucionales en theano

Me gustaría diseñar una red profunda con una (o más) capas convolucionales (CNN) y una o más capas ocultas totalmente conectadas en la parte superior. Para redes profundas con capas totalmente conectadas, hay métodos en theano para el pre-entrenamiento no supervisado, por ejemplo, utilizando auto-encoders de eliminación de ruido o RBMs . Mi pregunta es: […]

Problema de implementación de la función de pérdida en keras

Estoy implementando una función de pérdida personalizada en keras. La salida del modelo es la capa softmax de 10 dimensiones. Para calcular la pérdida: primero necesito encontrar el índice de y disparando 1 y luego restar ese valor con valor verdadero. Estoy haciendo lo siguiente: from keras import backend as K def diff_loss(y_true,y_pred): # find […]