Articles of lstm

Tensorflow ValueError: solo llame a `sparse_softmax_cross_entropy_with_logits` con argumentos nombrados

Al llamar al siguiente método: losses = [tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels) for logits, labels in zip(logits_series,labels_series)] Recibo el siguiente ValueError: ValueError: Only call `sparse_softmax_cross_entropy_with_logits` with named arguments (labels=…, logits=…, …) Contra esto: [tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels) De acuerdo con la documentación de nn_ops.py , necesito asegurarme de que los inicios de sesión y las tags estén inicializados en algo, […]

Las predicciones del precio de las acciones del modelo LSTM de múltiples capas keras convergen a un valor constante

He creado un modelo LSTM multicapa que utiliza la regresión para predecir los valores de los datos del siguiente fotogtwig. El modelo termina después de 20 épocas. Luego obtengo algunas predicciones y las comparo con mis valores de verdad fundamentales. Como puede verlos en la imagen de arriba, las predicciones convergen a un valor constante. […]

Error de forma de entrada en la segunda capa (pero no la primera) de Keras LSTM

EDITADO para la concisión. Estoy tratando de construir un modelo LSTM, trabajando en el ejemplo de documentación en https://keras.io/layers/recurrent/ from keras.models import Sequential from keras.layers import LSTM Las siguientes tres líneas de código (más comentarios) se toman directamente del enlace de documentación anterior: model = Sequential() model.add(LSTM(32, input_dim=64, input_length=10)) # for subsequent layers, not need […]

¿Arquitectura LSTM en la implementación de Keras?

Soy nuevo en Keras y estoy revisando la LSTM y sus detalles de implementación en la Keras documentation . Fue fácil, pero de repente pasé por esta publicación de SO y el comentario. Me ha confundido en lo que es la architecture LSTM real: Aquí está el código: model = Sequential() model.add(LSTM(32, input_shape=(10, 64))) model.add(Dense(2)) […]

Entrada densa multidimensional Keras LSTM

Estoy tratando de crear un keras LSTM para predecir series de tiempo. Mi x_train tiene la forma de 3000,15,10 (Ejemplos, Tiempos, Funciones), y_train como 3000,15,1 y estoy tratando de construir un modelo de muchos a muchos (10 características de entrada por secuencia hacen 1 salida / secuencia). El código que estoy usando es este: model […]

Predecir el modelo de la próxima palabra de LSTM a partir de un ejemplo de Tensorflow

Mi amigo y yo estamos tratando de utilizar el modelo entrenado del ejemplo de tensorflow de LSTM aquí . Hemos podido entrenar a nuestro modelo, guardar el modelo y luego importar el modelo. Acabamos de usar el supervisor de tensorflow. Estaba en el tutorial, pero puedes leer más sobre esto aquí . Es raro porque […]

¿Por qué mi modelo ConvLSTM no puede predecir?

He construido un modelo Convolutional LSTM utilizando Tensorflow ConvLSTMCell (), tf.nn.dynamic_rnn () y tf.contrib.legacy_seq2seq.rnn_decoder () Tengo 3 capas de codificador y 3 capas de decodificador, los estados iniciales de los decodificadores provienen de los estados finales de los codificadores. Tengo 128, 64 y 64 filtros para la capa 1, capa 2 y capa 3 respectivamente. […]

Tensorflow guarda el estado final de LSTM en dynamic_rnn para la predicción

Quiero guardar el estado final de mi LSTM para que se incluya cuando restauro el modelo y se puede usar para la predicción. Como se explica a continuación, el ahorrador solo tiene conocimiento del estado final cuando uso tf.assign . Sin embargo, esto produce un error (también se explica a continuación). Durante el entrenamiento, siempre […]

La falta de coincidencia de la dimensión en LSTM Keras

Quiero crear un RNN básico que pueda agregar dos bytes. Aquí están las entradas y salidas, que se esperan de una adición simple X = [[0, 0], [0, 1], [1, 1], [0, 1], [1, 0], [1, 0], [1, 1], [1, 0]] Es decir, X1 = 00101111 y X2 = 01110010 Y = [1, 0, 1, […]

Python explica cómo cambiar el tamaño de la entrada después de la capa de convolución en la capa lstm

Tengo un problema con la conexión entre la capa de convolución y la capa lstm. Los datos tienen una forma (75,5) donde hay 75 pasos de tiempo x 5 puntos de datos para cada paso de tiempo. Lo que quiero hacer es hacer una convolución en (75×5), obtener nuevos datos convueltos (75×5) y alimentar esos […]