Articles of lstm

¿Qué son c_state y m_state en Tensorflow LSTM?

La documentación de tensorflow r0.12 para tf.nn.rnn_cell.LSTMCell describe esto como el inicio: tf.nn.rnn_cell.LSTMCell.__call__(inputs, state, scope=None) donde el state es el siguiente: state: si state_is_tuple es False, este debe ser un Tensor de estado, 2-D, batch x state_size. Si state_is_tuple es True, debe ser una tupla de Tensors de estado, ambos 2D, con tamaños de columna […]

Tensorflow: ValueError: la forma debe estar en el rango 2 pero en el rango 3

Soy nuevo en tensorflow e bash actualizar un código para un LSTM bidireccional desde una versión antigua de tensorflow a la más nueva (1.0), pero recibo este error: La forma debe estar en el rango 2, pero está en el rango 3 para ‘MatMul_3’ (op: ‘MatMul’) con formas de entrada: [100,?, 400], [400,2]. El error […]

Entrada 4D en capa LSTM en Keras

Tengo datos con una forma de (10000, 20, 15, 4) donde num samples = 10000 , num series in time = 20 , height = 15 , weight = 4 . Así que tengo mesa 15×4 que se distribuye a lo largo del tiempo. Aquí está el modelo que quiero entrenar sobre estos datos: … […]

tensorflow static_rnn error: la entrada debe ser una secuencia

Estoy tratando de alimentar mis propios datos 3D a un LSTM. Los datos tienen: altura = 365, ancho = 310, tiempo = desconocido / inconsistente, constan de 0 y 1, cada bloque de datos que produce una salida se separa en un solo archivo. import tensorflow as tf import os from tensorflow.contrib import rnn filename […]

Tensorflow ValueError: solo llame a `sparse_softmax_cross_entropy_with_logits` con argumentos nombrados

Al llamar al siguiente método: losses = [tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels) for logits, labels in zip(logits_series,labels_series)] Recibo el siguiente ValueError: ValueError: Only call `sparse_softmax_cross_entropy_with_logits` with named arguments (labels=…, logits=…, …) Contra esto: [tf.nn.sparse_softmax_cross_entropy_with_logits(logits, labels) De acuerdo con la documentación de nn_ops.py , necesito asegurarme de que los inicios de sesión y las tags estén inicializados en algo, […]

Las predicciones del precio de las acciones del modelo LSTM de múltiples capas keras convergen a un valor constante

He creado un modelo LSTM multicapa que utiliza la regresión para predecir los valores de los datos del siguiente fotogtwig. El modelo termina después de 20 épocas. Luego obtengo algunas predicciones y las comparo con mis valores de verdad fundamentales. Como puede verlos en la imagen de arriba, las predicciones convergen a un valor constante. […]

Error de forma de entrada en la segunda capa (pero no la primera) de Keras LSTM

EDITADO para la concisión. Estoy tratando de construir un modelo LSTM, trabajando en el ejemplo de documentación en https://keras.io/layers/recurrent/ from keras.models import Sequential from keras.layers import LSTM Las siguientes tres líneas de código (más comentarios) se toman directamente del enlace de documentación anterior: model = Sequential() model.add(LSTM(32, input_dim=64, input_length=10)) # for subsequent layers, not need […]

¿Arquitectura LSTM en la implementación de Keras?

Soy nuevo en Keras y estoy revisando la LSTM y sus detalles de implementación en la Keras documentation . Fue fácil, pero de repente pasé por esta publicación de SO y el comentario. Me ha confundido en lo que es la architecture LSTM real: Aquí está el código: model = Sequential() model.add(LSTM(32, input_shape=(10, 64))) model.add(Dense(2)) […]

Entrada densa multidimensional Keras LSTM

Estoy tratando de crear un keras LSTM para predecir series de tiempo. Mi x_train tiene la forma de 3000,15,10 (Ejemplos, Tiempos, Funciones), y_train como 3000,15,1 y estoy tratando de construir un modelo de muchos a muchos (10 características de entrada por secuencia hacen 1 salida / secuencia). El código que estoy usando es este: model […]

Predecir el modelo de la próxima palabra de LSTM a partir de un ejemplo de Tensorflow

Mi amigo y yo estamos tratando de utilizar el modelo entrenado del ejemplo de tensorflow de LSTM aquí . Hemos podido entrenar a nuestro modelo, guardar el modelo y luego importar el modelo. Acabamos de usar el supervisor de tensorflow. Estaba en el tutorial, pero puedes leer más sobre esto aquí . Es raro porque […]