Articles of recurrent neural network

¿Cómo codificar una secuencia para secuenciar RNN en keras?

Estoy tratando de escribir una secuencia para secuenciar RNN en keras. Codifiqué este progtwig usando lo que entendí de la web. Primero tokenicé el texto, luego convertí el texto en secuencia y lo rellené para formar la variable de función X. La variable de destino Y se obtuvo primero desplazando x a la izquierda y […]

Error de forma de entrada en la segunda capa (pero no la primera) de Keras LSTM

EDITADO para la concisión. Estoy tratando de construir un modelo LSTM, trabajando en el ejemplo de documentación en https://keras.io/layers/recurrent/ from keras.models import Sequential from keras.layers import LSTM Las siguientes tres líneas de código (más comentarios) se toman directamente del enlace de documentación anterior: model = Sequential() model.add(LSTM(32, input_dim=64, input_length=10)) # for subsequent layers, not need […]

¿Mezclar capas de avance y capas recurrentes en Tensorflow?

¿Alguien ha podido mezclar capas avanzadas y capas recurrentes en Tensorflow? Por ejemplo: entrada-> conv-> GRU-> lineal-> salida Puedo imaginar que uno puede definir su propia celda con capas de avance y sin estado que luego se pueden astackr usando la función MultiRNNCell, algo así como: cell = tf.nn.rnn_cell.MultiRNNCell ([conv_cell, GRU_cell, linear_cell]) Esto haría la […]

Clasificación binaria de la neural network recurrente

Tengo acceso a un dataframe de 100 personas y cómo se realizaron en una determinada prueba de movimiento. Este marco contiene aproximadamente 25,000 filas por persona, ya que el rendimiento de esta persona se mantiene al tanto de (aproximadamente) cada centisegundo (10 ^ -2). Queremos utilizar estos datos para predecir una etiqueta y binaria, es […]

¿En qué orden se guardan los pesos en un kernel LSTM en Tensorflow?

Busqué en los pesos guardados para una LSTMCell en Tensorflow. Tiene un kernel grande y pesos de polarización. Las dimensiones del núcleo son. (input_size + hidden_size)*(hidden_size*4) Ahora, por lo que entiendo, esto es encapsular 4 entradas a transformaciones afines de capa oculta, así como 4 transformaciones de capa oculta a oculta. Entonces debería haber 4 […]

Keras LSTM: datos de secuencia de alimentación con el conjunto de datos Tensorflow API desde el generador

Estoy tratando de resolver cómo puedo enviar datos a mi modelo LSTM para la capacitación. (Simplificaré el problema en mi ejemplo a continuación). Tengo el siguiente formato de datos en archivos csv en mi conjunto de datos. Timestep Feature1 Feature2 Feature3 Feature4 Output 1 1 2 3 4 a 2 5 6 7 8 b […]

Predice el uso de datos con menos pasos de tiempo (diferentes dimensiones) utilizando el modelo Keras RNN

De acuerdo con la naturaleza de RNN, podemos obtener una salida de probabilidades pronosticadas en cada marca de tiempo (despliegue en el tiempo). Supongamos que entreno un RNN con 5 pasos de tiempo, cada uno con 6 funciones. Por lo tanto, tengo que especificar la primera capa como esta (supongamos que usamos una capa LSTM […]

Batch-major vs time-major LSTM

¿Los RNN aprenden diferentes patrones de dependencia cuando la entrada es mayor en lotes en lugar de mayor en tiempo?

Keras – Ingrese una imagen de 3 canales en LSTM

He leído una secuencia de imágenes en una matriz numpy con forma (7338, 225, 1024, 3) donde 7338 es el tamaño de la muestra, 225 son los pasos de tiempo y 1024 (32×32) son píxeles de imagen aplanados, en 3 canales (RGB) . Tengo un modelo secuencial con una capa LSTM: model = Sequential() model.add(LSTM(128, […]

Stateful LSTM: ¿Cuándo restablecer estados?

Dada X con dimensiones (m muestras, n secuencias y k características) y y tags con dimensiones (m muestras, 0/1) : Supongamos que quiero entrenar a un LSTM con estado (siguiendo la definición de keras, donde “con estado = Verdadero” significa que los estados de las celdas no se restablecen entre secuencias por muestra; ¡corríjame si […]