Articles of recurrent neural network

Transmisión de la salida de las predicciones en Keras

Tengo un LSTM en Keras que estoy entrenando para predecir sobre datos de series de tiempo. Quiero que la red emita predicciones en cada paso de tiempo, ya que recibirá una nueva entrada cada 15 segundos. Entonces, con lo que estoy luchando es la forma correcta de entrenarlo para que genere h_0, h_1, …, h_t, […]

TensorFlow: Realizando este cálculo de pérdida

Mi pregunta y problema se indican debajo de los dos bloques de código. Función de pérdida def loss(labels, logits, sequence_lengths, label_lengths, logit_lengths): scores = [] for i in xrange(runner.batch_size): sequence_length = sequence_lengths[i] for j in xrange(length): label_length = label_lengths[i, j] logit_length = logit_lengths[i, j] # get top k indices argmax_k(labels[i, j, 0, :], label_length) top_labels […]

Keras pretrain CNN con TimeDistributed

Aquí está mi problema, quiero usar una de las redes CNN pretensor en una capa TimeDistributed. Pero tengo algún problema para implementarlo. Aquí está mi modelo: def bnn_model(max_len): # sequence length and resnet input size x = Input(shape=(maxlen, 224, 224, 3)) base_model = ResNet50.ResNet50(weights=’imagenet’, include_top=False) for layer in base_model.layers: layer.trainable = False som = TimeDistributed(base_model)(x) […]

Keras RNN con celdas LSTM para predecir múltiples series de tiempo de salida basadas en múltiples series de tiempo de entrada

Me gustaría modelar RNN con celdas LSTM para predecir múltiples series de tiempo de salida basadas en múltiples series de tiempo de entrada. Para ser específico, tengo 4 series de tiempo de salida, y1 [t], y2 [t], y3 [t], y4 [t], cada una tiene una longitud de 3.000 (t = 0, …, 2999). También tengo […]

Tensorflow dynamic RNN (LSTM): ¿cómo formatear la entrada?

Me han dado algunos datos de este formato y los siguientes detalles: person1, day1, feature1, feature2, …, featureN, label person1, day2, feature1, feature2, …, featureN, label … person1, dayN, feature1, feature2, …, featureN, label person2, day1, feature1, feature2, …, featureN, label person2, day2, feature1, feature2, …, featureN, label … person2, dayN, feature1, feature2, …, featureN, […]

¿Cómo codificar una secuencia para secuenciar RNN en keras?

Estoy tratando de escribir una secuencia para secuenciar RNN en keras. Codifiqué este progtwig usando lo que entendí de la web. Primero tokenicé el texto, luego convertí el texto en secuencia y lo rellené para formar la variable de función X. La variable de destino Y se obtuvo primero desplazando x a la izquierda y […]

Error de forma de entrada en la segunda capa (pero no la primera) de Keras LSTM

EDITADO para la concisión. Estoy tratando de construir un modelo LSTM, trabajando en el ejemplo de documentación en https://keras.io/layers/recurrent/ from keras.models import Sequential from keras.layers import LSTM Las siguientes tres líneas de código (más comentarios) se toman directamente del enlace de documentación anterior: model = Sequential() model.add(LSTM(32, input_dim=64, input_length=10)) # for subsequent layers, not need […]

¿Mezclar capas de avance y capas recurrentes en Tensorflow?

¿Alguien ha podido mezclar capas avanzadas y capas recurrentes en Tensorflow? Por ejemplo: entrada-> conv-> GRU-> lineal-> salida Puedo imaginar que uno puede definir su propia celda con capas de avance y sin estado que luego se pueden astackr usando la función MultiRNNCell, algo así como: cell = tf.nn.rnn_cell.MultiRNNCell ([conv_cell, GRU_cell, linear_cell]) Esto haría la […]

Clasificación binaria de la neural network recurrente

Tengo acceso a un dataframe de 100 personas y cómo se realizaron en una determinada prueba de movimiento. Este marco contiene aproximadamente 25,000 filas por persona, ya que el rendimiento de esta persona se mantiene al tanto de (aproximadamente) cada centisegundo (10 ^ -2). Queremos utilizar estos datos para predecir una etiqueta y binaria, es […]

¿En qué orden se guardan los pesos en un kernel LSTM en Tensorflow?

Busqué en los pesos guardados para una LSTMCell en Tensorflow. Tiene un kernel grande y pesos de polarización. Las dimensiones del núcleo son. (input_size + hidden_size)*(hidden_size*4) Ahora, por lo que entiendo, esto es encapsular 4 entradas a transformaciones afines de capa oculta, así como 4 transformaciones de capa oculta a oculta. Entonces debería haber 4 […]