Articles of lstm

Guardando y restaurando el modelo Keras BLSTM CTC

He estado trabajando en el reconocimiento de la emoción del habla profunda neural network. He usado keras Bidireccional LSTM con pérdida de CTC. Entrené al modelo y lo guardé. model_json = model.to_json() with open(“ctc_model.json”, “w”) as json_file: json_file.write(model_json) model.save_weights(“ctc_weights.h5”) El problema es que no puedo usar este modelo para probar en datos invisibles porque el […]

TensorFlow dynamic_rnn regressor: ValueError dimension mismatch

Me gustaría construir un modelo de juguete LSTM para la regresión. Este bonito tutorial ya es demasiado complicado para un principiante. Dada una secuencia de longitud time_steps , predice el siguiente valor. Considere time_steps=3 y las secuencias: array([ [[ 1.], [ 2.], [ 3.]], [[ 2.], [ 3.], [ 4.]], … Los valores objective deben […]

¿Cómo debemos rellenar la secuencia de texto en keras usando pad_sequences?

He codificado una secuencia para secuenciar el aprendizaje de LSTM en keras usando el conocimiento obtenido de los tutoriales web y mis propias intuiciones. pad_sequence mi texto de muestra a secuencias y luego lo pad_sequence usando la función pad_sequence en keras. from keras.preprocessing.text import Tokenizer,base_filter from keras.preprocessing.sequence import pad_sequences def shift(seq, n): n = n […]

Keras train_on_batch loss / precision 0

Estoy usando un gran conjunto de datos, y por eso estoy tratando de usar train_on_batch (o encajar con epoch = 1) model = Sequential() model.add(LSTM(size,input_shape=input_shape,return_sequences=False)) model.add(Dense(output_dim)) model.add(Activation(‘softmax’)) model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[“accuracy”]) for e in range(nb_epoch): for batch_X, batch_y in batches: model.train_on_batch(batch_X,batch_y) # or # model.fit(batch_X,batch_y,batch_size=batch_size,nb_epoch=1,verbose=1,shuffle=True,) Pero cuando comienza el entrenamiento, esto sucede: (0, 128) Epoch 1/1 […]

Entrenamiento de Lstm más simple con Keras io.

Me gustaría crear el LSTM más simple que existe usando la biblioteca keras python. Tengo el siguiente código: import pandas as pd import numpy as np from keras.models import Sequential from keras.layers.core import Dense, Activation from keras.layers.recurrent import LSTM X_train = pd.DataFrame( np.array([ [1, 2], [3, 4], [5, 6], [7, 8], [5.1, 6.1], [7.1, 8.1] […]

Resaltar palabras importantes en una oración usando Deep Learning

Estoy tratando de resaltar palabras importantes en el conjunto de datos imdb que contribuyeron finalmente a la predicción del análisis de sentimientos. El conjunto de datos es como: X_train – Una revisión como cadena. Y_train – 0 o 1 Ahora, después de usar las incrustaciones de guante para incrustar el valor de X_train, puedo alimentarlo […]

InvalidArgumentError in restre: Assign requiere que las formas de ambos tensores coincidan

Primero, me gustaría mencionar que soy nuevo en Tensorflow, estoy trabajando en un proyecto de OCR usando CTC ( Connectionist Temporal Classification ) y LSTM ( Long Short Term Memory Memory ). He realizado la capacitación y cuando bash restablecer la sesión , encontré un error que comúnmente se publica en Internet, pero se me […]

¿Usar el código tutorial de LSTM para predecir la siguiente palabra en una oración?

He estado tratando de entender el código de muestra con https://www.tensorflow.org/tutorials/recurrent que puede encontrar en https://github.com/tensorflow/models/blob/master/tutorials/rnn/ptb /ptb_word_lm.py (Utilizando tensorflow 1.3.0.) He resumido (lo que creo que son) las partes clave, para mi pregunta, a continuación: size = 200 vocab_size = 10000 layers = 2 # input_.input_data is a 2D tensor [batch_size, num_steps] of # word […]

Entendiendo la forma de entrada de Tensorflow LSTM

Tengo un conjunto de datos X que consta de N = 4000 muestras , cada muestra consta de d = 2 características (valores continuos) que abarcan atrás t = 10 pasos de tiempo . También tengo las ‘tags’ correspondientes de cada muestra que también son valores continuos, en el paso de tiempo 11. En este […]

Tensorflow dynamic RNN (LSTM): ¿cómo formatear la entrada?

Me han dado algunos datos de este formato y los siguientes detalles: person1, day1, feature1, feature2, …, featureN, label person1, day2, feature1, feature2, …, featureN, label … person1, dayN, feature1, feature2, …, featureN, label person2, day1, feature1, feature2, …, featureN, label person2, day2, feature1, feature2, …, featureN, label … person2, dayN, feature1, feature2, …, featureN, […]