Articles of lstm

forma de entrada tensorflow / tflearn

Estoy tratando de crear un lstm-rnn para generar secuencias de música. Los datos de entrenamiento son una secuencia de vectores de tamaño 4, que representan varias características (incluida una nota MIDI) de cada nota en algunas canciones para entrenar. Desde mi lectura, parece que lo que estoy tratando de hacer es tener para cada muestra […]

Probando la clasificación del sentimiento Keras con el modelo. Predecir.

He entrenado el imdb_lstm.py en mi PC. Ahora quiero probar la red entrenada ingresando un texto propio. ¿Cómo lo hago? ¡Gracias!

AttributeError: el objeto ‘LSTMStateTuple’ no tiene el atributo ‘get_shape’ al crear un modelo Seq2Seq utilizando Tensorflow

Estoy tratando de trabajar en el resumen de texto utilizando el conjunto de datos de Amazon Reviews. Estoy atascado en un error al construir mi modelo. AttributeError: ‘LSTMStateTuple’ object has no attribute ‘get_shape’ Sé que me estoy perdiendo algo. Pero incapaz de averiguar qué es. Soy nuevo en tensorflow. Supongo que el problema está en […]

Media o máxima agrupación con soporte de enmascaramiento en Keras

… print(‘Build model…’) model = Sequential() model.add(Embedding(max_features, 128)) model.add(LSTM(size, return_sequences=True, dropout_W=0.2 dropout_U=0.2)) model.add(GlobalAveragePooling1D()) model.add(Dense(1)) model.add(Activation(‘sigmoid’)) …. Necesito poder tomar la media o la máxima de los vectores para todos los pasos de tiempo en una muestra después de la capa LSTM antes de dar esta media o máxima a la capa densa en Keras. Creo […]

ConcatOp: las dimensiones de las entradas deben coincidir

Estoy desarrollando un modelo de aprendizaje profundo con flujo tensorial y python: Primero, usando capas CNN, obtén características. En segundo lugar, remodelando el mapa de características, quiero usar la capa LSTM. Sin embargo, un error con dimensión no coincidente … ConcatOp: Las dimensiones de las entradas deben coincidir: shape[0] = [71,48] vs. shape[1] = [1200,24] […]

Cómo estructurar una neural network LSTM para clasificación

Tengo datos que tienen varias conversaciones entre dos personas. Cada oración tiene algún tipo de clasificación. Estoy intentando usar una red de PNL para clasificar cada oración de la conversación. Probé una red de convolución y obtuve resultados decentes (aunque no pioneros). Me di cuenta de que, dado que se trata de una conversación de […]

Guardando y restaurando el modelo Keras BLSTM CTC

He estado trabajando en el reconocimiento de la emoción del habla profunda neural network. He usado keras Bidireccional LSTM con pérdida de CTC. Entrené al modelo y lo guardé. model_json = model.to_json() with open(“ctc_model.json”, “w”) as json_file: json_file.write(model_json) model.save_weights(“ctc_weights.h5”) El problema es que no puedo usar este modelo para probar en datos invisibles porque el […]

TensorFlow dynamic_rnn regressor: ValueError dimension mismatch

Me gustaría construir un modelo de juguete LSTM para la regresión. Este bonito tutorial ya es demasiado complicado para un principiante. Dada una secuencia de longitud time_steps , predice el siguiente valor. Considere time_steps=3 y las secuencias: array([ [[ 1.], [ 2.], [ 3.]], [[ 2.], [ 3.], [ 4.]], … Los valores objective deben […]

¿Cómo debemos rellenar la secuencia de texto en keras usando pad_sequences?

He codificado una secuencia para secuenciar el aprendizaje de LSTM en keras usando el conocimiento obtenido de los tutoriales web y mis propias intuiciones. pad_sequence mi texto de muestra a secuencias y luego lo pad_sequence usando la función pad_sequence en keras. from keras.preprocessing.text import Tokenizer,base_filter from keras.preprocessing.sequence import pad_sequences def shift(seq, n): n = n […]

Keras train_on_batch loss / precision 0

Estoy usando un gran conjunto de datos, y por eso estoy tratando de usar train_on_batch (o encajar con epoch = 1) model = Sequential() model.add(LSTM(size,input_shape=input_shape,return_sequences=False)) model.add(Dense(output_dim)) model.add(Activation(‘softmax’)) model.compile(loss=’categorical_crossentropy’, optimizer=’adam’, metrics=[“accuracy”]) for e in range(nb_epoch): for batch_X, batch_y in batches: model.train_on_batch(batch_X,batch_y) # or # model.fit(batch_X,batch_y,batch_size=batch_size,nb_epoch=1,verbose=1,shuffle=True,) Pero cuando comienza el entrenamiento, esto sucede: (0, 128) Epoch 1/1 […]