Articles of aprendizaje profundo

afinar con la normalización de lotes en keras

He entrenado un modelo con éxito en más de 100000 muestras, que funciona bien tanto en el conjunto de trenes como en el conjunto de pruebas. Luego, traté de ajustarla sobre una muestra en particular (una de las 100000 muestras) y usar los pesos entrenados como inicialización. Pero el resultado es un poco extraño y […]

keras ValueError: la salida del generador debe ser una tupla (x, y, sample_weight) o (x, y). Encontrado: ninguno

Tengo un modelo Unet de Retina Unet , sin embargo, he aumentado las imágenes y las máscaras. ¿Ahora? me da este error ValueError: output of generator should be a tuple (x, y, sample_weight) or (x, y). Found: None ValueError: output of generator should be a tuple (x, y, sample_weight) or (x, y). Found: None Quiero […]

¿Cómo puedo imprimir la tasa de aprendizaje en cada época con Adam optimizer en Keras?

Debido a que el aprendizaje en línea no funciona bien con Keras cuando está usando un optimizador adaptativo (la progtwigción de la tasa de aprendizaje se restablece al llamar a .fit() ), quiero ver si puedo configurarlo manualmente. Sin embargo, para hacer eso, necesito averiguar cuál fue la tasa de aprendizaje en la última época. […]

Error de tiempo de ejecución: gráfico desconectado para GAN porque no se puede obtener la entrada

Aquí está mi architecture discriminadora: def build_discriminator(img_shape,embedding_shape): model1 = Sequential() model1.add(Conv2D(32, kernel_size=5, strides=2, input_shape=img_shape, padding=”same”)) model1.add(LeakyReLU(alpha=0.2)) model1.add(Dropout(0.25)) model1.add(Conv2D(48, kernel_size=5, strides=2, padding=”same”)) #model.add(ZeroPadding2D(padding=((0,1),(0,1)))) model1.add(BatchNormalization(momentum=0.8)) model1.add(LeakyReLU(alpha=0.2)) model1.add(Dropout(0.25)) model1.add(Conv2D(64, kernel_size=5, strides=2, padding=”same”)) model1.add(BatchNormalization(momentum=0.8)) model1.add(LeakyReLU(alpha=0.2)) model1.add(Dropout(0.25)) model1.add(Conv2D(128, kernel_size=5, strides=2, padding=”same”)) model1.add(BatchNormalization(momentum=0.8)) model1.add(LeakyReLU(alpha=0.2)) model1.add(Dropout(0.25)) model1.add(Conv2D(256, kernel_size=5, strides=2, padding=”same”)) model1.add(BatchNormalization(momentum=0.8)) model1.add(LeakyReLU(alpha=0.2)) model1.add(Dropout(0.25)) model1.add(Flatten()) model1.add(Dense(200)) model2=Sequential() model2.add(Dense(50, input_shape=embedding_shape)) model2.add(Dense(100)) model2.add(Dense(200)) model2.add(Flatten()) merged_model […]

Entrenamiento en la capa fusionada en keras.

Estoy implementando siguiendo este documento por Mohammad Havaei. Utiliza la siguiente architecture: He modificado algún código de aquí para hacerlo. print ‘Compiling two-path model…’ #local pathway modle_l=Sequential() modle_l.add(Convolution2D(64,7,7, border_mode=’valid’,W_regularizer=l1l2(l1=0.01, l2=0.01), input_shape=(4,33,33))) modle_l.add(Activation(‘relu’)) modle_l.add(BatchNormalization(mode=0,axis=1)) modle_l.add(MaxPooling2D(pool_size=(2,2),strides=(1,1))) modle_l.add(Dropout(0.5)) #Add second convolution modle_l.add(Convolution2D(64,3,3, border_mode=’valid’,W_regularizer=l1l2(l1=0.01, l2=0.01), input_shape=(4,33,33))) modle_l.add(BatchNormalization(mode=0,axis=1)) modle_l.add(MaxPooling2D(pool_size=(4,4), strides=(1,1))) modle_l.add(Dropout(0.5)) #global pathway modelg = Sequential() modelg.add(Convolution2D(160,12,12, border_mode=’valid’, W_regularizer=l1l2(l1=0.01, l2=0.01), […]

Tensorflow op en modelo Keras

Estoy tratando de usar una operación de tensorflow dentro de un modelo de Keras. Anteriormente intenté envolverlo con una capa Lambda, pero creo que esto deshabilita la propagación hacia atrás de esas capas. Más específicamente, estoy tratando de usar las capas desde aquí en un modelo de Keras, sin trasladarlas a las capas de Keras […]

Error de memoria ‘Recurso agotado’ al intentar entrenar un modelo de Keras

Estoy tratando de entrenar un modelo VGG19 para un problema de clasificación de imágenes binarias. Mi conjunto de datos no encaja en la memoria, así que uso lotes y la función .fit_generator del model . Sin embargo, incluso cuando trato de entrenar con lotes, recibo el siguiente error: W tensorflow / core / common_runtime / […]

La falta de coincidencia de la dimensión en LSTM Keras

Quiero crear un RNN básico que pueda agregar dos bytes. Aquí están las entradas y salidas, que se esperan de una adición simple X = [[0, 0], [0, 1], [1, 1], [0, 1], [1, 0], [1, 0], [1, 1], [1, 0]] Es decir, X1 = 00101111 y X2 = 01110010 Y = [1, 0, 1, […]

cómo obtener los resultados de la capa de incrustación

from keras.models import Sequential from keras.layers.embeddings import Embedding from theano import function model = Sequential() model.add(Embedding(max_features, 128, input_length = maxlen)) Quiero obtener los resultados de las capas de incrustación. Leí la fuente en keras pero no encontré ninguna función o atributo adecuado. ¿Alguien me puede ayudar con esto?

Exportar gráficos de Tensorflow de Python para usar en C ++

¿Exactamente cómo deben exportarse los modelos de Python para su uso en c ++? Estoy tratando de hacer algo similar a este tutorial: https://www.tensorflow.org/versions/r0.8/tutorials/image_recognition/index.html Estoy intentando importar mi propio modelo de TF en la API de c ++ en lugar del modelo inicial. Ajusté el tamaño de entrada y las rutas, pero siguen apareciendo errores […]