Entrada Keras Convolution2D: error al verificar la entrada del modelo: se esperaba que convolution2d_input_1 tuviera forma

Estoy trabajando a través de este gran tutorial para crear un clasificador de imágenes usando Keras. Una vez que entrené el modelo, lo guardo en un archivo y luego lo recargo en un modelo en un script de prueba que se muestra a continuación.

Obtengo la siguiente excepción cuando evalúo el modelo utilizando una imagen nueva, nunca antes vista:

Error:

Traceback (most recent call last): File "test_classifier.py", line 48, in  score = model.evaluate(x, y, batch_size=16) File "/Library/Python/2.7/site-packages/keras/models.py", line 655, in evaluate sample_weight=sample_weight) File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 1131, in evaluate batch_size=batch_size) File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 959, in _standardize_user_data exception_prefix='model input') File "/Library/Python/2.7/site-packages/keras/engine/training.py", line 108, in standardize_input_data str(array.shape)) Exception: Error when checking model input: expected convolution2d_input_1 to have shape (None, 3, 150, 150) but got array with shape (1, 3, 150, 198)` 

¿Es el problema con el modelo que he entrenado o con cómo invoco el método de evaluación?

Código:

  from keras.preprocessing.image import ImageDataGenerator from keras.models import Sequential from keras.layers import Convolution2D, MaxPooling2D from keras.layers import Activation, Dropout, Flatten, Dense from keras.preprocessing.image import ImageDataGenerator, array_to_img, img_to_array, load_img import numpy as np img_width, img_height = 150, 150 train_data_dir = 'data/train' validation_data_dir = 'data/validation' nb_train_samples = 2000 nb_validation_samples = 800 nb_epoch = 5 model = Sequential() model.add(Convolution2D(32, 3, 3, input_shape=(3, img_width, img_height))) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Convolution2D(32, 3, 3)) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Convolution2D(64, 3, 3)) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(64)) model.add(Activation('relu')) model.add(Dropout(0.5)) model.add(Dense(1)) model.add(Activation('sigmoid')) model.compile(loss='binary_crossentropy', optimizer='rmsprop', metrics=['accuracy']) model.load_weights('first_try.h5') img = load_img('data/test2/ferrari.jpeg') x = img_to_array(img) # this is a Numpy array with shape (3, 150, 150) x = x.reshape( (1,) + x.shape ) # this is a Numpy array with shape (1, 3, 150, 150) y = np.array([0]) score = model.evaluate(x, y, batch_size=16)` 

El problema se debe al tamaño incorrecto de las imágenes de prueba. Para mi,

 train_datagen.flow_from_directory( 'C:\\Users\\...\\train', # this is the target directory target_size=(150, 150), # all images will be resized to 150x150 batch_size=32, class_mode='binary') 

No estaba funcionando correctamente. Así que usé un comando matlab para cambiar el tamaño de todas las imágenes de prueba y funcionó bien

El problema era doble:

  1. La imagen de prueba era del tamaño incorrecto. Era de 150 x 198, y tenía que ser de 150 x 150.

  2. Tuve que cambiar la capa densa de model.add(Dense(10)) a model.add(Dense(1)) .

Todavía no entiendo cómo hacer que el modelo me dé la predicción, pero al menos ahora, se ejecuta la evaluación del modelo.

Tengo el mismo problema y uso esta función: todas las imágenes de la carpeta de destino (.jpg y .png) cambiarán de tamaño a altura y anchura. Y dividido por 255. Además se agregó 1 dimensión más (forma de entrada requerida).

 from scipy import misc import os def readImagesAsNumpyArrays(targetPath, i_height, i_width): files = os.listdir(targetPath) npList = list() for file in files: if ".jpg" or ".png" in str(file): path = os.path.join(targetPath, file) img = misc.imread(path) img = misc.imresize(img, (i_height, i_width)) img = img * (1. / 255) img = img[None, :, :,: ] npList.append(img) return npList