Tengo un ejemplo de una neural network con dos capas. La primera capa toma dos argumentos y tiene una salida. El segundo debe tomar un argumento como resultado de la primera capa y un argumento adicional. Debería verse así:
x1 x2 x3 \ / / y1 / \ / y2
Entonces, creé un modelo con dos capas e intenté fusionarlas, pero devuelve un error: The first layer in a Sequential model must get an "input_shape" or "batch_input_shape" argument.
en la línea result.add(merged)
.
Modelo:
first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) result = Sequential() merged = Concatenate([first, second]) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0) result.add(merged) result.compile(optimizer=ada_grad, loss=_loss_tensor, metrics=['accuracy'])
Bueno, está recibiendo el error porque el resultado definido como Sequential()
es solo un contenedor para un modelo y no ha definido una entrada para él.
Teniendo en cuenta lo que estás tratando de construir, establece el result
para tomar la tercera entrada x3
.
first = Sequential() first.add(Dense(1, input_shape=(2,), activation='sigmoid')) second = Sequential() second.add(Dense(1, input_shape=(1,), activation='sigmoid')) third = Sequential() # of course you must provide the input to result with will be your x3 third.add(Dense(1, input_shape=(1,), activation='sigmoid')) # lets say you add a few more layers to first and second. # concatenate them merged = Concatenate([first, second]) # then concatenate the two outputs result = Concatenate([merged, third]) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0) result.compile(optimizer=ada_grad, loss='binary_crossentropy', metrics=['accuracy'])
Sin embargo, mi forma preferida de construir un modelo que tenga este tipo de estructura de entrada sería utilizar la API funcional .
Aquí hay una implementación de sus requisitos para comenzar:
from keras.models import Model from keras.layers import Concatenate, Dense, LSTM, Input, concatenate from keras.optimizers import Adagrad first_input = Input(shape=(2, )) first_dense = Dense(1, )(first_input) second_input = Input(shape=(2, )) second_dense = Dense(1, )(second_input) merge_one = concatenate([first_dense, second_dense]) third_input = Input(shape=(1, )) merge_two = concatenate([merge_one, third_input]) model = Model(inputs=[first_input, second_input, third_input], outputs=merge_two) ada_grad = Adagrad(lr=0.1, epsilon=1e-08, decay=0.0) model.compile(optimizer=ada_grad, loss='binary_crossentropy', metrics=['accuracy'])
Para responder a la pregunta en los comentarios:
1) ¿Cómo se conectan los resultados y se combinan? Suponiendo que te refieres a cómo están concatenadas.
La concatenación funciona así:
abc abcghiabcghi defjkldefjkl
es decir, las filas son simplemente unidas.
2) Ahora, x1
se ingresa a primero, x2
se ingresa a segundo y x3
ingresa a tercero.
Puede experimentar con model.summary()
(observe el tamaño de capa concatenate_XX (Concatenate))
# merge samples, two input must be same shape inp1 = Input(shape=(10,32)) inp2 = Input(shape=(10,32)) cc1 = concatenate([inp1, inp2],axis=0) # Merge data must same row column output = Dense(30, activation='relu')(cc1) model = Model(inputs=[inp1, inp2], outputs=output) model.summary() # merge row must same column size inp1 = Input(shape=(20,10)) inp2 = Input(shape=(32,10)) cc1 = concatenate([inp1, inp2],axis=1) output = Dense(30, activation='relu')(cc1) model = Model(inputs=[inp1, inp2], outputs=output) model.summary() # merge column must same row size inp1 = Input(shape=(10,20)) inp2 = Input(shape=(10,32)) cc1 = concatenate([inp1, inp2],axis=1) output = Dense(30, activation='relu')(cc1) model = Model(inputs=[inp1, inp2], outputs=output) model.summary()
Puede ver el cuaderno aquí para obtener más detalles: https://nbviewer.jupyter.org/github/anhhh11/DeepLearning/blob/master/Concanate_two_layer_keras.ipynb