Articles of Keras

Error al verificar el objective del modelo: se esperaba que dense_2 tuviera forma (Ninguno, 29430) pero se obtuvo una matriz con la forma (1108, 1)

Soy un poco nuevo para Keras y estoy tratando de crear un modelo con las dimensiones correctas. Mis datos de entrenamiento tienen una forma tal que len(x_train) = 1108 y len(x_train)[0] = 29430, pero parece que estoy haciendo la forma incorrectamente. (El mensaje de error exacto en el título está en el lugar marcado con […]

No se pueden importar Keras en Jupyter

Así que configuré mi lan virtual con python 3 y jupyter (con pip). Todo funciona bien, pero si bash importar keras, no funcionará en jupyter y le dice al módulo que no se encuentra. Pero si ejecuto el mismo archivo (python3 test.py) en el terminal, funciona bien. which jupyter /usr/local/bin/jupyter which python3 /Users/niro273/Desktop/xcorp/bin/python3 Si hago […]

Keras – Variacional Autoencoder Forma incompatible

Estoy tratando de adaptar el código para lograr la convolución 1-D utilizando la entrada 1-D. El modelo es comstackble para que pueda ver las capas y formas en .summary() , pero arroja el error cuando .fit() el modelo. Parece ocurrir en el cálculo de pérdidas. A continuación se muestra mi código: import numpy as np […]

¿Cómo incorporar datos de validación en el datagen.flow de Keras?

Esta es una extensión del problema que enfrenté en una publicación anterior. Estoy aplicando el siguiente código en Keras para realizar el aumento de datos (no quiero usar model.fit_generator por el momento, por lo que lo uso manualmente utilizando datagen.flow ). datagen = ImageDataGenerator( featurewise_center=False, featurewise_std_normalization=False, rotation_range=20, width_shift_range=0.2, height_shift_range=0.2, horizontal_flip=True) # compute quantities required for […]

Función de objective personalizado Keras

Necesito definir mi propia función de pérdida, estoy usando el modelo GAN y mi pérdida incluirá tanto la pérdida adversa como la pérdida L1 entre las imágenes verdaderas y generadas. Intenté escribir una función pero el siguiente error: ValueError: (‘Could not interpret loss function identifier:’, Elemwise{add,no_inplace}.0) Mi función de pérdida es: def loss_function(y_true, y_pred, y_true1, […]

Tipo de dispositivo “DenseToSparseBatchDataset”: “CPU” para operación desconocida: DenseToSparseBatchDataset

Después de una gran cantidad de problemas, tensorflow se construyó a partir de fonts y se instaló en Python 3.5 (no parecía que le gustara 3.6) y ahora un progtwig Keras se ejecuta en el portátil sin quejarse de tensorflow como antes, algo no estaba instalado en los estándares. Pero, parece que usa mucho la […]

¿Cómo entrenar la red con salida 2D? (python, keras)

Quiero entrenar una red de regresión cuyas salidas son dos coordenadas (x1, y1) y (x2, y2). mi pregunta es: si quiero entrenar la red, ¿debería separarse mi salida? Quiero decir si mi salida es así: [x1,y1,x2,y2] o hay una manera de astackrlos como: [(x1,y1),(x2,y2)] Gracias por adelantado

leyenda completa en subtítulos de imagen usando el enfoque de keras en python

He intentado el título de imagen usando el método keras, solo obtengo la siguiente palabra en la secuencia, ¿cómo obtengo el título completo de las imágenes? Obtuve el siguiente valor de palabra, como el resultado en res es (5,5) (dos imágenes en prueba) que es el número asociado con las palabras. Aquí está mi código. […]

Probando la clasificación del sentimiento Keras con el modelo. Predecir.

He entrenado el imdb_lstm.py en mi PC. Ahora quiero probar la red entrenada ingresando un texto propio. ¿Cómo lo hago? ¡Gracias!

exportar el modelo de Keras a un archivo .pb y optimizar para la inferencia da una conjetura aleatoria en Android

Estoy desarrollando una aplicación para Android con el propósito de reconocer la edad y el género. He encontrado un modelo útil en GitHub . Están construyendo un modelo Keras (backend tensorflow) basado en un papel ganador del primer lugar . Han proporcionado módulos de Python para entrenar y construir la red, archivos de pesas ya […]