TensorBoard Distribuciones e Histogtwigs con Keras y fit_generator

Estoy usando Keras para entrenar una CNN usando la función fit_generator.

Parece ser un problema conocido que TensorBoard no muestra histogtwigs y distribuciones en esta configuración.

¿Alguien descubrió una manera de hacerlo funcionar de todos modos?

No hay una manera fácil de conectarlo con una sola línea de código, debe escribir sus resúmenes a mano.

La buena noticia es que no es difícil y puede usar el código de callback TensorBoard en Keras como referencia: https://github.com/fchollet/keras/blob/master/keras/callbacks.py#L537

Básicamente, escriba una función, por ejemplo, write_summaries(model) y write_summaries(model) cuando quiera escribir sus resúmenes (por ejemplo, justo después de su fit_generator() )

Dentro de la función write_summaries(model) , use tf.summary , histogram_summary y otras funciones de resumen para registrar los datos que desea ver en la tabla de tensiones.

Si no sabe exactamente cómo hacerlo, consulte el tutorial oficial: https://www.tensorflow.org/get_started/summaries_and_tensorboard y este gran ejemplo de MNIST con resúmenes: https://github.com/tensorflow/tensorflow/blob/master /tensorflow/examples/tutorials/mnist/mnist_with_summaries.py

Creo que la explicación de bartgras se reemplaza en versiones más recientes de Keras (estoy usando Keras 2.2.2). Para obtener los histogtwigs en Tensorboard todo lo que hice fue:

 NAME = "Foo_{}".format(datetime.now().isoformat(timespec='seconds')).replace(':', '-') tensorboard = keras.callbacks.TensorBoard( log_dir="logs/{}".format(NAME), histogram_freq=1, write_images=True) callbacks = [ tensorboard ] history = model.fit_generator( bg.training_batch(), validation_data=bg.validation_batch(), epochs=EPOCHS, steps_per_epoch=bg.steps_per_epoch, validation_steps=bg.validation_steps, verbose=1, shuffle=False, callbacks=callbacks)