Almacenamiento de modelos de tensorflow en memoria.

El progtwig que estoy escribiendo implica cambiar entre modelos durante el tiempo de ejecución.

Actualmente estoy utilizando Saver para guardar / cargar modelos del disco como se especifica aquí: https://www.tensorflow.org/api_docs/python/state_ops/saving_and_restring_variables#Saver .

Los modelos son bastante pequeños y se pueden almacenar en la memoria, por lo que me preguntaba si alguien sabe una manera de almacenar y restaurar estos modelos en la memoria en lugar de guardarlos en el disco.

Intenté modificar la fuente de tensorflow para guardar el modelo en la memoria, sin embargo gen_io_ops parece generarse durante el tiempo de comstackción. Otra forma posible es usar archivos mapeados en memoria. ¿Alguien sabe de una manera más fácil?

Solo tendría dos sesiones diferentes con sus propios gráficos de computación. Alternativamente, puede duplicar el gráfico de cálculo (dos copias de las variables, operaciones, etc.) en la misma sesión. Luego llamaría a sess.run(comp1 if useCompOne else comp2) , sin embargo, le gustaría configurarlo.