Articles of gpu

Versión keras para usar con tensorflow-gpu 1.4

Estoy usando ubuntu 16, con python 3, tf-GPU con keras. Bajé a tf 1.4 debido a errores de cuda como se explica aquí Pero ahora estoy recibiendo este error. TypeError: softmax () obtuvo un argumento de palabra clave inesperado ‘axis’ Parece que esto es un cambio de API en tensorflow y keras nuevas no son […]

TensorFlow 1.0 no ve GPU en Windows (pero Theano sí)

Tengo una instalación en ejecución de Keras & Theano en Windows (siguiendo este tutorial ). Ahora he intentado cambiar el backend a Tensorflow, que funcionó bastante bien. El único problema que tengo, es que Tensorflow no detecta mi GPU , que Theano, en cambio, hace: from tensorflow.python.client import device_lib def get_available_gpus(): local_device_protos = device_lib.list_local_devices() return […]

¿Qué es XLA_GPU y XLA_CPU para tensorflow?

Puedo listar los dispositivos gpu y cantar el siguiente código de tensorflow: import tensorflow as tf from tensorflow.python.client import device_lib print device_lib.list_local_devices() El resultado es: [name: “/device:CPU:0” device_type: “CPU” memory_limit: 268435456 locality { } incarnation: 17897160860519880862, name: “/device:XLA_GPU:0” device_type: “XLA_GPU” memory_limit: 17179869184 locality { } incarnation: 9751861134541508701 physical_device_desc: “device: XLA_GPU device”, name: “/device:XLA_CPU:0” device_type: “XLA_CPU” […]

Tensorflow en GPU

He podido trabajar con TensorFlow en la CPU, ahora necesito ejecutarlo en un dispositivo GPU con las siguientes especificaciones: CPU: Intel Xeon (E5-2670) y win7 64bit y NVIDIA GeForce GTX 980 Ti He instalado python3.5 y Tensorflow para GPU tal como se describe en la página de inicio de TF. cuando ejecuto un progtwig de […]

Tensorflow el mismo código pero obtiene un resultado diferente de dispositivo de CPU a dispositivo GPU

Estoy intentando implementar un progtwig para probar el rendimiento de Tensorflow en un dispositivo GPU. La prueba de datos es información del MNIST, entrenamiento supervisado que utiliza el perceptrón multicapa (redes neuronales). Seguí este sencillo ejemplo, pero cambio el número de gradiente por lotes de rendimiento a 10000 for i in range(10000) : batch_xs, batch_ys […]

keras con tensorflow en la máquina GPU – algunas partes son muy lentas

Estoy tratando de entrenar a un modelo utilizando keras \ tensorflow (1.4) en una máquina p3.2xlarge aws (que tiene una GPU NVIDIA Tesla V100) dos partes de la inicialización son muy lentas cuando se usa una GPU, pero funcionan en un tiempo razonable en la CPU La primera parte es “llamar” a una capa de […]

keras tiempo de inicio (_make_train_function ()) muy lento en la GPU Tesla V100-SXM2-16GB, en comparación con la GPU menos potente

haga un seguimiento de: keras con tensorflow en la máquina GPU – algunas partes son muy lentas Ejecutando mnist_cnn.py (ligeramente modificado – principalmente agregando registro) desde tensorflow 1.4 la ejecución se realizó con una imagen de ventana acoplable previamente construida: tensorflow / tensorflow: 1.4.0-gpu-py3 en una máquina p2.xlarge aws (que tiene una GPU Tesla K80) […]

¿Cómo reduzco el consumo de memoria en un bucle en TensorFlow?

Tengo un bucle en TensorFlow que se ve así: with tf.device(“/gpu:1”): losses = [] for target, output in zip(targets, lstm_outputs): logits = tf.matmul(W, output) + b loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits, target) losses.append(loss) total_loss = tf.add_n(losses) Recibo un error de OOM al asignar los gradientes para esta capa, ya que cada multiplicación de matrices es una operación […]

¿Cómo configurar theano en Windows?

Instalé Theano en la máquina con Windows y seguí las instrucciones de configuración. Coloqué el siguiente archivo .theanorc.txt en la carpeta C: \ Users \ my_username: #!sh [global] device = gpu floatX = float32 [nvcc] fastmath = True # flags=-m32 # we have this hard coded for now [blas] ldflags = # ldflags = -lopenblas […]

Limitar dispositivos de GPU en Tensorflow

Estoy desarrollando en Python una aplicación que utiliza Tensorflow y otro modelo con GPU. Tengo una PC con muchas GPU (3xNVIDIA GTX1080), debido al hecho de que todos los modelos intentan usar todas las GPU disponibles, lo que da como resultado OUT_OF_MEMORY_ERROR, he encontrado que puedes asignar una GPU específica a un script de Python […]