Articles of Tensorflow Aprendizaje

TensorFlow MLP no entrena XOR

He construido un MLP con la biblioteca TensorFlow de Google. La red está funcionando pero de alguna manera se niega a aprender adecuadamente. Siempre converge a una salida de casi 1.0 sin importar cuál sea la entrada en realidad. El código completo se puede ver aquí . ¿Algunas ideas? La entrada y salida (tamaño de […]

¿Cómo definen las keras “exactitud” y “pérdida”?

No puedo encontrar cómo Keras define “exactitud” y “pérdida”. Sé que puedo especificar diferentes métricas (por ejemplo, mse, entropía cruzada), pero Keras imprime una “precisión” estándar. ¿Cómo se define eso? Del mismo modo para la pérdida: sé que puedo especificar diferentes tipos de regularización, ¿están aquellos en la pérdida? Idealmente, me gustaría imprimir la ecuación […]

TensorFlow Sigmoid Cross Entropy con Logits para datos 1D

Contexto Supongamos que tenemos algunos datos 1D (por ejemplo, series de tiempo), donde todas las series tienen una longitud fija l : # [ 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11] index example = [ 0, 1, 1, 0, 23, 22, 20, 14, 9, 2, 0, 0] # l = […]

¿Mi código de entrenamiento y validación (tensorflow) es correcto y el modelo se adapta?

Este es mi código: for it in range(EPOCH*24410//BATCH_SIZE): tr_pa, tr_sp = sess.run([tr_para, tr_spec]) train_loss, _ = sess.run([loss, fw_op], feed_dict={x: tr_pa, y: tr_sp}) train_loss_.append(train_loss) it_tr.append(it) va_pa, va_sp = sess.run([va_para, va_spec]) validate_loss = sess.run(loss, feed_dict={x: va_pa, y: va_sp}) validate_loss_.append(validate_loss) Esta es la pérdida de entrenamiento y la pérdida de validación: Mi pregunta es si mi código de […]

Normalizando las Recompensas para Generar Retornos en el aprendizaje por refuerzo

La pregunta es acerca de la vainilla, el aprendizaje de refuerzo no por lotes . Básicamente lo que se define aquí en el libro de Sutton . Mi modelo entrena, (¡woohoo!) Aunque hay un elemento que me confunde. Fondo: En un entorno donde la duración es recompensada (como el equilibrio de polos), tenemos recompensas de […]

Upweight una categoría en Tensorflow

He construido un modelo de Tensorflow que usa un DNNClassifier para clasificar la entrada en dos categorías. Mi problema es que el Resultado 1 ocurre más del 90-95% del tiempo. Por lo tanto, Tensorflow me está dando las mismas probabilidades para todas mis predicciones. Estoy tratando de predecir el otro resultado (por ejemplo, es preferible […]

Api de detección de objetos TensorFlow: la clasificación de pesos se inicializa al cambiar el número de clases en el entrenamiento utilizando modelos pre-entrenados

Quiero utilizar no solo los pesos pre-entrenados del extractor de características, sino también los pesos pre-entrenados del clasificador / localización de las capas del mapa de características para el ajuste fino de los modelos de detección de objetos de flujo tensor (SSD) utilizando la API de detección de objetos de flujo tensor. Cuando mi nuevo […]

¿Qué hace la función tf.nn.embedding_lookup?

tf.nn.embedding_lookup(params, ids, partition_strategy=’mod’, name=None) No puedo entender el deber de esta función. ¿Es como una tabla de búsqueda? ¿Qué significa devolver los parámetros correspondientes a cada id (en ids)? Por ejemplo, en el modelo de skip-gram si usamos tf.nn.embedding_lookup(embeddings, train_inputs) , entonces, ¿para cada train_input encuentra la correspondiente incrustación?

¿Cómo entender el término `tensor` en TensorFlow?

Soy nuevo en TensorFlow. Mientras estoy leyendo la documentación existente, encontré el término tensor realmente confuso. Por eso, necesito aclarar las siguientes preguntas: ¿Cuál es la relación entre tensor y Variable , tensor vs. tf.constant , ‘tensor’ vs. tf.placeholder ? ¿Son todos los tipos de tensores?