Articles of aprendizaje automático

Cómo manejar Shift en el valor previsto

Implementé un modelo de pronóstico utilizando LSTM en Keras. El conjunto de datos está separado por 15 minutos y pronostico 12 pasos futuros. El modelo funciona bien para el problema. Pero hay un pequeño problema con el pronóstico realizado. Está mostrando un pequeño efecto de cambio. Para obtener una imagen más clara, consulte la figura […]

Calcula el gradiente de la función de pérdida de SVM

Estoy tratando de implementar la función de pérdida de SVM y su gradiente. Encontré algunos proyectos de ejemplo que implementan estos dos, pero no pude averiguar cómo pueden usar la función de pérdida al calcular el gradiente. Aquí está la fórmula de la función de pérdida: Lo que no puedo entender es que ¿cómo puedo […]

No se puede predecir la etiqueta para una sola imagen con VGG19 en Keras

Estoy usando el método de aprendizaje por transferencia para usar el modelo VGG19 entrenado en Keras de acuerdo con [este tutorial] ( https://towardsdatascience.com/keras-transfer-learning-for-beginners-6c9b8b7143e ). Muestra cómo entrenar el modelo pero NO cómo preparar imágenes de prueba para las predicciones. En la sección de comentarios dice: Obtenga una imagen, preprocese la imagen utilizando la misma función […]

Capa personalizada en Keras para idct

Estoy tratando de escribir una capa personalizada en Keras para IDCT (transformada de coseno discreta inversa) ya que no hay una función integrada en Keras para IDCT en comparación con DCT. Así que cuando escribo mi capa como: model = Sequential() model.add(Conv2D(512,1,activation=’relu’, input_shape= (8,8,64) )) model.add(Lambda( lambda x: get_2d_idct_tensor(x) ) ) donde mi función se […]

ValueError: xey deben ser del mismo tamaño

import numpy as np import pandas as pd import matplotlib.pyplot as pt data1 = pd.read_csv(‘stage1_labels.csv’) X = data1.iloc[:, :-1].values y = data1.iloc[:, 1].values from sklearn.preprocessing import LabelEncoder, OneHotEncoder label_X = LabelEncoder() X[:,0] = label_X.fit_transform(X[:,0]) encoder = OneHotEncoder(categorical_features = [0]) X = encoder.fit_transform(X).toarray() from sklearn.cross_validation import train_test_split X_train, X_test, y_train,y_test = train_test_split(X, y, test_size = 0.4, […]

¿Cómo funciona mask_zero en la capa de incrustación Keras?

Pensé que mask_zero=True producirá 0 cuando el valor de entrada sea 0, por lo que las siguientes capas podrían omitir el cálculo o algo así. ¿Cómo funciona mask_zero ? Ejemplo: data_in = np.array([ [1, 2, 0, 0] ]) data_in.shape >>> (1, 4) # model x = Input(shape=(4,)) e = Embedding(5, 5, mask_zero=True)(x) m = Model(inputs=x, […]

error en la secuencia de comandos de Python “Se esperaba una matriz 2D, en su lugar se obtuvo una matriz 1D:”?

Estoy siguiendo este tutorial para hacer esta predicción de ML: Tutorial de enlaces import numpy as np import matplotlib.pyplot as plt from matplotlib import style style.use(“ggplot”) from sklearn import svm x = [1, 5, 1.5, 8, 1, 9] y = [2, 8, 1.8, 8, 0.6, 11] plt.scatter(x,y) plt.show() X = np.array([[1,2], [5,8], [1.5,1.8], [8,8], [1,0.6], […]

La entrada de la capa densa de Keras no se aplana.

Este es mi código de prueba: from keras import layers input1 = layers.Input((2,3)) output = layers.Dense(4)(input1) print(output) La salida es: Pero, ¿qué pasa? La documentación dice: Nota: si la entrada a la capa tiene un rango mayor que 2, entonces se aplana antes del producto de punto inicial con el kernel. ¿Mientras que la salida […]