Articles of xgboost

Xgboost funciona en pycharm pero no en Jupyter NoteBook

He instalado con éxito Xgboost en Windows con Pycharm Python, y está funcionando. Sin embargo, en Jupyter NoteBook, no está funcionando. import xgboost as xgb —> 12 import xgboost as xgb ModuleNotFoundError: No module named ‘xgboost’ En Jupyter el paquete xgboost está en: > !pip install xgboost Requisito ya cumplido: xgboost en c: \ users […]

La Predicción de Xgboost es diferente para C ++ y Python para el mismo modelo

He entrenado un modelo en Python usando el siguiente código (no usé un conjunto de prueba para este ejemplo, estaba entrenando y prediciendo usando el mismo conjunto de datos, para facilitar la ilustración del problema): params = {‘learning_rate’:0.1,’obj’:’binary:logistic’,’n_estimators’:250, ‘scale_pos_weight’:0.2, ‘max_depth’ : 15, ‘min_weight’ : 1, ‘colsample_bytree’ : 1, ‘gamma’ : 0.1, ‘subsample’:0.95} X = np.array(trainingData,dtype […]

¿Cómo obtener predicciones con XGBoost y XGBoost utilizando Scikit-Learn Wrapper para que coincida?

Soy nuevo en XGBoost en Python, así que me disculpo si la respuesta aquí es obvia, pero estoy tratando de tomar un dataframe de panda y obtener XGBoost en Python para darme las mismas predicciones que obtengo cuando uso el contenedor Scikit-Learn para el mismo ejercicio. Hasta ahora no he podido hacerlo. Solo para dar […]

La diferencia de XGBoost en las funciones de tren y prueba después de convertir a DMatrix

Solo me pregunto como es posible el siguiente caso: def fit(self, train, target): xgtrain = xgb.DMatrix(train, label=target, missing=np.nan) self.model = xgb.train(self.params, xgtrain, self.num_rounds) Pasé el conjunto de datos del tren como csr_matrix con 5233 columnas, y después de convertir a DMatrix obtuve 5322 características. Más adelante, predice el paso, obtuve un error como la causa […]

clasificación multiclase en xgboost (python)

No puedo averiguar cómo pasar el número de clases o métrica eval a xgb.XGBClassifier con la función objective ‘multi: softmax’. Miré muchas documentaciones pero la única charla sobre el contenedor sklearn que acepta n_class / num_class. Mi configuración actual se ve como kf = cross_validation.KFold(y_data.shape[0], \ n_folds=10, shuffle=True, random_state=30) err = [] # to hold […]

¿Cómo se calcula la puntuación de la característica (/ importancia) en el paquete XGBoost?

El comando xgb.importance devuelve un gráfico de la importancia de la característica medida por una puntuación f . ¿Qué representa esta puntuación f y cómo se calcula? Salida: Gráfico de importancia de la característica

XGBoost CV y ​​mejor iteración.

Estoy usando XGBoost cv para encontrar el número óptimo de rondas para mi modelo. Estaría muy agradecido si alguien pudiera confirmar (o refutar), el número óptimo de rondas es: estop = 40 res = xgb.cv(params, dvisibletrain, num_boost_round=1000000000, nfold=5, early_stopping_rounds=estop, seed=SEED, stratified=True) best_nrounds = res.shape[0] – estop best_nrounds = int(best_nrounds / 0.8) es decir: el número […]

Python Xgboost continuar la formación sobre el modelo existente

Digamos que construyo un modelo xgboost: bst = xgb.train(param0, dtrain1, num_round, evals=[(dtrain, “training”)]) Dónde: param0 es un conjunto de parámetros a xgb, dtrain1 es un DMatrix listo para ser entrenado num_round es el número de rondas Luego, guardo el modelo en el disco: bst.save_model(“xgbmodel”) Más adelante, quiero volver a cargar el modelo que guardé y […]

¿Cómo instalar xgboost en python en MacOS?

Soy un novato y aprendiendo python. ¿Puede alguien ayudarme? ¿Cómo instalar xgboost en python? Estoy usando Mac 10.11. Leí en línea e hice el siguiente paso, pero no pude descifrar qué hacer a continuación: pip install xgboost –

¿Xg boost para la clasificación multilabel?

¿Es posible usar xgboost para la clasificación multilabel? Ahora uso OneVsRestClassifier sobre GradientBoostingClassifier de sklearn. Funciona, pero usa solo un núcleo de mi CPU. En mis datos tengo ~ 45 características y la tarea es predecir unas 20 columnas con datos binarios (booleanos). La métrica es la media de la precisión (mapa @ 7). Si […]