Estoy utilizando el clasificador linearSVC de scikit-learn para la minería de textos. Tengo el valor y como etiqueta 0/1 y el valor X como TfidfVectorizer del documento de texto.
Yo uso una tubería como abajo
pipeline = Pipeline([ ('count_vectorizer', TfidfVectorizer(ngram_range=(1, 2))), ('classifier', LinearSVC()) ])
Para una predicción, me gustaría obtener el puntaje de confianza o la probabilidad de que un punto de datos se clasifique como 1 en el rango (0,1)
Actualmente utilizo la función de función de decisión
pipeline.decision_function(test_X)
Sin embargo, devuelve valores positivos y negativos que parecen indicar confianza. Tampoco estoy muy seguro de lo que significan.
Sin embargo, ¿hay una manera de obtener los valores en el rango 0-1?
Por ejemplo, aquí está la salida de la función de decisión para algunos de los puntos de datos
-0.40671879072078421, -0.40671879072078421, -0.64549376401063352, -0.40610652684648957, -0.40610652684648957, -0.64549376401063352, -0.64549376401063352, -0.5468745098794594, -0.33976011539714374, 0.36781572474117097, -0.094943829974515004, 0.37728641897721765, 0.2856211778200019, 0.11775493140003235, 0.19387473663623439, -0.062620918785563556, -0.17080866610522819, 0.61791016307670399, 0.33631340372946961, 0.87081276844501176, 1.026991628346146, 0.092097790098391641, -0.3266704728249083, 0.050368652422013376, -0.046834129250376291,
Usted no puede Sin embargo, puede usar sklearn.svm.SVC
con kernel='linear'
y probability=True
Puede durar más, pero puede obtener probabilidades de este clasificador utilizando el método predict_proba
.
clf=sklearn.svm.SVC(kernel='linear',probability=True) clf.fit(X,y) clf.predict_proba(X_test)
Si insiste en usar la clase LinearSVC, puede envolverlo en un objeto sklearn.calibration.CalibratedClassifierCV y ajustar el clasificador calibrado que le dará un clasificador probabilístico.
from sklearn.svm import LinearSVC from sklearn.calibration import CalibratedClassifierCV from sklearn import datasets #Load iris dataset iris = datasets.load_iris() X = iris.data[:, :2] # Using only two features y = iris.target #3 classes: 0, 1, 2 linear_svc = LinearSVC() #The base estimator # This is the calibrated classifier which can give probabilistic classifier calibrated_svc = CalibratedClassifierCV(linear_svc, method='sigmoid', #sigmoid will use Platt's scaling. Refer to documentation for other methods. cv=3) calibrated_svc.fit(X, y) # predict prediction_data = [[2.3, 5], [4, 7]] predicted_probs = calibrated_svc.predict_proba(prediction_data) #important to use predict_proba print predicted_probs
Aquí está la salida:
[[ 9.98626760e-01 1.27594869e-03 9.72912751e-05] [ 9.99578199e-01 1.79053170e-05 4.03895759e-04]]
que muestra las probabilidades para cada clase para cada punto de datos.