Tren scikit svm uno por uno (entrenamiento en línea o estocástico)

Estoy usando la biblioteca de scikit para usar svm. Tengo una gran cantidad de datos que no puedo leer juntos para dar la función de fit() .
Quiero dar una iteración sobre todos mis datos que están en un archivo y entrenar a svm uno por uno. ¿Hay alguna manera de hacer esto? No está claro en la documentación y en su tutorial están dando datos completos para que fit a la vez.
¿Hay alguna forma de entrenarlo uno por uno (los medios pueden ser algo así como un fit para cada patrón de entrada de los datos de entrenamiento)?

Support Vector Machine (al menos como implementado en libsvm, del cual scikit-learn es una envoltura) es fundamentalmente un algoritmo por lotes: necesita tener acceso a todos los datos en la memoria a la vez. Por lo tanto no son escalables.

En su lugar, debe usar modelos que admitan el aprendizaje incremental con el método partial_fit . Por ejemplo, algunos modelos lineales como sklearn.linear_model.SGDClassifier admiten el método partial_fit . Puede dividir su conjunto de datos y cargarlo como una secuencia de minibatches con forma (batch_size, n_features) . batch_size puede ser 1 pero no es eficiente debido a la sobrecarga del intérprete de python (+ la sobrecarga de carga de datos). Por eso se recomienda llevar muestras con minitaches de al menos 100.