Pandas dataframe read_csv en datos malos

Quiero leer en un csv muy grande (no se puede abrir en Excel y editar fácilmente) pero en algún lugar alrededor de la fila 100,000, hay una fila con una columna adicional que hace que el progtwig se bloquee. Esta fila tiene errores, por lo que necesito una forma de ignorar el hecho de que era una columna adicional. Hay alrededor de 50 columnas, por lo que no es preferible codificar los encabezados y utilizar nombres o controles de usuario. También es posible que encuentre este problema en otros csv y quiera una solución genérica. No pude encontrar nada en read_csv desafortunadamente. El código es tan simple como esto:

def loadCSV(filePath): dataframe = pd.read_csv(filePath, index_col=False, encoding='iso-8859-1', nrows=1000) datakeys = dataframe.keys(); return dataframe, datakeys 

pass error_bad_lines=False para omitir filas erróneas:

error_bad_lines: booleano, las líneas verdaderas predeterminadas con demasiados campos (por ejemplo, una línea csv con demasiadas comas) provocarán de forma predeterminada una excepción y no se devolverá ningún DataFrame. Si es False, estas “líneas erróneas” se eliminarán del DataFrame que se devuelve. (Solo válido con C parser)