Estoy intentando almacenar los resultados de más de una araña en tablas separadas en MySQL

Aquí está mi pipelines.py. Tengo dos arañas, una llamada bristol.py y una bath.py. Cuando ejecuto ‘scrapy crawl bristol’, automáticamente se agregan los resultados a mi base de datos MySQL en la tabla llamada ‘Bristol’. Quiero ejecutar ‘srapy crawl bath’ y poder almacenar los resultados en la base de datos MySQL con el nombre de tabla ‘Bath’. He intentado agregar exactamente la misma línea de código para la tabla ‘Bristol’ pero recibo un error. Este es el código que he intentado colocar directamente debajo del primer self.cursor.execute

self.cursor.execute("""INSERT INTO Bath(BathCountry, BathQualification) VALUES ('{0}', '{1}')""".format(item['BathCountry'], "".join([s.encode('utf8') for s in item['BathQualification']]))) 

Cuando bash esto, recibo un error, ¿hay alguna forma de hacerlo? Este es el error

  exceptions.KeyError: 'BathCountry' 

Gracias por su ayuda por adelantado.

 import sys import MySQLdb import MySQLdb.cursors import hashlib from scrapy.exceptions import DropItem from scrapy.http import Request class TestPipeline(object): def __init__(self): self.conn = MySQLdb.connect( user='user', passwd='password', db='db', host='host', charset='utf8', use_unicode=True ) self.cursor = self.conn.cursor() def process_item(self, item, spider): try: self.cursor.execute("""INSERT INTO Bristol(BristolCountry, BristolQualification) VALUES ('{0}', '{1}')""".format(item['BristolCountry'], "".join([s.encode('utf8') for s in item['BristolQualification']]))) self.conn.commit() return item except MySQLdb.Error as e: print "Error %d: %s" % (e.args[0], e.args[1])