Cómo construir un rastreador de Python para sitios web utilizando oauth2

Soy nuevo en progtwigción web. Quiero crear un rastreador para rastrear el gráfico social en Foursquare por Python. Tengo un rastreador controlado “manualmente” utilizando la biblioteca apiv2 . El método principal es como:

 def main(): CODE = "******" url = "https://foursquare.com/oauth2/authenticate?client_id=****&response_type=code&redirect_uri=****" key = "***" secret = "****" re_uri = "***" auth = apiv2.FSAuthenticator(key, secret, re_uri) auth.set_token(code) finder = apiv2.UserFinder(auth) #DO SOME REQUIRES By USING THE FINDER finder.finde(ANY_USER_ID).mayorships() bla bla bla 

El problema es que, en este momento, tengo que escribir la URL en mi navegador y recoger el CÓDIGO de la URL de redirección, y luego actualizar el CÓDIGO en mi progtwig y volver a ejecutarlo. Creo que podría haber alguna forma de codificar el CÓDIGO para que avance en mi progtwig actual y lo haga automático.

Cualquier instrucción o código de muestra es apreciado.

Deberías revisar el módulo python-oauth2 . Parece ser la cosa más estable que hay.

En particular, esta publicación de blog tiene una muy buena idea de cómo hacer Oauth fácilmente con Python. El código de ejemplo utiliza la API de Foursquare, así que primero lo verificaría.

Hace poco tuve que empezar a trabajar con Dropbox y escribí este módulo que contiene los pasos necesarios para realizar un intercambio.

Para mi sistema, lo más simple que pude pensar fue en encurtir al cliente de Oauth. Mi paquete de blog simplemente deserializó el cliente encurtido y solicitó los puntos finales con la siguiente función:

 get = lambda x: client.request(x, 'GET')[1] 

Solo se asegura de que sus trabajadores tengan este objeto de cliente y usted debería estar listo 🙂

Obtenga su aplicación autenticada por oauth2 primero. Este es un ejemplo de cómo usar oauth para la autenticación de twitter. http://popdevelop.com/2010/07/anexample-on-how-to-use-oauth-and-python-to-connect-to-twitter/

Del mismo modo, puede encontrar más ejemplos en https://code.google.com

Luego puede usar BeautifulSoup o lxml para el análisis de HTML. Puede extraer los datos relevantes de la fuente de la página que obtendrá después de completar su solicitud.

Documentación de BeautifulSoup – http://www.crummy.com/software/BeautifulSoup/

Para descargar imágenes, videos, etc. puedes usar abridores. Lea más sobre los abridores en http://docs.python.org/library/urllib2.html

No tienes que hacerlo cada vez. Te darán un token que es bueno para X horas / día. Eventualmente obtendrá 403 código http y deberá volver a autenticarse.