Articles of extracto

extraer texto específico utilizando expresiones múltiples en python?

Tengo un problema con el uso de expresiones regulares en python 3, así que me alegraría que alguien me ayudara. Tengo un archivo de texto como el siguiente: Header A text text text text Header B text text text text Header C text text here is the end Lo que me gustaría hacer es tener […]

¿Extraer y analizar HTML de un sitio web seguro con Python?

Vamos a sumergirnos en esto, ¿vale? Ok, necesito escribir un guión (no me importa qué idioma, prefiero algo como Python o Javascript, pero lo que funcione me tomará tiempo para aprender). La secuencia de comandos accederá a varias URL, extraerá el texto de cada sitio y lo almacenará en una carpeta en mi PC. (Desde […]

Extraer datos de las líneas de un archivo de texto

Necesito extraer datos de las líneas de un archivo de texto. Los datos son información de nombre y puntuación con este formato: Shyvana – 12/4/5 – Loss – 2012-11-22 Fizz – 12/4/5 – Win – 2012-11-22 Miss Fortune – 12/4/3 – Win – 2012-11-22 Este archivo es generado por otra parte de mi pequeño progtwig […]

Extraiga parte de los datos del archivo JSON con python

He estado tratando de extraer solo ciertos datos de un archivo JSON. Logré decodificar el JSON y obtener los datos deseados en un dict de python. Cuando imprimo el dictado, muestra todos los datos deseados, pero cuando bash escribir el dictado en un nuevo archivo, solo se escribe el último objeto. Una cosa que no […]

Extraer la cadena entre paréntesis – PYTHON

Tengo una cadena “Nombre (algo)” y estoy tratando de extraer la parte de la cadena entre paréntesis! He probado las siguientes soluciones, pero no parece estar obteniendo los resultados que estoy buscando. n.split(‘()’) name, something = n.split(‘()’)

Extraiga la URL y sus nombres de un archivo html almacenado en el disco e imprímalos respectivamente – Python

Estoy intentando extraer e imprimir las URL y su nombre (entre NAME existente en un archivo html (guardado en el disco) sin usar BeautifulSoup u otra biblioteca. Solo un Código Python para principiantes. El formato de impresión deseado es: http://..filepath/filename.pdf File’s Name so on… Pude extraer e imprimir todas las direcciones URL o todos los […]

¿Cómo extraer las primeras y últimas palabras de una cadena?

Tengo un pequeño problema con algo que necesito hacer en la escuela … Mi tarea es obtener una cadena de entrada sin procesar de un usuario ( text = raw_input() ) y necesito imprimir la primera y la última palabra de esa cadena. ¿Puede alguien ayudarme con eso? He estado buscando una respuesta todo el […]

extracción de filas desde un archivo CSV basado en palabras clave específicas

introduzca la descripción de la imagen aquí. He creado un código para ayudarme a recuperar los datos del archivo csv. import re keywords = {“metal”, “energy”, “team”, “sheet”, “solar” “financial”, “transportation”, “electrical”, “scientists”, “electronic”, “workers”} # all your keywords keyre=re.compile(“energy”,re.IGNORECASE) with open(“2006-data-8-8-2016.csv”) as infile: with open(“new_data.csv”, “w”) as outfile: outfile.write(infile.readline()) # Save the header for […]

zipfile.BadZipFile: error CRC-32 al extraer una contraseña protegida .zip & .zip se daña en el extracto

Estoy tratando de extraer un .zip protegido por contraseña que tiene un documento .txt (Diga Congrats.txt para este caso). Ahora Congrats.txt tiene texto, por lo tanto no tiene un tamaño de 0kb. Se coloca en un .zip (por el bien del hilo permite nombrar este .zip zipv1.zip ) con la contraseña dominique por el bien […]

Cómo extraer el nombre de dominio de nivel superior (TLD) de la URL

¿Cómo extraería el nombre de dominio de una URL, excluyendo cualquier subdominio? Mi primer bash simplista fue: ‘.’.join(urlparse.urlparse(url).netloc.split(‘.’)[-2:]) Esto funciona para http://www.foo.com , pero no para http://www.foo.com.au . ¿Hay alguna manera de hacer esto correctamente sin usar conocimientos especiales sobre TLD válidos (Dominios de nivel superior) o códigos de país (porque cambian)? Gracias