Articles of stanford nlp

Uso de StanfordParser para obtener dependencias escritas a partir de una oración analizada

Usando el StanfordParser de NLTK, puedo analizar una oración como esta: os.environ[‘STANFORD_PARSER’] = ‘C:\jars’ os.environ[‘STANFORD_MODELS’] = ‘C:\jars’ os.environ[‘JAVAHOME’] =’C:\ProgramData\Oracle\Java\javapath’ parser = stanford.StanfordParser(model_path=”C:\jars\englishPCFG.ser.gz”) sentences = parser.parse((“bring me a red ball”,)) for sentence in sentences: sentence El resultado es: Tree(‘ROOT’, [Tree(‘S’, [Tree(‘VP’, [Tree(‘VB’, [‘Bring’]), Tree(‘NP’, [Tree(‘DT’, [‘a’]), Tree(‘NN’, [‘red’])]), Tree(‘NP’, [Tree(‘NN’, [‘ball’])])]), Tree(‘.’, [‘.’])])]) ¿Cómo puedo usar […]

Stanford Universal Dependencies en Python NLTK

¿Hay alguna manera de obtener las dependencias universales usando python, o nltk? Solo puedo producir el árbol de análisis. Ejemplo: Frase de entrada: My dog also likes eating sausage. Salida: Universal dependencies nmod:poss(dog-2, My-1) nsubj(likes-4, dog-2) advmod(likes-4, also-3) root(ROOT-0, likes-4) xcomp(likes-4, eating-5) dobj(eating-5, sausage-6)

Configuración de NLTK con Stanford NLP (tanto StanfordNERTagger como StanfordPOSTagger) para español

La documentación de NLTK es bastante pobre en esta integración. Los pasos que seguí fueron: Descargue http://nlp.stanford.edu/software/stanford-postagger-full-2015-04-20.zip en /home/me/stanford Descargue http://nlp.stanford.edu/software/stanford-spanish-corenlp-2015-01-08-models.jar en /home/me/stanford Luego en una consola ipython : En [11]: importar nltk In [12]: nltk.__version__ Out[12]: ‘3.1’ In [13]: from nltk.tag import StanfordNERTagger Entonces st = StanfordNERTagger(‘/home/me/stanford/stanford-postagger-full-2015-04-20.zip’, ‘/home/me/stanford/stanford-spanish-corenlp-2015-01-08-models.jar’) Pero cuando intenté ejecutarlo: st.tag(‘Adolfo se […]

No se puede hacer que el etiquetador de POS de Stanford funcione en nltk

Estoy tratando de trabajar con el etiquetador POS de Stanford dentro de NLTK. Estoy usando el ejemplo que se muestra aquí: http://www.nltk.org/api/nltk.tag.html#module-nltk.tag.stanford Soy capaz de cargar todo sin problemas: >>> import os >>> from nltk.tag import StanfordPOSTagger >>> os.environ[‘STANFORD_MODELS’] = ‘/path/to/stanford/folder/models’) >>> st = StanfordPOSTagger(‘english-bidirectional-distsim.tagger’,path_to_jar=’/path/to/stanford/folder/stanford-postagger.jar’) pero en la primera ejecución: >>> st.tag(‘What is the airspeed […]

NLTK no pudo encontrar stanford-postagger.jar! Establecer la variable de entorno CLASSPATH

Estoy trabajando en un proyecto que me obliga a etiquetar tokens utilizando nltk y python. Así que quise usar esto. Pero surgieron algunos problemas. Pasé por muchas otras preguntas ya hechas y otros foros, pero todavía no podía obtener una solución a este problema. El problema es cuando bash ejecutar lo siguiente: from nltk.tag import […]

stanford corenlp no funciona

Estoy usando Windows 8 y ejecutando python en eclipse con pyDev. Instalé Stanford coreNLP (versión de python) desde el sitio: https://github.com/relwell/stanford-corenlp-python Cuando bash importar corenlp, aparece el siguiente mensaje de error. Traceback (most recent call last): File “C:\Users\Ghantauke\workspace\PythonTest2\test.py”, line 1, in import corenlp File “C:\Python27\lib\site-packages\corenlp\__init__.py”, line 13, in from corenlp import StanfordCoreNLP, ParserError, TimeoutError, ProcessError […]

Fragmento de código NLTK de Python para entrenar a un clasificador (bayes ingenuos) usando la función de frecuencia

Me preguntaba si alguien podría ayudarme a través de un fragmento de código que demuestre cómo entrenar al clasificador Naive Bayes utilizando un método de frecuencia de características en lugar de presencia de características. Supongo que a continuación, como se muestra en el Capítulo 6, el texto del enlace se refiere a la creación de […]

NLTK Stanford Segmentor, cómo configurar CLASSPATH

Estoy tratando de usar el bit Stanford Segementer del paquete NLTK Tokenize. Sin embargo, me encuentro con problemas tratando de usar el conjunto de prueba básico. Ejecutando lo siguiente: # -*- coding: utf-8 -*- from nltk.tokenize.stanford_segmenter import StanfordSegmenter seg = StanfordSegmenter() seg.default_config(‘zh’) sent = u’这是斯坦福中文分词器测试’ print(seg.segment(sent)) Resultados en este error: Llegué a agregar … import […]

TypeError: DataType float32 para attr ‘Tindices’ no en la lista de valores permitidos: int32, int64

Estoy haciendo el curso CS224n de Stanford. Recibo un error en la asignación2 q2_parser_model.py en mi analizador de dependencias == Initializing== Loading data… took 2.17 seconds Building parser… took 0.04 seconds Loading pretrained embeddings… took 2.16 seconds Vectorizing data… took 0.06 seconds Preprocessing training data… 1000/1000 [==============================] – 1s Building model… Traceback (most recent call […]

verificar si una oración es gtwigticalmente correcta usando el analizador de stanford

¿Hay algún método para verificar si una oración es gtwigticalmente correcta o no usa el analizador de stanford? A partir de ahora puedo obtener el árbol de análisis de una oración utilizando el analizador de stanford. Me quedé atascado aquí y no sé cómo seguir adelante.