Ir al contenido principal

Comprendiendo el lenguaje humano a través del procesamiento del lenguaje natural: técnicas y algoritmos clave

Introducción El procesamiento del lenguaje natural es una rama de la informática que se centra en la comprensión y el procesamiento del lenguaje humano por parte de las máquinas. A través del uso de técnicas y algoritmos especializados, el procesamiento del lenguaje natural nos permite interactuar con las máquinas a través del lenguaje natural, como lo hacemos con otras personas. El procesamiento del lenguaje natural tiene una amplia gama de aplicaciones, desde el análisis de sentimiento en redes sociales hasta la traducción automática y el procesamiento de consultas de búsqueda. Esta tecnología ha revolucionado la forma en que nos comunicamos y accedemos a la información, y su importancia solo ha ido en aumento con el tiempo. A lo largo de los años, el procesamiento del lenguaje natural ha evolucionado gracias a avances en técnicas y algoritmos. En este artículo, exploraremos las técnicas y algoritmos clave que se utilizan en el procesamiento del lenguaje natural y cómo juegan un pape...

Avanzando en la detección del lenguaje ofensivo en español



SHARE y OffendES_spans: dos nuevos recursos para combatir el lenguaje ofensivo textual.


Durante la charla se presentarán dos recursos lingüísticos recientemente generados que serán clave para avanzar en la investigación del lenguaje ofensivo en español: SHARE y OffendES_spans. 

SHARE es un recurso léxico con más de 10.000 términos y expresiones ofensivas por parte de la comunidad de hispanohablantes. Para el desarrollo de este recurso se ha utilizado Fiero, un popular chatbot desarrollado para entablar una conversación con los usuarios y recoger insultos y expresiones a través de la plataforma de mensajería de Telegram. Este vocabulario fue etiquetado manualmente por cinco anotadoras obteniendo un coeficiente kappa del 78,8%. 

La generación de SHARE ha permitido liberar el primer corpus en español para el reconocimiento de entidades ofensivas, llamado OffendES_spans, cuya evaluación se ha llevado a cabo a través del desarrollo de uno de los primeros sistemas computacionales en español para la detección de posibles entidades ofensivas incluidas en textos de redes sociales, llegando a obtener un 91% de precisión. 

Por último, se mostrará la utilidad del recurso SHARE como herramienta de apoyo a la interpretabilidad del lenguaje ofensivo en los sistemas computacionales.


Paper: http://www.lrec-conf.org/proceedings/lrec2022/pdf/2022.lrec-1.139.pdf.

Fecha y hora: 28 de julio a las 18.00h CET

Flor Miriam Plaza del Arco


Flor Miriam Plaza del Arco es titulada en Ingeniera Informática por la Universidad de Jaén. Actualmente, es FPI en el grupo SINAI de la Universidad de Jaén. Es miembro de la Sociedad Española para el Procesamiento del Lenguaje Natural, la red PLN.net y la comunidad DiverTLes.

Sus intereses científicos versan en una de las principales áreas de la Inteligencia Artificial, el Procesamiento del Lenguaje Natural, siendo su especialidad la detección del discurso de odio y el análisis de emociones en las redes sociales.

Ha sido citada en más de 300 de investigaciones y ha participado en diferentes proyectos de I+D relacionados con el PLN, destacando principalmente un proyecto para la ayudar a la detección temprana de lenguaje ofensivo en redes sociales entre los más jóvenes, financiado por la Dirección General de Violencia de Género, Igualdad de Trato y Diversidad de la Junta de Andalucía.

Ha realizado varias estancias de investigación, en 2019 en el centro de investigación Bruno Kessler Institute (Italia) y en el año 2021, en el Institute for Natural Language Processing de la Universidad de Stuttgart (Alemania).

Por último, ha sido galardonada con numerosos premios de investigación, destacando el primer premio del hackathon “Neologismos y tecnicismos en el ámbito energético y medioambiental” de la RAE y Fundación Endesa y el primer premio provincial en la II Edición del Concurso "Tu Tesis Doctoral en un Hilo de Twitter: #HiloTesis” de la Fundación Española para la ciencia y la tecnología.

Comentarios

Entradas populares de este blog

MarIA: El primer modelo de IA masivo de la lengua española

Estos días atrás se ha hablado mucho sobre MarIA, el nuevo modelo de lenguaje en español del Barcelona Supercomputing Center : Nos gustaría recoger en este artículo, extraído de un post escrito por Carmen Torrijos en LinkedIn, algunos datos rápidos: Corpus inicial: 59TB de texto web de los archivos de la Biblioteca Nacional de España. Tiempo de procesamiento para limpiar el corpus: 6.910.000 horas. Corpus limpio sin duplicidades: 201.080.084 documentos limpios (570 GB). Número de tokens: 135.733.450.668 (dato muy NLP). Tiempo de procesamiento para entrenar el modelo: 184.000 horas de procesador y 18.000 horas de CPU. Número de parámetros de los modelos liberados: 125.000.000 y 355.000.000. Y 5 conclusiones: El corpus de texto supera en órdenes de magnitud el tamaño de los existentes hasta el momento en español. Un proyecto así es inaccesible a nivel de empresa o grupo de investigación, debido no ya al acceso al corpus sino a la capacidad de computación necesaria. Es un modelo generali...

Recomendación del mes de octubre: Mastering Spacy

  La recomendación de este mes de octubre ha estado reñida pero finalmente hemos elegido una guía práctica para implementar NLP usando la librería de "fortaleza industrial" (tal y como la definen sus creadores) de nombre spaCy . Mastering spaCy Es un libro reciente. Fue publicado en julio del 2021 y cuenta con 356 páginas. Se divide en tres grandes secciones: Getting Started with spaCy : En esta sección se explica cómo instalar la librería, los modelos estadísticos y la herramienta de visualización llamada displaCy . spaCy Features : Donde se centra en las características lingüísticas desde la sintaxis a la semántica, incluye recetas prácticas usando coincidencia de patrones basados en reglas y ahonda en los vectores de palabras y los métodos estadísticos de extracción de información. La sección acaba poniendo en práctica todos estos conceptos en una pipeline NLP. Machine Learning with spaCy : La última sección explica cómo usar el aprendizaje automático con spaCy . C...