Ir al contenido principal

Comprendiendo el lenguaje humano a través del procesamiento del lenguaje natural: técnicas y algoritmos clave

Introducción El procesamiento del lenguaje natural es una rama de la informática que se centra en la comprensión y el procesamiento del lenguaje humano por parte de las máquinas. A través del uso de técnicas y algoritmos especializados, el procesamiento del lenguaje natural nos permite interactuar con las máquinas a través del lenguaje natural, como lo hacemos con otras personas. El procesamiento del lenguaje natural tiene una amplia gama de aplicaciones, desde el análisis de sentimiento en redes sociales hasta la traducción automática y el procesamiento de consultas de búsqueda. Esta tecnología ha revolucionado la forma en que nos comunicamos y accedemos a la información, y su importancia solo ha ido en aumento con el tiempo. A lo largo de los años, el procesamiento del lenguaje natural ha evolucionado gracias a avances en técnicas y algoritmos. En este artículo, exploraremos las técnicas y algoritmos clave que se utilizan en el procesamiento del lenguaje natural y cómo juegan un pape

PLN centrado en tus datos con Rubrix


El lunes 15 de noviembre a las 18.00h Daniel Vila Suero nos presentará Rubrix, una herramienta libre y gratuita para crear, gestionar y cuidar tus datos de entrenamiento de una manera eficaz involucrando distintos perfiles en el desarrollo de modelos PLN: científicos de datos, lingüistas, expertos de dominio e ingenieros.

Rubrix, herramienta Python desarrollada por Recognai, es el resultado de casi 5 años desarrollando soluciones de PLN para empresas, contribuyendo a librerías de código abierto como spaCy o AllenNLP y publicando modelos pre-entrenados en Hugging Face como el reciente Selectra.

Pero ¿qué es Rubrix? ¿qué lo hace diferente? y, sobre todo, ¿para qué lo necesitas? Todas estas preguntas (y cualquier otra que se os ocurra), las intentaremos resolver a través de ejemplos prácticos, con modelos y datos en español. En cualquier caso, si antes de apuntarte quieres saber un poco más, sigue leyendo.

Con modelos del lenguaje cada vez más potentes y accesibles es más fácil que nunca construir tus propias soluciones de PLN. Plataformas y herramientas, como el Hub de Hugging Face o Weights & Biases, permiten entrenar y experimentar con los últimos modelos del estado del arte. Sin embargo, hay una cuestión fundamental que sigue abierta: ¿cómo construir, evaluar y mantener los datos para entrenar y mejorar estos modelos para tu propio dominio? La realidad es que para evolucionar una solución PLN más tarde o más temprano necesitas ajustar tus modelos al problema concreto que quieres resolver (y no dejar de hacerlo a lo largo del tiempo). Además, esta cuestión se hace todavía más relevante cuando no haces PLN en inglés, debido a la escasez de conjuntos de datos y modelos pre-entrenados. Por todo esto y porque lo dice Andrew Ng, apúntate a la charla y aprende cómo construir modelos PLN en español de una manera eficaz, sostenible y puede que hasta divertida.

Daniel Vila Suero

Es cofundador de Recognai, empresa española especializada en procesamiento del lenguaje natural para empresas con clientes en España y Europa. En 2017, Daniel dejó la Universidad Politécnica de Madrid, donde trabajaba como investigador en tecnologías del lenguaje e Inteligencia Artificial, para lanzar Recognai. En la UPM, su trabajo en proyectos como la publicación del grafo de conocimiento de la Biblioteca Nacional de España fue clave para entender la importancia de involucrar distintos perfiles en la creación y mantenimiento de datos, idea fundamental detrás de Rubrix, la herramienta abierta desarrollada por Recognai. Además, Daniel y su equipo han contribuido y contribuyen a distintos proyectos de código abierto, como por ejemplo los primeros modelos en español para spaCy (allá por 2017) o el más reciente modelo del lenguaje Selectra (Spanish Electra) en Hugging Face.

Comentarios

Entradas populares de este blog

MarIA: El primer modelo de IA masivo de la lengua española

Estos días atrás se ha hablado mucho sobre MarIA, el nuevo modelo de lenguaje en español del Barcelona Supercomputing Center : Nos gustaría recoger en este artículo, extraído de un post escrito por Carmen Torrijos en LinkedIn, algunos datos rápidos: Corpus inicial: 59TB de texto web de los archivos de la Biblioteca Nacional de España. Tiempo de procesamiento para limpiar el corpus: 6.910.000 horas. Corpus limpio sin duplicidades: 201.080.084 documentos limpios (570 GB). Número de tokens: 135.733.450.668 (dato muy NLP). Tiempo de procesamiento para entrenar el modelo: 184.000 horas de procesador y 18.000 horas de CPU. Número de parámetros de los modelos liberados: 125.000.000 y 355.000.000. Y 5 conclusiones: El corpus de texto supera en órdenes de magnitud el tamaño de los existentes hasta el momento en español. Un proyecto así es inaccesible a nivel de empresa o grupo de investigación, debido no ya al acceso al corpus sino a la capacidad de computación necesaria. Es un modelo generali

NLP en español es PLN: Recopilación de artículos introductorios y cursos de PLN en español

El Procesamiento del Lenguaje Natural, o PLN para simplificar, es una rama de la inteligencia artificial y la lingüística aplicada. A nuestro parecer un área muy interesante que conjuga humanidades con la tecnología más puntera. Para que luego digan que hay que elegir entre ciencias o humanidades. Un O exclusivo que nos han inculcado y que no puede estar tan equivocado. En este artículo recopilatorio queríamos poner nuestro granito de arena para ayudar a todos aquellos interesados en el PLN (o NLP si se prefiere aunque La Fundéu no estaría muy contenta ) pero que no están tan familiarizados con las herramientas técnicas que permiten procesar el lenguaje o cómo darle utilidad a los conocimientos tan valiosos sobre lingüística de una manera práctica. La principal diferencia de este artículo con otros es que vamos a intentar que los recursos presentados sirvan o pongan de ejemplo el procesamiento del español, segunda lengua materna más hablada en el mundo después del chino pero que tiene

Cómo ajustar tu propio modelo de lenguaje generativo

¿Has oído hablar de GPT2, GPT3 u OPT? Estos son algunos de los modelos generativos de lenguaje más conocidos y utilizados a día de hoy, con aplicaciones en múltiples ámbitos como chatbots, question answering o autocompleción, entre otros. La generación del lenguaje natural es uno de los subcampos del PLN que más ha evolucionado en los últimos años gracias a los grandes volúmenes de datos disponibles y al aumento en la capacidad de cómputo. Son múltiples las empresas que compiten por construir modelos que sean capaces de simular con mayor precisión la escritura humana, contribuyendo a su vez a la democratización del PLN haciendo públicos estos modelos. No obstante, en la mayoría de los casos prácticos, no será suficiente utilizar estos modelos pre-entrenados de forma directa, sino que será necesario adaptarlos al ámbito lingüístico o a la tarea que queramos abordar. En esta charla, te explicaremos los conceptos básicos subyacentes a estos modelos, además de cómo utilizar estos modelos