[MUSIC] A continuación, haremos un ejemplo final, demostrando quizás lo que todos deseábamos tener cuando estábamos estudiando, un generador automático de resúmenes. Para esto, vamos a utilizar la librerÃa Transformers y la librerÃa Torch. Acá está la instalación, cómo se puede hacer. Con esto, you vamos a tener todo lo necesario para ejecutar el código que se ve a continuación. Hacemos la importación de transformer de un pipeline. Y acá generamos nuestro primer proceso de entrenamiento heredado. Es decir, tomamos el entrenamiento generado, en este caso por el equipo de Hugging Face. Que pone a disposición en un repositorio público muchÃsimos entrenamientos no solamente hechos por ellos, sino que es un repositorio hoy por hoy a nivel global. Con lo cual cualquier persona puede subir su entrenamiento y dejarlo a disposición para la comunidad de procesamiento del lenguaje natural. Acá tenemos uno de los tantos repositorios, en este caso es traÃdo de Facebook. Y para la condición de summarizier. Acá vemos que al ejecutar el pipeline, lo único que estamos haciendo es bajando del repositorio que, por defecto, you lo toma, porque Transformers fue escrito por Hugging Face. Lo que nosotros vamos a tener es, bajamos todo nuestro entrenamiento y no tenemos que hacer más nada. El tiempo que nos lleva es el tiempo en bajar esto. you tenemos todo listo y todo lo necesario en nuestras computadoras para empezar a trabajar. Luego, tomamos un artÃculo. El primer ejemplo lo vamos a hacer en inglés, después lo vamos a hacer en español. Tomamos un artÃculo de Wikipedia donde es el comienzo de lo que detalla la página de procesamiento de lenguaje natural en inglés. Generamos el modelo. FÃjense, sumarize, que fue el objeto donde recibimos todo el pipeline, [COUGH] le damos el artÃculo. Y le decimos simplemente puede estar o no puede estar esta configuración, pero como máximo 150 caracteres, como mÃnimo 20 de este resumen que estamos teniendo. Lo ejecutamos y después vemos el resultado obtenido. Guardamos en resume. Acá simplemente nos da una lista. Y después nos da adentro de la lista un diccionario, con lo cual por eso se está llamando de esta forma. Pero el resultado es lo que vemos acá arriba. Acá tenemos el resumen de todo este texto. Lo que uno puede hacer con los parámetros que se le pasa a sumarizer es darle más longitud, menos longitud. Pero en términos simples, estamos viendo un resumen apropiado de un texto dado. Por otra parte, podemos hacer el mismo ejemplo. Le vamos a dar una rosca a esto. Todos estos ejemplos y todo este modelo han sido han sido extraÃdos de Hugging Face. Ellos ponen a disposición un montón de ejemplos para que uno los pueda ver y uno pueda trabajar con ellos. Los hemos adaptado para trabajar en este curso. Asà que, bueno, acá tenemos en español. Importamos los modelos, tomamos el artÃculo. Ahora es la misma página pero de la versión en español. Obtenemos el entrenamiento. Acá es importante ver que el entrenamiento está hecho con un cuerpo de documentos en español. Esta persona, que puso a disposición un montón de entrenamientos en lenguaje español. Es el que da para varios temas en el repositorio de Hugging Face procesamiento del lenguaje natural, modelos you preentrenados en español. Hay en ruso, hay en chino, hay en alemán, hay en portugués, hay en el idioma que uno quiera encontrar. Bien, volvemos. Simplemente bajamos. Terminamos de tomar todo el entrenamiento. Acá lo único que estamos diciendo que yo voy a usar la CPU. No tengo una GPU disponible en el equipo en el que estoy trabajando. Y acá lo que hacemos, la misma configuración en vez de hacerla simple como la que tenÃamos en este caso, la hacemos un tanto más sofisticada. Poniéndole la máxima longitud, diciéndole que vamos a utilizar el CPU. El concepto de atención, como habÃamos dicho que es central en los transformers. Le decimos que saltee los tokens de especiales, los signos de admiración, los signos de pregunta y demás. Y que se genere el modelo. Nosotros generamos simplemente una función donde recibe un texto a analizar y devuelve el resumen. Y acá simplemente lo estamos invocando. Obtener resumen, artÃculo, que era el script del stream que tenÃamos acá. Y como resultado nos dice, la comprensión del lenguaje natural, abreviado PLN 3 en inglés, se enfoca en la comprensión de lenguajes, listo. you tenemos hecho nuestro modelo. [MUSIC] Acá tenemos dos ejemplos de cómo hacer un resumen completo. Y trabajando con algo muy importante para simplificar nuestro tiempo que es el entrenamiento heredado. Con esto damos por finalizado este ejemplo. [MUSIC]