Encontrada(s) 3728 página(s)
INFORMANTE 1 (LARANJEIRAS). AGRICULTURA. PRODUCTOS DERIVADOS
- Álvarez Pérez, Xosé Afonso (coord.)
INFLUENCE OF PROCESS PARAMETERS IN ADDITIVE MANUFACTURING OF HIGHLY REINFORCED 316L / SICP COMPOSITES
- Riquelme Aguado, Ainhoa
- SANCHEZ DE ROJAS CANDELA, CARMEN
- Rodrigo Herrero, Pilar
- Rams, Joaquin
INFORMANTE 1 (LOMEAR, RIOSECO). JUICIOS LINGÜÍSTICOS
- Álvarez Pérez, Xosé Afonso (coord.)
SIMFIN: SIMPLIFICADOR Y DETECTOR LÉXICO FINANCIERO AUTOMÁTICO (APLICACIÓN WEB EN PYTHON)
- Torterolo Orta, Yanco Amor
- Moreno-Sandoval, Antonio
Este proyecto se trata de un TFM enmarcado en las prácticas del alumno Yanco Amor Torterolo Orta en el LLI-UAM. Pertenece al proyecto CLARA-FINT, que se centra en el lenguaje claro. Más específicamente, se exploran diversas técnicas de simplificación en el ámbito financiero. Esto está motivado por la complejidad de la realidad financiera y la carga semántica especializada de sus texto. Por tanto, se antoja necesario simplificar para poder difundir el mensaje a un público más amplio.
SIMFIN es un programa que pretende cumplir esta finalidad mediante la simplificación léxica de los términos (referidos como "unidades terminológicas", "UT") del ámbito financiero. Consiste en una página web de acceso al público (http://leptis.lllf.uam.es/simfin) en la que el usuario introduce su texto financiero/económico. Tras ello, el programa le devuelve el mismo texto pero etiquetado con colores para destacar las UT. Algunas de las UT ofrecen en una ventana pop-up su versión simplificada al pinchar con el ratón sobre ellas (azul oscuro), lo cual ocurre cuando la sustitución es multipalabra; y otras muestran la UT por el que ha sido sustituido directamente (verde), lo cual ocurre cuando la sustitución directa es viable debido a que solo están formadas por una palabra. Adicionalmente, destaca en amarillo tanto las UT de las listas (que aún no tienen sustitución) como posibles UT debido a su estructura, y en azul turquesa los anglicismos y palabras inglesas. El programa cuenta con una leyenda y un texto de prueba a modo explicativo para entenderlo todo con un ejemplo práctico.
El dataset:
Por un lado, está la carpeta con todos los archivos y estructura necesarios para hacer funcionar el programa. Cuenta con los siguientes archivos: app.py, es_dicc.db, static/icons/*.png, ut_detect.txt, en_dicc.db, sample.txt, templates/index.html, ut_sust.csv.
Es un programa mayormente escrito en Python, pero tiene elementos de HTML y CSS, que interactúan con Python gracias a la biblioteca Flask. No obstante, los archivos ut_detect.txt y ut_sust.csv no se adjuntan en esta publicación debido a que pertenecen a otra publicación. El primero es la lista de UT que se tienen que detectar y el segundo es la lista de UT que se tienen que simplificar.
Por otro lado, se proporciona acceso al TFM que describe la creación del programa.
FEDERICO-TENA WORLD TRADE HISTORICAL DATABASE : BELGIUM
- Federico, Giovanni
- Tena Junguito, Antonio
CANTABRICOIS2-DATOS
- Jordá, Jesús F.
ABSELL-FEDERICO-TENA WORLD TRADE HISTORICAL DATABASE 1948-2020 : LATVIA
- Absell, Christopher
- Federico, Giovanni
- Tena Junguito, Antonio
UC3M-UKENT STEGOANALYSIS DATA ARCHIVE
- Cervantes Rovira, Alejandro
- Sloan, Thomas
- Isasi Viñuela, Pedro
- Hernández-Castro, Julio
BILINGUAL ACQUISITION DATA: DATIVE ALTERNATION_DA-L2 ADULT DATASET
- Sánchez Calderón, Silvia
- Fernández Fuertes, Raquel
AUTOMATIC DISCOURSE MARKERS EXTRACTOR
- Moreno-Sandoval, Antonio
- Porta, Jordi
- García Toro, Ana
This work is framed in the Spanish national project CLARA-FINT. The aim of this task within the project was to create an automatic discourse markers extractor for Spanish. In order to do so, the first step was to apply linguistic annotation on texts containing said markers. The next step involved the use of these annotations to fine-tune a model for the extraction of discourse markers task. This publication contains the fine-tuned model, i.e., the automatic extractor.
It is a roberta-bne model that was fine-tuned for the discourse markers extraction task. Texts annotated by linguists were used for fine-tuning as training data. Said texts contained discourse markers that were highlighted within their context.