Buscador

Encontrado(s) 2108138 resultado(s)
Encontrada(s) 210814 página(s)

Sovereign default and asymmetric market information

  • Croitorov, Olga
It is not a novelty that emerging market economies are prone to poor institutions, additional layers of uncertainty and lack of transparency. There is quite a signi cant body of literature that shows the negative e ects due to lack of transparency. Among others, Gelos and Wei (2005) provide evidence that less transparent countries receive less investment and that during crisis they are more likely to experience high capital out ows.1 Marques, Gelos, and Melgar (2013) document that more opaque countries su er more from nancial globalization. Several economic crises have been partially worsened by lack of transparency. For instance, in the recent Asian crisis, Thai government has been accused of allowing an extremely opaque nancial sector to ourish. It is considered to be one of the key elements that triggered the nancial turmoil in 1997. The 2008-2009 debt crisis has shown that, eventually, no country is shielded from high interest rate spreads, unsustainable debt and lack of transparency. Even developed countries like Spain and Greece have been undermined by revealed hidden debts, economic uncertainty and respectively una ordable borrowing costs. 2 The lack of transparency practiced by a range of countries is puzzling. In present work, I study the implications of information asymmetry, that appears between government and lenders, on economic outcomes and analyze the conditions when governments prefer to be less transparent about their states of economy. In particular, the thesis focuses on the joint dynamics of asymmetric information between market participants and sovereign debt and default. In part I, Sovereign Debt and asymmetric market information", I show that in an environment when government is less uncertain about the future state of the economy than lenders are, the former ends up borrowing higher amount of debt and defaults more often. I start with bringing some evidence that shows a positive correlation between the debt to GDP level and future economic uncertainty (proxied by root mean square of GDP growth forecast errors) for di erent countries. Then, I extend the recent quantitative models of sovereign default by allowing asymmetry in information between the government and foreign lenders. The key ingredients are the information about future endowment and its accuracy which are received by market participants. The obtained results can be explained by the fact that in an environment when lenders observe more accurate information, the gains for the government when lenders observe good news are less than costs that are coming from lenders observing bad news. Therefore, on average, government ends up borrowing more when lenders are less informed about future endowment and o er a relatively better price. Chapter 1 focuses on the mechanism of the model and explains how the information precision a ects the level of demanded debt. In chapter 2, I simulate a small open economy and compare the results to the existing literature of endogenous sovereign default. In part II, Optimal Transparency", I study the economic conditions when government prefers to be less transparent about its state of economy. For this purpose, I develop a dynamic model of endogenous sovereign default with private information where both government and lenders act strategically and can update their beliefs upon observing government's actions. I nd that a government prefers to be opaque when it is overindebted, expects a more severe crisis, but with a lower probability. The rst two results are intuitive. A government that has high current debt or expects that recession is going to be more pronounced depends more on the external resources to nance its consumption. Therefore, a government that is experiencing a boom prefers to bear the cost of lower asset price so that it can enjoy a higher consumption if, eventually, a crisis comes. Additionally, I show that government prefers to be less transparent when it is more likely to have better times; and commits to disclose fully its state when it expects more likely to have bad times. If the probability of an upcoming crisis is very high, uninformed lenders increase the costs of borrowing. As a result, the optimal amount of debt under null transparency is close to the level that government in a crisis can borrow even if it reveals its state. Hence, government prefers to be fully transparent and enjoy higher consumption if it ends up in a good state during high probability of a crisis. If a recession is less likely, the price o ered by lenders increases, the amount of debt that a non-transparent government can borrow is higher and as a result, bene ts from being opaque also rise. Chapter 4 suggest some potential areas for future research., Programa Oficial de Doctorado en Economía, Presidente: Stefan Niemann; Secretario: Hernan Daniel Seoane Bernadaz; Vocal: Davide Debortoli
Proyecto:


Four essays in commodity markets: asset allocation, pricing, and risk management

  • González Pedraz, Carlos
Mención Internacional en el título de doctor, Our study is divided into two parts. The first part (Chapter 2 and Chapter 3) analyzes the multivariate distribution of commodity returns and its impact on portfolio selection and tail risk measures. Chapter 2 solves the portfolio selection problem of an investor with three-moment preferences when commodity futures are part of the investment opportunity set, providing a conditional copula model for the joint distribution of returns that allows for time-varying moments and state-dependent tail behavior. Chapter 3 approximates the exposure of physical and financial players to energy price risk using linear combinations of energy futures; it also analyzes the tail behavior of energy price risk using a dynamic multivariate model, in which the vector of innovations is generated by different generalized hyperbolic distributions. The second part (Chapter 4 and Chapter 5) considers the valuation of real assets and commodity derivatives in the presence of non-Gaussian shocks in a continuous time framework. Specifically, Chapter 4 employs a jump diffusion model for the price differentials and proposes a valuation tool for the connection between two electricity markets. Chapter 5 proposes a reduced-form model for the data generating process of commodity prices together with a more flexible change of measure, capable of changing the mean-reversion rate of Gaussian and jump processes under the risk-adjusted probability measure. Some parts of this thesis have been presented in different seminars, workshops, and conferences. Chapter 2 was presented at the 2011 INFINITI Conference on International Finance (Trinity College, Dublin), the 2011 Conference of the Multinational Finance Society (LUISS, Rome), the 2012 International Conference of the Financial Engineering and Banking Society (ESCP, London), the 2012 International Finance and Banking Society Conference (Valencia), the 2012 Meetings of the European Financial Management Association (University of Barcelona), and Universidad Autónoma de Madrid. A previous version of Chapter 3 was presented at the 2010 AEEE Conference on Energy Economics (University of Vigo). Chapter 4 was presented at the 2010 Finance Forum (CEU, Elche), the 2011 AEEE Conference on Energy Economics (University of Barcelona), University of Duisburg-Essen, and Birkbeck-University of London. Previous drafts of Chapter 5 were presented at the 2009 Conference on Energy Finance (Universities of Oslo and Agder), the 2010 Industrial-Academic Forum on Commodities, Energy Markets, and Emissions Trading (Fields Institute, Toronto), and the 2011 Energy and Finance (Erasmus School of Economics)., Programa Oficial de Posgrado en Investigación en Economía de la Empresa y Métodos Cuantitativos, Presidente: Alfonso Novales Cinca; Secretario: Rüdiger Kiesel; Vocal: David Veredas
Proyecto:


Spatial depth-based methods for functional data

  • Sguera, Carlo
Mención Internacional en el título de doctor, In this thesis we deal with functional data, and in particular with the notion of functional depth. A functional depth is a measure that allows to order and rank the curves in a functional sample from the most to the least central curve. In functional data analysis (FDA), unlike in univariate statistics where R provides a natural order criterion for observations, the ways how several existing functional depths rank curves differ among them. Moreover, there is no agreement about the existence of a best available functional depth. For these reasons among others, there is still ongoing research in the functional depth topic and this thesis intends to enhance the progress in this field of FDA. As first contribution, we enlarge the number of available functional depths by introducing the kernelized functional spatial depth (KFSD). In the course of the dissertation, we show that KFSD is the result of a modification of an existing functional depth known as functional spatial depth (FSD). FSD falls into the category of global functional depths, which means that the FSD value of a given curve relative to a functional sample depends equally on the rest of the curves in the sample. However, first in the multivariate framework, where also the notion of depth is used, and then in FDA, several authors suggested that a local approach to the depth problem may result useful. Therefore, some local depths for which the depth value of a given observation depends more on close than distant observations have been proposed in the literature. Unlike FSD, KFSD falls in the category of local depths, and it can be interpreted as a local version of FSD. As the name of KFSD suggests, we achieve the transition from global to local proposing a kernel-type modification of FSD. KFSD, as well as any functional depth, may result useful for several purposes. For instance, using KFSD it is possible to identify the most central curve in a functional sample, that is, the KFSD-based sample median. Also, using the p% most central curves, we can draw a p%-central region (0 < p < 100). Another application is the computation of robust means such as the -trimmed mean, 0 < < 1, which consists in the functional mean calculated after deleting the proportion of least central curves. The use of functional depths in FDA has gone beyond the previous examples and nowadays functional depths are also used to solve other types of problems. In particular, in this thesis we consider supervised functional classification and functional outlier detection, and we study and propose methods based on KFSD. Our approach to both classification and outlier detection has a main feature: we are interested in scenarios where the solution of the problem is not extremely graphically clear. In more detail, in classification we focus on cases in which the different groups of curves are hardly recognizable looking at a graph, and we overlook problems where the classes of curves are easily graphically detectable. Similarly, we do not deal with outliers that are excessively distant from the rest of the curves, but we consider low magnitude, shape and partial outliers, which are harder to detect. We deal with this type of problems because in these challenging scenarios it is possible to appreciate important differences among both depths and methods, while these differences tend to be much smaller in easier problems. Regarding classification, methods based on functional depths are already available. In this thesis we consider three existing depth-based procedures. For the first time, several functional depths (KFSD and six more depths) are employed to implement these depth-based techniques. The main result is that KFSD stands out among its competitors. Indeed, KFSD, when used together with one of the depth based methods, i.e., the within maximum depth procedure, shows the most stable and best performances along a simulation study that considers six different curve generating processes and for the classification of two real datasets. Therefore, the results supports the introduction of KFSD as a new functional depth. For what concerns outlier detection, we also consider some existing depth-based procedures and the above-mentioned battery of functional depths. In addition, we propose three new methods exclusively designed for KFSD. They are all based on a desirable feature for a functional depth, that is, a functional depth should assign a low depth value to an outlier. During our research, we have observed that KFSD is endowed with this feature. Moreover, thanks to its local approach, KFSD in general succeeds in ranking correctly outliers that do not stand out evidently in a graph. However, a low KFSD value is not enough to detect outliers, and it is necessary to have at disposal a threshold value for KFSD to distinguish between normal curves and outliers. Indeed, the three methods that we present provide alternative ways to choose a threshold for KFSD. The simulation study that we carry out for outlier detection is similarly extensive as in classification. Besides our proposals, we consider three existing depth-based methods and seven depths, and two techniques that do not use functional depths. The results of this second simulation study are also encouraging: the proposed KFSD-based methods are the only procedures that have good correct outlier detection performances in all the six scenarios and for the two contamination probabilities that we consider. To summarize, in this thesis we will present a new local functional depth, KFSD, which will turn out to be a useful tool in supervised classification, when it used in conjunction with some existing depth-based methods, and in outlier detection, by means of some new procedures that we will also present in this work., El tema de esta tesis es el análisis de datos funcionales, y en particular de la noción de profundidad funcional. Una medida de profundidad funcional permite ordenar las curvas de una muestra funcional de la más central a la menos central. Al contrario de lo que ocurre en R donde existe una forma natural de ordenar las observaciones, en el análisis de datos funcionales (FDA) no existe una forma única de ordenar las curvas, y por tanto las diferentes profundidades funcionales existentes ordenan las curvas de distintas formas. Además, no existe un acuerdo sobre la existencia de una profundidad funcional mejor para todas las situaciones entre las disponibles. Por estas razones, entre otras, el tema de la noción de profundidad funcional es todavía un área de estudio de investigación activa, y esta tesis se propone colaborar en los avances en este campo de FDA. Como primera contribución, en esta tesis se amplía el número de profundidades funcionales disponibles mediante la introducción de la profundidad espacial funcional kernelizada (KFSD). A lo largo de este trabajo, se muestra que KFSD es el resultado de una modificación de una profundidad funcional existente conocida como profundidad espacial funcional (FSD). FSD se puede englobar dentro de la categoría de las profundidades funcionales globales, lo que significa que el valor de FSD para una curva dada, en relación con una muestra funcional, depende igualmente del resto de las curvas en la muestra. Sin embargo, como en el contexto multivariante, donde también se utiliza el concepto de profundidad, varios autores han sugerido que un enfoque local para la definición de una profundidad puede resultar útil también en FDA. Por este motivo, en la literatura se han propuesto algunas profundidades locales para las que el valor de la profundidad de una observación depende más de las observaciones cercanas que de las distantes. A diferencia de FSD, KFSD se puede clasificar en la categoría de las profundidades locales, y puede ser interpretada como una versión local de FSD. Como el nombre de KFSD sugiere, la transición de lo global a lo local se logrará mediante una modificación de FSD basada en el uso de los kernels. KFSD, así como cualquier otra profundidad funcional, puede resultar ´ útil para varios propósitos en el ámbito del análisis estadístico de datos. Por ejemplo, usando KFSD es posible identificar la curva más central en una muestra funcional, es decir, la mediana de la muestra según KFSD. Además, utilizando el p% de las curvas centrales, es posible definir la p%-región central (0 < p% < 100). Otra aplicación es el cálculo de medias robustas, como por ejemplo la -media truncada, con 0 < < 1, que consiste en la media funcional calculada sin considerar la proporción de las curvas menos centrales. El uso de las profundidades funcionales en FDA ha ido más allá de los ejemplos anteriores, y en la actualidad las profundidades funcionales también se utilizan para resolver otros tipos de problemas. En particular, en esta tesis se consideran la clasificación supervisada funcional y la detección de curvas atípicas, y se estudian y proponen métodos basados en KFSD. El enfoque que se presenta en esta tesis en clasificación y detección de atípicos tiene una característica principal: el foco del trabajo está puesto en escenarios en los que la solución del problema no resulta muy clara gráficamente. Específicamente, en el apartado de clasificación se consideran casos en los que los diferentes grupos de curvas son apenas reconocibles mirando un gráfico, mientras que no se consideran problemas donde las clases de las curvas son fácilmente detectables gráficamente. De manera similar, no está entre nuestros objetivos detectar curvas atípicas que están excesivamente alejadas gráficamente del resto de las curvas, y por el contrario se consideran atípicos de baja magnitud, de forma y atípicos parciales, que son más difíciles de detectar con los procedimientos que ya existen en la literatura. En este sentido, se pondrá en evidencia que en este tipo de problemas existen diferencias sustanciales entre las profundidades y los métodos de análisis, mientras que estas diferencias tienden a ser menores en problemas más sencillos o visualmente más evidentes. En relación con el problema de clasificación funcional, existen en la literatura métodos basados en el uso de las profundidades funcionales. En esta tesis se consideran tres procedimientos de este tipo, y por primera vez se combinan con varias profundidades funcionales (KFSD y seis más) con el objetivo de establecer comparativas entre métodos y/o profundidades con los mismos escenarios. El resultado principal que se observa es que KFSD se destaca entre sus competidores. De hecho, KFSD, cuando se utiliza junto a uno de los métodos conocidos como el procedimiento de profundidad máxima en los grupos, muestra los resultados mejores y más estables a lo largo de un estudio de simulación que considera seis procesos diferentes para generar las curvas, así como en la clasificación de dos conjuntos de datos reales. Por lo tanto, los resultados obtenidos sustentan la introducción de KFSD como nueva profundidad funcional. Por lo que se refiere a la detección de curvas atípicas, también se consideran algunos procedimientos ya existentes basados en el uso de la noción de profundidad y el grupo de sietes profundidades mencionado arriba. Además, se proponen tres nuevos métodos diseñados exclusivamente para KFSD. Todos ellos se basan en una característica deseable en una profundidad funcional, es decir, que ésta asigne un valor de profundidad baja a una curva atípica. Durante nuestra investigación, se ha observado que KFSD posee esta característica. Además, gracias a su enfoque local, KFSD es en general capaz de ordenar correctamente los atípicos que no se destacan claramente en un gráfico. Sin embargo, un valor bajo de KFSD no es suficiente para detectar curvas atípicas, y es necesario tener a disposición un valor umbral para KFSD para distinguir entre curvas normales y atípicas. De hecho, los tres métodos que se presentan ofrecen formas alternativas para elegir un umbral para KFSD. Desde un punto de vista metodológico, estos procedimientos están respaldados por resultados teóricos de corte probabilísticos. El estudio de simulación que se lleva a cabo para la detección de atípicos es igualmente extenso como en el caso de clasificación. Además de nuestras propuestas, se consideran tres métodos existentes que están basados en el uso de profundidades funcionales y dos técnicas que no utilizan profundidades funcionales. Los resultados de este segundo estudio de simulación son también positivos: los métodos basados en KFSD que se proponen en esta tesis resultan ser los procedimientos que detectan mejor los atípicos para un conjunto de seis escenarios simulados y para las dos probabilidades de contaminación que se consideran. En resumen, en esta tesis se presenta una nueva profundidad funcional local, KFSD, que resulta ser una herramienta útil en clasificación supervisada cuando se utiliza conjuntamente con algunos métodos basados en el uso de profundidades, y en la detección de curvas atípicas por medio de algunos nuevos procedimientos que también se presentan en este trabajo., The author and the advisors had the partial support of the following research projects: Spanish Ministry of Science and Innovation grant ECO2011-25706 and by Spanish Ministry of Economy and Competition grant ECO2012-38442., Programa Oficial de Doctorado en Economía de la Empresa y Métodos Cuantitativos, Presidente: Juan Romo Urroz; Secretario: Manuel Febrero Bande; Vocal: Ricardo Fraiman
Proyecto:


Diseño de un sistema de calidad de una empresa industrial

  • Gutiérrez Morán, Ignacio
El objetivo del Trabajo es el diseño de un Sistema de Calidad de una pequeña o mediana empresa industrial. Se trata de diseñar el sistema conforme a los más modernos conceptos de calidad, teniendo en cuenta el tamaño de la empresa y el sector en el que trabaja. En la primera parte del Trabajo se analizan los distintos conceptos de calidad, y las normas y modelos más avanzados que se aplican en el mundo de la empresa. Recogiendo ideas de varias fuentes, he definido el Sistema de Calidad de una empresa como el conjunto de elementos tangibles: tecnología, recursos humanos y financieros, medios, equipos e instalaciones; e intangibles: procesos, organización, modelo de gestión y cultura de empresa, que permiten generar los productos y servicios con la calidad adecuada para satisfacer las necesidades del cliente y de todos los demás agentes con los que la empresa interacciona. El diseño del sistema se basa en: - La Norma UNE-EN-ISO-9001, en su versión del año 2008. - La Norma UNE-EN-ISO-14001, en su versión del año 2004. - El Modelo de Excelencia Empresarial de la EFQM. La Norma ISO 9001 está enfocada a la forma de organizar la empresa para garantizar la calidad de los productos y de esa forma conseguir la satisfacción del cliente. Para ello establece unos requisitos básicos y obligatorios que debe cumplir todo Sistema de Calidad. El Modelo EFQM está más orientado a la excelencia empresarial, de forma que todas las actividades de la empresa se enfoquen a la excelencia para satisfacer al cliente, a sus accionistas, a los empleados y a la sociedad en su conjunto. De esa forma se garantiza además la rentabilidad de la empresa a largo plazo. Es importante decir que hoy en día la certificación de las empresas conforme a la Norma ISO 9001 es casi obligatoria para cualquier empresa que quiera competir en cualquier sector, y más si quiere exportar. La aplicación del Modelo EFQM es voluntaria. En este Trabajo he tratado de combinar ambas. Por lo tanto, inicialmente se aplican los principios de la Norma ISO 9001 para organizar la empresa, y luego se incorporan las ideas del Modelo EFQM para gestionar la empresa de forma excelente. Por otro lado, he querido también incorporar los principios de la Norma UNE-ENISO- 14001, de Gestión Medioambiental. He encontrado distintas opiniones, según las cuales el Sistema de Calidad de las empresas debe incorporar la gestión medioambiental como una parte más de su actividad, por lo tanto le aplicarían los mismos principios; mientras que en otros casos se opina que se deben diseñar dos sistemas separados. Yo creo que los principios de las dos normas son muy similares y, por lo tanto, el Sistema de Calidad puede agrupar a ambos. Para que el Trabajo tenga sentido, me he basado en una empresa completamente ficticia a la que he dado de nombre “Mecanizados X S.A.”. La empresa se dedica a la fabricación de piezas mecanizadas de alta precisión para distintos sectores industriales. En el diseño de la empresa he incluido detalles de la organización, los procesos, los recursos humanos, la maquinaria e incluso su distribución física. El primer paso en el diseño del sistema es preparar el Manual de Calidad de la empresa que he creado. El Manual de Calidad de una empresa dice cómo la empresa se organiza y trabaja para cumplir con las normas y modelos que quiere aplicar. En resumen, el Manual incluye la explicación de los procesos y la organización empresa, y desarrolla la forma en la que la empresa implanta los requisitos de la Norma ISO 9001 y del Modelo EFQM. En este caso también aplican los principios de la Norma ISO 14001. El Manual de Calidad de la empresa lo tienen que cumplir todos los miembros de la plantilla de la empresa. El Manual de Calidad, debe ser revisado periódicamente para ir actualizándolo conforme a las posibles evoluciones que pueda tener la normativa, o en el caso de introducirse alguna novedad en la empresa. Los Procedimientos de Operación son la otra parte fundamental del Sistema de Calidad de la empresa. En el Manual de Calidad se definen los procedimientos que la empresa debe tener para cumplir con los principios que en él se establecen. Los Procedimientos explican qué se debe hacer en cada una de las situaciones que pueden ocurrir durante la vida de la empresa. Están organizados entorno a los procesos y tienen una estructura estándar para facilitar su interpretación y ejecución. Las actividades se muestran en forma de diagrama de procesos, lo que hace que los empleados los entiendan mejor y sean más fáciles de utilizar. En cada uno de los Procedimientos se identifican los Registros de Calidad que se deben generar en cada actividad. Además se incluyen los formatos que deben utilizarse. Hay que destacar el Procedimiento de Auditorias en el que se describen las actividades para realizar una auditoría, y así garantizar que la empresa cumple con lo establecido en el Sistema de Calidad. Además es una herramienta fundamental para identificar áreas de mejora y prevenir errores. Para que una empresa adquiera la certificación ISO 9001 o la ISO 14001 debe contratar a alguna de las empresas auditoras certificadas. La empresa auditora comprobará que el Sistema de Calidad (Manual, Procedimientos y Registros) cumple con lo requerido en las normas y que se aplica conforme a lo establecido en él. En definitiva, comprobará que las actividades se realizan conforme a lo establecido en el sistema y lo hará mediante la comprobación de los Registros de Calidad y la observación directa del trabajo realizado en la empresa. La implantación de un Sistema de Calidad como el expuesto en este Trabajo puede llevar un año de trabajo y un coste de algo más de 45.000€, de los cuales unos 6.000€ son costes externos., The aim of the project is the design of a Quality System of a small or medium industrial company. The system is to be designed according to the most modern concepts of quality, taking into account the size of the company and the sector in which it works. Firs at all I have analyzed the different concepts of quality, and the most advanced standards and models that are applied in the business world. Gathering ideas from various sources, I have defined the Quality System of a firm as the set of tangible elements: technology, financial and human resources, equipment and facilities, and intangible ones: processes, organization, management model and corporate culture, able to generate the products and services with the right quality to meet customer needs and all other agents with whom the company interacts. The design of the system is based on: - UNE-EN-ISO-9001 Standard, as amended in 2008. - UNE-EN-ISO-14001 Standard, as amended in 2004. - Business Excellence Model of the EFQM. The ISO 9001 Standard is focused on how to organize the company to ensure the quality of the product and thereby achieve customer satisfaction. Base on those two concepts the Standard establishes the basic and mandatory requirements for all Quality System. The EFQM Model is more oriented to business excellence, so that all activities of the company focus on excellence to satisfy the customer, its shareholders, employees and society as a whole. That also ensures the long term profitability of the company. It is important to say that certification under ISO 9001 Standard is nowadays almost mandatory for any company that wants to compete in any market, especially to export. The application of the EFQM Model is voluntary. In this project I tried to combine both. Therefore, initially the principles of the ISO 9001 Standard are applied to organize the company and then the ideas of the EFQM Model are incorporated to manage the company in an excellent manner. On the other hand, I wanted to also incorporate the principles of the UNE-ENISO- 14001 Standard for Environmental Management. I found different opinions, according to which the Quality System of a company should reflect environmental management as a part of its business; therefore the same principles should apply; while in other cases it is believed that two separate systems must be designed. I believe that the principles of the two Standards are very similar and, therefore, the Quality System can group them both. For the project to make sense, I have relied on a completely fictitious company I have given the name "Mecanizados X S.A.". The company is engaged in the manufacture of high precision machined parts for various industries. In the design of the company I have included details of the organization, processes, human resources, machinery and even their physical distribution. The first step to design a Quality System is to prepare the Quality Manual of the company that I created. The Quality Manual of a company tells how the company is organized and works to meet the Standards and Models requirements. In summary, the Manual includes an explanation of the business processes and organization, and develops the way that the company implements the requirements of the ISO 9001 Standard and the EFQM Model. In this case the principles of the ISO 14001 Standard are also applied. The Quality Manual of the company must be met by all the members of the staff of the company. The Quality Manual should be reviewed periodically to go updating it according to possible changes that may have the rules, or in the case of some novelty introduced in the company. Operating Procedures are another key part of the Quality System of the company. The Quality Manual defines the procedures that the company should have to comply with the principles set forth therein. Procedures explain what to do in each of the situations that may occur during the life of the company. They are organized around the processes and have a standard structure for ease of interpretation and implementation. Activities are shown in diagram form processes, which makes them for employees better to understand and easier to use. Quality Records to be generated for each activity are included in each of the procedures. Also included are the formats to be used. Especially important is the Auditing Procedure, which sets the activities to perform an internal audit and to ensure that the company complies with the Quality System. It is also a fundamental tool to identify areas for improvement and prevent errors. For a company to acquire ISO 9001 or ISO 14001 certification a certified auditing companies must be hire. The auditing company verifies that the Quality System (Manual, Procedures and Records) meets the requirements of the rules and that it is applied as provided therein. Ultimately, verify that the activities are conducted in accordance with the provisions of the System and will do so by checking the quality records and direct observation of work in the company. The implementation of a Quality System like the one described in this Project takes about one year of work and costs a little bit more than 45.000€, of which about 6.000€ are external cost., Ingeniería Mecánica
Proyecto:


Diseño del sistema de suministro de combustible en ensayos aeronáuticos usados para la validación de agentes extintores sustitutivos del HALON 1301

  • Pereira González, Ignacio
Los objetivos principales de este Trabajo se recogen en la siguiente lista: 1. Garantizar la ignición del combustible suministrado en la piscina del ensayo. 2. Asegurar la temperatura del combustible en la descarga, según requerimiento 3. Asegurar el tiempo requerido en verter en combustible en la piscina 4. Diseñar un sistema de suministro de combustible seguro 5. Simplificar el diseño del sistema de suministro de combustible El trabajo está dirigido a ofrecer una solución al suministro de combustible para cumplir con los de AIRBUS. Por tanto, no se establecerán sistemas de extinción de incendios , ni se evaluará la capacidad extintora del agente sustitutivo., Ingeniería Mecánica
Proyecto:


Soluciones match-on-device y processing-on-device en sistemas móviles

  • Serna Marín, Raúl
La identificación biométrica está comenzando a ganarse un hueco en nuestras vidas. Cada vez son más las instituciones donde se autentica a las personas utilizando dispositivos biométricos. Su excelente tasa de reconocimiento, unido a la comodidad que ofrece al usuario, junto a su dificultad de suplantación de identidad, hacen de la identificación biométrica una opción muy atractiva a la hora de reconocer personas en el ámbito de la seguridad. Sin embargo, dado el gran número de fabricantes que existen, es necesario definir un estándar para poder compatibilizar todas las tecnologías en una sola. Nace así el estándar BioAPI. Por otro lado, el mercado actual de telefonía se ha incrementado vertiginosamente con la llegada de los teléfonos móviles conocidos como “smartphones”. Estos dispositivos se han convertido en herramientas indispensables para la población, haciendo que la mayoría de personas los lleven siempre consigo. Además, posibilitan la realización de operaciones que antes sólo los ordenadores eran capaces de ejecutar. Uniendo estos puntos anteriores, surge este Trabajo de Fin de Grado, cuyo objetivo es comprobar las propuestas al nuevo estándar BioAPI. Para verificar la compatibilidad que ofrece estas nuevas propuestas, se implementará un sistema basado en reconocimiento por huellas dactilares, formado por un ordenador y un teléfono móvil, con el requisito de que las funcionalidades biométricas se ejecuten en el dispositivo móvil., Biometric identification is starting to make itself a space in our lives. Every day there are more institutions in which people authentication is performed using biometric devices. Its excellent recognition rates, besides the comfort that offers to the user, and its strength against identity theft, make the biometric identification a truly attractive option when comes to recognizing people in the security scope. However, due to the great number of manufacturers in the market, it is necessary to define a standard in order to make all different technologies compatible. In this context, BioAPI standard arises. On the other hand, the current telephony market has experienced a vertiginous increase with the arrival of the cell phones known as “smartphones”. These devices have become indispensable tools for most of the population, provoking that most of the people carry one with them. Furthermore, they make possible to perform operations that before could only computers can carried out. If we join up the above mentioned points, this Bachelor’s Thesis emerges, whose main objective is to check the new standard BioAPI’s approaches. To verify the compatibility of these approaches, we will implement a fingerprint recognition system, formed by a personal computer and mobile device, with the requirement of running the biometric functionalities on the mobile device., Ingeniería Telemática
Proyecto:


Análisis de las alternativas de gestión de la energía en instalaciones fotovoltaicas sobre cubierta conectadas a red en España

  • Fernández Rodríguez, Patricia
La energía es sin lugar a duda uno de los principales factores que ha contribuido al desarrollo de la especie a lo largo de la historia. Gracias a ella el ser humano ha logrado poblar prácticamente la totalidad del planeta, e incluso pisar algún otro. Gracias a la energía se pueden realizar la mayoría de las actividades que se llevan a cabo a lo largo de los días. Cultivar alimentos, desplazarse, asearse. Actualmente las principales fuentes de energía a partir de las que se sustenta la población son el petróleo, el gas natural y el carbón, suponen aproximadamente el 80% del suministro de energía primaria a nivel mundial. Aún así se debe tener en cuenta que estos recursos no son ilimitados, y que en algún momento se pueden agotar. Aparte de él inconveniente que presentan por ser recursos limitados, presentan un problema aún mayor, y es que su consumo genera efectos negativos en el medio ambiente. Este impacto se produce desde el momento de su extracción, hasta el momento final en el que se consume., Ingeniería Eléctrica
Proyecto:


Desarrollo de librería open-source para el proyecto SGPS

  • Rivero Guisado, Isaac
Conocer la ubicación exacta de donde se encuentra una persona o algún objeto es muy importante, ya que esto puede ayudar en múltiples tareas cotidianas, como por ejemplo saber llegar a algún lugar del que solo se conoce la calle. También puede colaborar en tareas mucho más importantes, como la prevención de accidentes en aviación o incluso el rescate de personas perdidas o incapacitadas temporalmente debido a un accidente. El sistema de posicionamiento global o GPS es un sistema de navegación por satélite (GNSS) que permite ubicar en todo momento donde se encuentra un objeto o una persona. El funcionamiento básico de este tipo de sistema consiste en la trilateración de la posición mediante satélites colocados en la órbita de la Tierra, lo cual hace que el dispositivo utilizado sea dependiente de muchos factores. En este trabajo se presenta un conjunto de librerías implementadas en C++ que servirán de apoyo para una alternativa a este sistema de posicionamiento global. En lugar de utilizar satélites para trilaterar una posición, se valdrá de la intensidad de luz que emite el sol en un determinado lugar., To know the exact location where someone or something is placed is really important because it is useful for a lot of quotidian tasks as, for example, to reach a street from the current position, to prevent airplane crashes or search and rescue operations. The Global Positioning System (GPS) is global navigation satellite system (GNSS) that allows to locate an object or person at any time. The working principle of these systems consists of the trilateration of location by satellites situated on the Earth's orbit. Therefore a GPS devide depends on many factors. This work presents a library implemented in C++ that will support an alternative for this Global Positioning System. It will use the sunlight intensity at a certain place instead of using satellites., Ingeniería Electrónica Industrial y Automática
Proyecto:


Simulación de la automatización de procesos con Unity Pro : vivienda domótica

  • Herráez Pulido, Alberto
En el presente proyecto, estudiaremos el software Unity Pro Xl v6.0 utilizado en los autómatas TSX Premium de Schneider del laboratorio de Automatización del departamento de Ingeniería de Sistemas y Automática. Anteriormente, se trabajaba en los laboratorios con el software PL7 Junior, pero se ha observado que Unity Pro tiene múltiples ventajas frente a su antecesor. Una de las más significativas es la posibilidad de realizar “Pantallas de Operador”, estas pantallas son simuladores gráficos de los procesos programados en los autómatas por los alumnos, de esta forma se puede observar gráficamente el desarrollo del proceso sin necesidad de utilizar el autómata, con las ventajas que ello conlleva. Este proyecto fin de carrera se centra en realizar un simulador gráfico para solucionar un determinado problema propuesto., Ingeniería Electrónica Industrial y Automática
Proyecto:


Análisis de la demanda energética para la climatización de una vivienda

  • Aceituno Gómez, César
Se ha realizado un análisis de la demanda energética que tiene una vivienda situada en Puerto de San Vicente, Toledo. Se trata de una simulación anual en la que se estudia las cargas térmicas que tienen lugar tanto para el período de calefacción de la vivienda como el de refrigeración. Se representan de forma gráfica todas las pérdidas que se producen en el habitáculo. Además se lleva a cabo un estudio de sensibilidad de parámetros interiores de diseño. Por un lado se estudia la repercusión que tiene la variación de la temperatura interna de la vivienda en el consumo de energía, por otro lado un estudio del espesor del aislante de muro y techo, se trata de alcanzar el espesor óptimo que debe tener el aislamiento. Por último y no de menos importancia se realiza un estudio medioambiental en que se evalúan las emisiones de dióxido de carbono a la atmósfera en función de la energía que se consume., Ingeniería Eléctrica
Proyecto:


Buscador avanzado