Buscador
Encontrado(s) 2108138 resultado(s)
Encontrada(s) 210814 página(s)
Encontrada(s) 210814 página(s)
Sovereign default and asymmetric market information
- Croitorov, Olga
It is not a novelty that emerging market economies are prone to poor institutions, additional
layers of uncertainty and lack of transparency. There is quite a signi cant body of literature
that shows the negative e ects due to lack of transparency. Among others, Gelos and Wei
(2005) provide evidence that less transparent countries receive less investment and that
during crisis they are more likely to experience high capital out ows.1 Marques, Gelos, and
Melgar (2013) document that more opaque countries su er more from nancial globalization.
Several economic crises have been partially worsened by lack of transparency. For instance,
in the recent Asian crisis, Thai government has been accused of allowing an extremely
opaque nancial sector to ourish. It is considered to be one of the key elements
that triggered the nancial turmoil in 1997. The 2008-2009 debt crisis has shown that, eventually,
no country is shielded from high interest rate spreads, unsustainable debt and lack
of transparency. Even developed countries like Spain and Greece have been undermined by
revealed hidden debts, economic uncertainty and respectively una ordable borrowing costs. 2
The lack of transparency practiced by a range of countries is puzzling.
In present work, I study the implications of information asymmetry, that appears between
government and lenders, on economic outcomes and analyze the conditions when
governments prefer to be less transparent about their states of economy. In particular, the
thesis focuses on the joint dynamics of asymmetric information between market participants and sovereign debt and default.
In part I, Sovereign Debt and asymmetric market information", I show that in an environment
when government is less uncertain about the future state of the economy than
lenders are, the former ends up borrowing higher amount of debt and defaults more often. I
start with bringing some evidence that shows a positive correlation between the debt to GDP
level and future economic uncertainty (proxied by root mean square of GDP growth forecast
errors) for di erent countries. Then, I extend the recent quantitative models of sovereign
default by allowing asymmetry in information between the government and foreign lenders.
The key ingredients are the information about future endowment and its accuracy which are
received by market participants. The obtained results can be explained by the fact that in an
environment when lenders observe more accurate information, the gains for the government
when lenders observe good news are less than costs that are coming from lenders observing
bad news. Therefore, on average, government ends up borrowing more when lenders are less
informed about future endowment and o er a relatively better price. Chapter 1 focuses on
the mechanism of the model and explains how the information precision a ects the level of
demanded debt. In chapter 2, I simulate a small open economy and compare the results to
the existing literature of endogenous sovereign default.
In part II, Optimal Transparency", I study the economic conditions when government
prefers to be less transparent about its state of economy. For this purpose, I develop a dynamic
model of endogenous sovereign default with private information where both government
and lenders act strategically and can update their beliefs upon observing government's
actions. I nd that a government prefers to be opaque when it is overindebted, expects a
more severe crisis, but with a lower probability. The rst two results are intuitive. A government
that has high current debt or expects that recession is going to be more pronounced
depends more on the external resources to nance its consumption. Therefore, a government
that is experiencing a boom prefers to bear the cost of lower asset price so that it can enjoy
a higher consumption if, eventually, a crisis comes. Additionally, I show that government prefers to be less transparent when it is more
likely to have better times; and commits to disclose fully its state when it expects more
likely to have bad times. If the probability of an upcoming crisis is very high, uninformed
lenders increase the costs of borrowing. As a result, the optimal amount of debt under null
transparency is close to the level that government in a crisis can borrow even if it reveals its
state. Hence, government prefers to be fully transparent and enjoy higher consumption if it
ends up in a good state during high probability of a crisis. If a recession is less likely, the
price o ered by lenders increases, the amount of debt that a non-transparent government
can borrow is higher and as a result, bene ts from being opaque also rise.
Chapter 4 suggest some potential areas for future research., Programa Oficial de Doctorado en Economía, Presidente: Stefan Niemann; Secretario: Hernan Daniel Seoane Bernadaz; Vocal: Davide Debortoli
Four essays in commodity markets: asset allocation, pricing, and risk management
- González Pedraz, Carlos
Mención Internacional en el título de doctor, Our study is divided into two parts. The first part (Chapter 2 and Chapter
3) analyzes the multivariate distribution of commodity returns and its impact
on portfolio selection and tail risk measures. Chapter 2 solves the portfolio
selection problem of an investor with three-moment preferences when
commodity futures are part of the investment opportunity set, providing a
conditional copula model for the joint distribution of returns that allows
for time-varying moments and state-dependent tail behavior. Chapter 3
approximates the exposure of physical and financial players to energy price
risk using linear combinations of energy futures; it also analyzes the tail behavior of energy price risk using a dynamic multivariate model, in which
the vector of innovations is generated by different generalized hyperbolic
distributions.
The second part (Chapter 4 and Chapter 5) considers the valuation
of real assets and commodity derivatives in the presence of non-Gaussian
shocks in a continuous time framework. Specifically, Chapter 4 employs a
jump diffusion model for the price differentials and proposes a valuation
tool for the connection between two electricity markets. Chapter 5 proposes
a reduced-form model for the data generating process of commodity prices
together with a more flexible change of measure, capable of changing the
mean-reversion rate of Gaussian and jump processes under the risk-adjusted
probability measure.
Some parts of this thesis have been presented in different seminars,
workshops, and conferences. Chapter 2 was presented at the 2011 INFINITI
Conference on International Finance (Trinity College, Dublin), the 2011
Conference of the Multinational Finance Society (LUISS, Rome), the 2012
International Conference of the Financial Engineering and Banking Society
(ESCP, London), the 2012 International Finance and Banking Society
Conference (Valencia), the 2012 Meetings of the European Financial Management
Association (University of Barcelona), and Universidad Autónoma
de Madrid. A previous version of Chapter 3 was presented at the 2010
AEEE Conference on Energy Economics (University of Vigo). Chapter 4
was presented at the 2010 Finance Forum (CEU, Elche), the 2011 AEEE
Conference on Energy Economics (University of Barcelona), University of
Duisburg-Essen, and Birkbeck-University of London. Previous drafts of Chapter
5 were presented at the 2009 Conference on Energy Finance (Universities
of Oslo and Agder), the 2010 Industrial-Academic Forum on Commodities,
Energy Markets, and Emissions Trading (Fields Institute, Toronto), and the
2011 Energy and Finance (Erasmus School of Economics)., Programa Oficial de Posgrado en Investigación en Economía de la Empresa y Métodos Cuantitativos, Presidente: Alfonso Novales Cinca; Secretario: Rüdiger Kiesel; Vocal: David Veredas
Spatial depth-based methods for functional data
- Sguera, Carlo
Mención Internacional en el título de doctor, In this thesis we deal with functional data, and in particular with the notion of functional depth. A functional depth is a measure that allows to order and rank the curves in a functional
sample from the most to the least central curve. In functional data analysis (FDA), unlike in
univariate statistics where R provides a natural order criterion for observations, the ways how
several existing functional depths rank curves differ among them. Moreover, there is no agreement
about the existence of a best available functional depth. For these reasons among others,
there is still ongoing research in the functional depth topic and this thesis intends to enhance
the progress in this field of FDA.
As first contribution, we enlarge the number of available functional depths by introducing
the kernelized functional spatial depth (KFSD). In the course of the dissertation, we show that
KFSD is the result of a modification of an existing functional depth known as functional spatial
depth (FSD). FSD falls into the category of global functional depths, which means that the
FSD value of a given curve relative to a functional sample depends equally on the rest of the
curves in the sample. However, first in the multivariate framework, where also the notion of
depth is used, and then in FDA, several authors suggested that a local approach to the depth
problem may result useful. Therefore, some local depths for which the depth value of a given
observation depends more on close than distant observations have been proposed in the literature.
Unlike FSD, KFSD falls in the category of local depths, and it can be interpreted as a
local version of FSD. As the name of KFSD suggests, we achieve the transition from global to
local proposing a kernel-type modification of FSD.
KFSD, as well as any functional depth, may result useful for several purposes. For instance, using KFSD it is possible to identify the most central curve in a functional sample, that
is, the KFSD-based sample median. Also, using the p% most central curves, we can draw a
p%-central region (0 < p < 100). Another application is the computation of robust means such
as the -trimmed mean, 0 < < 1, which consists in the functional mean calculated after
deleting the proportion of least central curves. The use of functional depths in FDA has gone
beyond the previous examples and nowadays functional depths are also used to solve other
types of problems. In particular, in this thesis we consider supervised functional classification
and functional outlier detection, and we study and propose methods based on KFSD.
Our approach to both classification and outlier detection has a main feature: we are interested
in scenarios where the solution of the problem is not extremely graphically clear. In more
detail, in classification we focus on cases in which the different groups of curves are hardly recognizable
looking at a graph, and we overlook problems where the classes of curves are easily
graphically detectable. Similarly, we do not deal with outliers that are excessively distant from
the rest of the curves, but we consider low magnitude, shape and partial outliers, which are
harder to detect. We deal with this type of problems because in these challenging scenarios it
is possible to appreciate important differences among both depths and methods, while these
differences tend to be much smaller in easier problems.
Regarding classification, methods based on functional depths are already available. In this
thesis we consider three existing depth-based procedures. For the first time, several functional
depths (KFSD and six more depths) are employed to implement these depth-based techniques.
The main result is that KFSD stands out among its competitors. Indeed, KFSD, when used
together with one of the depth based methods, i.e., the within maximum depth procedure,
shows the most stable and best performances along a simulation study that considers six different
curve generating processes and for the classification of two real datasets. Therefore, the
results supports the introduction of KFSD as a new functional depth.
For what concerns outlier detection, we also consider some existing depth-based procedures
and the above-mentioned battery of functional depths. In addition, we propose three
new methods exclusively designed for KFSD. They are all based on a desirable feature for a functional depth, that is, a functional depth should assign a low depth value to an outlier. During
our research, we have observed that KFSD is endowed with this feature. Moreover, thanks
to its local approach, KFSD in general succeeds in ranking correctly outliers that do not stand
out evidently in a graph. However, a low KFSD value is not enough to detect outliers, and it is
necessary to have at disposal a threshold value for KFSD to distinguish between normal curves
and outliers. Indeed, the three methods that we present provide alternative ways to choose a
threshold for KFSD. The simulation study that we carry out for outlier detection is similarly
extensive as in classification. Besides our proposals, we consider three existing depth-based
methods and seven depths, and two techniques that do not use functional depths. The results
of this second simulation study are also encouraging: the proposed KFSD-based methods are
the only procedures that have good correct outlier detection performances in all the six scenarios
and for the two contamination probabilities that we consider.
To summarize, in this thesis we will present a new local functional depth, KFSD, which will
turn out to be a useful tool in supervised classification, when it used in conjunction with some
existing depth-based methods, and in outlier detection, by means of some new procedures that
we will also present in this work., El tema de esta tesis es el análisis de datos funcionales, y en particular de la noción de profundidad
funcional. Una medida de profundidad funcional permite ordenar las curvas de
una muestra funcional de la más central a la menos central. Al contrario de lo que ocurre en
R donde existe una forma natural de ordenar las observaciones, en el análisis de datos funcionales
(FDA) no existe una forma única de ordenar las curvas, y por tanto las diferentes profundidades
funcionales existentes ordenan las curvas de distintas formas. Además, no existe
un acuerdo sobre la existencia de una profundidad funcional mejor para todas las situaciones
entre las disponibles. Por estas razones, entre otras, el tema de la noción de profundidad funcional
es todavía un área de estudio de investigación activa, y esta tesis se propone colaborar
en los avances en este campo de FDA.
Como primera contribución, en esta tesis se amplía el número de profundidades funcionales
disponibles mediante la introducción de la profundidad espacial funcional kernelizada
(KFSD). A lo largo de este trabajo, se muestra que KFSD es el resultado de una modificación de una profundidad funcional existente conocida como profundidad espacial funcional
(FSD). FSD se puede englobar dentro de la categoría de las profundidades funcionales globales,
lo que significa que el valor de FSD para una curva dada, en relación con una muestra
funcional, depende igualmente del resto de las curvas en la muestra. Sin embargo, como en el
contexto multivariante, donde también se utiliza el concepto de profundidad, varios autores
han sugerido que un enfoque local para la definición de una profundidad puede resultar útil
también en FDA. Por este motivo, en la literatura se han propuesto algunas profundidades
locales para las que el valor de la profundidad de una observación depende más de las observaciones cercanas que de las distantes. A diferencia de FSD, KFSD se puede clasificar en
la categoría de las profundidades locales, y puede ser interpretada como una versión local de
FSD. Como el nombre de KFSD sugiere, la transición de lo global a lo local se logrará mediante
una modificación de FSD basada en el uso de los kernels.
KFSD, así como cualquier otra profundidad funcional, puede resultar ´ útil para varios propósitos en el ámbito del análisis estadístico de datos. Por ejemplo, usando KFSD es posible
identificar la curva más central en una muestra funcional, es decir, la mediana de la muestra
según KFSD. Además, utilizando el p% de las curvas centrales, es posible definir la p%-región
central (0 < p% < 100). Otra aplicación es el cálculo de medias robustas, como por ejemplo la
-media truncada, con 0 < < 1, que consiste en la media funcional calculada sin considerar
la proporción de las curvas menos centrales. El uso de las profundidades funcionales en FDA
ha ido más allá de los ejemplos anteriores, y en la actualidad las profundidades funcionales
también se utilizan para resolver otros tipos de problemas. En particular, en esta tesis se consideran
la clasificación supervisada funcional y la detección de curvas atípicas, y se estudian y
proponen métodos basados en KFSD.
El enfoque que se presenta en esta tesis en clasificación y detección de atípicos tiene una
característica principal: el foco del trabajo está puesto en escenarios en los que la solución del
problema no resulta muy clara gráficamente. Específicamente, en el apartado de clasificación
se consideran casos en los que los diferentes grupos de curvas son apenas reconocibles mirando
un gráfico, mientras que no se consideran problemas donde las clases de las curvas son
fácilmente detectables gráficamente. De manera similar, no está entre nuestros objetivos detectar
curvas atípicas que están excesivamente alejadas gráficamente del resto de las curvas, y
por el contrario se consideran atípicos de baja magnitud, de forma y atípicos parciales, que son
más difíciles de detectar con los procedimientos que ya existen en la literatura. En este sentido,
se pondrá en evidencia que en este tipo de problemas existen diferencias sustanciales entre las
profundidades y los métodos de análisis, mientras que estas diferencias tienden a ser menores
en problemas más sencillos o visualmente más evidentes.
En relación con el problema de clasificación funcional, existen en la literatura métodos basados en el uso de las profundidades funcionales. En esta tesis se consideran tres procedimientos
de este tipo, y por primera vez se combinan con varias profundidades funcionales (KFSD
y seis más) con el objetivo de establecer comparativas entre métodos y/o profundidades con
los mismos escenarios. El resultado principal que se observa es que KFSD se destaca entre
sus competidores. De hecho, KFSD, cuando se utiliza junto a uno de los métodos conocidos como el procedimiento de profundidad máxima en los grupos, muestra los resultados mejores
y más estables a lo largo de un estudio de simulación que considera seis procesos diferentes
para generar las curvas, así como en la clasificación de dos conjuntos de datos reales. Por lo
tanto, los resultados obtenidos sustentan la introducción de KFSD como nueva profundidad funcional.
Por lo que se refiere a la detección de curvas atípicas, también se consideran algunos procedimientos
ya existentes basados en el uso de la noción de profundidad y el grupo de sietes
profundidades mencionado arriba. Además, se proponen tres nuevos métodos diseñados exclusivamente
para KFSD. Todos ellos se basan en una característica deseable en una profundidad
funcional, es decir, que ésta asigne un valor de profundidad baja a una curva atípica.
Durante nuestra investigación, se ha observado que KFSD posee esta característica. Además,
gracias a su enfoque local, KFSD es en general capaz de ordenar correctamente los atípicos
que no se destacan claramente en un gráfico. Sin embargo, un valor bajo de KFSD no es suficiente
para detectar curvas atípicas, y es necesario tener a disposición un valor umbral para
KFSD para distinguir entre curvas normales y atípicas. De hecho, los tres métodos que se
presentan ofrecen formas alternativas para elegir un umbral para KFSD. Desde un punto de
vista metodológico, estos procedimientos están respaldados por resultados teóricos de corte
probabilísticos. El estudio de simulación que se lleva a cabo para la detección de atípicos es
igualmente extenso como en el caso de clasificación. Además de nuestras propuestas, se consideran
tres métodos existentes que están basados en el uso de profundidades funcionales y
dos técnicas que no utilizan profundidades funcionales. Los resultados de este segundo estudio
de simulación son también positivos: los métodos basados en KFSD que se proponen en
esta tesis resultan ser los procedimientos que detectan mejor los atípicos para un conjunto de seis escenarios simulados y para las dos probabilidades de contaminación que se consideran.
En resumen, en esta tesis se presenta una nueva profundidad funcional local, KFSD, que
resulta ser una herramienta útil en clasificación supervisada cuando se utiliza conjuntamente
con algunos métodos basados en el uso de profundidades, y en la detección de curvas atípicas
por medio de algunos nuevos procedimientos que también se presentan en este trabajo., The author and the advisors had the partial support of the following research projects: Spanish Ministry of Science and Innovation grant ECO2011-25706 and by Spanish Ministry of Economy and Competition grant ECO2012-38442., Programa Oficial de Doctorado en Economía de la Empresa y Métodos Cuantitativos, Presidente: Juan Romo Urroz; Secretario: Manuel Febrero Bande; Vocal: Ricardo Fraiman
Diseño de un sistema de calidad de una empresa industrial
- Gutiérrez Morán, Ignacio
El objetivo del Trabajo es el diseño de un Sistema de Calidad de una pequeña o
mediana empresa industrial. Se trata de diseñar el sistema conforme a los más
modernos conceptos de calidad, teniendo en cuenta el tamaño de la empresa y
el sector en el que trabaja.
En la primera parte del Trabajo se analizan los distintos conceptos de calidad, y
las normas y modelos más avanzados que se aplican en el mundo de la
empresa. Recogiendo ideas de varias fuentes, he definido el Sistema de Calidad
de una empresa como el conjunto de elementos tangibles: tecnología, recursos
humanos y financieros, medios, equipos e instalaciones; e intangibles: procesos,
organización, modelo de gestión y cultura de empresa, que permiten generar los
productos y servicios con la calidad adecuada para satisfacer las necesidades
del cliente y de todos los demás agentes con los que la empresa interacciona.
El diseño del sistema se basa en:
- La Norma UNE-EN-ISO-9001, en su versión del año 2008.
- La Norma UNE-EN-ISO-14001, en su versión del año 2004.
- El Modelo de Excelencia Empresarial de la EFQM.
La Norma ISO 9001 está enfocada a la forma de organizar la empresa para
garantizar la calidad de los productos y de esa forma conseguir la satisfacción
del cliente. Para ello establece unos requisitos básicos y obligatorios que debe
cumplir todo Sistema de Calidad. El Modelo EFQM está más orientado a la
excelencia empresarial, de forma que todas las actividades de la empresa se
enfoquen a la excelencia para satisfacer al cliente, a sus accionistas, a los
empleados y a la sociedad en su conjunto. De esa forma se garantiza además la
rentabilidad de la empresa a largo plazo. Es importante decir que hoy en día la certificación de las empresas conforme a
la Norma ISO 9001 es casi obligatoria para cualquier empresa que quiera
competir en cualquier sector, y más si quiere exportar. La aplicación del Modelo
EFQM es voluntaria. En este Trabajo he tratado de combinar ambas. Por lo
tanto, inicialmente se aplican los principios de la Norma ISO 9001 para organizar
la empresa, y luego se incorporan las ideas del Modelo EFQM para gestionar la
empresa de forma excelente.
Por otro lado, he querido también incorporar los principios de la Norma UNE-ENISO-
14001, de Gestión Medioambiental. He encontrado distintas opiniones,
según las cuales el Sistema de Calidad de las empresas debe incorporar la
gestión medioambiental como una parte más de su actividad, por lo tanto le
aplicarían los mismos principios; mientras que en otros casos se opina que se
deben diseñar dos sistemas separados. Yo creo que los principios de las dos
normas son muy similares y, por lo tanto, el Sistema de Calidad puede agrupar a
ambos.
Para que el Trabajo tenga sentido, me he basado en una empresa
completamente ficticia a la que he dado de nombre “Mecanizados X S.A.”. La
empresa se dedica a la fabricación de piezas mecanizadas de alta precisión
para distintos sectores industriales. En el diseño de la empresa he incluido
detalles de la organización, los procesos, los recursos humanos, la maquinaria e
incluso su distribución física.
El primer paso en el diseño del sistema es preparar el Manual de Calidad de la
empresa que he creado. El Manual de Calidad de una empresa dice cómo la
empresa se organiza y trabaja para cumplir con las normas y modelos que
quiere aplicar. En resumen, el Manual incluye la explicación de los procesos y la
organización empresa, y desarrolla la forma en la que la empresa implanta los
requisitos de la Norma ISO 9001 y del Modelo EFQM. En este caso también
aplican los principios de la Norma ISO 14001. El Manual de Calidad de la
empresa lo tienen que cumplir todos los miembros de la plantilla de la empresa. El Manual de Calidad, debe ser revisado periódicamente para ir actualizándolo
conforme a las posibles evoluciones que pueda tener la normativa, o en el caso
de introducirse alguna novedad en la empresa.
Los Procedimientos de Operación son la otra parte fundamental del Sistema de
Calidad de la empresa. En el Manual de Calidad se definen los procedimientos
que la empresa debe tener para cumplir con los principios que en él se
establecen. Los Procedimientos explican qué se debe hacer en cada una de las
situaciones que pueden ocurrir durante la vida de la empresa. Están organizados
entorno a los procesos y tienen una estructura estándar para facilitar su
interpretación y ejecución. Las actividades se muestran en forma de diagrama
de procesos, lo que hace que los empleados los entiendan mejor y sean más
fáciles de utilizar. En cada uno de los Procedimientos se identifican los Registros
de Calidad que se deben generar en cada actividad. Además se incluyen los
formatos que deben utilizarse.
Hay que destacar el Procedimiento de Auditorias en el que se describen las
actividades para realizar una auditoría, y así garantizar que la empresa cumple
con lo establecido en el Sistema de Calidad. Además es una herramienta
fundamental para identificar áreas de mejora y prevenir errores.
Para que una empresa adquiera la certificación ISO 9001 o la ISO 14001 debe
contratar a alguna de las empresas auditoras certificadas. La empresa auditora
comprobará que el Sistema de Calidad (Manual, Procedimientos y Registros)
cumple con lo requerido en las normas y que se aplica conforme a lo establecido
en él. En definitiva, comprobará que las actividades se realizan conforme a lo
establecido en el sistema y lo hará mediante la comprobación de los Registros
de Calidad y la observación directa del trabajo realizado en la empresa.
La implantación de un Sistema de Calidad como el expuesto en este Trabajo
puede llevar un año de trabajo y un coste de algo más de 45.000€, de los cuales
unos 6.000€ son costes externos., The aim of the project is the design of a Quality System of a small or medium
industrial company. The system is to be designed according to the most modern
concepts of quality, taking into account the size of the company and the sector in
which it works.
Firs at all I have analyzed the different concepts of quality, and the most
advanced standards and models that are applied in the business world.
Gathering ideas from various sources, I have defined the Quality System of a
firm as the set of tangible elements: technology, financial and human resources,
equipment and facilities, and intangible ones: processes, organization,
management model and corporate culture, able to generate the products and
services with the right quality to meet customer needs and all other agents with
whom the company interacts.
The design of the system is based on:
- UNE-EN-ISO-9001 Standard, as amended in 2008.
- UNE-EN-ISO-14001 Standard, as amended in 2004.
- Business Excellence Model of the EFQM.
The ISO 9001 Standard is focused on how to organize the company to ensure
the quality of the product and thereby achieve customer satisfaction. Base on
those two concepts the Standard establishes the basic and mandatory
requirements for all Quality System. The EFQM Model is more oriented to
business excellence, so that all activities of the company focus on excellence to
satisfy the customer, its shareholders, employees and society as a whole. That
also ensures the long term profitability of the company.
It is important to say that certification under ISO 9001 Standard is nowadays
almost mandatory for any company that wants to compete in any market, especially to export. The application of the EFQM Model is voluntary. In this
project I tried to combine both. Therefore, initially the principles of the ISO 9001
Standard are applied to organize the company and then the ideas of the EFQM
Model are incorporated to manage the company in an excellent manner.
On the other hand, I wanted to also incorporate the principles of the UNE-ENISO-
14001 Standard for Environmental Management. I found different opinions,
according to which the Quality System of a company should reflect
environmental management as a part of its business; therefore the same
principles should apply; while in other cases it is believed that two separate
systems must be designed. I believe that the principles of the two Standards are
very similar and, therefore, the Quality System can group them both.
For the project to make sense, I have relied on a completely fictitious company I
have given the name "Mecanizados X S.A.". The company is engaged in the
manufacture of high precision machined parts for various industries. In the
design of the company I have included details of the organization, processes,
human resources, machinery and even their physical distribution.
The first step to design a Quality System is to prepare the Quality Manual of the
company that I created. The Quality Manual of a company tells how the company
is organized and works to meet the Standards and Models requirements. In
summary, the Manual includes an explanation of the business processes and
organization, and develops the way that the company implements the
requirements of the ISO 9001 Standard and the EFQM Model. In this case the
principles of the ISO 14001 Standard are also applied. The Quality Manual of the
company must be met by all the members of the staff of the company. The
Quality Manual should be reviewed periodically to go updating it according to
possible changes that may have the rules, or in the case of some novelty
introduced in the company. Operating Procedures are another key part of the Quality System of the
company. The Quality Manual defines the procedures that the company should
have to comply with the principles set forth therein. Procedures explain what to
do in each of the situations that may occur during the life of the company. They
are organized around the processes and have a standard structure for ease of
interpretation and implementation. Activities are shown in diagram form
processes, which makes them for employees better to understand and easier to
use. Quality Records to be generated for each activity are included in each of the
procedures. Also included are the formats to be used.
Especially important is the Auditing Procedure, which sets the activities to
perform an internal audit and to ensure that the company complies with the
Quality System. It is also a fundamental tool to identify areas for improvement
and prevent errors.
For a company to acquire ISO 9001 or ISO 14001 certification a certified auditing
companies must be hire. The auditing company verifies that the Quality System
(Manual, Procedures and Records) meets the requirements of the rules and that
it is applied as provided therein. Ultimately, verify that the activities are
conducted in accordance with the provisions of the System and will do so by
checking the quality records and direct observation of work in the company.
The implementation of a Quality System like the one described in this Project
takes about one year of work and costs a little bit more than 45.000€, of which
about 6.000€ are external cost., Ingeniería Mecánica
Diseño del sistema de suministro de combustible en ensayos aeronáuticos usados para la validación de agentes extintores sustitutivos del HALON 1301
- Pereira González, Ignacio
Los objetivos principales de este Trabajo se recogen en la siguiente lista:
1. Garantizar la ignición del combustible suministrado en la piscina del ensayo.
2. Asegurar la temperatura del combustible en la descarga, según requerimiento
3. Asegurar el tiempo requerido en verter en combustible en la piscina
4. Diseñar un sistema de suministro de combustible seguro
5. Simplificar el diseño del sistema de suministro de combustible
El trabajo está dirigido a ofrecer una solución al suministro de combustible para cumplir con los de AIRBUS. Por tanto, no se establecerán sistemas de extinción de incendios , ni se evaluará la capacidad extintora del agente sustitutivo., Ingeniería Mecánica
Soluciones match-on-device y processing-on-device en sistemas móviles
- Serna Marín, Raúl
La identificación biométrica está comenzando a ganarse un hueco en nuestras vidas. Cada vez son más las instituciones donde se autentica a las personas utilizando dispositivos biométricos. Su excelente tasa de reconocimiento, unido a la comodidad que ofrece al usuario, junto a su dificultad de suplantación de identidad, hacen de la identificación biométrica una opción muy atractiva a la hora de reconocer personas en el ámbito de la seguridad. Sin embargo, dado el gran número de fabricantes que existen, es necesario definir un estándar para poder compatibilizar todas las tecnologías en una sola. Nace así el estándar BioAPI.
Por otro lado, el mercado actual de telefonía se ha incrementado vertiginosamente con la llegada de los teléfonos móviles conocidos como “smartphones”. Estos dispositivos se han convertido en herramientas indispensables para la población, haciendo que la mayoría de personas los lleven siempre consigo. Además, posibilitan la realización de operaciones que antes sólo los ordenadores eran capaces de ejecutar.
Uniendo estos puntos anteriores, surge este Trabajo de Fin de Grado, cuyo objetivo es comprobar las propuestas al nuevo estándar BioAPI. Para verificar la compatibilidad que ofrece estas nuevas propuestas, se implementará un sistema basado en reconocimiento por huellas dactilares, formado por un ordenador y un teléfono móvil, con el requisito de que las funcionalidades biométricas se ejecuten en el dispositivo móvil., Biometric identification is starting to make itself a space in our lives. Every day there are more institutions in which people authentication is performed using biometric devices. Its excellent recognition rates, besides the comfort that offers to the user, and its strength against identity theft, make the biometric identification a truly attractive option when comes to recognizing people in the security scope. However, due to the great number of manufacturers in the market, it is necessary to define a standard in order to make all different technologies compatible. In this context, BioAPI standard arises.
On the other hand, the current telephony market has experienced a vertiginous increase with the arrival of the cell phones known as “smartphones”. These devices have become indispensable tools for most of the population, provoking that most of the people carry one with them. Furthermore, they make possible to perform operations that before could only computers can carried out.
If we join up the above mentioned points, this Bachelor’s Thesis emerges, whose main objective is to check the new standard BioAPI’s approaches. To verify the compatibility of these approaches, we will implement a fingerprint recognition system, formed by a personal computer and mobile device, with the requirement of running the biometric functionalities on the mobile device., Ingeniería Telemática
Análisis de las alternativas de gestión de la energía en instalaciones fotovoltaicas sobre cubierta conectadas a red en España
- Fernández Rodríguez, Patricia
La energía es sin lugar a duda uno de los principales factores que ha contribuido al desarrollo de la especie a lo largo de la historia.
Gracias a ella el ser humano ha logrado poblar prácticamente la totalidad del planeta, e incluso pisar algún otro.
Gracias a la energía se pueden realizar la mayoría de las actividades que se llevan a cabo a lo largo de los días. Cultivar alimentos, desplazarse, asearse.
Actualmente las principales fuentes de energía a partir de las que se sustenta la población son el petróleo, el gas natural y el carbón, suponen aproximadamente el 80% del suministro de energía primaria a nivel mundial. Aún así se debe tener en cuenta que estos recursos no son ilimitados, y que en algún momento se pueden agotar.
Aparte de él inconveniente que presentan por ser recursos limitados, presentan un problema aún mayor, y es que su consumo genera efectos negativos en el medio ambiente. Este impacto se produce desde el momento de su extracción, hasta el momento final en el que se consume., Ingeniería Eléctrica
Desarrollo de librería open-source para el proyecto SGPS
- Rivero Guisado, Isaac
Conocer la ubicación exacta de donde se encuentra una persona o algún objeto
es muy importante, ya que esto puede ayudar en múltiples tareas cotidianas,
como por ejemplo saber llegar a algún lugar del que solo se conoce la calle. También puede colaborar en tareas mucho más importantes, como la prevención de
accidentes en aviación o incluso el rescate de personas perdidas o incapacitadas
temporalmente debido a un accidente.
El sistema de posicionamiento global o GPS es un sistema de navegación por
satélite (GNSS) que permite ubicar en todo momento donde se encuentra un objeto
o una persona. El funcionamiento básico de este tipo de sistema consiste en la
trilateración de la posición mediante satélites colocados en la órbita de la Tierra,
lo cual hace que el dispositivo utilizado sea dependiente de muchos factores.
En este trabajo se presenta un conjunto de librerías implementadas en C++ que
servirán de apoyo para una alternativa a este sistema de posicionamiento global.
En lugar de utilizar satélites para trilaterar una posición, se valdrá de la intensidad
de luz que emite el sol en un determinado lugar., To know the exact location where someone or something is placed is really
important because it is useful for a lot of quotidian tasks as, for example, to reach
a street from the current position, to prevent airplane crashes or search and rescue
operations.
The Global Positioning System (GPS) is global navigation satellite system (GNSS)
that allows to locate an object or person at any time. The working principle of
these systems consists of the trilateration of location by satellites situated on the
Earth's orbit. Therefore a GPS devide depends on many factors.
This work presents a library implemented in C++ that will support an alternative
for this Global Positioning System. It will use the sunlight intensity at a
certain place instead of using satellites., Ingeniería Electrónica Industrial y Automática
Simulación de la automatización de procesos con Unity Pro : vivienda domótica
- Herráez Pulido, Alberto
En el presente proyecto, estudiaremos el software Unity Pro Xl v6.0 utilizado en los autómatas TSX Premium de Schneider del laboratorio de Automatización del departamento de Ingeniería de Sistemas y Automática. Anteriormente, se trabajaba en los laboratorios con el software PL7 Junior, pero se ha observado que Unity Pro tiene múltiples ventajas frente a su antecesor. Una de las más significativas es la posibilidad de realizar “Pantallas de Operador”, estas pantallas son simuladores gráficos de los procesos programados en los autómatas por los alumnos, de esta forma se puede observar gráficamente el desarrollo del proceso sin necesidad de utilizar el autómata, con las ventajas que ello conlleva. Este proyecto fin de carrera se centra en realizar un simulador gráfico para solucionar un determinado problema propuesto., Ingeniería Electrónica Industrial y Automática
Análisis de la demanda energética para la climatización de una vivienda
- Aceituno Gómez, César
Se ha realizado un análisis de la demanda energética que tiene una vivienda situada en
Puerto de San Vicente, Toledo. Se trata de una simulación anual en la que se estudia
las cargas térmicas que tienen lugar tanto para el período de calefacción de la vivienda
como el de refrigeración. Se representan de forma gráfica todas las pérdidas que se
producen en el habitáculo.
Además se lleva a cabo un estudio de sensibilidad de parámetros interiores de diseño.
Por un lado se estudia la repercusión que tiene la variación de la temperatura interna
de la vivienda en el consumo de energía, por otro lado un estudio del espesor del
aislante de muro y techo, se trata de alcanzar el espesor óptimo que debe tener el
aislamiento.
Por último y no de menos importancia se realiza un estudio medioambiental en que se
evalúan las emisiones de dióxido de carbono a la atmósfera en función de la energía
que se consume., Ingeniería Eléctrica
Buscador avanzado