Trabajo Final de Grado  (Informes de pasantía) para obtener el título de “LICENCIADO EN ESTADÍSTICA”

(Orden cronológico descendente)

En este trabajo se busca explorar los modelos mixtos lineales generalizados (GLMM) y sus desafiantes estimaciones de parámetros por máxima verosimilitud. La función de verosimilitud asociada a estos modelos tiene sus valores funcionales expresados por medio de integrales de Riemann evaluadas en subconjuntos de espacios euclídeos de altas dimensiones. Por lo tanto, hallar las estimaciones por máxima verosimilitud es encontrar los valores que maximizan las integrales de las cuales depende la verosimilitud. En general, las integrales obtenidas de modelos GLMM aplicados a casos reales no son calculables analíticamente, debido a que una primitiva no es expresable por funciones elementales, o bien no hay métodos de cálculo que permitan obtenerla de forma efectiva. En las aplicaciones reales no es suficiente saber que existe la estimación máximo verosímil, sino que es necesario encontrar su valor al menos de forma aproximada. Los métodos de estimación Monte Carlo se presentan como alternativas atractivas, ya que suelen ser simples de implementar y convergen al verdadero valor del parámetro. Sin embargo, en muchos casos la convergencia es lenta con respecto al tamaño muestral. Por lo tanto, las técnicas Monte Carlo pueden demandar mucho esfuerzo computacional y tiempo de ejecución para obtener estimaciones cercanas a los valores verdaderos y desconocidos de los parámetros. Esto ha motivado la búsqueda de estrategias para acelerar su convergencia.

En el presente trabajo se explora la estrategia de Knudson (2016), la cual consiste en aproximar la entera función de verosimilitud de un modelo GLMM a través de un muestreo de importancia con una densidad elegida adecuadamente y dependiente de los datos. El trabajo de Knudson se basa en estrategias similares y muy bien estudiadas (Sung y Geyer, 2007; Geyer, 1994), en las que radica el método Monte Carlo de aproximación de la verosimilitud (MCLA). El conjunto de datos utilizado en Knudson (2016) corresponde a un experimento que se realizó en 1986 por científicos del Departamento de Ecología y Evolución en la Universidad de Chicago para estimar las probabilidades de apareamiento efectivo entre salamandras de diferentes especies. Dichas probabilidades son relevantes para un biólogo interesado en la especiación. El biólogo está interesado en saber los valores de las estimaciones de las probabilidades, no le alcanza con solo saber que existen. Se destaca que aún hoy en día este conjunto de datos se sigue utilizando como referencia para evaluar el desempeño de nuevos modelos y métodos de estimación. Un modelo GLMM incorpora de forma natural las probabilidades de apareamiento, ya que contempla el aporte personal de cada salamandra (efectos individuales) y permite trabajar con variables de respuesta no todas independientes entre sí. Por otra parte, un GLMM presenta el desafío de obtener las estimaciones paramétricas por máxima verosimilitud.

Autor(es):Cescato, Federico

Tutor(es): Scavino, Marco

Año: 2021

Acceder a texto completo

El reaseguro surge como una herramienta para la mitigación de los daños causados por los desequilibrios que deben afrontar las compañías de seguros en relación a sus egresos. Esta mitigación se realiza mediante la transferencia y distribución de los riesgos entre la compañía aseguradora y la reaseguradora, de manera que la responsabilidad asumida por la primera en cada contrato y en la cartera global se mantenga debajo de un cierto límite, consistente con su capacidad económica y financiera (Arónica, 2012). La relación entre la seguradora directa y la reaseguradora se realiza mediante un contrato de reaseguro, que especifica las obligaciones entre ambas partes. Estas obligaciones estarán determinadas por el tipo de reaseguro elegido. El presente trabajo se centra en el estudio de reaseguros automáticos, es decir, aquellos que funcionan en base a un contrato que comprende una serie de riesgos cedidos durante un período de tiempo determinado, en particular dentro de esta clase de reaseguros se focalizará en los contratos de reaseguro proporcional, en donde el reasegurador toma una proporción determinada de las primas y de los siniestros. El objetivo general del trabajo es determinar el tipo de reaseguro proporcional ́optimo para una cartera de pólizas de incendio compuesta por datos locales, mediante la aplicación de forma sistemática de una técnica de optimización convexa, propuesta por Bruno de Finetti (de Finetti, 1940) y su respectiva implementación, a partir de una selección de distribuciones de probabilidad para la exposición al riesgo y el costo agregado de los siniestros, utilizando lenguaje R.

Autor(es):Ayala, Daniela - García Chabat, Cecilia

Tutor(es): Scavino, Marco

Año: 2021

Acceder a texto completo

El siguiente trabajo consiste en la implementaciónn de técnicas de aprendizaje estadístico con el fin de realizar predicciones sobre el precio de oferta de los apartamentos a la venta en Montevideo, Uruguay. Para ello, se trabajó con una base de datos de elaboración propia a partir de los apartamentos que se ofertan a través de la plataforma Mercado Libre. La misma contiene información para el periodo comprendido entre el mes de Mayo al mes de setiembre del año 2021. Esto último en la medida que no es posible la obtención de datos históricos. En cuanto a las técnicas de aprendizaje estadístico, se trabajó con algoritmos de Árboles de Decisión y métodos agregados de los mismos como ser Random Forest y Boosting, al igual que con métodos de regresión robusta (Support Vector Regression). Asimismo, se implementó un ajuste mediante un Modelo de Regresión Lineal Múltiple el cual es conocido en la literatura económica como Modelo de Precios Hedónicos y usualmente aplicado en problemas de este índole. Este último con el fin de comparar su capacidad predictiva en relación a las técnicas anteriores. Con respecto a la performance predictiva de los algoritmos, se observó que el ajuste por Boosting presentó una performance predictiva superior, esto último luego de haber ajustado los respectivos parámetros de ajuste. En cuanto al análisis de interpretabilidad de los modelos, se trabajó con métodos modelo-agnósticos, haciendo hincapié en las metodologías importancia de las variables permutadas y gráficos de dependencia parcial. De esta forma, se observó que la distancia entre el apartamento y la rambla este de Montevideo es la variable más importante en el ajuste, y a su vez esta presenta una relación inversa en cuanto a la predicción del precio de oferta del mismo.

Autor(es): Coudet, Lucía - Valiño, Álvaro

Tutor(es): Da Silva, Natalia

Año: 2021

Acceder a texto completo

El presente proyecto busca estudiar el fenómeno inflacionario en Uruguay
para el periodo 1997-2020 desde la perspectiva de la economía de la complejidad mediante
la utilización de dos técnicas de análisis estadístico. Este abordaje se realiza utilizando las
metodologías de análisis de redes y árboles de expansión mínima.
Para la obtención de las redes se construye una matriz de adyacencia para cada periodo
relacionando a los distintos precios a partir de la similaridad en sus dinámicas. Para los árboles de expansión mínima se utiliza el algoritmo de Kruskal para su construcción.
Se constata que el sistema de precios de la economía uruguaya presenta patrones
evolutivos y cambios estructurales ante la ocurrencia de eventos de crisis. A su vez, se
constata que la dinámica del sistema se comporta distinto en función de la estabilidad del
periodo.
El código y los datos necesarios para reproducir el trabajo quedan disponibles en un
repositorio GitLab mediante el (link).
https://gitlab.com/PabloMones/proyecto-final-de-grado-mickaela-martinez-bentancor-pablo-
mones-pazo/-/tree/master

Autor(es): Mickaela Martinez Bentancor - Pablo Mones Pazo

Tutor(es): Gabriel Brida - Emiliano Alvarez

Año: 2020

Acceder a texto completo

El modelo de Wright-Fisher es un modelo clásico dentro de la genética de poblaciones. Éste modela la evolución de la frecuencia de un alelo en una población de tamaño N como una cadena de Markov discreta y con espacio de estados finitos. Debido a la complejidad de las probabilidades de transición de esta cadena, ciertas preguntas no pueden ser resueltas —al menos, no de forma satisfactoria, por la teoría de cadenas de Markov. Históricamente la forma de resolver estas preguntas fue aproximando el modelo discreto por un proceso markoviano continuo, más en particular, por una difusión. Esta aproximación, además de resolver estas preguntas, es útil para estudiar extensiones del modelo de Wright-Fisher a situaciones más complejas. La presente monografía introduce al modelo de Wright-Fisher clásico y su extensión al caso en donde la población está bajo un régimen de selección natural y para cuando existen probabilidades positivas de mutación. Se mostrará la forma de las probabilidades de transición de esta cadena de Markov y se mostrará cómo se puede conseguir un proceso de difusión límite a partir de estas. El estudio de las difusiones será desde dos puntos de vista: uno, teórico, el otro, computacional. El punto de vista teórico pretende estudiar, mediante herramientas de análisis funcional y ecuaciones diferenciales estocásticas, algunos resultados teóricos sobre las trayectorias del proceso de difusión. El punto de vista computacional se centrará en la simulación de estas trayectorias y su visualización.

Autor(es): Martínez, Gerardo

Tutor(es): Fariello, María Inés - León, José Rafael

Año: 2019

Acceder a texto completo

La estimación de densidades es un tema de mucha relevancia en el área de la Estadística. Existen al menos dos métodos para abordar este problema. Por un lado, el enfoque paramétrico asume un modelo de probabilidad para la muestra bajo estudio; mientras que el enfoque no–paramétrico busca relajar estos supuestos a costa de una modelización más compleja y flexible. Independientemente de los métodos de estimación mencionados, se pueden considerar dos enfoques a la hora de abordar cualquier problema en Estadística, en particular el de la estimación de densidades. Estos son: el enfoque clásico y el bayesiano. En este trabajo haremos revisión de una técnica no paramétrica bayesiana. Desde un punto de vista bayesiano, para estimar una distribución, se requiere establecer una distribución a priori en el espacio de las medidas de probabilidad. El Proceso de Dirichlet cumple con esta función. Comenzamos presentando al Proceso de Dirichlet como una medida de probabilidad aleatoria, para luego estudiar en detalle los modelos de mezcla controlados por este proceso. Analizamos en detalle la implementación computacional de esta técnica, comparando su desempeño con el de otras técnicas en datos simulados y reales. Como aplicación interesante realizamos un análisis de temperaturas máximas en el territorio uruguayo.

Autor(es): Hernández, Manuel - Sierra, Mario

Tutor(es): Álvarez-Castro, Ignacio

Año: 2019

Acceder a texto completo

El trabajo tiene como objetivo la modelización de las temperaturas mínimas extremas a partir de los mínimos diarios en la estación meteorológica “La Estanzuela”, ubicada en el departamento de Colonia, Uruguay. El estudio de valores extremos no puede ser abordado mediante técnicas de estimación estándar debido al poco volumen de datos disponible en la cola de la distribución, la cual tendremos por objetivo estimar. En este marco, el trabajo se enfoca en la aplicación de la Teoría de Valores Extremos, realizando una comparación de los dos principales métodos utilizados: Método de Valores Extremos por Bloques y Método de Excesos sobre un Umbral. En una primera instancia, se aplica la Teoría de Valores Extremos bajo los supuestos de independencia e idéntica distribución de los datos. Asimismo, se aplicaron diversas técnicas estadísticas considerando casos donde los supuestos mencionados no se verifican. En ese sentido, se incorporan al modelo tres tipos de dependencia: local, mediante técnicas de declustering, tendencia y estacionalidad.

Autor(es): Cardarello, Mathias - Luraghi, Lorena

Tutor(es): Scavino, Marco - Moreno, Leonardo

Año: 2019

Acceder a texto completo

En este proyecto de grado se estudiaron técnicas de aprendizaje automático y reconocimiento de patrones, utilizadas para el diseño de sistemas de detección de anomalías. Particularmente se profundizó en un algoritmo denominado Fusión de Modelos Bayesiana (Bayesian Model Merging). En el mismo se combinan formalismos de Modelos Ocultos de Markov (Hidden Markov Models), Autómatas Probabilísticos, Inferencia Bayesiana y Teoría de la Información para inferir la gramática probabilística generadora de un lenguaje regular objetivo, a partir de ejemplos de entrenamiento. Se implementó el algoritmo y se experimentó en dos estudio de casos. El primero consistió en aprender un lenguaje creado artificialmente, a partir de 8 ejemplos de entrenamiento. El segundo es un prototipo que reconoce nombres de personas. El propósito fue simular la protección de una aplicación que tiene como tráfico normal nombres de personas. Los resultados son promisorios: en el primer estudio de caso se llegó al modelo generador del lenguaje regular artificial objetivo. En el segundo estudio de caso se logró crear una gramática capaz de reconocer nuevos nombres (sin sobre-generalizar) a partir de 11 ejemplos de entrenamiento.

Autor(es): Montes de Marco, Nicolás

Tutor(es): Goyeneche, Juan José - Betarte, Gustavo - Pardo, Álvaro

Año: 2018

Acceder a texto completo

El objetivo de este informe consiste en mostrar la aplicación de técnicas no paramétricas al estudio de procesos de Poisson no homogéneos (PPNH) en presencia de datos agrupados. Se trabajó con información correspondiente a una red de cajeros automáticos ubicado en Buenos Aires, Argentina. El estudio se centró en el análisis de los retiros de dinero de estos cajeros, con la particularidad de que en lugar de tener la hora exacta de cada extracción - evento del PPNH- se contó con el total de retiros efectuados en tramos de diez minutos. Por este motivo se debió recurrir a técnicas particulares dentro de la estadística no paramétrica. En este estudio se llevó a cabo entonces la modelización, mediante PPNH, de este tipo de eventos, estimando la función de intensidad y la función de intensidad acumulada que caracterizan el proceso según el tramo horario.

Autor(es): Haussmann, Luciana - Romero, Ana Carolina

Tutor(es): Scavino, Marco

Año 2018

Acceder a texto completo

En la presente investigación se implementa una aplicación de la técnica de modelos mixtos para el análisis de datos longitudinales. El objetivo de este estudio es conocer como inciden determinadas variables en la determinación de la capacidad pulmonar, tomando como medida el Pico Flujo Espiratorio (PFE).

La motivación de este estudio, surge a partir del planteo realizado por la sociedad civil residente en la zona próxima a los molinos arroceros, al área Salud Ambiental y Ocupacional del Ministerio de Salud Pública, los cuales alegan aumento en patologías respiratorias a raíz de los procesos industriales de producción de arroz.

El análisis se centra en mediciones de la capacidad pulmonar de niñas y varones de entre 4 y 7 años de edad, matriculados en las escuelas urbanas de la ciudad de Artigas, en 4 tomas a lo largo de un año de monitoreo durante el período 2015–2016.

Los datos utilizados en este estudio, resultan del  trabajo de campo realizado previo a la investigación, en donde se seleccionaron muestras por conglomerados, mediante un diseño sistemático ordenado por sexo y curso. Para cada niña y varón en la muestra sorteada, se tomaron mediciones de peso, talla y capacidad pulmonar, considerando además información obtenida mediante cuestionarios que le fueran entregados a los padres, donde se efectuaron consultas referidas a los antecedentes clínicos del niño o niña y las condiciones ambientales a las que están expuestos.

Se hace foco en las variables asociadas a los procesos de industrialización del arroz (etapa de monitoreo y zona de residencia) y en variables asociadas a los antecedentes del individuo (patologías respiratorias y exposición a humo de tabaco o leña).

Se analizan las mediciones de la capacidad pulmonar de la población de estudio y se contrastan con las referidas a niñas y varones de todo el territorio nacional que no poseen patologías.

Autor(es): Altez de Castro, Yohana - Burguete Eguren, Virginia

Tutor(es):  Alvarez  Vaz, Ramón - Vernazza  Mañan, Elena

Año: 2018

Acceso a texto completo

El estudio se basa en la Encuesta Nacional de Adolescencia y Juventud (ENAJ) realizada en el 2013. En la misma se encuesta a 3.818 jóvenes de 12 a 29 años residentes en las localidades de 5.000 y más habitantes del país. El objetivo del trabajo es la construcción de tipologías de jóvenes en función de sus distintas conductas y determinar en qué medida se asocian las características sociodemográficas y ciertos pensamientos de los jóvenes, a las mismas. Se emplearon técnicas de Análisis factorial, concretamente Análisis de correspondencias múltiples (ACM) para estudiar la asociación del conjunto de modalidades y variables. Para la obtención de grupos se emplean 2 estrategias, por un lado se considera únicamente la información de las variables de conducta y por otro se trata la totalidad de las variables originales donde se utilizan métodos jerárquicos y no jerárquicos que posteriormente son comparados, con el fin de seleccionar la estructura más adecuada. Para la modelización del grupo de pertenencia de cada joven se utilizan técnicas paramétricas y no paramétricas como la Regresión logística y los modelos de decisión del tipo CART (Classification and Regression Tree) respectivamente. Para esto se adopta como estrategia particionar la muestra en muestra de entrenamiento para aplicar las técnicas y muestra de prueba para evaluar su poder predictivo.

Palabra Claves: ACM, Conducta, Clustering, Modelos de clasificación

Autor(es): Brito, Leonardo

Tutor(es): Nalbarte, Laura  – Año: 2018

Acceder al texto completo

El objetivo de este trabajo es encontrar modelos predictivos que describan el conteo de C, P, O y CPO que son indicadores de patologı́a bucal. El indicador CPO señala la experiencia de caries tanto presentes como pasadas, ya que es la suma del número de dientes cariados (C), número de dientes perdidos por la enfermedad (P) y número de dientes obturados(O) para cada individuo. Los datos con los que se trabaja provienen del primer relevamiento en salud oral llevado a cabo por el Servicio de Epidemiologı́a y Estadı́stica de Facultad de Odontologı́a, coordinado conjuntamente con docentes del Instituto de Estadı́stica de Facultad de Ciencias Económicas. Es un estudio realizado en el perı́odo 2010-2011 con un diseño de muestreo probabilı́stico complejo (el cual no será considerado en este trabajo) a la población joven y adulta urbana en sus domicilios, tanto en Montevideo como en el Interior del paı́s. Se relevó información de variables sociodemográficas ası́ como variables clı́nicas. Los datos de conteo muestran, además de sobredispersión, una gran cantidad de ceros, por lo que se trabaja con Modelos Lineales Generalizados con excesos de ceros. Estos son modelos de conteo mixtos ya que combinan variables truncadas. Se modelan los componentes del ı́ndice CPO por separado ası́ como el propio CPO, llegando a verificar que presentan distintos comportamientos en cuanto a su distribución y a las variables explicativas que inciden en su conteo.

Palabra Claves:  CPO, exceso de ceros, modelos de conteo, modelos lineales generalizados, sobredispersión

Autor(es): Pamela Vaucher  – Eloı́sa Martı́nez  – Año: 2017

Tutor(es): Ramón Álvarez Vaz- Ana Coimbra

Acceder al texto completo

En este trabajo se construyen los modelos para obtener curvas de referencia espirométricas en niños uruguayos normales, utilizando los Modelos Aditivos Generalizados de Localización, Escala y Forma, para comparar los resultados con otros estudios internacionales.

La espirometría varía de acuerdo al tamaño de los pulmones, teniendo una relación directa con la estatura. Pero también varía de acuerdo a la etnia y los diferentes países. Por esta razón es necesario desarrollar valores estimados normales en una población de niños uruguayos para poder hacer una comparación dentro de las mismas condiciones ambientales, climatológicas y geográficas.

Los datos utilizados para este fin provienen de una muestra seleccionada a conveniencia de escuelas publicas y privadas del Uruguay por un grupo de investigadores del Centro Hospitalario Pereira Rossell en entre el año 1997 y 1999.

Los resultados obtenidos en este trabajo se comparan con otros, señalando similitudes y diferencias, tanto en metodología como en población muestral. Además, se presentan en modo de tablas y gráficas, los valores de referencia para las variables espirométricas de niñas y niños en relación a la estatura (talla).

Palabra Claves: Ajuste de distribuciones, Espirometría, Modelos GAMLSS, Percentiles, Remuestreo, Test multivariado

Autor(es): Pablo Palamarchuck - Año: 2017

Tutor(es): Ramón Álvarez Vaz- María Eugenia Riaño

Acceder al texto completo

En el contexto de trabajos de investigación hechos en el Instituto de Investigaciones Biológicas Clemente Estable, se hicieron análisis referentes a las señales eléctricas emitidas por una pareja de peces de la especie Brachyhypopomus gauderio, tanto para la automatización en la detección y clasificación de dichas señales, como también para demostrar la teorı́a de que dichas señales interactúan entre sı́. En primera instancia se trabajó con el valor del voltaje de las señales y se acumuló su valor en un cierto intervalo para determinar en qué momento ocurre un pulso o un “chirp”. En cuanto a los pulsos, tomando como base que entre un pulso y el siguiente, el perı́odo no varı́a demasiado, se determinó a qué pez corresponde cada pulso, estimando donde estarı́a el siguiente pulso de cada pez, y clasificándolo como perteneciente a uno u otro pez según cual tenga menor diferencia respecto a lo proyectado. Luego se clasificaron a los chirps utilizando una función polinómica de cuarto grado que describa los chirps al actuar de forma similar a una envolvente, realizando con este polinomio un análisis de conglomerado jerárquico. Para ello se tomaron como datos de los chirps los valores del polinomio en cinco momentos de la duración del mismo: al comienzo, al momento del 25 %, 50 %, 75 % de su duración y finalmente su valor al momento de terminar. Finalmente para probar la interacción de las señales se sometió a prueba un modelo lineal sin interacciones contra uno no lineal que contiene interacciones en la secuencia de pulsos de cada pez y para ello se siguió el siguiente procedimiento:

Se calculó el error con los datos reales en el modelo sin interacciones.

Se simularon secuencias con el modelo sin interacción.

Se aplicaron estos datos simulados al modelo con interacción calculando el error absoluto.

Se ajustó el modelo con interacción a los datos reales calculando el error absoluto.

Se ordenaron los valores de los errores obtenidos en las simulaciones y se observó que el valor del error obtenido en el modelo con interacciones usando los datos reales queda ubicado en el percentil 5 % inferior, de esta forma se rechaza la hipótesis del modelo sin interacciones.

Palabras claves: chirp, conglomerados, pulso, prueba de hipótesis, simulación.

Autor(es):Gonzalo De Armas - Año: 2017

Tutor(es): Enrique Cabaña

Acceder al texto completo

El objetivo principal del presente trabajo es construir una tabla de mortalidad específica para los funcionarios del Banco República Oriental del Uruguay. Motiva dicho trabajo el considerar que éstos podrían llegar a tener una mortalidad menor a la del resto de la población uruguaya, es decir, se esperaría que los mismos presentaran una esperanza de vida superior a la de la población en general debido a la calidad de vida de los funcionarios, ya que los mismos tienen una jornada laboral de lunes a viernes de 6 hora, 30 minutos cuando la mayoría de la población trabaja 8 horas o más, lo cual les permite contar con más tiempo libre para descansar y desarrollar otras actividades como puede ser, actividad física. Actividades que pueden acceder también por sus buenos sueldos y otros beneficios que les brinda el banco a sus funcionarios.

Los datos utilizados fueron brindados por el BROU. Los mismos se conforman de toda la plantilla de funcionarios activos al 31/07/2014.

Para comparar la tabla de mortalidad obtenida se construyen las tablas de mortalidad de la población uruguaya a partir de las tasas de mortalidad del Instituto Nacional de Estadística y las del Banco Central del Uruguay.

Dada la población objeto de estudio, se simulan los fallecimientos de la misma a través de la tasa de mortalidad del BCU mediante el método Monte Carlo pretendiendo ver que tan diferente se comporta la mortalidad de los funcionarios del BROU al utilizar otra tasa de mortalidad.

Por último se proyecta la mortalidad para los próximos cinco años utilizando el modelo de Lee-Carter mediante dos métodos diferentes de estimación de sus parámetros.

Autor(es):Lara Blanco - Año: 2016

Tutor(es): Ramón Álvarez Vaz- Gabriel Camaño

Acceder al texto completo

El presente trabajo de pasantía consistió en la optimización de los recursos humanos de un call center, que permitiera brindar un servicio de calidad. Para este propósito se analizó el problema desde la perspectiva de teoría de colas, en la cual es necesario el estudio de tres procesos: arribos de llamadas, tiempo de servicio y tiempo de espera del cliente.

En la práctica, el número de operadores (servidores) de un call center se aproxima utilizando el modelo M/M/c (Erlang-C). Esto indica que el proceso de arribos es un proceso markoviano, es decir que el tiempo entre dos llamadas consecutivas en el proceso de arribos tiene una distribución exponencial, que el tiempo de servicio en el proceso de servicio tambiénen se distribuye exponencial y que el sistema cuenta con c servidores. En este modelo se asume que los clientes tienen paciencia “infinita”, lo que hace que no exista el abandono. Con los datos de dicho call center se llegó a la conclusión que los arribos de llamadas siguen un proceso de Poisson no homogéneo y su intensidad se estimó de manera no paramétrica. Para los tiempos de servicio, se detecta una distribución bimodal, que, en logaritmo, se ajusta a una mezcla de distribuciones normales. El tiempo de espera del cliente se asumió como determinístico. Con la modelización de estos procesos se construyeron dos funciones, una que simula el funcionamiento del call center para un día de la semana y una segunda que optimiza dicho funcionamiento sujeto al cumplimiento de determinadas medidas de performance.

Es importante aclarar que para los datos observados no se conoce el número de operadores, aunque se sabe que estaba distribuido de manera fija en tres turnos. Los resultados que se presentan son para los días lunes que no son necesariamente representativos del resto de los días de la semana. Con estas consideraciones y teniendo en cuenta las medidas de performance requeridas, se encontró el numero óptimo de operadores que fue 33, distribuidos en los tres turnos de la siguiente manera: 14 en el primer turno, 5 en el segundo y 14 en el último.

Autor(es):Matías Barrenechea - Gustavo González - Año: 2015

Tutor(es): Guillermo Zoppolo-Leonardo Moreno

Acceder al texto completo

En este trabajo se realizaron modelos de Credit Scoring, desarrollados utilizando información de una financiera real. Los Credit Scoring son procedimientos estadísticos que se usan para clasificar a los solicitantes del crédito, inclusive a los que ya son clientes de la entidad crediticia, en los tipos de riesgo Bueno y Malo.

Mediante una puntuación se mide el riesgo de un prestatario y/o de la operación en el momento en el que se está llevando a cabo la solicitud, es decir, se estima cuál será el comportamiento del crédito hasta su vencimiento atendiendo al riesgo del cliente.

Para evaluar el riesgo crediticio o la conveniencia de otorgar un crédito, se utilizan una gran variedad de metodologías. De todas ellas se estudiaron la Regresión Logística y los modelos CART. La variable dependiente es definida como la ocurrencia o no de un acontecimiento, en este caso de ser Malo o Bueno en relación al comportamiento en los pagos. Una vez que se obtuvo un modelo adecuado se procedió a elegir el punto de corte más apropiado y a comprobar cuán bueno fue el ajuste de los valores predichos por el modelo, utilizando otras herramientas. Para la elección del punto de corte se utilizó el estadístico de Kolmogorov-Smirnov junto con la curva ROC y el área debajo de la curva.

Se realizan estimaciones en base a muestras del 90% de la población y luego con el 50%, con el fin de contar con más datos de prueba para evaluar el desempeño del modelo. Luego de probar varias alternativas se decidió que el más adecuado era el que se estimó con una muestra del 50\% incluyendo las siguientes variables: Cantidad de veces que operó, Edad, Sexo, Antigüedad Laboral, Clearing, Ocupación, Cuotas totales, Valor cuota Total de Ingresos.

Los arboles de regresión y clasificación fueron propuestos para separar las observaciones que componen la muestra asignándolas a grupos establecidos a priori. En el proceso de construcción de todos los arboles de clasificación estimados resultan ser ``significativas'' las mismas variables que fueron consideradas en el modelo final de regresión logística. Por este motivo se decide considerar, en la construcción de los árboles, las variables: Cantidad de veces que operó, Sexo, Edad, Antigüedad Laboral, Clearing, Ocupación, Cuotas totales y Valor cuota sobre Total de Ingresos.

Para llevar a cabo el procedimiento se estiman árboles de clasificación considerando una muestra aleatoria simple del 50% de las observaciones y muestras con proporción de clientes clasificados como Bueno y clientes clasificados como Malo. En ambos casos se obtuvieron los arboles completos, luego se evaluó cuál era la poda más adecuada utilizando la medida CP y el error de validación cruzada.

Autor(es):Leticia Colombo Camila Cosentino - Año: 2015

Tutor(es): Ramón Álvarez Vaz- Andrés Castrillejo

Acceder al texto completo

El objetivo principal de este trabajo es determinar el grado de satisfacción general de las viviendas colectivas y locales donde se desarrolla algún tipo de actividad económica, a nivel nacional, con los servicios brindados por UTE, OSE y las distribuidoras de supergas (Acodike, DUCSA, Megal y Riogas). Se mide el grado de satisfacción con el servicio en general y con ciertas áreas específicas que pueden determinar la opinión de los usuarios: calidad del suministro del servicio prestado, información contenida en la factura, atención al cliente, precio en relación a la calidad del servicio e información y comunicación brindada por las empresas prestadoras de servicios a sus clientes.

Para ello se diseñó una Encuesta, que se aplicó a una muestra aleatoria de las viviendas colectivas y locales del universo de interés. El marco de muestreo utilizado fue el registro de usuarios de energía eléctrica que tenían contratada tarifa no residencial en el período Julio 2012 - Junio 2013. La muestra fue seleccionada mediante un diseño estratificado sistemático.

La encuesta fue llevada a cabo por la URSEA (Unidad Reguladora de Servicios de Energía y Agua) con el apoyo del INE que declaró a la misma Estadística Oficial. Con ello se logró darle carácter obligatorio y se garantizó el secreto estadístico de la información recabada.

Se utilizaron modelos de regresión logística para respuesta ordinal con el fin de estimar un modelo para explicar el grado de satisfacción general con el servicio en función del grado de satisfacción de los usuarios con las áreas específicas de calidad consultadas.

Autor(es): Nicolás Costa - María Amalia Rodríguez - Año: 2015

Tutor(es): Inés Urrestarazu-Lercy Barros

Acceder al texto completo

En el presente trabajo se intenta encontrar modelos de series de tiempo estacionales intervenidos (ARIMA-IA) para predecir los precios de los grupos frutas y verduras (FV) del IPC de Uruguay. Para esto, se sigue como estrategia modelar las series utilizando la metodología Box-Jenkins, donde se recurre a un variado herramental (tests y gráficos) de modo de poder identificar los modelos para luego estimarlos, validarlos y finalmente utilizarlos para predecir.

En particular, se busca probar, si existen ganancias, en cuanto al poder predictivo, en estimar los grupos FV desagregados en cada uno de sus productos o conformando subgrupos, frente a estimarlos directamente. Luego se combinan los pronósticos obtenidos y se evalúan utilizando como criterios diversas medidas de error de predicción. De esta manera, se llega a que la desagregación en productos o la formación de subgrupos y la combinación en forma de promedio simple de estos, son las mejores opciones para minimizar el error de acuerdo a las medidas planteadas.

Año: 2014

Autor(es):Margarita Gúenaga

Tutor(es): Silvia Rodriguez Collazo

Acceder al texto completo

En este trabajo se estudian las propiedades psicométricas de un instrumento propuesto para medir la satisfacción estudiantil para los cursos superiores de la Universidad de Beira Interior (Portugal), para luego ver los resultados que surgen de aplicarlo para el caso de la Facultad de Ciencias Económicas y de Administración, UdelaR (Uruguay) El indicador propuesto para medir el nivel de satisfacción estudiantil considera relaciones de causa-efecto entre algunas variables que son consideradas como ``antecedentes'' y otras como ``consecuencia" de la satisfacción. En el primer conjunto de variables se encuentran las expectativas de los alumnos, la imagen que tienen de la facultad, la calidad de la enseñanza y servicios, y el valor percibido, mientras que como ``consecuencias" de la satisfacción se encuentran la lealtad hacia la institución y el impacto en el boca a boca. Los datos utilizados para la aplicación presentada en este trabajo provienen de una encuesta realizada por la Cátedra de Metodología de la Investigación de FCCEEyA, en conjunto con el IESTA, aplicada sobre una muestra probabilística de estudiantes de la facultad, en el año 2009.

El cuestionario aplicado, presenta 9 bloques de preguntas; el primero contiene las variables que permitirán realizar una caracterización de los estudiantes en función de características sociodemográficas. Por otra parte, las variables pertenecientes a los bloques A - H presentan las variables del modelo ECSI (European Customer Satisfaction Index) y serán las utilizadas como insumos para el cálculo del Indice de satisfacción estudiantil. Los resultados presentados surgen en primer lugar, de una comparación directa con los resultados obtenidos para el caso portugués. Por otra parte, se presentan resultados teniendo en cuenta sólo a los estudiantes de la FCCEEyA, considerándolos, en primera instancia, sin distinciones y luego diferenciándolos por sexo y carrera.

Autor(es): Elena Vernazza - Año: 2013

Tutor(es): Ramón Álvarez Vaz - Danny Freira

Acceder al texto completo

El objetivo de esta investigación consiste en ajustar modelos de series temporales a las ventas en plaza de ácido sulfúrico, sulfato de aluminio y fertilizantes, producidos en ISUSA. Se pretende encontrar modelos que contribuyan a la mejora de la gestión comercial de la empresa al hacer más eficientes algunos procesos como la compra de materia prima, la planificación de su producción y la organización y distribución del espacio de almacenamiento.

Autor(es): Romina Gonella Furtado - Año: 2013

Tutor(es): Laura Nalbarte

Acceder al texto completo

La rentabilidad del Fondo de Ahorro Previsional en el sistema de capitalización individual es uno de los factores más importantes en la determinación del quantum de la futura prestación jubilatoria de los trabajadores uruguayos, resultando de relevancia el estudio de su variabilidad . El objetivo del presente trabajo es identificar las principales fuentes de transmisión de la varianza de los retornos previsionales desde el inicio del sistema hasta diciembre de 2010. A dichos efectos, se identifican las variables representativas de los principales riesgos enfrentados por los retornos del portafolio previsional, en el marco de la teoría de fijación de precios de arbitraje (APT). Posteriormente , se aplican modelos econométricos de heterocedasticidad condicional autorregresiva generalizada para analizar la variabilidad de cada una de las series temporales consideradas.

Los enfoques abordados incluyen la construcción de modelos de regresión de varianzas así como de esquemas multivariantes de modelización GARCH. La evidencia obtenida muestra que antes de la crisis económico - financiera que afectó a Uruguay a partir de 2002, el riesgo devaluación así como ciertos riesgos relacionados con instrumentos financieros locales tenían una importancia fundamental en la varianza previsional mientras que después de la citada crisis, el riesgo de crédito así como los riesgos de tasa de interés y de empinamiento en las curvas correspondientes a las monedas relevantes en el portafolio, sobre todo en unidades indexadas, se erigen como los más significativos. Por otro lado, si bien el riesgo de inflación ha sido mitigado por la predominancia de títulos en UI en el portafolio previsional, la vulnerabilidad subsistente de los retornos del FAP al riesgo de devaluación, considerando el actual esquema de tipo de cambio flexible, permite reflexionar sobre la necesidad en el uso de instrumentos derivados, que brinden una eficaz cobertura contra el riesgo de tipo de cambio.

Autor(es): María Nela Seijas - Año: 2013

Tutor(es): Adolfo Sarmiento y Sergio Barszcz

Acceder al texto completo

La tematica que aborda el presente trabajo es determinar las caracterısticas que impactan en la asistencia a un centro educativo de los jóvenes uruguayos de 14 a 17 años de edad. Se toma como fuente de datos los provenientes de la ECH2011 que elabora el INE. Se trabaja con una muestra de 8.868 jóvenes, de los cuales 7.207 asisten a un centro educativo (81,2 %) y 1.661 no asisten (18,8 %). Los datos fueron ponderados de forma de expandirlos a toda la población de interés, es decir los jóvenes de 14 a 17 años de edad. A su vez se adoptó como estrategia particionar dicha muestra en una muestra de entrenamiento, la cual se utilizó para aplicar las técnicas, y una muestra de prueba en la que se evaluó su poder predictivo.

Se realizaron distintos análisis: estadística univariada para la caracterización general de los jóvenes que asisten y de los que no asisten, técnicas paramétricas como ser Modelos Lineales Generalizados y no paramétricas como por ejemplo Análisis Factorial y Arboles de decisión. El Análisis Factorial, en particular Análisis de Correspondencia Múltiple se empleó para la construcción de un ındice sintetico que resuma caracterısticas del hogar (Indice de Confort) y acceso a tecnologías de la información ( ́Indice de TIC’s), para su posterior incorporación al modelo predictivo de la asistencia. Posteriormente se compara la eficiencia de incluir estos indicadores en el modelo vs. incluir las variables que los componen en forma desagregada.

Como complemento a los Modelos Lineales Generalizados se emplea la téc nica de Arboles de decisión, en particular se construyen árboles de clasificación para la variable asistencia. Se analiza su aporte a la descripción de la problemática de la asistencia y se compara su performance con la de los Modelos Lineales Generalizados. Los resultados obtenidos para los distintos modelos reflejan que características como la edad, el ser activo, tener hijos a cargo y ser jefe del hogar tienen un impacto negativo en la asistencia, lo cual (disminuye la probabilidad de asistencia del joven). En cambio características como los años de educación y el clima educativo tienen un impacto positivo. Es decir que cuanto mayor sean los años de educación acumulados por el joven y el clima educativo del hogar mas probable es que asista.

Autor(es): Natalia Caballero y Gerardo Jadra - Año: 2013

Tutor(es): Laura Nalbarte

Acceder al texto completo

Este trabajo de pasantía consiste en el análisis y modelización de la serie diaria de llamadas entrantes al Call Center Hola Itaú de Banco Itaú Uruguay S.A. Para modelizar este proceso de llegada de llamadas se siguió la metodología de Box y Jenkins (1976) mediante un ajuste en tres etapas: identificación, estimación y diagnóstico. La serie de datos presentó algunos datos faltantes, los cuales fueron estimados mediante el “ Enfoque de Outlier Aditivo ” para estimación de datos faltantes, Gómez et al. (1993). Se analizaron, con especial énfasis, las posibles estacionalidades presentes en la serie y el efecto calendario sobre la misma. La estacionalidad principal elegida y tratada de forma estocástica fue la estacionalidad semanal. Se probó una posible estacionalidad secundaria, tratada de forma determinística: la estacionalidad anual, resultando no significativa para el modelo planteado; por otro lado la estacionalidad mensual fue descartada en el inicio a través de un análisis descriptivo.

Para el tratamiento del efecto calendario se definieron siete variables dummy las cuales identificaron los días: feriados, nochebuena y los cinco efectos de feriados que fueron definidos. Este tratamiento del efecto calendario surgió de análisis descriptivos (que se detallan en el cuerpo del documento) y con la ayuda del responsable del Call Center Hola Itaú: Diego Castillo. Se incluyeron diez outliers de tipo AO y un Outlier de tipo TC según la clasificación expuesta en Hillmer et al. (1983). Finalmente, fue identificado un modelo (100) (011) SARIMA con una única estacionalidad estocástica (semanal), al que se le adicionan regresores por efecto calendario e intervenciones. Luego se analizó el modelo como herramienta predictiva en el corto plazo (5 días hábiles), con un error promedio de aproximadamente 10%.

Autor(es): Gastón Cea - Año: 2012

Tutor(es): Silvia Rodríguez Collazo

Acceder al texto completo

En este estudio se analizó en que grado afectan los parásitos intestinales al estado nutricional y antropométrico de los niños de la escuela 317 (Zonal 6 de Montevideo). La investigación fue diseñada para llevarse a cabo en dos momentos del tiempo con una intervención de por medio. Considerando la estructura de dependencia de los datos, las técnicas utilizadas fueron de carácter longitudinal. Las principales conclusiones obtenidas fueron que pese a que el período en el que los niños estuvieron libres de parásitos fue breve,este fue suficiente para que, en promedio, se diera un leve cambio significativo en las variables que resumen el estado antropométrico de esta población.

También se observó que la tenencia o no de saneamiento afectó tanto la situación antropométrica y parasitaria inicial de los niños como el desarrollo antropométrico de los mismos entre etapas.

Autor(es): Federico Alvarez y Fernando Massa - Año: 2012

Tutor(es): Laura Nalbarte y Ramón Álvarez Vaz

Acceder al texto completo

Autor(es): Gabriela Rey Fernández y Ma. Eugenia Rocca Oribe - Año: 2012

Tutor(es): Marco Scavino y Karina Rando

Autor(es): Joaquín Amiel Marcora - Año: 2012

Tutor(es): Madeleine Renom y Marco Scavino

El objetivo principal del presente trabajo es lograr el ajuste de modelos dinámicos de Biomasa de Schaefer (1954) aplicados a recursos pesqueros. A tal efecto se han utilizado datos de la literatura y datos referidos a la especie Cynoscion guatucupa (pescadilla) comercializada en el Uruguay. En primer lugar se ha estudiado el comportamiento de las funciones de -log verosimilitud correspondiente a dos versiones estocásticas del modelo de Schaefer, una con incertidumbre en las observaciones y otra con incertidumbre en el proceso. En cada caso se han identificado regiones óptimas de verosimilitud para los parámetros de interés, la capacidad de carga y la tasa intrínseca de crecimiento.

La segunda parte del trabajo ha sido enfocada al análisis Bayesiano del modelo dinámico de Biomasa de Schaefer con incertidumbre en las observaciones. Dicho análisis se ha implementado mediante el programa OpenBUGS que, en este caso ofrece ventajas computacionales respecto al entorno de programación R utilizado en el resto del trabajo. Los resultados obtenidos sugieren que las técnicas estadísticas aplicadas en este trabajo permiten encontrar los puntos de referencia biológicos adecuados para la pesquería de la especie de interés, tal como el Rendimiento Máximo Sostenible, índice de suma importancia para la preservación de una pesquería

Autor(es): Fernando Brito y María Saravia - Año: 2012

Tutor(es): María Inés Lorenzo y Marco Scavino

Acceder al texto completo

El objetivo general del presente trabajo es conocer qué valor le dan al estudio de la matemática los estudiantes de primer y segundo año de las carreras de grado de Facultad de Química, el cual deriva en tres objetivos específicos. En primer lugar, se quiere explorar la dimensionalidad del cuestionario de valoración de la matemática de Luttrell et a l . (2010) , aplicado a una muestra de estudiantes de la FQ y compararla con la estructura obtenida por los autores en una población de estudiantes universitarios norteamericanos . En segundo lugar, se pretende investigar si alguna de las dimensiones está relacionada con el sexo del estudiante , la institución donde el estudiante cursó el bachillerato (pública/privada y Montevideo/interior), la carrera y la situación curricular de los estudiantes específicamente en Análisis y en Álgebra. En tercer lugar, se procura investigar si alguna de las dimensiones pueden ser posibles variables predictoras del rendimiento académico del estudiante.

Autor(es): María Eugenia Sotelo - Año: 2012

Tutor(es): María Noel Rodríguez Ayán

Acceder al texto completo

Autor(es): Leonardo Moreno, Rodrigo Gadea - Año:2011

Tutor(es): Marco Scavino

Acceder al texto completo

Autor(es): Martín Pierce Urrestarazu - Año: 2011

Tutor(es): Enrique Cabaña

El objetivo de este trabajo fue comparar la eficiencia de varios diseños experimentales en un ensayo de variedades de cebada. Se comparó la eficiencia relativa del diseño de bloques completos al azar contra dos diseños de bloques incompletos y un diseño columna-hilera. Los datos provienen de un ensayo que fue concebido como un diseño columna-hilera con tres bloques en dos localidades en Uruguay. Se testearon 358 genotipos de cebada provenientes de diferentes programas de mejoramiento genético, a los cuales se les midieron 8 variables relacionadas con rendimiento y calidad de grano. Se ajustaron los cuatro modelos para cada una de estas variables. La selección de modelos se realizó mediante la comparación de: el Test de Razón de Verosimilitud (LRT) usando el modelo asociado a bloques completos en la hipótesis nula, Bayesian Information Criterion (BIC), el Cuadrado Medio del Error (CMEE), un Factor de Eficiencia (FE) y la Diferencia Mínima Significativa (DMS).

Autor(es): María Inés Berro Rovella - Año: 2011

Tutor(es): Laura Nalbarte y Lucía Gutiérrez

Acceder al texto completo

El problema de estimación en dominios se encuentra presente en cualquier encuesta por muestreo.Cada vez más los usuarios exigen tener información más desagregada y no solo para la población en su conjunto. En la práctica es imposible satisfacer todos los requerimientos para disponer estimaciones con buenos niveles de precisión usando estimadores convencionales.

El uso de información auxiliar, tanto a la hora de definir el diseño muestral o en el proceso de estimación, es de vital de importancia en el problema de estimación en dominios. Utilizando un muestreo estratificado donde los estratos coinciden con los dominios (planeados), junto con una asignación eficiente de la muestra entre los estratos, por ejemplo utilizando Power Allocation, puede producir buenos resultados. El hecho de poder definir al dominio como un estrato, permite calcular tamaños de muestra específicos para cumplir determinados requisitos de precisión, a su vez, el tamaño de muestra puede ser controlado y fijo si el diseño lo permite.

En los estimadores basados en el diseño se presentaron dos clases de estimadores, calibrados y de regresión, los cuales utilizan información auxiliar en el proceso de estimación. Si la información es potente se obtendrán buenos resultados. La calibración solo hace referencia a la información auxiliar, a utilizar para calcular el nuevo sistema de ponderadores y no hace explícito ningún modelo.

Los estimadores de regresión se apoyan en un modelo dado y la construcción de los mismos se basa en encontrar predicciones de la variable de interés para todos los individuos de la población (o del dominio). Ambas clases de estimadores son consistentes en el diseño y very nearly design unbiased.

Autor(es): Juan Pablo Ferreira - Año: 2011

Tutor(es): Guillermo Zoppolo y Juan José Goyeneche

Acceder al texto completo

El objetivo del presente trabajo es la revisión y análisis de metodologías estadísticas para la obtención de un mapa de riesgo climático en todo el territorio uruguayo, de manera de obtener zonas de comportamiento homogéneas para el fenómeno meteorológico de interés. El fenómeno climático en estudio es el granizo. Se analiza el comportamiento espacio- temporal de dicho fenómeno desde dos perspectivas: 1. Realizar un análisis espacial del fenómeno. La importancia del espacio dentro del estudio estadístico de variables climáticas es incuestionable. En particular se desea analizar el problema de la dependencia espacial del evento climático granizo en una determinada zona geográfica, de manera de poder estimar dicho fenómeno en zonas donde se carece de información. La complejidad del problema aumenta debido a las interdependencias multidireccionales que puedan surgir en el espacio de estudio. 2. Estudiar la conformación de zonas homogéneas según la caída de granizo y otras variables correlacionadas al mismo. Asimismo se desea analizar el comportamiento temporal del evento y sus repercusiones en dicho análisis.

Autor(es): Lucía Rijo y Florencia Santiñaque - Año: 2011

Tutor(es): Laura Nalbarte y Ramón Álvarez Vaz

El trasplante renal es el mejor tratamiento para fallas crónicas de riñón. Muchos estudios muestran que es el método más aceptado socialmente, ya que brinda al paciente una mejor calidad de vida, además tiene el beneficio de ser un tratamiento más económico. El problema de este tratamiento es que la cantidad de riñones provenientes de donantes cadavéricos, no alcanza para satisfacer la necesidad de trasplantes correspondiente a la totalidad de pacientes en lista de espera, que a nivel mundial muestran un incremento contínuo año a año. En el Uruguay, el Instituto Nacional de Donación y Trasplante de Órganos, Tejidos y Células (INDT), es el organismo encargado de las políticas de donación y trasplante. Su laboratorio de Inmunogenética e Histocompatibilidad, unidad de asignación, organiza la lista de espera nacional de receptores para trasplante renal y asigna el órgano a los mismos en base a criterios previamente consensuados.

El modelo de asignación vigente en el país, pretende garantizar transparencia y objetividad en la selección del receptor. Este modelo procura, en forma simultánea, disminuir los tiempos en lista de espera y mejorar el resultado de los trasplantes. Pretende además, permitir el acceso equitativo a dicha alternativa terapéutica, es decir, no favorecer o desfavorecer sistemáticamente a algún grupo de individuos. El modelo de asignación vigente está compuesto por un sistema mixto que combina asignaciones por diagrama de flujo y asignaciones por puntaje. Mediante las asignaciones por diagrama de flujo se prioriza a los pacientes con desventaja médica o biológica o con excelente compatibilidad, mientras que las asignaciones por puntaje consideran en forma ponderada ciertas características de los pacientes (en relación al donante en cuestión o el trasplante).

Autor(es): Diego Forteza - Año: 2010

Tutor(es): Enrique Cabaña y Marco Scavino

Acceder al texto completo

Se presenta una aplicación de la modelización automática para series diarias de actividad económica con detección y estimación conjunta de outliers, mediante un software de libre uso llamado R (www.R-project.org). El objetivo que se persigue es mejorar el programa previamente realizado en Cilintano y Urrutia para poder identificar un modelo que realice predicciones satisfactoriamente sobre arribos de ómnibus a una determinada terminal.

Autor(es): Constancia Urrutia - Año: 2010

Tutor(es): Silvia Rodríguez Collazo y Juan José Goyeneche

Acceder al texto completo

El turismo es uno de los factores que contribuye a la generación del producto de una economía nacional. Se puede señalar que mientras en 1950 el turismo internacional recibía U$S 2,1 mil millones, en 2004 había crecido a U$S 622,7 mil millones. Debido a la creciente importancia del turismo es fundamental que los agentes tanto del sector público como del privado en Uruguay sean capaces de prepararse para recibir a los turistas de la mejor manera. En este sentido, el presente trabajo plantea dos objetivos que ayuden a los actores del sector turístico a conocer en profundidad aspectos básicos que definen a los turistas que recibe el país. El primer objetivo fue estimar el número de turistas que ingresarán
a Uruguay y el segundo, segmentarlos en distintos perfiles.

Para el primer objetivo se utilizaron datos provistos por el Ministerio de Turismo y Deporte del Uruguay. Se contó con tres series temporales de ingreso de turistas, con frecuencias trimestral y mensual y se generó una tercera serie trimestral como la diferencia algebraica de las dos primeras. Para lograr el objetivo planteado se estimaron tres modelos SARIMA-IA (modelo estacional, autorregresivo y de medias móviles con análisis de intervención). Los tres modelos se identificaron de la siguiente manera:

      1. Modelo 1 – Ingreso trimestral de turistas a Uruguay (1993.I-2009.I)
      2. Modelo 2 - Ingreso mensual de turistas a Uruguay (1996.01 – 2009.07)
      3. Modelo 3 – Diferencia algebraica de los dos modelos anteriores con frecuencia

trimestral (1996.I-2009.I)

Se advirtió que la crisis del año 2002 tuvo efecto transitorio para los modelos 1 y 2 mientras que para el modelo 3 tuvo efecto permanente. Otra discrepancia que se encontró es que la variable indicatriz Turismo incidió en el ingreso de turistas a Uruguay en los modelos 1 y 2 pero no afectó particularmente al ingreso de turistas del modelo 3.

El estudio permitió concluir que si se considera el modelo 2 las predicciones indicaron que el número de turistas que ingresará a Uruguay en los próximos doce meses disminuirá (6,42%), mientras que si se considera el modelo 1 las predicciones 4 indicaron que el número de turistas que ingresará a Uruguay en los próximos cuatro trimestres aumentará (6,24%).

Si se considera el modelo 3 es de esperar que el número de turistas que ingresará a Uruguay en los próximos cuatro trimestres aumente ligeramente (0,1%).

Para el segundo objetivo se contó con datos de la Encuesta de Turismo Receptivo 2008 relevados por el Ministerio de Turismo y Deporte de Uruguay. Se plantearon dos análisis, uno con el objetivo de encontrar tipologías de los turistas que ingresaron a Uruguay durante el año 2008 y otro con el objetivo de analizar la evolución temporal de los puntos de salida en los que son encuestados los grupos de viaje a lo largo de los cuatro trimestres del 2008.

En esta parte, los resultados mostraron que en el primer análisis se encontraron cinco grupos y en el segundo análisis se encontraron tres grupos que permitieron definir lineamientos a seguir de acuerdo al perfil del turista que se obtuvo en cada tipología.

Autor(es): Florencia Bacigalupi y Ana Rosenbaum - Año: 2010

Tutor(es): Ramón Álvarez Vaz y Silvia Rodríguez Collazo

Acceder al texto completo

El propósito de esta investigación es explicar y predecir a corto plazo la densidad de cotización de los afiliados a República AFAP. La densidad de cotización es un indicador de frecuencia de aportación de los afiliados que representa la proporción de aportes que realizan los individuos en un intervalo de tiempo determinado.

Este trabajo pretende brindar un mayor entendimiento de la densidad de cotización, considerando su evolución y la relación con otras variables que caracterizan a los afiliados. Respecto a esto último se concluye que el giro de actividad, la franja salarial por la que aporta y la edad están asociados a la densidad de cotización.

Durante el proceso de investigación se evalúan diferentes alternativas metodológicas para modelar la densidad de cotización en las que se aplican modelos lineales de regresión sobre diferentes conjuntos de datos. Una particularidad de estos modelos es la incorporación de un componente dinámico al considerar la variable de respuesta en un momento posterior al de las explicativas.

Los mejores resultados de predicción se obtienen cuando se realiza una agrupación de los afiliados en base a sus antecedentes de aportación.

El mayor alcance de la metodología se logra cuando se aplica a los afiliados cuyo comportamiento en el tiempo de la densidad de cotización es fluctuante. Esta propiedad permite focalizar el análisis en un conjunto de afiliados del cual se tiene
mayor incertidumbre respecto al valor futuro. Para estos casos se obtienen estimaciones de un año dado que superan ampliamente en precisión el dato de la densidad de cotización en años inmediatos anteriores.

La metodología está concebida para estimar la densidad de cotización futura con expresiones construidas a partir de datos del presente y el pasado.

La información disponible a 12 años del inicio del régimen mixto junto con la evolución de la densidad de cotización y la influencia del contexto económico provocan que sólo puedan realizarse estimaciones a corto plazo, entre dos y 4 años. Además de las predicciones a corto plazo mediante modelos lineales se obtiene una función de probabilidad para la densidad de cotización. En particular la distribución asociada es una Beta en la que la media es el promedio de las predicciones de los afiliados del grupo y la dispersión se calcula por máxima verosimilitud. Esto proporciona una visión más global del comportamiento de cada grupo agregando a la estimación puntual datos de su distribución, conociendo cuál es la probabilidad con la que se registran determinados rangos de valores del recorrido.

Dentro de las posibles aplicaciones de los cálculos de predicción puede mencionarse el cálculo jubilatorio y su introducción en distintos estudios de cobertura del sistema provisional, entre otros.

Autor(es): María Elisa Bertinat Tulipano María Fernanda González Pérez - Año: 2009

Tutor(es): Ramón Álvarez Vaz, Gabriel Camaño

Acceder al texto completo

Un problema central en las encuestas de panel es la mortalidad de unidades, que en términos generales es un problema de no respuesta. En este sentido, el trabajo se enfoca en fundamentar el marco teórico apropiado para ponderar individuos cuando se está frente al problema de la no respuesta en general, y en particular, en las encuestas de panel. Luego de una breve introducción sobre las generalidades de las encuestas de panel, en el capítulo 2 se proponen estimadores de cambios entre olas en presencia de respuesta perfecta. Este supuesto es levantado en los capítulos siguientes para proponer métodos para el tratamiento de la no respuesta. En el capítulo 3 se desarrollan las definiciones y el tratamiento general de la no respuesta y se expresan los motivos por los cuales se opta por la aplicación de un enfoque que combina la imputación como tratamiento de la no respuesta en los ítems y la calibración para compensar la no respuesta a la unidad en el marco de las encuestas de panel.

En el capítulo 4 se presentan distintos métodos de imputación y los motivos por los cuales algunos son preferibles a otros; y en el capítulo 5 se define el estimador calibrado, y las condiciones que deben cumplirse para asegurar que el sesgo introducido por la no respuesta sea mínimo. El capítulo 6 incluye la aplicación directa que resulta del cálculo de los ponderadores calibrados en la "Encuesta sobre Situaciones familiares y desempeños sociales en Montevideo y área metropolitana", llevada a cabo en los años 2001 y 2008 por las Facultades de Ciencias Económicas y de Administración y de Ciencias Sociales de la Universidad de la República.

Autor(es): Margarita Antía y Ana Coimbra - Año: 2009

Tutor(es): Juan José Goyeneche y Guillermo Zoppolo

Acceder al texto completo

Autor(es): Meliza González y Cecilia Hastings - Año: 2008

Tutor(es): Laura Nalbarte y Gabriel Camaño

Acceder al texto completo

Autor(es): Paula Bouza y Micaela Mondino - Año: 2008

Tutor(es): Sergio Barszcz y Marco Scavino

Acceder al texto completo

Autor(es): Ignacio Alvarez y Natalia da Silva - Año: 2008

Tutor(es): Silvia Rodríguez

Ver en catálogo

Autor(es): María Noel Mesa y María Eugenia Riaño - Año: 2008

Tutor(es): Laura Nalbarte y Ramón Álvarez Vaz

Autor(es): Martín Couñago - Año: 2008

Tutor(es): Laura Nalbarte y Ramón Álvarez Vaz

Ver en catálogo

Autor(es): Magela Negro - Año: 2008

Tutor(es): Laura Nalbarte

Ver en catálogo

El estudio de grandes bases de datos textuales es materia de sumo interés para investigadores de diversos campos. Los textos insertos en éstas pueden haber sido relevados mediante encuestas socioeconómicas o entrevistas, estudios literarios o políticos o ser parte de archivos históricos o de bases documentales. Consecuentemente, el objetivo de partida de este trabajo de pasantía es hacer una “puesta a punto” de alguna de las herramientas que faciliten la gestión y la descripción de corpus de gran tamaño y que permitan a su vez derivar información de ellos desde un punto de vista estadístico. Estas herramientas pertenecen a la mencionada técnica de Análisis Estadístico de Textos.

De este modo, se presenta un caso práctico particular: el análisis estadístico de un cuestionario utilizado para medir trastornos de conducta en niños y adolescentes donde se aplican,además de una batería de preguntas cerradas –compuestas por los ítems que conforman el test más preguntas sociodemográficas habituales–, dos preguntas de respuesta libre que, mediante la técnica de postcodificación serán analizadas en una primera instancia, y comparadas luego con los resultados obtenidos a partir de la instrumentación del análisis estadístico de textos.

Autor(es): Silvina Rodríguez y Daniel Alessandrini - Año: 2008

Tutor(es): Ramón Álvarez Vaz

Acceder al texto completo

Diversos aspectos naturales del crecimiento y desarrollo de los árboles degradan la calidad de la madera. Es posible controlar mediante manejos silviculturales estos aspectos para producir madera sin defectos. La empresa forestal COLONVADE S.A. instaló en el año 2000 un ensayo en que se probaron diferentes manejos de podas y raleos. El Departamento de Producción Forestal y Tecnología de la Madera de la Facultad de Agronomía evalúa los resultados del experimento hasta el año 2006 a través del trabajo final (tesis de grado) de dos estudiantes. El autor de este trabajo colaboró en el análisis estadístico de los datos, tarea que constituye la base para la elaboración del presente informe final de pasantía.

Autor(es): Jairo Cugliari Duhalde - Año: 2007

Tutor(es): Laura Nalbarte y Juan Cabris

Acceder a texto completo

Autor(es): Leticia Debera-Darío Padula - Año: 2007

Tutor(es): Enrique Cabaña

Autor(es): Inés Urrestarazú - Año: 2005

Tutor(es): Juan José Goyeneche y Silvia Altmark

Ver en catálogo

Autor(es): Lercy Barros y Pablo Miguez - Año: 2004

Tutor(es): Enrique Cabaña

Ver en catálogo

Autor(es): Teresita Fuster Bardier - Año: 2004

Tutor(es): Laura Nalbarte

Enlace de descarga

Autor(es): Oscar Andrés Gutiérrez Sanchez - Año: 2002

Tutor(es): Jorge Blanco y Laura Nalbarte

Ver en catálogo