Finanzas de empresas IESTA
En actualización.
Integrantes
Diego Araujo, Ramón Álvarez-Vaz, Mauro de la Vega, Margarita Roldós.
Enlace: https://gitlab.com/iesta.fcea.udelar/finanzas-de-empresas-iesta
Liga Uruguaya de Basketball 2019/20
El objetivo del presente documento de trabajo es analizar desde la perspectiva estadística y la visualización de datos, los tiros ejecutados en la Liga Uruguaya de Basketball 2019-2020. En el trabajo se realiza un análisis descriptivo de los tiros en la Fase Regular y se hace un especial seguimiento de la serie de playoff disputada por los equipos de Nacional y Defensor Sporting en cuartos de final.
Integrantes
Ignacio Álvarez-Castro, Lucas Barreiro, Martín Grau, Martín Batista Andrés Sosa-Rodríguez.
Como implementar algunos modelos de imputación múltiple para datos de panel
Los datos faltantes son todo un reto en los análisis estadísticos porque los resultados que arrojan tienen limitaciones. La imputación, entendida como el proceso de reemplazar los datos faltantes con un valor estimado, es un problema regular en los proyectos de investigación. Existen muchos modelos y paqueterías destinada para este proceso, sin embargo, la selección del modelo de imputación adecuado al tipo de datos disponibles es trascendental para la fiabilidad del resultado. En este estudio se trabaja con una tabla de datos cruzada que involucran series de tiempo (datos panel) para 33 países y 17 variables (Índice de Gini anual para período 2000-2016), con un 24 % de datos faltantes. Con el objetivo de imputar estos datos, se utilizó un modelo de imputación múltiple propuesto por Honaker y King (2010) y se agregaron algunas restricciones al sistema. Los principales resultados obtenidos, conducen a la siguiente interrogante Se puede confiar en la imputación?
Integrantes
Diana Del-Callejo-Canal, Margarita Edith Canal-Martínez, Elena Vernazza, Alar Urruticoechea, Ramón Álvarez-Vaz.
Red de Investigación del IESTA
El presente trabajo corresponde a una primera visualización del cuerpo de investigadores del Instituto de Estadística de la Facultad de Ciencias Económicas y Administración de la Universidad de la República utilizando análisis de redes sociales. Se buscarán construir distintas redes de acuerdo con las características que se quieren investigar obteniéndose información que puede ser de utilidad para la dirección del Instituto. También se realiza una sistematización teórica acerca de la metodología a utilizar que puede ser de utilidad para futuras investigaciones en esta área. Los datos utilizados se encuentran en la carpeta "data" con el nombre "datos_red_iesta.xlsx". El script y las funciones utilizadas para el análisis de los mismos se encuentran en la carpeta "R" con el nombre "red_Iesta".
Integrantes
Pablo Mones y Ramón Álvarez-Vaz.
Enlace: https://gitlab.com/iesta.fcea.udelar/red-de-investigaci-n-del-iesta
APVP de Tránsito en Uruguay
Los Años Potenciales de Vida Perdidos (APVP) son un indicador demográfico que permite cuantificar cuantos años, en promedio, se han dejado de vivir por un conjunto de causas de muerte, en particular. Se calculan como la sumatoria, para todos los fallecimientos, de la diferencia de años entre la edad del fallecido y una cierta edad límite L, que en la presente investigación se especifica como la esperanza de vida a la edad x.
Los siniestros de tránsito en el Uruguay son una de las causas externas con mayor cantidad de decesos y una de las primeras en el grupo de edad que comprende los 15 a 45 años.
Puede concluirse que las muertes y APVP por siniestros de tránsito tienen un perfil masculino, joven, donde las muertes entre conductores de motocicletas dominan en el aporte al total de APVP. Si se compara entre los distintos escenarios de siniestros, las muertes entre quienes viajaban en una motocicleta tienen una mediana de edad inferior a los 30 años, mientras que las muertes entre los peatones se caracterizan por una mediana superior a los 60 años.
Integrantes
Gonzalo De Armas, Mauro Loprete, Ramón Álvarez-Vaz.
Enlace: https://gitlab.com/iesta.fcea.udelar/apvp-de-transitos-en-uruguay
Modelos de Segregación de Schelling basados en Agentes
Extensiones al modelo de segregación de Schelling
El repositorio contiene los archivos necesarios para reproducir los resultados presentados en el artículo "Extensiones al modelo de segregación de Schelling - primera parte" El archivo principal "schelling_analisis,R" en la carpeta \R llama los archivos correspondientes a cada uno de los modelos explorados y produce las visualizaciones.
En este primer trabajo se introduce el modelo de Schelling, se resumen algunas de las extensiones mas relevantes que se han propuesto hasta el momento y seproponen 4 nuevas extensiones. Para monitorear los resultados de que cada modelo se utilizan un conjunto de indicadores o métricas que permiten evaluar el grado de segregación obtenido y la trayectoria seguida en cada caso. De estos ejercicios se desprenden un conjunto de resultados, por ejemplo, que la incorporación de preferencias individuales aleatorias, no necesariamente profundiza los resultados en términos de segregación. Por otro lado, la inclusión de un mecanismo de retroalimentación a partir del cual los agentes se vuelven menos tolerantes a medida que la segregación se incrementa genera dinámicas interesantes. En este escenario, la reducción de oportunidades de intercambio entre las distintas clases/grupos/etnias que conviven en el espacio urbano conduce a la estereotipación y estigmatización mutua, dando lugar a que la formación de pequeños guetos, incluso en presencia de agentes inicialmente muy tolerantes, pueda desencadenar un proceso que termine con un espacio urbano altamente segregado y con muy bajos niveles de tolerancia entre grupos. El trabajo utiliza el lenguaje de programación R para implementar el modelo, realizar las simulaciones y el análisis de escenarios.
Integrantes
Ramón Álvarez-Vaz, Silvia Rodríguez-Collazo, Daniel Ciganda.
Enlace: https://gitlab.com/iesta.fcea.udelar/extensiones-al-modelo-de-segregaci-n-de-schelling
Incertidumbre en los años potenciales de vida perdidos
Estimación de los Años Potenciales de Vida Perdidos y su incertidumbre para las muertes por isquemia cardíaca para Uruguay en 2018
El primer objetivo de este proyecto es demostrar la utilidad del indicador Años Potenciales de Vida Perdidos (APVP) para la evaluación del nivel/impacto de la mortalidad y el desarrollo de políticas sanitarias. El segundo objetivo es contribuir a la incorporación de la perspectiva probabilística al tratamiento de la información demográfica.
Los APVP proveen una perspectiva diferente y complementaria a otros indicadores del nivel de mortalidad más frecuentemente utilizados, como la esperanza de vida, al permitir evaluar el impacto ocasionado por las muertes prematuras asociadas a distintas causas.
Se plantean diferentes alternativas de cálculo de los APVP que Arriaga (1996) describen como la suma algebraica de los años de vida que potencialmente hubiesen vivido los individuos que fallecen por una cierta causa considerando una cierta edad límite $L$ de supervivencia. Se proponen 3 variantes para fijar el límite L. Por un lado se fija L como un valor fijo, considerando también ese límite como la esperanza de vida al nacer y consignado como $L_0$ y finalmente una tercer variante del límite establecido como la esoeranza de vida a la edad X, consignado como $L_x$
El enfoque tradicional utilizado en Demografía consiste en considerar el número de muertes por determinada causa en un determinado período de tiempo como el reflejo de un fenómeno determinístico. El enfoque propuesto en ese trabajo consiste en entender estas cantidades como la realización de un proceso estocástico, es decir entender la mortalidad como un proceso con un componente aleatorio. Esto implica tratar los APVP como una variable aleatoria, que debe ser caracterizada también por su incertidumbre. Para eso se propone como primera alternativa estimar la varianza de los APVP por isquemia cardíaca en Uruguay en 2018 y recoger la variabilidad en el muestreo mediante simulación Monte Carlo, usando la técnica Bootstrap. Se plantea también como complemento a la evaluación puntual del APVP y su varianza, considerar el cambio de ese índice condicionado a la edad x, denominado $APVP_x$, para el que se construye una banda de confianza en base a los cuantiles empíricos.
En el directorio "funciones" se encuentra el código de R necesario para calcular los indicadores y obtener la salida gráfica.
En el directorio "Shiny" se encuentra el código de R necesario para la creacion de la aplicacion web. La siguiente se puede acceder a traves del siguiente link : https://alvaro3432.shinyapps.io/APVP/
Integrantes
Gonzalo de Armas; Alvaro Valiño; Juan Ignacio Baccino; Daniel Ciganda; Ramón Álvarez-Vaz; Silvia Rodríguez-Collazo; Daniel Ciganda.
Enlace: https://gitlab.com/GimeseIesta/incertidumbre-en-los-apvp
raschreg-package: Item Response Theory regression models
The library raschreg was created and mantained by a group of statisticians from Universidad de la República, Uruguay. It's primary pourpose is to provide R users with a framework for Item Response Theory (IRT) models, allowing for the possibility to include regression effects for the person parameters.
Provides a set of functions to estimate, simulate and visualize Item Response Theroy models such as: Rasch model, Rasch model with a common discrimination parameter and the Two Parameter Logistic model). Inclusion of regression effects of the ability paramters are allowed. Marginal log-likelihood is approximated using the Laplace method.
Maintainer: Fernando Massa
Link: https://rdrr.io/github/nando11235813/raschreg/man/raschreg-package.html
Grupo de Movilidad
En el año 2016 el Instituto de Estadística de la Facultad de Ciencias Económicas y de Administración llevó adelante el trabajo de campo de la Encuesta de Movilidad en el Área Metropolitana de Montevideo. Esto fue el puntapié inicial para que un grupo de investigadores comenzara a estudiar el análisis de matrices de origen - destino desde la perspectiva de la Estadística Espacial.
Actualmente la línea de investigación principal del grupo es la estimación de las celdas vacías de la matriz de origen – destino, así como también la evaluación de métodos para la modelización de viajes (o flujos) en una matriz de origen – destino.
Se espera que los resultados obtenidos sean aplicables a otras áreas del conocimiento, en donde se utilice una matriz de origen – destino, como ser comercio internacional, migración, turismo, logística, entre otros.
Integrantes
M. E. Riaño; M. Hansz; F. Massa; A. Rey; A. Castrillejo
Enlace: https://github.com/grupomovilidad/grupomovilidad.github.io
metawRite
metawRite package is part of GSoC (Google Summer of Code) project 2017. Systematic reviews are used to understand how treatments are effective and to design disease control policies, this approach is used by public health agencies such as the World Health Organization. Systematic reviews in the literature often include a meta-analysis that summarizes the findings of multiple studies. It is critical that such reviews are updated quickly as new scientific information becomes available, so the best evidence is used for treatment advice. However, the current peer-reviewed journal based approach to publishing systematic reviews means that reviews can rapidly become out of date and updating is often delayed by the publication model. Living systematic reviews have been proposed as a new approach to dealing with this problem. The main concept of a living review is to enable rapid updating of systematic reviews as new research becomes available, while also ensuring a transparent process and reproducible review. Our approach to a living systematic review will be implemented in an R package named metawRite. The goal is to combine writing and analysis of the review, allowing versioning and updating in an R package . metawRite package will allow an easy and effective way to display a living systematic review available in a web-based display. Three main tasks are needed to have an effective living systematic review: the ability to produce dynamic reports, availability online with an interface that enables end users to understand the data and the ability to efficiently update the review (and any meta-analysis) with new research [@elliott2014living]. metawRite package will cover these three task integrated in a friendly web based environment for the final user. This package is not a new meta-analysis package instead will be flexible enough to read different output models from the most used meta-analysis packages in R (metafor, meta among others), organize the information and display the results in an user driven interactive dashboard. The main function of this package will display a modern web-based application for update a living systematic review. This package combines the power of R, shiny and knitr to get a dynamic reports and up to date meta-analysis results remaining user friendly. The package has the potential to be used by a large number of groups that conduct and update systematic review such as What Works clearinghouse (https://ies.ed.gov/ncee/WWC/) which reviews education interventions, Campbell Collaboration https://www.campbellcollaboration.org that includes reviews on topics such as social and criminal justice issues and many other social science topics, the Collaboration for Environment Evidence (http://www.environmentalevidence.org) and food production and security (http://www.syreaf.org) among others.
In the project description the web application only contains three main results; Report, Pairwise meta-analysis and Network meta-analysis. This structure have changed and new modules have been included. The user can write a protocol and also a report in rmarkdown format, also the user can do a search in PUBMED and other repositories and a summary result of a pairwise meta-analysis is available.
The summary results are available using metafor package and some extensions to other packages are needed in the future.
Autores
The PPforest package
The PPforest
package (projection pursuit random forest) contains functions to run a projection pursuit random forest for classification problems. This method utilize combinations of variables in each tree construction. In a random forest each split is based on a single variable, chosen from a subset of predictors. In the PPforest
, each split is based on a linear combination of randomly chosen variables. The linear combination is computed by optimizing a projection pursuit index, to get a projection of the variables that best separates the classes. The PPforest
uses the PPtree
algorithm, which fits a single tree to the data. Utilizing linear combinations of variables to separate classes takes the correlation between variables into account, and can outperform the basic forest when separations between groups occurs on combinations of variables. Two projection pursuit indexes, LDA and PDA, are used for PPforest
.
Proyecto a cargo de Natalia Da Silva.