Arquivos

2012
2013

2014





SEMINÁRIOS - Ano de 2017
Local: Sala 2076 do ICEx-UFMG
Horário: 13:30h.  Mudanças de sala ou horários estarão junto à data da palestra.

2o. semestre de 2017


18/08/2017 às 11:10h - Sokol Ndreca (DEST)

Título: Asymptotics for the queueing system with exponentially delayed arrivals

Resumo: In this talk we consider a stochastic point process i + tau_i, where i in Z and the tau_i's are i.i.d. exponential random variables. Some properties of this process are investigated. We then study a discrete time single server queueing system with this process as arrival process and deterministic unit service time. We obtain a functional equation of the bivariate probability generating function of the stationary distribution for the system. The functional equation is quite singular, does not admit simple solution. We find the solution of such equation on a subset of its set of definition. Finally we prove that the stationary distribution of the system decays super-exponentially fast in the quarter plane. The queueing model, motivated by air and railway traffic, has been proposed by Kendall and others some five decades ago, but no solution of it has been found so far.

Note: this talk is based on a joint work with Gianluca Guadagni, Carlo Lancia and Benedetto Scoppola, Asymptotics for the Late Arrivals Problem, http://arxiv.org/abs/1302.1999


16/08/2017 às 11:30h (excepcionalmente) - Iddo Ben-Ari (University of Connecticut - USA)

Título: Cut-off for a random walk with catastrophes

Resumo: We study a stochastic model for population with catastrophes. We study the ergodicity of the model through coupling, and show, among other things, that the model exhibits the cutoff phenomenon.


1o. semestre de 2017


11/08/2017 às 13:30h - Marc G. Genton (King Abdullah University of Science and Technology (KAUST), Saudi Arabia)

Título: Directional Outlyingness for Multivariate Functional Data

Resumo:  The direction of outlyingness is crucial to describing the centrality of multivariate functional data. Motivated by this idea, we generalize classical depth to directional outlyingness for functional data. We investigate theoretical properties of functional directional outlyingness and find that it naturally decomposes functional outlyingness into two parts: magnitude outlyingness and shape outlyingness which represent the centrality of a curve for magnitude and shape, respectively. Using this decomposition, we provide a visualization tool for the centrality of curves. Furthermore, we design an outlier detection procedure based on functional directional outlyingness. This criterion applies to both univariate and multivariate curves and simulation studies show that it outperforms competing methods. Weather and electrocardiogram data demonstrate the practical application of our proposed framework. We further discuss an outlyingness matrix for multivariate functional data classification as well as plots for multivariate functional data visualization and outlier detection. The talk is based on joint work with Wenlin D


07/07/2017 às 13:30h - Bárbara da Costa Campos Dias

Título: Exact Bayesian inference in spatio-temporal Cox processes driven by multivariate Gaussian processes

Resumo: Será apresentado o artigo Exact Bayesian inference in spatio-temporal Cox processes driven by multivariate Gaussian processes (Gonçalves and Gamerman, 2017). Este trabalho servirá como base para a construção de um novo modelo para processos de Cox espaço-temporais, considerando uma função de intensidade constante por partes. No artigo é apresentado uma nova metodologia para realização da inferência Bayesiana em processos de Cox espaço-temporais, onde a função intensidade depende de um processo Gaussiano multivariado. Os processos Gaussianos Dinâmicos são introduzidos para permitir a evolução da função de intensidade em tempo discreto. A novidade do método reside no fato de que não há erro de discretização envolvido, apesar da não tratabilidade da função de verossimilhança e da dimensionalidade infinita do problema. O método é baseado em um algoritmo MCMC que amostra da distribuição a posteriori conjunta dos parâmetros e das varáveis latentes do modelo. Exemplos reais e simulados ilustram a metodologia, seguida de observações finais.

Referências: F. B. Gonçalves and D. Gamerman. Exact bayesian inference in spatio temporal cox processes driven by multivariate gaussian processes. To appear in Journal of the Royal Statistical Society B


30/06/2017 às 13:30h - Uriel Moreira Silva

Título: Particle-based Inferente in Hidden Markov Models

Resumo: Hidden Markov Models (HMMs) are a special class of bivariate stochastic process where, conditional on a “hidden" Markov chain, only a part of the process is observed and available for inference. Although this class of models was formalized and developed as early as 1966 by L. E. Baum and his coworkers, it is perhaps the most frequently studied and applied class of models in the time series and stochastic processes literature, with an extensive and diverse set of applications, ranging from Economics to Bioinformatics. Whenever the Markov chain state space is finite, exact results are available for parameter and state estimation by use of the forward-backward procedure, also known as the Baum-Welch algorithm. On the other hand, if the state space is infinite and/or uncountable (in which case the model is also known as a state-space model ), exact results are rarely available outside of the linear Gaussian framework. In this context, a class of algorithms known as sequential Monte Carlo or particle filters is relevant for performing computationally efficient parameter and state inference by exploiting the sequential and Markovian nature of the HMM. By using particle filters, state estimation is straightforward and manageable even with naive and inefficient implementations. On the other hand, parameter inference is much more involved, with naive methods having a quadratic cost in the number of particles which makes them unfeasible for some applications. In this work, theoretical and empirical properties of parameter estimation procedures are discussed and proposed for both batch and online estimation, making inference suitable for “static" applications - such as volatility estimation - as well as for “dynamic" applications - such as tracking and signal processing.


23/06/2017 às 13:30h - Prof. Alexandre B. Simas (MAT-UFPb)

Título: Principal Components Analysis for Semimartingales and Stochastic PDE

Resumo: In this work, we develop a novel principal component analysis (PCA) for semimartingales by introducing a suitable spectral analysis for the quadratic variation operator. Motivated by high-dimensional complex systems typically found in interest rate markets, we investigate correlation in high-dimensional high-frequency data generated by continuous semimartingales. In contrast to the traditional PCA methodology, the directions of large variations are not deterministic, but rather they are bounded variation adapted processes which maximize quadratic variation almost surely. This allows us to reduce dimensionality from high-dimensional semimartingale systems in terms of quadratic covariation rather than the usual covariance concept. The proposed methodology allows us to investigate space-time data driven by multi-dimensional latent semimartingale state processes. The theory is applied to discretely-observed stochastic PDEs which admit finite-dimensional realizations. In particular, we provide consistent estimators for finite-dimensional invariant manifolds for Heath-Jarrow-Morton models. More importantly, components of the invariant manifold associated to volatility and drift dynamics are consistently estimated and identified. The proposed methodology is illustrated with both simulated and real data sets.


09/06/2017 às 13:30h - Prof. Adrian P. H. Luna (DEST/UFMG)

Título: Misturas de Distribuições de Gibbs

Resumo: Na modelagem de redes complexas tais como as que aparecem nas redes sociais,  no mercado de ativos na bolsa de valores, ou nas interações entre as proteínas, as interações entre os agentes podem ser consideradas como de “campo médio”, isto é, eles interagem observando o “comportamento” médio de diferentes grupos.

O modelo clássico que estuda este fenômeno é um  modelo de distribuição de Gibbs conhecido como Modelo de  Curie-Weiss, embora seja fisicamente incorreto, ele é muito útil no estudo do fenômeno da interação entre grupos.

Nesta palestra descreveremos resultados recentes para estes fenômenos, no caso de ter dois grupos que interagem entre eles via campo médio “bipartido”. Primeiro no caso em que não tem evolução temporal (“no equilíbrio”) e depois o caso dinâmico (“fora do equilíbrio”).

Finalmente consideramos o limite  de  um sistema de equações estocásticas que interage via campo médio, o modelo de McKenan-Vlasov,  para este sistema tem resultados similares ao caso do modelo de Curie-Weiss fora do equilíbrio. Mostraremos a lei dos grandes números  deste sistema no caso de dois grupos que interagem via campo médio.

Esse é um trabalho em conjunto com Aniura Milanes.


02/06/2017 às 13:30h - Prof. Bernardo Lanza Queiroz (CEDEPLAR/UFMG)

Título: National and subnational experience with estimating the extent and trend in completeness of registration of deaths in Brazil and other developing countries 

Resumo: In this paper, we analyze the evolution of the completeness of death counts coverage in Brazil and its regions since 1980. We also review some applications for some developed and less developed countries using vital registration and census data. We review a series of studies on the quality of mortality registration for the country, states and small areas, compare and contrast different approaches and results. Finally, we produce estimates at the city level and discuss the limitation and importance of producing small areas demographic estimation for public health planning and population forecasts.


19/05/2017 às 13:15h (**Excepcionalmente**) - Prof. Fredy Castellares (DEST/UFMG)

Título:  Processo Múltiplo de Poisson e a Distribuição de Bell

Resumo:  Um Processo Múltiplo de Poisson é um processo que permite que num pequeno intervalo de tempo aconteçam mais de um evento “simples” de Poisson.  Este processo é caracterizado como uma convolução enumerável de Processos de Poisson.  

Apresentamos a distribuição de Bell, com um único parâmetro, como uma entre as infinitas soluções deste processo múltiplo. Esta distribuição tem interessantes propriedades matemáticas e estatísticas: A distribuição é infinitamente divisível, é fortemente uni-modal, têm infinitos momentos, a função característica tem forma elementar, etc. De outro lado, o Modelo Estatístico Bell associado é identificável, pertence à família exponencial, existem estimadores completos e suficientes para o parâmetro. O estimador de máxima verossimilhança é a função de Lambert-W da média amostral. O índice de dispersão é uma função linear crescente do parâmetro e, portanto, o modelo de Bell pode ser usado para modelar superdispersão. O modelo Bell pode ser aplicado também em modelos de contágio, acidentes e teoria de Filas. 


28/04/2017 às 13:15h (**Excepcionalmente**) - Prof. Bernardo Nunes Borges de Lima (MAT/UFMG)

Título:  A mágica sequência de Bruijn

Resumo: Falaremos a sequência de  de Bruijn, cuja definição por enquanto é segredo! Esta sequência importante em Combinatória tem diversas aplicações na Matemática utilizada em computação, como em criptografia ou visão computacional. Além disso, ela pode ser a base de ótimos truques de mágica.


07/04/2017 às 13:30h - Prof. Marcos Oliveira Prates (DEST/UFMG)

Título: Um passeio por aplicações e problemas em diferentes áreas da Estatística nas quais tenho dedicado o meu tempo.

Resumo: Nesse seminário apresento temas de pesquisa que tenho trabalhado e me dedicado nos últimos anos. Passeamos um pouco sob o mundo de Aprendizado de Máquina, Estatística Espacial e outros temas estatísticos que tenho tentado contribuir com o desenvolvimento e melhoria dos métodos. Os trabalhos que irão ser apresentados quase sempre possuem um motivação práticas e exemplos das aplicações serão apresentados.


31/03/2017 às 13:30h - Profa. Denise Duarte (DEST/UFMG)

Título: Inferência para Cadeias de Markov de Alcance Variável Contaminadas Estocasticamente

Resumo: Este trabalho aborda a questão de inferir se uma amostra observada de um processo estocástico foi contaminada ou não por um ruído aleatório. 

Analisamos esse problema considerando que o processo oculto original pertence a uma grande classe de processos onde a ordem de dependência no passado não é fixa, mas variável de acordo com a informação do passado. A questão que queremos responder é: Dada uma amostra  observada de um processo estocástico é possível saber se esta  amostra está ou não contaminada por algum ruído aleatório? Através dessa amostra contaminada é possível mensurar o grau de contaminação dessa amostra? E ainda descobrir a verdadeira fonte aleatória da qual os dados originais foram gerados? 

Modelos com tais características são chamados na literatura de Modelos de Markov Oculto de Alcance Variável (VLHMM).  Apresentamos estimadores consistentes para os parâmetros dos modelos estudados, onde a simplicidade desses modelos nos permite aplicar um algoritmo EM para obter os estimadores.

Além disso, apresentamos um estudo de sensibilidade dos estimadores para verificar o comportamento dos estimadores propostos na medida em que o nível de contaminação aumenta. Como aplicação da nossa metodologia a dados reais realizamos uma análise de um banco de dados do Laboratório de Neurodinâmica da Visão da UFMG.


24/03/2017 às 13:30h - Prof. Renato Martins Assunção (DCC/UFMG)

Título: De Fisher até o "Big Data": continuidades e descontinuidades

Resumo: Em dois grandes trabalhos, em 1922 e 1925, Fisher introduziu muitas das ideias (parâmetros, suficiência, eficiência, máxima verossimilhança) que, aliadas à teoria da decisão de Wald em 1950, sustentaram a estrutura da estatística até os anos 80. A partir daí, tivemos o início da introdução de computadores para armazenar e analisar "grandes dados". Os conceitos da era Fisheriana evoluíram em resposta à este novo ambiente. "Suficiência" evoluiu para "compressão de dados", o conceito de "eficiência" teve de incluir considerações computacionais e questões de escala, "parâmetros" e "máxima verossimilhança" tiveram de ser atualizados para o contexto de modelos semi e não paramétricos, modelos maiores que os anteriores e com a preocupação de ter robustez. O aumento constante da capacidade computacional nos últimos 30-40 anos permitiu a implementação prática do ponto de vista Bayesiano. Tivermos o uso disseminado de métodos intensivos de computador como o "bootstrap" de Efron, bem como a introdução do "aprendizado de máquina" do ponto de vista e com métodos de ciência da computação. Após uma visão geral desse desenvolvimento histórico, vou apresentar alguns exemplos de meu trabalho recente.