Friday 29 September 2017

Loess Vs Moving Average


Mike, primeiro instale R (se você ainda não), execute R e instale o pacote TeachingDemos (exatamente como depende do seu sistema), carregue o pacote com a biblioteca (TeachingDemos) e digite loess. demo para abrir a página de ajuda para ver Como executá-lo, você pode rolar para a parte inferior, onde é o exemplo e copiar e colar esse código na linha de comando R39s para ver os exemplos e, em seguida, executar com seus próprios dados para explorar ainda mais. Ndash Greg Snow 23 de março 12 às 17:15 Aqui está uma resposta simples, mas detalhada. Um modelo linear se encaixa em um relacionamento através de todos os pontos de dados. Este modelo pode ser de primeira ordem (outro significado de linear) ou polinômio para explicar a curvatura, ou com splines para explicar diferentes regiões com um modelo de governo diferente. Um ajuste LOESS é uma regressão ponderada localmente movida com base nos pontos de dados originais. O que significa que A LOESS se encaixa na entrada dos valores X e Y originais, além de um conjunto de valores de saída X para os quais calcular novos valores de Y (geralmente os mesmos valores de X são usados ​​para ambos, mas muitas vezes menos valores X são usados ​​para pares XY ajustados Devido ao aumento da computação necessária). Para cada valor de saída X, uma porção dos dados de entrada é usada para calcular um ajuste. A porção dos dados, geralmente de 25 a 100, mas tipicamente 33 ou 50, é local, o que significa que é a porção dos dados originais mais próximos de cada valor de saída X específico. É um ajuste em movimento, porque cada valor de saída X requer um subconjunto diferente dos dados originais, com pesos diferentes (veja o próximo parágrafo). Este subconjunto de pontos de dados de entrada é usado para executar uma regressão ponderada, com pontos mais próximos do valor de saída X, com maior peso. Essa regressão geralmente é de segunda ordem ou superior é possível, mas requer maior poder de computação. O valor Y desta regressão ponderada calculada na saída X é usado como o valor dos modelos Y para este valor X. A regressão é recalculada em cada valor de saída X para produzir um conjunto completo de valores de saída Y. Respondeu 21 de fevereiro às 21: 08 Uma média simples de suavização pode ser interpretada como uma regressão linear local com um kernel retangular. Um kernel retangular atribui pesos iguais (lê importância) a cada ponto que se encontra dentro do suporte do kernel (janela de leitura). Se você acha que esta suposição encapsula seus pressupostos de modelagem de forma adequada, então você não tem motivos para não escolher uma média móvel simples para suavização. Se você acha que essa suposição é um pouco simplificada demais. Leia junto. Vamos supor que olhamos dados (yi, ti), mas, na verdade, o que está acontecendo é que yi y (ti) epsiloni onde y tem uma forma paramétrica estranha mas suave e epsilon sim N (0, sigma2). Ao suavizar, tentamos estimar y. Podemos seguir em frente e ajustar um modelo em todos os dados, como: y beta0 beta1 t epsilon (ou um polinômio de grau superior), mas nós suspeitamos que isso seja muito restritivo. Temos a compreensão implícita de que os dados próximos a um ponto de tempo t são mais relevantes para o valor y (t) do que os dados mais longe de t. Então, decidimos construir uma janela em torno de t, diga t-b, tb onde b é uma largura de banda. Agora, se o pressuposto é que todos os pontos dentro de t-b, tb são igualmente importantes para estimar y (t), então um kernel retangular onde todos os pontos são ponderados o mesmo é perfeito para nós. Mas talvez pensemos. Dentro da janela, alguns pontos centrais importam mais e tentamos outro kernel) (por exemplo, triangular ou Epanechnikov) que atribui maior importância aos pontos centrais. Ou, na verdade, não estamos realmente certos sobre a assunção de uma janela para começar, então, tenhamos um teste de kernel (por exemplo, Gaussian) que tem suporte infinito. (B sempre deve ser estimado usando validação cruzada). A regressão linear local dá a capacidade de testar e, de fato, incorporar todos esses pressupostos para nossas estimativas finais para y. Finalmente, deixe-me notar que as baixinhas não utilizam regressão linear localmente ponderada para suavizar os dados, mas são apenas um tipo de métodos polinomiais locais (por exemplo, o estimador NadarayaWatson, um dos primeiros estimadores desse tipo) usado na regressão semi-paramétrica. Outros modelos (por exemplo, métodos de penalidade de rugosidade, como suavização de spline) também estão disponíveis, veja Modelos Estatísticos A. C. Davison. Chapt. 10.7 para uma breve e concisa introdução. Respondeu Apr 3 16 em 3: 01LOESS é um dos muitos métodos modernos de modelagem que se baseiam em métodos clássicos, como regressões de mínimos quadrados lineares e não lineares. Métodos de regressão modernos são projetados para abordar situações em que os procedimentos clássicos não funcionam bem ou não podem ser efetivamente aplicados sem mão-de-obra indevida. LOESS combina grande parte da simplicidade da regressão dos mínimos quadrados lineares com a flexibilidade da regressão não linear. Ele faz isso ajustando modelos simples para subconjuntos localizados dos dados para criar uma função que descreve a parte determinística da variação nos dados. ponto por ponto. Na verdade, uma das atrações principais deste método é que o analista de dados não é necessário para especificar uma função global de qualquer forma para caber um modelo aos dados, apenas para caber segmentos dos dados. O trade-off para esses recursos é o aumento da computação. Por ser tão computacionalmente intensivo, LOESS teria sido praticamente impossível de usar na era em que a regressão dos mínimos quadrados estava sendo desenvolvida. A maioria dos outros métodos modernos para modelagem de processos são similares a LOESS a este respeito. Esses métodos foram conscientemente projetados para usar nossa capacidade computacional atual com a maior vantagem possível para atingir objetivos que não são facilmente alcançados por abordagens tradicionais. Definição de LOESS Modelo LOESS, originalmente proposto por Cleveland (1979) e desenvolvido por Cleveland e Devlin (1988). Indica especificamente um método que é (um tanto) mais descritivamente conhecido como regressão polinomial ponderada localmente. Em cada ponto do conjunto de dados, um polinômio de baixo grau é adequado a um subconjunto dos dados, com valores explicativos de variáveis ​​próximos do ponto cuja resposta está sendo estimada. O polinômio está em forma, utilizando os mínimos quadrados ponderados, dando mais peso aos pontos próximos ao ponto cuja resposta está sendo estimada e menos peso em pontos mais distantes. O valor da função de regressão para o ponto é então obtido avaliando o polinômio local usando os valores da variável explicativa para esse ponto de dados. O ajuste LOESS está completo depois que os valores da função de regressão foram computados para cada um dos (n) pontos de dados. Muitos dos detalhes desse método, como o grau do modelo polinomial e os pesos, são flexíveis. O intervalo de opções para cada parte do método e padrões típicos são brevemente discutidos em seguida. Subconjuntos Localizados de Dados Os subconjuntos de dados usados ​​para cada quadrado mínimo ponderado ajustados em LOESS são determinados pelo algoritmo vizinho mais próximo. Uma entrada especificada pelo usuário para o procedimento chamado de largura de banda ou parâmetro de suavização determina a quantidade de dados utilizada para caber em cada polinômio local. O parâmetro de suavização, (q), é um número entre ((d1) n) e (1), com (d) denotando o grau do polinômio local. O valor de (q) é a proporção de dados utilizados em cada ajuste. O subconjunto dos dados utilizados em cada ajuste de mínimos quadrados ponderados é composto pelos pontos (nq) (arredondados para o inteiro maior), cujos valores de variáveis ​​explicativas estão mais próximos do ponto em que a resposta está sendo estimada. (Q) é chamado de parâmetro de suavização porque controla a flexibilidade da função de regressão LOESS. Valores grandes de (q) produzem as funções mais suaves que mais minguam em resposta a flutuações nos dados. Quanto menor (q) é, mais próxima a função de regressão será conforme aos dados. Usando um valor muito pequeno do parâmetro de suavização não é desejável, no entanto, uma vez que a função de regressão eventualmente começará a capturar o erro aleatório nos dados. Os valores úteis do parâmetro de suavização geralmente estão no intervalo de 0,25 a 0,5 para a maioria das aplicações LOESS. Grau de polinômios locais Os polinômios locais adequados a cada subconjunto dos dados são quase sempre de primeiro ou segundo grau, ou seja, localmente linear (no sentido da linha reta) ou localmente quadrático. Usar um polinômio de zero grau transforma LOESS em uma média móvel ponderada. Um modelo local tão simples pode funcionar bem para algumas situações, mas nem sempre pode aproximar a função subjacente o suficiente. Os polinômios de grau superior funcionariam em teoria, mas produzem modelos que não estão realmente no espírito de LOESS. LOESS baseia-se nas ideias de que qualquer função pode ser bem aproximada em um pequeno bairro por um polinômio de baixa ordem e que modelos simples podem ser adequados aos dados com facilidade. Os polinômios de alto grau tendem a superar os dados em cada subconjunto e são numericamente instáveis, dificultando os cálculos precisos. Conforme mencionado acima, a função de peso dá o maior peso aos pontos de dados mais próximos do ponto de estimativa e o menor peso para os pontos de dados que estão mais longe. O uso dos pesos baseia-se na idéia de que os pontos próximos uns dos outros no espaço variável explicativo são mais prováveis ​​de estar relacionados um ao outro de uma maneira simples do que pontos que estão separados. Seguindo essa lógica, os pontos que provavelmente seguirão o modelo local melhor influenciam o parâmetro do modelo local. Os pontos que são menos propensos a se conformarem com o modelo local têm menos influência nas estimativas dos parâmetros do modelo local. A função de peso tradicional usada para LOESS é a função de peso tri-cubo, w (x) esquerda (1 - x3) 3 mbox

No comments:

Post a Comment