Definição de Regressão Linear – O Que É? (Exemplos)

0
330

Última Atualização 29 de janeiro de 2025

IADES (2017):

QUESTÃO CERTA: A análise de regressão consiste no estudo da dependência de uma variável, denominada variável dependente, em relação a uma ou mais variáveis, conhecidas como explanatórias, buscando estimar o valor médio da população da primeira em termos dos valores conhecidos das segundas, obtidos por amostragens repetidas.

IADES (2017):

QUESTÃO ERRADA: Uma relação estatística, quando forte e sugestiva, indica o estabelecimento de conexão causal.

Uma relação estatística forte e sugestiva não implica necessariamente uma relação causal. Correlação não implica causalidade. Mesmo que duas variáveis apresentem uma associação estatística significativa, isso pode ocorrer devido a:

  1. Causalidade reversa – A relação pode ser na direção oposta ao que se supõe.
  2. Variáveis ocultas (ou de confusão) – Uma terceira variável pode estar influenciando ambas as variáveis analisadas.
  3. Coincidência ou viés de amostragem – A correlação pode ser espúria, resultado de um viés nos dados.

Para estabelecer causalidade, são necessárias abordagens adicionais, como experimentos controlados, inferência causal ou análise de séries temporais com técnicas avançadas.

IADES (2017):

QUESTÃO ERRADA: Uma variável estocástica é aquela que pode ser predita com certeza, e não probabilisticamente.

Uma variável estocástica é uma variável aleatória, ou seja, seu valor não pode ser determinado com certeza, mas sim descrito por uma distribuição de probabilidade. Isso significa que o valor que ela assume depende de um processo aleatório.

Se uma variável pudesse ser predita com certeza, ela seria determinística, e não estocástica. Variáveis estocásticas são fundamentais em estatística, aprendizado de máquina e teoria das probabilidades para modelar fenômenos incertos.

 

IADES (2017):

QUESTÃO ERRADA: A análise de regressão da dependência de uma variável em relação a duas variáveis explanatórias é conhecida como análise de regressão simples.

A análise de regressão que envolve uma variável dependente e duas variáveis explanatórias é chamada de regressão múltipla, e não de regressão simples.

  • Regressão simples: há apenas uma variável explanatória (ou independente) para prever a variável dependente.
  • Regressão múltipla: há duas ou mais variáveis explanatórias sendo usadas para prever a variável dependente.

Portanto, a afirmação está incorreta.

 

IADES (2017):

QUESTÃO ERRADA: Uma série temporal é uma observação de vários dados em um mesmo ponto do tempo.

Errado.

Uma série temporal consiste em observações de uma variável ao longo do tempo, ou seja, os dados são coletados em diferentes momentos, geralmente em intervalos regulares (diários, mensais, anuais, etc.).

A afirmação descreve, na verdade, um conjunto de observações em um único instante no tempo, o que seria mais característico de dados cross-section (seccionais), e não de uma série temporal.

Portanto, a afirmação está incorreta.

CEBRASPE (2010):

QUESTÃO CERTA: A análise de regressão é a técnica mais utilizada quando se deseja estudar o comportamento de uma variável dependente em relação a outras que sejam responsáveis pela variabilidade observada nos preços. Quando se usam modelos de regressão, faz-se necessário observar os seus pressupostos básicos, principalmente no que se refere à sua especificação, normalidade, homocedasticidade, não multicolinearidade, não autocorrelação, independência e inexistência de pontos atípicos, no sentido de obter avaliações não tendenciosas, eficientes e consistentes. Tendo como referência inicial as informações apresentadas acima e a NBR 14653, assinale a opção correta a respeito da verificação dos pressupostos do modelo citado: A verificação da normalidade pode ser realizada pelo exame do histograma dos resíduos amostrais padronizados, com o objetivo de verificar se sua forma guarda semelhança com a da curva normal.

A multicolinearidade verificada no gráfico dos resíduos versus variável independente espelha a existência dos respectivos pontos atípicos (aqui foi descrito o método para estudar se há pontos influenciantes ou ‘outliers’; para estudar a multicolinearidade, deve-se usar a matriz das correlações ou correlacionar cada variável com subconjuntos de outras variáveis independentes).

A verificação da autocorrelação será realizada por meio da análise do gráfico resíduos padronizados

Advertisement
 (cotejadosversus valores ajustados, cuja reta é paralela à bissetriz do primeiro quadrante (deve apresentar pontos dispersos aleatoriamente, sem nenhum padrão definido; a aproximação da bissetriz do primeiro quadrante é uma forma de avaliar a ‘normalidade’).

A homocedasticidade, propriedade relacionada à forte dependência linear (na verdade, essa forte dependência é característica da colinearidade ou multicolinearidade; o correto seria “os erros são variáveis aleatórias com variância constante” ) entre duas ou mais variáveis independentes no modelo, será verificada por meio da análise da matriz das correlações (também é para colinearidade; o correto seria análise gráfica dos resíduos vs valores ajustados ou testes de Park e de White).

A verificação da normalidade pode ser realizada pelo exame do histograma dos resíduos amostrais padronizados, com o objetivo de verificar se sua forma guarda semelhança com a da curva normal.

A linearidade deve ser verificada a partir da construção de gráficos dos valores observados para a variável dependente versus valores transformados dessa mesma variável dependente (cada variável independente), com as respectivas transformações.

Fonte: Anexo A – NBR 14653-2

FGV (2008):

QUESTÃO CERTA: regressão é uma aplicação especial da regra de classificação, onde a regra é considerada uma função sobre variáveis, mapeando-as em uma classe destino.

De acordo com Elmasri e Navathe, regressão é uma aplicação especial da regra de classificação, em que a regra é considerada uma função sobre variáveis, mapeando-as em uma classe destino.

Se a afirmação for considerada certa, então a interpretação precisa ser reformulada para fazer sentido dentro do contexto estatístico e de aprendizado de máquina. A ideia por trás da afirmação pode estar relacionada ao fato de que tanto a classificação quanto a regressão são problemas de mapeamento de variáveis preditoras para um resultado. A diferença fundamental é que, enquanto na classificação a saída é discreta (pertencente a uma classe específica), na regressão a saída é contínua. Se aceitarmos a afirmação como correta, então devemos entendê-la no sentido de que a regressão pode ser vista como um caso particular de um modelo preditivo, onde, em vez de atribuir uma classe discreta, atribuímos um valor numérico contínuo. Essa interpretação, no entanto, não é convencional e pode gerar confusão, já que, em termos práticos e teóricos, regressão e classificação são problemas distintos dentro do aprendizado supervisionado.