1 Introdução

  • Aqui o objetivo é analisar conjuntamente duas variáveis aleatórias, \(Y_1\) e \(Y_2\).

  • o par \((Y_1,Y_2)\) é chamado de variável aleatória bidimensional ou vetor aleatório.

  • Cada par de números reais assumidos por \((Y_1,Y_2)\) é representando por um ponto no plano cartesiano \((y_1,y_2)\).

  • O vetor aleatório \((Y_1,Y_2)\) será dito ser discreto se \(Y_1\) e \(Y_2\) forem variáveis aleatórias discretas.

  • e será dito ser contínuo se \(Y_1\) e \(Y_2\) forem variáveis aleatórias contínuas.

Tópicos a serem abordados

O objetivo é estudar:

  • Distribuição Conjunta de Duas Variáveis Aleatórias;

  • Distribuições marginais;

  • A esperança e a variância marginal;

  • Independência

  • Variabilidade conjunta de duas variáveis aleatórias.

2 Distribuição Conjunta de Duas Variáveis Aleatórias Discretas e suas Marginais

Para \((Y_1,Y_2)\) discreto, os seus possíveis valores é um conjunto contável no plano cartesiano \((y_{1i},y_{2j})\), \(i=1,2, \cdots\) e \(j=1,2, \cdots\).

A sua distribuição de probabilidades é:

\[p_{_{Y_{1},Y_{2}}}(y_{1i},y_{2j})=P(Y_1=y_{1i},Y_2=y_{2j}), \]

para \(i=1,2, \cdots\) e \(j=1,2, \cdots\), que satisfaz:

  • \(p_{_{Y_{1},Y_{2}}}(y_{1i},y_{2j}) \geqslant 0\) para \(i=1,2, \cdots\) e \(j=1,2, \cdots\),

  • \(\sum_{i=1}^{\infty}\sum_{j=1}^{\infty} p_{_{Y_{1},Y_{2}}}(y_{1i},y_{2j}) = 1\).

Distribuições marginais

As funções de probabilidades marginais de \(Y_1\) e \(Y_2\) são:

  • \(p_{_{Y_{1}}}(y_{1i})=\sum_{j=1}^{\infty} p_{_{Y_{1},Y_{2}}}(y_{1i},y_{2j})\).

  • \(p_{_{Y_{2}}}(y_{2j})=\sum_{i=1}^{\infty} p_{_{Y_{1},Y_{2}}}(y_{1i},y_{2j})\).

para \(i,j=1,2, \cdots .\)

Esperança e Variância

A esperança e a variância em relação as probabilidades marginais são dadas,respectivamente, por:

  • \(E[Y_{1}]=\sum_{i=1}^{\infty} y_{1i} p_{_{Y_{1}}}(y_{1i})\) para esperança de \(Y_1\),

  • \(E[Y_{2}]=\sum_{j=1}^{\infty} y_{2j} p_{_{Y_{2}}}(y_{2j})\) para esperança de \(Y_2\);

  • \(\sigma_{_{Y_1 }}^2=Var(Y_1)=E[Y_{1}^2]-(E[Y_{1}])^2\) para variância de \(Y_1\);

  • \(\sigma_{_{Y_2 }}^2=Var(Y_2)=E[Y_{2}^2]-(E[Y_{2}])^2\) para variância de \(Y_2\).

Conjunta de Duas Variáveis Aleatórias Contínuas e suas Marginais

  • Se \(Y_1\) e \(Y_2\) são variáreis aleatórias contínuas,

  • a função de densidade conjunta:

\(f_{_{Y_{1},Y_{2}}}(y_{1},y_{2})\), para \((y_1,y_2) \in \mathbb{R}^2\).

Essa densidade satisfaz:

  • \(f_{_{Y_{1},Y_{2}}}(y_{1},y_{2}) \geqslant 0\) para todo \((y_{1},y_{2}) \in \mathbb{R}^2\),
  • \(\int_{-\infty }^{\infty} \int_{-\infty }^{\infty} f_{_{Y_1,Y_2}}(y_1,y_2) = 1\).

Marginais, Esperança e Variância

As distribuições marginais de \(Y_1\) e \(Y_2\) são dadas, respectivamente, por:

  • \(f_{Y_1}(y_{1})=\int_{-\infty }^{\infty}f_{_{Y_1,Y_2}}(y_{1},y_{2}) \partial y_2\).

  • \(f_{Y_2}(y_2)=\int_{-\infty }^{\infty}f_{_{Y_1,Y_2}}(y_{1},y_{2}) \partial y_1\).

A esperança e a variância em relação as probabilidades marginais são dadas,respectivamente, por:

  • \(E[Y_{1}]=\int_{-\infty }^{\infty} y_1 f_{_{Y_1 }}(y_{1}) \partial y_1\);

  • \(\sigma_{_{Y_1 }}^2=Var(Y_1)=E[Y_{1}^2]-(E[Y_{1}])^2\).

Independência

Se \(Y_1\) e \(Y_2\) são independentes, a distribuição conjunta é dada pelo produto das densidades (ou função de probabilidades) marginais:

\[f_{_{Y_{1},Y_{2}}}(y_{1},y_{2})=f_{Y_1}(y_{1}) \times f_{Y_2}(y_{2}), \]

para todo par \((y_{1},y_{2}) \in \mathbb{R}^2.\)

  • Aqui, a recíproca também é verdadeira,

  • se a função de densidade puder ser fatorada como o produto das funções de densidades marginais,

  • então as variáveis \(Y_1\) e \(Y_2\) são independentes.

Relação linear entre duas variáveis aleatórias (covariância)

  • A covariância diz respeito ao valor médio do produto dos desvios das variáreis em relação às suas respectivas médias,

\[Cov[Y_1,Y_2]=E[(Y_1-\mu_1) (Y_2-\mu_2)],\] * \(\mu_1=E[Y_1]\) é a média de \(Y_1\) e

  • \(\mu_2=E[Y_2]\) é a média de \(Y_2\).

A Equação acima pode reescrita da seguinte forma:

\[ \begin{align*} Cov[Y_1,Y_2]&=E[Y_1 Y_2 - Y_1 \mu_2 - \mu_1 Y_2 + \mu_1 \mu_2 ]\\ &=E[Y_1 Y_2]-\mu_2 E[Y_1]-\mu_1 E[Y_2]+\mu_1 \mu_2]\\ &= E[Y_1 Y_2]-E[Y_2]E[Y_1]- E[Y_1]E[Y_2] + E[Y_1] E[Y_2]. \end{align*} \]

Portanto: \(Cov[Y_1,Y_2]=E[Y_1 Y_2] - E[Y_2] E[Y_1].\)

Matriz de Variâncias e Covariâncias

A covariância entre duas variáveis e as variâncias em relação as marginais podem ser sumarizadas em uma matriz quadrada denominada matriz de variâncias e covariâncias como segue:

\[\begin{bmatrix} \sigma_{Y_1}^2 & Cov[Y_1,Y_2] \\Cov[Y_1,Y_2]& \sigma_{Y_2}^2 \end{bmatrix}.\]

  • Se as variáveis têm correlações positivas, as variáveis tendem a mostrar um comportamento semelhante.

  • Se a covariância é negativa, as variáveis tendem a mostrar um comportamento oposto.

Exemplo de Aplicação para duas variáveis discretas

Ao final do terceiro ano do ensino médio, ao realizar a prova do SAEB, os estudantes respondem, entre outras, as seguintes perguntas.

FC: Com que frequência seus pais ou responsáveis costumam conversar com você sobre o que acontece na escola? E: Alguma vez você abandonou a escola deixando de frequentá-la até o final do ano escolar?

Com resposta para ambas sendo uma entre as seguintes.

0: Nunca ou quase nunca. 1: De vez em quando. 2: Sempre.

Tabela de dupla entrada

Considerando os dados do questionário de 2019, uma cidade apresentou as seguintes respostas.

Regularidade de conversa (linhas) vs Evasão (colunas).
RC \ Ev. 0 1 2 Total
0 894 108 36 1038
1 3103 220 53 3376
2 1626 89 18 1733
Total 5623 417 107 6147

Sorteando ao acaso um estudante desse grupo, seja:

\(Y_1\): “resposta da regularidade com que os pais conversam” e

\(Y_2\): “resposta da regularidade da evasão”.

[a] Apresente a distribuição conjunta e marginais do vetor aleatório \((Y_1,Y_2)\).

[b] A matriz de variâncias e covariâncias de \(Y_1\) e \(Y_2\).

Distribuição Conjunta

Considerando os dados do questionário de 2019, uma cidade apresentou as seguintes respostas.

Regularidade de conversa (linhas) vs Evasão (colunas).
RC \ Ev. 0 1 2 Total
0 894 108 36 1038
1 3103 220 53 3376
2 1626 89 18 1733
Total 5623 417 107 6147

Sorteando ao acaso um estudante desse grupo, seja:

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

A Distribuição conjunta são os valores de probabilidade associados a cada possível valor do vetor aleatório.

\(p(Y_1,Y_2)\)
p(0,0) = 0.145
p(0,1) = 0.018
p(0,2) = 0.006
p(1,0) = 0.505
p(1,1) = 0.036
p(1,2) = 0.009
p(2,0) = 0.265
p(2,1) = 0.036
p(2,2) = 0.003

Distribuição Conjunta

Essa distribuição pode ser mostrada na tabela de dupla entrada.

\(p(Y_1,Y_2)\) = aprox.
p(0,0) = 0.145
p(0,1) = 0.018
p(0,2) = 0.006
p(1,0) = 0.505
p(1,1) = 0.036
p(1,2) = 0.009
p(2,0) = 0.265
p(2,1) = 0.036
p(2,2) = 0.003
Total = 1

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

\(Y_1\) \ \(Y_2\) 0 1 2 Total
0 0.145 0.018 0.006 0.169
1 0.505 0.036 0.009 0.549
2 0.265 0.014 0.003 0.282
Total 0.915 0.068 0.017 1

Distribuição Marginal de \(Y_1\)

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

\(Y_1\) \ \(Y_2\) 0 1 2 Total
0 0.145 0.018 0.006 0.169
1 0.505 0.036 0.009 0.549
2 0.265 0.014 0.003 0.282
Total 0.915 0.068 0.017 1

A Distribuição marginal de \(Y_1\) é dada por: \[p(Y_1) = \sum_{Y_2} p(Y_1,Y_2)\]

  • \(p(0) = p(0,0) + p(0,1) + p(0,2)\)

  • \(p(1) = p(1,0) + p(1,1) + p(1,2)\)

  • \(p(2) = p(2,0) + p(2,1) + p(2,2)\)

\((Y_1,Y_2)\) \(p(Y_1,Y_2)\)
0 0.169
1 0.549
2 0.282
Total 1

Distribuição Marginal de \(Y_2\)

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

\(Y_1\) \ \(Y_2\) 0 1 2 Total
0 0.145 0.018 0.006 0.169
1 0.505 0.036 0.009 0.549
2 0.265 0.014 0.003 0.282
Total 0.915 0.068 0.017 1

A Distribuição marginal de \(Y_2\) é dada por: \[p(Y_2) = \sum_{Y_1} p(Y_1,Y_2)\]

  • \(p(0) = p(0,0) + p(1,0) + p(2,0)\)

  • \(p(1) = p(0,1) + p(1,1) + p(2,1)\)

  • \(p(2) = p(0,2) + p(1,2) + p(2,2)\)

\(Y_2\) \(p(Y_1,Y_2)\)
0 0.915
1 0.068
2 0.017
Total 1

Esperanças Marginais

\(Y_1\): “regularidade com que os pais conversam”

\((Y_1,Y_2)\) \(p(Y_1,Y_2)\)
0 0.169
1 0.549
2 0.282
Total 1

\(E[Y_1]=\sum_{Y_1=0}^2 Y_1 p(Y_1)\)

## [1] 1.113

\(E[Y_1^2]=\sum_{Y_1=0}^2 Y_1^2 p(Y_1)\)

## [1] 1.677

\(Y_2\): “regularidade da evasão”.

\(Y_2\) \(p(Y_1,Y_2)\)
0 0.915
1 0.068
2 0.017
Total 1

\(E[Y_2]=\sum_{Y_2=0}^2 Y_1 p(Y_2)\)

## [1] 0.103

\(E[Y_2^2]=\sum_{Y_2=0}^2 Y_1^2 p(Y_2)\)

## [1] 0.137

Desvios-padrões Marginais

\(Y_1\): “regularidade com que os pais conversam”

\((Y_1,Y_2)\) \(p(Y_1,Y_2)\)
0 0.169
1 0.549
2 0.282
Total 1

\(\sigma_{Y_1}^2 = {E[Y_1^2] - E[Y_1]^2}\)

## [1] 0.438

\(Y_2\): “regularidade da evasão”.

\(Y_2\) \(p(Y_1,Y_2)\)
0 0.915
1 0.068
2 0.017
Total 1

\(\sigma_{Y_2}^2 = {E[Y_2^2] - E[Y_2]^2}\)

## [1] 0.126

Esperança do produto \(Y_1 \times Y_2\)

\((Y_1,Y_2)\) = produto Prob.
(0,0) -> 0 0.145
(0,1) -> 0 0.018
(0,2) -> 0 0.006
(1,0) -> 0 0.505
(1,1) -> 1 0.036
(1,2) -> 2 0.009
(2,0) -> 0 0.265
(2,1) -> 2 0.036
(2,2) -> 4 0.003

A probabilidade de um determinado produto é igual a soma das probabilidades conjuntas que resultam naquele produto. Exemplo:

\[p(0) = p(0,0)+p(0,1)+p(0,2)+p(2,0)+p(1,0)\]

Deste modo, obtemos a seguinte distribuição para o produto.

\(Y_1\times Y_2\) \(p(Y_1 \times Y_2)\)
0 0.939
1 0.036
2 0.045
4 0.003
Total 1

Esperança do produto

## [1] 0.138

Covariancia

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

\(Cov[Y_1,Y_2] = E[Y_1 \times Y_2] - E[Y_1]\times E[Y_2]\)

## [1] 0.023

A covariância e as variâncias marginais podem ser dispostas em uma matriz.

0.438 0.023
0.023 0.126

Coeficiente de correlação

Temos que, quanto maior for o valor da covariância entre duas variáveis, maior será o grau da relação linear entre elas.

Assim, para facilitar a quantificação dessa associação, definimos o coeficiente de correlação, que é uma medida entre -1 e 1, como segue

\[ \rho=\frac{Cov[Y_1,Y_2]}{\sqrt{\sigma_{_{Y_1 }}^2 \sigma_{_{Y_2 }}^2}}.\]

Correlação

\(Y_1\): “regularidade com que os pais conversam” e

\(Y_2\): “regularidade da evasão”.

\[ \rho=\frac{Cov[Y_1,Y_2]}{\sqrt{\sigma_{_{Y_1 }}^2 \sigma_{_{Y_2 }}^2}}.\]

## [1] 0.098

As correlações também podem ser apresentadas em uma matriz, como segue:

\[\begin{bmatrix} 1& \rho \\\rho& 1 \end{bmatrix}.\]

Neste caso, a digonal da matrix é composta por uns.

Análise descritiva da relação linear entre duas variáveis contínuas

Para ilustrar a exploração do relacionamento entre duas variáveis, considere o Índice de Gravidade Global (IGG). O IGG é um método de avaliação para defeitos de revestimentos em concreto asfáltico. Esse método usa fatores de ponderação, sendo comumente aplicado em qualquer tipo de revestimento flexível.

### correlação
cor(y1,y2)
## [1] 0.6789465

Relacão linear empírica

Dispersão da Deflexão observada em uma rodovia versus o IGG.

Gráfico de dispersão.

Gráfico de dispersão.