Unsupervised Machine Learning: PCA

Em python no repositório:https://github.com/samantaleke/Unsupervised_PCA

Utiliza somente Variáveis Métricas (quantitativas), pois utiliza método/correlação de Person.

Objetivo é agrupamento em fatores.

Muito utilizado para diminuir a dimensão, a quantidade de variáveis, exemplo, de 200 variáveis métricas diminui para 102 variáveis métricas.

Exemplos de utilização:

  • Criar um indicador/ranking que seja utilizado como critério de preço.

Um método exploratório sem fins preditivos.

Análise de Construtos

  • Identificação de Padrões: agrupando variáveis que medem o mesmo construto subjacente.
  • Redução de quantidade de variáveis: Redução de quantidade de variáveis métricas.
  • Eliminação de Redundância: Remove informações redundantes, mantendo a variabilidade principal dos dados de origem.

Funcionamento

Antes de iniciar

Análise preliminar, verifificar a correlação de Pearson (1) e esfericidade de Bartlett (2), antes de prosseguir com PCA.

  1. Correlação de Pearson.

PCA se basei nas correlações entre variáveis para criar os fatores, correlação de Pearson (relação linear entre 2 variáveis) e se são estatisticamente significantes.

O coeficiente de correlação de Pearson mede a intensidade e a direção da relação linear entre duas variáveis. Ele é calculado pela razão entre a covariância das variáveis e o produto dos seus respectivos desvios-padrão.

Em termos matemáticos:

ρ=[1ρ12ρ1kρ211ρ2kρk1ρk21] \rho = \begin{bmatrix} 1 & \rho_{12} & \cdots & \rho_{1k} \\ \rho_{21} & 1 & \cdots & \rho_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{k1} & \rho_{k2} & \cdots & 1 \end{bmatrix}
ρ12=i=1n(X1iX1)(X2iX2)i=1n(X1iX1)2i=1n(X2iX2)2 \rho_{12} = \frac{ \sum_{i=1}^{n}(X_{1i} – \bar{X}_1)(X_{2i} – \bar{X}_2) }{ \sqrt{\sum_{i=1}^{n}(X_{1i} – \bar{X}_1)^2} \cdot \sqrt{\sum_{i=1}^{n}(X_{2i} – \bar{X}_2)^2} }

De forma simplificada, podemos interpretar a fórmula como: Covariância de 2 variáveis, dividido pelo produto dos 2 desvios padrão.

ρ12=covariância entre X1 e X2desvio-padrão de X1×desvio-padrão de X2 \rho_{12} = \frac{ \text{covariância entre } X_1 \text{ e } X_2 }{ \text{desvio-padrão de } X_1 \times \text{desvio-padrão de } X_2 }

ou seja:

ρ12=Cov(X1,X2)sX1sX2 \rho_{12} = \frac{ \operatorname{Cov}(X_1, X_2) }{ s_{X_1} \cdot s_{X_2} }

A covariância, presente no numerador, indica se duas variáveis tendem a variar na mesma direção ou em direções opostas. Já os desvios-padrão, no denominador, padronizam essa relação, permitindo que o coeficiente fique limitado entre -1 e 1.

Assim:

1ρ1 -1 \leq \rho \leq 1

Interpretação:

Valor de (ρ)Interpretação
Próximo de 1Forte correlação positiva
Próximo de -1Forte correlação negativa
Próximo de 0Baixa ou nenhuma relação linear

No contexto do PCA, essa matriz é usada para entender como as variáveis se relacionam entre si. Quando há variáveis muito correlacionadas, o PCA consegue combinar essas informações em novos componentes principais, reduzindo a dimensionalidade dos dados sem perder muita informação.

2) Adequação Global da análise fatorial com método de Esfericidade de Bartlett

Após a construção da matriz de correlações de Pearson, foi aplicado o teste de esfericidade de Bartlett com o objetivo de avaliar a adequação global dos dados à análise fatorial/PCA.

No teste de esfericidade de Bartlett, a hipótese nula estabelece que a matriz de correlações de Pearson (ρ)(\rho) é igual à matriz identidade (I)(I).

Isso significa que as correlações entre as variáveis fora da diagonal principal são nulas, indicando ausência de associação linear entre elas.

Já a hipótese alternativa afirma que a matriz de correlações é diferente da matriz identidade, ou seja, existe correlação entre pelo menos algumas variáveis, tornando a aplicação do PCA mais adequada.

No teste de esfericidade de Bartlett, as hipóteses são:

  • Hipótese nula H0: A hipótese nula H0H_0H0​ afirma que a matriz de correlações de Pearson é igual à matriz identidade. Portanto, se não rejeitamos H0H_0H0​, entende-se que a matriz de correlações é próxima da identidade, indicando pouca ou nenhuma correlação entre as variáveis. Nesse caso, o PCA não é muito indicado.

  • Hipótese alternativa H1​: A hipótese alternativa H1H_1H1​ afirma que a matriz de correlações de Pearson é diferente da matriz identidade. Portanto, se rejeitamos H0H_0H0​, geralmente com p-valor < 0,05, conclui-se que a matriz de correlações difere significativamente da identidade, indicando que há correlação suficiente entre as variáveis para prosseguir com o PCA.

Ou seja, queremos testar se as variáveis são praticamente não correlacionadas entre si.

H0: ρ=I H_0:\ \rho = I
H0: ρ=[1ρ12ρ1kρ211ρ2kρk1ρk21]=I=[100010001] H_0:\ \rho = \begin{bmatrix} 1 & \rho_{12} & \cdots & \rho_{1k} \\ \rho_{21} & 1 & \cdots & \rho_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{k1} & \rho_{k2} & \cdots & 1 \end{bmatrix} = I = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{bmatrix}

H1: ρI H_1:\ \rho \neq I
H1: ρ=[1ρ12ρ1kρ211ρ2kρk1ρk21]I=[100010001] H_1:\ \rho = \begin{bmatrix} 1 & \rho_{12} & \cdots & \rho_{1k} \\ \rho_{21} & 1 & \cdots & \rho_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{k1} & \rho_{k2} & \cdots & 1 \end{bmatrix} \neq I = \begin{bmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1 \end{bmatrix}

Se não rejeitamos H0H_0H0​: a matriz de correlações é próxima da identidade → PCA não é muito indicado. Se rejeitamos H0H_0H0​, com p-valor < 0,05: a matriz de correlações difere da identidade → há correlação suficiente para prosseguir com o PCA.

Se o resultado for a hipótese H1 (alternativa), ou seja, matriz de correlação de Person é diferente de uma matriz de identidade.

Iniciando PCA (extração dos fatores)

Autovalor

A dimensão da matriz sempre será quantidade de variáveis que tem, e a quantidade de autovalores tambem, ou seja, 4 observações = 4 dimensões de uma matriz e = 4 autovalores = 4 fatores.

A matriz de correlações de Pearson (ρ)(\rho), com dimensão K×KK \times K, possui KK autovalores (λ)(\lambda), que são obtidos a partir da seguinte condição:

det(ρ−λI)=0

Essa expressão representa a equação característica da matriz. Ao resolver essa equação, encontramos suas raízes, que correspondem aos autovalores.

De forma expandida, temos a matriz: 1λρ12ρ1kρ211λρ2kρk1ρk21λ=0\begin{vmatrix} 1-\lambda & \rho_{12} & \cdots & \rho_{1k} \\ \rho_{21} & 1-\lambda & \cdots & \rho_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{k1} & \rho_{k2} & \cdots & 1-\lambda \end{vmatrix} = 0

No contexto do PCA, os autovalores indicam a quantidade de variância explicada por cada componente principal. Quanto maior o autovalor, maior é a parcela de informação dos dados originais representada por aquele componente.

Em outras palavras, os autovalores ajudam a identificar quais componentes concentram mais variabilidade e, portanto, quais são mais importantes para resumir a estrutura dos dados.

Exemplo:

Ou seja, percentual de variância dos dados originais, ou seja, a quantidade de informações está contida naquele Fator

Autovetor

Os autovetores indicam como as variáveis originais se combinam para formar cada componente principal. Cada autovetor está associado a um autovalor e representa uma direção de maior variação dos dados. No PCA, esses vetores mostram quais variáveis têm maior peso em cada componente, permitindo interpretar os padrões de correlação existentes entre elas.

Para cada autovalor eu tenho 1 autovetor. Ou seja, para cada autovalor encontrado, existe um autovetor correspondente que indica a direção do componente principal.

Após a obtenção dos autovalores da matriz de correlações de Pearson (ρ)(\rho), calcula-se o respectivo autovetor associado a cada autovalor (λ)(\lambda)

Os autovetores são obtidos resolvendo o seguinte sistema:(ρλI)v=0(\rho – \lambda I)v = 0

Em forma matricial:

[1λρ12ρ1kρ211λρ2kρk1ρk21λ][v1kv2kvkk]=[000] \begin{bmatrix} 1-\lambda & \rho_{12} & \cdots & \rho_{1k} \\ \rho_{21} & 1-\lambda & \cdots & \rho_{2k} \\ \vdots & \vdots & \ddots & \vdots \\ \rho_{k1} & \rho_{k2} & \cdots & 1-\lambda \end{bmatrix} \cdot \begin{bmatrix} v_{1k} \\ v_{2k} \\ \vdots \\ v_{kk} \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ \vdots \\ 0 \end{bmatrix}

Ou seja, para cada autovalor encontrado, existe um autovetor correspondente que indica a direção do componente principal.

De forma expandida, o sistema pode ser representado como:

{(1λ)v1k+ρ12v2k++ρ1kvkk=0ρ21v1k+(1λ)v2k++ρ2kvkk=0ρk1v1k+ρk2v2k++(1λ)vkk=0 \begin{cases} (1-\lambda)v_{1k} + \rho_{12}v_{2k} + \cdots + \rho_{1k}v_{kk} = 0 \\ \rho_{21}v_{1k} + (1-\lambda)v_{2k} + \cdots + \rho_{2k}v_{kk} = 0 \\ \vdots \\ \rho_{k1}v_{1k} + \rho_{k2}v_{2k} + \cdots + (1-\lambda)v_{kk} = 0 \end{cases}

No contexto do PCA, os autovetores representam as combinações lineares das variáveis originais que formam os componentes principais.

Em outras palavras, eles indicam o peso de cada variável em cada componente. Assim, ajudam a entender quais variáveis contribuem mais para cada dimensão extraída pelo PCA.

Fatores

Para formar os fatores por combinação linear das variáveis originais, calculam-se os scores fatoriais. Em geral, pode-se obter até KKK scores, onde KKK corresponde ao número de variáveis do conjunto de dados. Esses scores são determinados com base nos autovalores e autovetores da matriz de correlações, representando os pesos utilizados na construção de cada fator.

Como, em resumo o valor do autovalor dividido pela raiz quadrada do respectivo autovetor.

sj=vjλj s_j = \frac{v_j}{\sqrt{\lambda_j}}

De forma expandida:

s1=[s11s21sk1]=[v11λ1v21λ1vk1λ1] s_1 = \begin{bmatrix} s_{11}\\ s_{21}\\ \vdots\\ s_{k1} \end{bmatrix} = \begin{bmatrix} \dfrac{v_{11}}{\sqrt{\lambda_1}}\\ \dfrac{v_{21}}{\sqrt{\lambda_1}}\\ \vdots\\ \dfrac{v_{k1}}{\sqrt{\lambda_1}} \end{bmatrix}

Como neste exemplo foram utilizadas três variáveis — Atendimento, Preço e Qualidade — podem ser gerados até três scores fatoriais, um para cada componente principal.

Os scores fatoriais são obtidos pela divisão de cada elemento do autovetor pela raiz quadrada do respectivo autovalor.

VariávelScore Fatorial 1Score Fatorial 2Score Fatorial 3
Atendimento0,3430,8036,136
Preço-0,3352,6841,437
Qualidade0,3401,839-4,776

Esses valores foram obtidos a partir dos autovetores e autovalores do exemplo.

O Score Fatorial 1 é o mais importante para a interpretação inicial, pois está associado ao maior autovalor e, portanto, ao componente que explica a maior parte da variância dos dados.

Nesse primeiro fator, observamos que:

  • Atendimento possui peso positivo;
  • Qualidade possui peso positivo;
  • Preço possui peso negativo.

Assim, o primeiro fator representa um contraste entre Atendimento/Qualidade e Preço. Em outras palavras, ele resume a principal estrutura dos dados: quanto maiores os valores associados a atendimento e qualidade, menor tende a ser o peso associado ao preço.

A ideia é:F1=s11ZAtendimento+s21ZPrec¸o+s31ZQualidadeF_1 = s_{11}Z_{\text{Atendimento}} + s_{21}Z_{\text{Preço}} + s_{31}Z_{\text{Qualidade}}

Onde:

  • ZZZ representa a variável padronizada;
  • s11,s21,s31s_{11}, s_{21}, s_{31}s11​,s21​,s31​ são os scores fatoriais do Fator 1.
VariávelScore Fatorial 1Score Fatorial 2Score Fatorial 3
Atendimento0,3430,8036,202
Preço-0,3352,6861,452
Qualidade0,3401,840-4,826

Fórmula do Fator 1

Como o primeiro fator é formado pela combinação linear das variáveis padronizadas, temos:F1=0,343ZAtendimento0,335ZPrec¸o+0,340ZQualidadeF_1 = 0{,}343 \cdot Z_{\text{Atendimento}} – 0{,}335 \cdot Z_{\text{Preço}} + 0{,}340 \cdot Z_{\text{Qualidade}}

F2=0,803ZAtendimento+2,686ZPreço+1,840ZQualidade F_2 = 0{,}803 \cdot Z_{\text{Atendimento}} + 2{,}686 \cdot Z_{\text{Preço}} + 1{,}840 \cdot Z_{\text{Qualidade}}
F3=6,202ZAtendimento+1,452ZPreço4,826ZQualidade F_3 = 6{,}202 \cdot Z_{\text{Atendimento}} + 1{,}452 \cdot Z_{\text{Preço}} – 4{,}826 \cdot Z_{\text{Qualidade}}
VariávelValor padronizado
Z_Atendimento0,935
Z_Preço-0,935
Z_Qualidade1,154

Aplicando no Fator 1:

F1​=0,343(0,935)−0,335(−0,935)+0,340(1,154) F11,026F_1 \approx 1{,}026

Ou seja, a Observação 1 teria score aproximado de 1,026 no primeiro fator.

Após calcular os scores fatoriais, cada fator pode ser representado como uma combinação linear das variáveis padronizadas. No exemplo analisado, o primeiro fator foi formado pelos pesos de Atendimento, Preço e Qualidade. Como Atendimento e Qualidade possuem pesos positivos, enquanto Preço possui peso negativo, esse fator representa principalmente um contraste entre percepção de qualidade/atendimento e preço. Assim, cada observação passa a ter um novo valor no fator, calculado a partir da soma ponderada das variáveis padronizadas.

Carga Fatorial

Auxilia também na análise exploratória.

Correlação das observações com os fatores.

VariávelFator 1Fator 2Fator 3Comunalidades
Atendimento0,9930,0710,0971,000
Preço-0,9710,2390,0231,000
Qualidade0,9840,164-0,0761,000
MedidaFator 1Fator 2Fator 3
Autovalores2,8950,0890,016
Variância explicada96,51%2,96%0,52%
Variância acumulada96,51%99,48%100,00%

No Fator 1 concentra quase toda a informação dos dados, pois apresenta autovalor igual a 2,895 e explica aproximadamente 96,51% da variância total.

As maiores cargas fatoriais do Fator 1 aparecem em:

Atendimento=0,993

Preç​o=−0,971

Qualidade=0,984

Isso indica que o primeiro fator está fortemente associado a Atendimento e Qualidade, mas em sentido contrário ao Preço.

Como o Fator 2 e o Fator 3 possuem autovalores menores que 1, eles explicam pouca variância individualmente. Pelo critério de Kaiser, manteríamos apenas o Fator 1, pois:λ1=2,895>1\lambda_1 = 2{,}895 > 1λ2=0,089<1\lambda_2 = 0{,}089 < 1λ3=0,016<1\lambda_3 = 0{,}016 < 1

Portanto, as cargas fatoriais indicaram que o primeiro fator possui forte associação positiva com Atendimento e Qualidade, enquanto a variável Preço apresentou associação negativa. Isso sugere que o Fator 1 resume uma dimensão relacionada à percepção de qualidade e atendimento em oposição ao preço. Como esse fator apresentou autovalor igual a 2,895 e explicou 96,51% da variância total, ele concentrou a maior parte da informação dos dados. Pelo critério de Kaiser, apenas esse fator seria mantido, pois foi o único com autovalor superior a 1.

Comunalidade

Quando você trabalha com todos os fatores possíveis, ou seja, quantidade de variáveis, não tenho nenhum tipo de perda de informação das variáveis originais.

Então nós dissemos que as comunalidade seriam a perda da variância se acaso retirar Fatores, quanto de informação perderiamos.

Ou seja,

FatorAutovalorVariância explicada
Fator 12,89596,51%
Fator 20,0892,96%
Fator 30,0160,52%

Se manter apenas o Fator 1, a variância total explicada pelo modelo fica:

96,51%

E a parte que fica fora do modelo é:

100%−96,51%=3,49%

Ou seja, deixaria de explicar aproximadamente:

2,96%+0,52%=3,48%

Essa diferença é pequena, por isso manter só o Fator 1 faz sentido nesse exemplo.

Calcular o Fator e Score fatorial em cada observação

  • Scores fatoriais / coeficientes do fator: são os pesos usados na fórmula.
  • Valor do fator em cada linha: é o resultado da fórmula aplicada em cada observação.

No exemplo, mantendo apenas o Fator 1, a fórmula fica:

F1​=0,343⋅ZAtendimento​−0,335⋅ZPrec​o​+0,340⋅ZQualidade​

Ou seja, para cada linha da base, primeiro padronizamos as variáveis e depois aplicamos os pesos do fator.

1. Padronização das variáveis

Antes de calcular o fator, cada variável precisa ser transformada em valor padronizado ZZZ:Z=xxˉsZ = \frac{x – \bar{x}}{s}

Onde:x=valor observadox = \text{valor observado}xˉ=meˊdia da variaˊvel\bar{x} = \text{média da variável}s=desvio-padra˜o da variaˊvels = \text{desvio-padrão da variável}

VariávelMédiaDesvio-padrão
Atendimento6,5001,604
Preço6,5001,604
Qualidade7,3751,408

2. Fórmula do Fator 1

Após a padronização, aplicamos os pesos do Fator 1:

F1=0,343ZAtendimento0,335ZPreço+0,340ZQualidade F_1 = 0{,}343 \cdot Z_{\text{Atendimento}} – 0{,}335 \cdot Z_{\text{Preço}} + 0{,}340 \cdot Z_{\text{Qualidade}}

3. Exemplo calculado em uma linha

Para a Observação 1, os valores originais eram:

ObservaçãoAtendimentoPreçoQualidade
1859

Os valores padronizados ficam aproximadamente:

VariávelValor padronizado
Z_Atendimento0,935
Z_Preço-0,935
Z_Qualidade1,154

Aplicando na fórmula:F1=0,343(0,935)0,335(0,935)+0,340(1,154)F_1 = 0{,}343(0{,}935) – 0{,}335(-0{,}935) + 0{,}340(1{,}154) F1=0,321+0,313+0,392F_1 = 0{,}321 + 0{,}313 + 0{,}392F11,027F_1 \approx 1{,}027

Portanto, a Observação 1 tem valor aproximado de 1,027 no Fator 1.

Resultado para todas as observações:

ObservaçãoZ_AtendimentoZ_PreçoZ_QualidadeFator 1
10,935-0,9351,1541,027
20,3120,3120,4440,153
31,559-1,5591,1541,449
4-0,312-0,312-0,266-0,093
50,312-0,3120,4440,362
6-0,9350,935-0,977-0,966
7-1,5591,559-1,687-1,631
8-0,3120,312-0,266-0,302

O valor do fator em cada linha representa uma nova pontuação criada a partir das variáveis originais padronizadas.

Essa pontuação resume o comportamento conjunto das variáveis em um único indicador.

No exemplo, o Fator 1 resume principalmente a relação positiva entre Atendimento e Qualidade e a relação oposta com Preço.

Seleção de fatores

Depois de calcular autovalores, cargas fatoriais, comunalidades e fatores, o próximo passo é decidir quantos fatores manter na análise.

Nem sempre usamos todos os fatores. A decisão pode ser feita observando a magnitude dos autovalores.

No nosso exemplo, os autovalores foram aproximadamente:

FatorAutovalorVariância explicada
Fator 12,89596,51%
Fator 20,0892,96%
Fator 30,0160,52%

Pelo critério de Kaiser, mantemos apenas os fatores com autovalor maior que 1:

λ>1\lambda > 1

No exemplo acima:λ1=2,895>1\lambda_1 = 2{,}895 > 1 λ2=0,089<1\lambda_2 = 0{,}089 < 1λ3=0,016<1\lambda_3 = 0{,}016 < 1

Portanto, apenas o Fator 1 seria mantido.

O Fator 1 sozinho explica aproximadamente:96,51%96{,}51\%

da variância total dos dados.

Isso significa que ele já resume quase toda a informação presente nas três variáveis originais. Os Fatores 2 e 3 explicam parcelas muito pequenas da variância e, por isso, não teriam tanta representatividade nesse exemplo.

Comunalidade após escolher alguns fatores

No exemplo acima, ao manter apenas o Fator 1, as comunalidades deixam de ser iguais a 1,000, pois os demais fatores foram retirados da análise.

Nesse caso, a comunalidade de cada variável representa a parcela da sua variância explicada somente pelo primeiro fator.

No exemplo analisado, o Fator 1 explicou 98,6% da variância de Atendimento, 94,3% da variância de Preço e 96,8% da variância de Qualidade, indicando que um único fator já representa muito bem as três variáveis originais.

Agora se escolher 2 fatores, ou seja, Fator 1 e Fator 2, a comunalidade de cada variável será a soma dos quadrados das cargas fatoriais desses dois fatores.

A fórmula fica:hi2=cargai12+cargai22h_i^2 = carga_{i1}^2 + carga_{i2}^2

Ou seja:Comunalidade=(carga no Fator 1)2+(carga no Fator 2)2\text{Comunalidade} = (\text{carga no Fator 1})^2 + (\text{carga no Fator 2})^2

as cargas fatoriais eram aproximadamente:

VariávelFator 1Fator 2
Atendimento0,9930,071
Preço-0,9710,239
Qualidade0,9840,164

Então, as comunalidades com 2 fatores ficam:

VariávelCálculoComunalidade
Atendimento0,9932+0,07120{,}993^2 + 0{,}071^20,9932+0,07120,991
Preço(0,971)2+0,2392(-0{,}971)^2 + 0{,}239^2(−0,971)2+0,23921,000
Qualidade0,9842+0,16420{,}984^2 + 0{,}164^20,9842+0,16420,995

Em percentual:

VariávelComunalidade com 2 fatores
Atendimento99,1%
Preço100,0%
Qualidade99,5%

Comparando:

VariávelComunalidade com 1 fatorComunalidade com 2 fatores
Atendimento0,9860,991
Preço0,9431,000
Qualidade0,9680,995

Criação de ranking

Ponderação dos fatores e respectivas variâncias explicadas.

Dar maior peso aos fatores que explicam maior quantidade de variância dos dados.

A lógica é:

Cada observação recebe um valor em cada fator. Depois, esses fatores são combinados em uma única pontuação final, usando como peso a variância explicada por cada fator.

Ou seja, fatores que explicam mais variância recebem maior peso no ranking.

Fórmula geral

Se forem mantidos dois fatores, por exemplo:Rankingi=F1iVar(F1)+F2iVar(F2)Ranking_i = F_{1i} \cdot Var(F_1) + F_{2i} \cdot Var(F_2)

Onde:F1iF_{1i}

é o valor da observação ii no Fator 1, e:F2iF_{2i}

é o valor da observação ii no Fator 2.

Já:Var(F1)Var(F_1)

e:Var(F2)Var(F_2)

são as variâncias explicadas por cada fator.

No exemplo

Como o Fator 1 explica:96,51%96{,}51\%

e o Fator 2 explica:2,96%2{,}96\%

a fórmula do ranking com dois fatores seria:Rankingi=F1i0,9651+F2i0,0296Ranking_i = F_{1i} \cdot 0{,}9651 + F_{2i} \cdot 0{,}0296

Deixe um comentário