Luz brilhante na caixa preta do aprendizado de máquina
LarLar > blog > Luz brilhante na caixa preta do aprendizado de máquina

Luz brilhante na caixa preta do aprendizado de máquina

Jun 14, 2024

Gerente Sênior de Portfólio, Man Numeric

Pouco progresso foi feito até o momento para aproveitar modelos de aprendizado de máquina para atribuição de portfólio de fatores. Explicamos onde e como os investidores sistemáticos podem encontrar explicações granulares e locais sobre o desempenho.

Agosto de 2023

Embora os modelos de aprendizagem automática possam ter melhorado os retornos, os investidores estão atualmente um tanto cegos quanto à origem desses retornos.

A gestão moderna de carteiras tem adotado cada vez mais modelos de aprendizado de máquina (ML) para prever retornos devido à sua capacidade de capturar interações complexas entre fatores. A desvantagem é que o resultado final costuma ser algo próximo a um modelo de caixa preta com resultados altamente otimizados. Isso significa que muitas vezes é desafiador compreender as previsões e a tomada de decisões de um modelo. Para contrariar isto, são utilizadas técnicas de interpretação ou atribuição de modelos para tentar explicar a lógica por detrás das previsões do modelo e descobrir as características que mais contribuem para o resultado. No entanto, pouco progresso foi feito até agora para aproveitar os modelos de BC para a atribuição de carteiras de factores, que é uma componente crítica do investimento sistemático de carteira. Sem esta evolução, é difícil compreender com precisão quais os factores que estão a afectar os retornos da carteira. Embora os modelos de ML possam ter melhorado os retornos, os investidores estão atualmente um tanto cegos quanto à origem desses retornos.

As metodologias de atribuição de fatores lineares existentes sofrem de limitações, como a falta de capacidade de capturar efeitos de interação local e a suposição implícita de um beta global singular. Em vez disso, argumentaríamos que os investidores sistemáticos precisam de olhar para além dos modelos de atribuição linear existentes para encontrar explicações granulares e locais do desempenho.

Uma solução é usar o valor Shapley. Neste artigo, investigamos o que é o valor de Shapley, como ele pode ser aplicado para explicar os resultados do modelo e como calculamos os valores de Shapley usando SHapley Additive exPlanations (SHAP) – uma implementação específica do valor de Shapley. Também explicamos como uma estrutura de atribuição de desempenho baseada em SHAP pode ser usada para atribuição de portfólio local e global e introduzimos um sistema inovador de atribuição de portfólio que usa valor Shapley e SHAP para explicar tanto o processo de tomada de decisão quanto a variação de retorno transversal em um nível local e nível global. Também demonstramos o poder explicativo aprimorado da atribuição SHAP ao incorporar modelos de ML não lineares, como o XGBoost.

Se os modelos de ML continuam a fornecer retornos razoáveis, por que se preocupar em refinar as metodologias de atribuição? Em suma, porque são inadequados. As metodologias existentes de atribuição de fatores, como regressão de séries temporais, atribuição de retorno transversal e atribuição baseada em participações, baseiam-se em modelos lineares, tornando-as incapazes de capturar efeitos de interação local com a suposição de beta linear global.

Por exemplo, a regressão de séries temporais é limitada pelo problema da dimensionalidade e pela suposição de beta constante ao longo do tempo, tornando-a menos útil para a gestão dinâmica de carteiras. Por outro lado, a atribuição de retorno transversal com um conjunto de fatores de risco, conforme comumente usado pelos fornecedores de modelos de risco, pressupõe que a geração de retorno pode ser atribuída a um modelo linear de fatores globais. Seu primo próximo, a atribuição baseada em participações, estima a exposição das participações da carteira a um conjunto de carteiras de fatores personalizados. Embora todas as três metodologias se baseiem na mesma estrutura linear de retorno dos fatores, elas diferem em termos de sofisticação e flexibilidade de personalização. Entretanto, essas metodologias não são capazes de capturar efeitos de interação devido à relação não linear entre essas variáveis ​​independentes.

O valor Shapley é um conceito da teoria dos jogos cooperativos que mede a contribuição de cada jogador para o pagamento de um jogo de coalizão.

O valor Shapley é um conceito da teoria dos jogos cooperativos que mede a contribuição de cada jogador para o pagamento de um jogo de coalizão. Os quatro axiomas do valor de Shapley1 garantem que a distribuição do pagamento seja justa quando os jogadores podem formar coligações e o pagamento depende do desempenho da coligação. O valor Shapley é o único método de pagamento que satisfaz esses quatro axiomas. A distribuição de pagamentos é calculada com base na contribuição marginal de um jogador, permutando todas as combinações de jogadores.