Tempo de leitura: 8 minutos
Antigamente, para a coleta de dados importantes para a criação de grandes projetos de pesquisa, eram necessários mainframes caros e substancial mão de obra qualificada para análise. Hoje, podemos resolver muitos problemas apenas em computadores pessoais, onde a maioria dos dados são coletados rotineiramente e com ferramentas para acelerar tanto a modelagem quanto a análise da pós-otimização.
Com a intensa corrida da tecnologia da informação acontecendo, temos a oportunidade de ter nossas ferramentas embutidas em cadeias de fornecimento de sistemas que determinam a produção e seus horários de distribuição, o processo de concepção e a localização de alocação de decisões. Esta versatilidade do modelo de otimização combinatória vem do fato de que em muitos problemas práticos, atividades e recursos, tais como as máquinas, aviões e pessoas, são indivisíveis.
Além disso, muitos problemas (agendamento, por exemplo) tem regras que definem um número finito de escolhas admissíveis e, consequentemente, podem ser adequadamente formuladas usando procedimentos que transformam as descrições lógicas em alternativas às descrições de restrição linear onde um subconjunto das variáveis nos obriga a assumir certos valores discretos.
Estes problemas são rotulados como problemas de otimização linear. Nas decisões baseadas em problemas, podem ser classificados em duas categorias:
- Modelos de decisão Determinísticos
- Modelos de decisão Probabilísticos
Nos modelos determinísticos, as boas decisões trazem bons resultados, ou seja, você recebe o que você espera. Claro que isso vai depender muito da forma decisiva dos fatores que não são controláveis na determinação do resultado e também quanto à informação em predizer esses fatores. Qualquer pessoa que gerencia ou controla sistemas e equipamentos sempre enfrentará problemas de melhoria (como por exemplo, a otimização) para o melhor desempenho do sistema.
Para identificar os métodos de melhoramento do funcionamento do sistema, é necessário construir uma representação sintética ou modelo do sistema físico ou o que desejar para poder descrever o efeito de uma variedade de soluções propostas.
Dessa forma a utilidade do modelo acaba sendo dependente da realidade que irá representar. Se o modelo não capturar os elementos necessários da realidade do problema, e acabar capturando elementos de forma errada ou distorcida logo ele não será nada útil. Como por exemplo, um termômetro que leia a temperatura muito alta ou muito baixa, seria de pouca utilidade no diagnóstico do médico. O modelo perfeito seria aquele em que capta os elementos da realidade com perfeita precisão. Alguma semelhança com a busca do “Santo Graal dos traders”?
Metodologia de Monte Carlo
A utilização do método de simulação de Monte Carlo na análise de investimentos é recomendada quando não temos certeza de acontecimentos futuros, mas conhecemos (em intervalo de confiança) quais os limites de variação dos elementos envolvidos no estudo.
Assim, se não soubermos com exatidão qual a taxa de desconto e quais os fluxos de caixa, e quanto mais soubermos a respeito dos limites mínimo e o máximo que esses elementos podem variar, podemos simular a realidade e calcular o resultado econômico de todas as possíveis combinações das variáveis.
A palavra simulação vem da palavra latina similis , que significa PARECE. Coerentemente, a ideia por trás da simulação consiste em, basicamente, produzir um determinado número de situações hipotéticas parecidas com as reais, o que será útil na tomada de decisão, já que possibilita visualizar um contínuo de combinações de variáveis em vez de uma estimativa pontual.
Simulação é uma abordagem comportamental baseada em estatística, usada em orçamento de capital para que se tenha uma percepção do risco, através da aplicação de distribuições probabilísticas predeterminadas e números aleatórios para se estimar os resultados arriscados.
O conjunto de resultados produzidos ao longo de todas as simulações pode ser analisado estatisticamente e fornecer conclusões em termos de probabilidade. Essas informações serão úteis na avaliação da dispersão total dos resultados do modelo, em função do efeito combinado das incertezas dos dados de entrada, e também úteis na avaliação da probabilidade de serem violados os padrões das projeções financeiras.
Nesses modelos, o analista não é forçado a fornecer um único e melhor valor estimado como, por exemplo, considerar em crescimento de vendas de 10% mesmo sabendo que este pode variar entre 0 e 20%. Poderá trabalhar com todo esse intervalo de números sem precisar calcular o resultado para cada taxa de crescimento isoladamente, o que seria muito trabalhoso.
A ferramenta de análise de Monte Carlo permite substituir cada variável incerta por uma distribuição de probabilidade, uma função que representa uma faixa de valores e o mais provável de ocorrência sobre aquela faixa.
Na realidade, a simulação de Monte Carlo usa essas distribuições, referidas como parâmetros, para automatizar o complexo processo what-if e gerar os valores aleatórios realísticos. Em vez do modelo de um único resultado, podemos rapidamente gerar milhares de cenários possíveis, ver os resultados estatísticos e avaliar seu risco. Devido ao fato da análise impactar a habilidade de quantificar seu risco, esta pode ser uma ferramenta crucial para uma decisão de sucesso.

Aplicações ao Mercado de Renda Variável
As simulações da metodologia de Monte Carlo são utilizadas em múltiplos campos do mercado financeiro. Desde as estimativas de impacto de variáveis econômicas, até a precificação de derivativos como Opções e Swaps. Recentemente, muito vem sendo falado sobre seu uso na avaliação de vulnerabilidade em trading-systems.
Entende-se que um setup (algoritmo) de renda variável busque aproveitar determinado padrão nos comportamentos de preço por tempo e volume, para a partir daí abrir posições em que há exposição calculada ao risco, com uma expectativa de retornos altamente vantajosa. Quando um setup é efetivamente objetivo, é possível testá-lo em bases históricas, obter uma curva de capital sintética, e com base nisto, otimizar parâmetros e estabelecer filtros. Os dois grandes perigos da otimização consistem em:
- Se basear em uma base amostral pequena ou enviesada, a qual possa não contemplar diferentes combinação de fatores de estresse no mercado, e com isto, sugerir uma determinada combinação de parâmetros otimizados que acabaram se moldando àquele padrão de ação e reação dos preços, que se viu no passado, e pode não voltar a ocorrer. Nestes casos, os parâmetros então otimizados podem não ser abertos o suficiente para se adaptar a novas realidades.
- Criar filtros específicos através de indicadores técnicos que teriam eliminado um determinado período de estresse das operações (consecutivas perdas). Quando isto ocorre, além de haver perda da base amostral, o que reduz o seu poder de interpretação a níveis de população, aumenta-se o número de variáveis para que, no “alinhamento dos planetas”, o sistema continue funcionando.
Na abordagem moderna das finanças quantitativas, utiliza-se então das simulações de Monte Carlo para, com base no histórico de operações testadas do algoritmo, sugerir “n” sequências embaralhadas das mesmas operações.
Alterando-se a ordem das operações, podemos ter simular diferentes exposições a períodos de estresse, que muitas vezes fogem do que já foi visto, e só seriam possíveis de se visualizar em uma base sintética.
Com base nos resultados obtidos, através de uma curva de distribuição é possível calcular as chamadas curvas de ruína e curvas de sucesso. Em outras palavras é possível chegar à probabilidade de, ao começar a utilização de um algoritmo, de imediato se deparar com uma superação dos limites de perda históricos (máximo drawdown), mas também à probabilidade de se alcançar lucros em que, no caso de uma eventual descontinuação da estratégia em momento futuro, seu resultado positivo tenha atingido um nível de reserva que superaria este teórico limite de perdas.