четверг, 17 мая 2018 г.

Avaliação de estratégias de negociação pdf


Avaliando estratégias de negociação pdf
Editora: John Wiley & Sons.
PDF Download A Avaliação e Otimização de Livros Estratégias de Negociação Para livre escrito por Robert Pardo e foi publicado pela John Wiley & Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2011-01-11 com as categorias Business & Economics.
Uma edição recentemente expandida e atualizada do clássico de negociação, Design, Teste e Otimização do especialista em sistemas de Trading Systems Trading Robert Pardo está de volta, e em Avaliação e Otimização de Estratégias de Negociação, uma edição completamente revisada e atualizada de seu texto clássico Design, Testes e Otimização de Sistemas de Negociação, ele revela como ele aperfeiçoou a programação e o teste de sistemas de negociação usando uma bateria bem-sucedida de seus próprios produtos comprovados pelo tempo. Com este livro, Pardo fornece informações importantes para os leitores, desde a concepção de estratégias de negociação viáveis ​​até a mensuração de questões como lucro e risco. Escrito em um estilo simples e acessível, este guia detalhado apresenta comerciantes com uma maneira de desenvolver e verificar sua estratégia de negociação, não importa que forma eles estão usando atualmente - stochastics, médias móveis, padrões de gráfico, RSI ou métodos de fuga. Se um comerciante está buscando aumentar seu lucro ou apenas começando em testes, a avaliação e otimização de estratégias de negociação oferece instrução prática e aconselhamento especializado sobre o desenvolvimento, avaliação e aplicação de vencedores mecânicos sistemas de negociação.
Teste de projeto e otimização de sistemas de negociação.
Editora: John Wiley & Sons.
PDF Download Teste de Design e Otimização de Sistemas de Trading Livros de graça escrito por Robert Pardo e foi publicado pela John Wiley & Sons este livro apoiado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 1992-08-26 com as categorias Business & Economics.
O título diz tudo. Orientação concisa e direta ao desenvolvimento de um sistema de negociação de computador vencedor. Direitos autorais © Libri GmbH. Todos os direitos reservados.
Negociação automatizada de opções.
Autor: Sergey Izraylevich Ph. D.
PDF Download Opção Automatizada Trading Books Gratuitamente escrito por Sergey Izraylevich Ph. D. e foi publicado pela FT Press este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2012/03/12 com as categorias Business & Economics.
O primeiro e único livro de seu tipo, a Trading de Opções Automatizadas, descreve um processo abrangente, passo a passo, para criar sistemas automatizados de negociação de opções. Usando as técnicas dos autores, traders sofisticados podem criar estruturas poderosas para a realização consistente e disciplinada de estratégias de negociação bem definidas, formalizadas e cuidadosamente testadas, com base em seus requisitos específicos. Ao contrário de outros livros sobre negociação automatizada, este livro concentra-se especificamente nos requisitos indevidos de opções, refletindo filosofia, lógica, ferramentas quantitativas e procedimentos de avaliação que são completamente diferentes daqueles usados ​​em algoritmos de negociação automatizados convencionais. Cada faceta da abordagem dos autores é otimizada para opções, incluindo desenvolvimento e otimização de estratégias; alocação de capital; gerenciamento de riscos; medição de desempenho; análise de back-testing e walk-forward; e execução comercial. O sistema dos autores reflete um processo contínuo de avaliação, estruturação e gestão de longo prazo de carteiras de investimento (não apenas instrumentos individuais), introduzindo abordagens sistemáticas para lidar com carteiras contendo combinações de opções relacionadas a diferentes ativos subjacentes. Com essas técnicas, finalmente é possível automatizar efetivamente a negociação de opções no nível do portfólio. Este livro será um recurso indispensável para os negociadores de opções sérias que trabalham individualmente, em fundos hedge ou em outras instituições.
Estratégias de Negociação Cibernética.
Editora: John Wiley & Sons.
PDF Download Cybernetic Trading Strategies Livros Para livre escrito por Murray A. Ruggiero e foi publicado pela John Wiley & Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 1997-07-01 com Business & Economics categorias.
"O computador pode fazer mais do que nos mostrar imagens bonitas. Ele pode otimizar, fazer backtest, provar ou refutar velhas teorias, eliminar as ruins e melhorar as boas. A Cybernetic Trading Strategies explora novas maneiras de usar o computador e descobre maneiras fazer uma máquina valiosa ainda mais valiosa ". –– do prefácio de John J. Murphy. Até recentemente, o computador era usado quase exclusivamente como uma ferramenta de coleta de dados e coleta de dados. Mas, como traders e analistas descobriram rapidamente, suas capacidades são muito mais vastas. Agora, neste novo livro inovador, Murray Ruggiero, uma autoridade líder em sistemas de comércio cibernético, desbloqueia seu incrível potencial e fornece uma visão detalhada do crescente impacto das tecnologias avançadas na análise intermarket. Um recurso indiscutível, Cybernetic Trading Strategies fornece instruções e aplicações específicas sobre como desenvolver sistemas de cronometragem de mercado negociáveis ​​usando redes neurais, lógica difusa, algoritmos genéticos, teoria do caos e métodos de indução de máquinas. Atualmente utilizada por algumas das instituições financeiras mais poderosas do mundo - incluindo a John Deere e a Fidelity Investments -, as tecnologias avançadas de hoje vão além das interpretações subjetivas dos indicadores de mercado para aprimorar a análise tradicional. Como resultado, os sistemas de negociação existentes ganham vantagem competitiva. Ruggiero revela como "incorporar elementos de análise estatística, análise espectral, redes neurais, algoritmos genéticos, lógica difusa e outros conceitos de alta tecnologia em um sistema de negociação técnica tradicional pode melhorar muito o desempenho dos sistemas de negociação padrão". Por exemplo: a análise espectral pode ser usada para detectar quando um mercado está tendendo mais cedo do que indicadores clássicos como o ADX. Com base em sua extensa pesquisa sobre análise de mercado, Ruggiero fornece uma visão geral incisiva de sistemas cibernéticos - sistemas que, quando aplicados corretamente, podem aumentar os retornos de negociação em até 200% a 300%. O autor abrange uma ampla gama de tópicos importantes, examinando metodologias clássicas de análise técnica e negociação sazonal, bem como previsão do mercado estatisticamente baseada e a mecanização de métodos subjetivos, como gráficos de velas e o Elliott Wave. Explicações precisas e dezenas de exemplos do mundo real mostram como: ∗ Incorporar tecnologias avançadas em metodologias clássicas de análise técnica. ∗ Identifique quais dessas tecnologias têm maior aplicabilidade no mercado. ∗ Construa sistemas de negociação para maximizar a confiabilidade e a lucratividade com base em seus próprios critérios de risco / recompensa. Mais importante ainda, Cybernetic Trading Strategies leva você passo a passo através de testes e avaliação do sistema, um passo crucial para o controle de risco e gerenciamento de dinheiro. Com informações atualizadas de uma das principais autoridades do campo, a Cybernetic Trading Strategies é o guia definitivo para o desenvolvimento, implementação e teste das mais recentes tecnologias de negociação de computadores.
Negociação de alta frequência.
Editora: John Wiley and Sons.
PDF Download Livros de Negociação de Alta Freqüência Para livre escrito por Irene Aldridge e foi publicado pela John Wiley and Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2009-12-22 com Business & Economics categorias.
Um guia prático para o mundo rápido e em constante mudança do comércio algorítmico de alta frequência Os mercados financeiros estão passando por uma rápida inovação devido à contínua proliferação de algoritmos e poder do computador. Esses desenvolvimentos criaram uma nova disciplina de investimento chamada negociação de alta frequência. Este livro aborda todos os aspectos da negociação de alta frequência, desde o business case e formulação de ideias, passando pelo desenvolvimento de sistemas de negociação até a aplicação de capital e subsequente avaliação de desempenho. Também inclui numerosas estratégias de negociação quantitativa, com microestrutura de mercado, arbitragem de eventos e arbitragem de desvios discutidos em grande detalhe. Contém as ferramentas e os elementos necessários para construir um sistema de negociação de alta frequência Detalhes do processo de análise pós-negociação, incluindo referências de desempenho e avaliação da qualidade do comércio Escrito por Irene Aldridge, conhecido profissional da indústria, o interesse pela negociação de alta frequência explodiu no passado ano. Este livro tem o que você precisa para entender melhor como ele funciona e o que é necessário para aplicar essa abordagem aos seus empreendimentos comerciais.
Aplicações de mineração de dados em negócios e finanças.
Autor: Carlos A. Mota Soares.
PDF Download de aplicativos de mineração de dados em E Livros de Negócios e Finanças Para livre escrito por Carlos A. Mota Soares e foi publicado pela IOS Press este livro arquivo suportado pdf, txt, epub, kindle e outro formato este livro foi lançado em 2008- 01-01 com categorias de computadores.
A aplicação das tecnologias de Data Mining (DM) mostrou um crescimento explosivo em um número crescente de diferentes áreas de negócios, governo e ciência. Duas das mais importantes áreas de negócios são finanças, em particular em bancos e seguradoras, e e-business, como portais, comércio eletrônico e serviços de gerenciamento de anúncios. Apesar da estreita relação entre pesquisa e prática em Data Mining, Não é fácil encontrar informações sobre algumas das questões mais importantes envolvidas na aplicação no mundo real da tecnologia DM, desde a compreensão de negócios e dados até a avaliação e a implantação. Os artigos geralmente descrevem pesquisas que foram desenvolvidas sem levar em conta restrições impostas pela aplicação motivadora. Quando esses problemas são levados em conta, eles não são discutidos em detalhes com frequência porque o trabalho deve se concentrar no método. Portanto, o conhecimento que poderia ser útil para aqueles que gostariam de aplicar a mesma abordagem em um problema relacionado não é compartilhado. Os documentos deste livro abordam alguns desses problemas. Este livro é de interesse não apenas para pesquisadores e profissionais de mineração de dados, mas também para estudantes que desejam ter uma idéia das questões práticas envolvidas na mineração de dados.
Superfície de Volatilidade e Estrutura a Termo.
PDF Download Volatilidade Livros de Estrutura de Superfície e de Prazos Para livre escrito por Kin Keung Lai e foi publicado pela Routledge este livro suportado arquivo pdf, txt, epub, kindle e outros formatos este livro foi lançado em 2013-09-11 com Business & Economics categorias.
Publicado pela primeira vez em 2013. Routledge é uma marca da Taylor & Francis, uma empresa de informação.

US Search Desktop.
Agradecemos seus comentários sobre como melhorar a Pesquisa do Yahoo. Este fórum é para você fazer sugestões de produtos e fornecer feedback atencioso. Estamos sempre tentando melhorar nossos produtos e podemos usar o feedback mais popular para fazer uma mudança positiva!
Se você precisar de assistência de qualquer tipo, visite nosso fórum de suporte à comunidade ou encontre ajuda individualizada em nosso site de ajuda. Este fórum não é monitorado por nenhum problema relacionado a suporte.
O fórum de comentários do produto do Yahoo agora exige um ID e uma senha válidos do Yahoo para participar.
Agora você precisa fazer login usando sua conta de e-mail do Yahoo para nos fornecer feedback e enviar votos e comentários para as ideias existentes. Se você não tiver um ID do Yahoo ou a senha do seu ID do Yahoo, inscreva-se para obter uma nova conta.
Se você tiver um ID e uma senha do Yahoo válidos, siga estas etapas se quiser remover suas postagens, comentários, votos e / ou perfil do fórum de comentários do produto do Yahoo.
Vote em uma ideia existente () ou publique uma nova ideia…
Idéias quentes Idéias superiores Novas ideias Categoria Status Meu feedback.
Xnxx vedios.
Trazer de volta o layout antigo com pesquisa de imagens.
sim: a única possibilidade (eu acho) enviar todas as informações para (alienvault.
Desinformação na ordem DVD.
Eu pedi DVD / Blueray "AL. A confidencial" tudo que eu consegui foi Blue ray & amp; um contato # para obter o DVD que não funcionou. Eu encomendo minha semana com Marilyn ____DVD / blue ray & amp; Eu peguei os dois - tolamente, assumi que o mesmo se aplicaria a L. A. ___ETC não. Eu não tenho uma máquina de raio azul ----- Eu não quero uma máquina de raio azul Eu não quero filmes blueray. Como obtenho minha cópia de DVD de L. A. Confidential?
yahoo, pare de bloquear email.
Passados ​​vários meses agora, o Yahoo tem bloqueado um servidor que pára nosso e-mail.
O Yahoo foi contatado pelo dono do servidor e o Yahoo alegou que ele não bloquearia o servidor, mas ainda está sendo bloqueado. CEASE & amp; DESISTIR.
Não consigo usar os idiomas ingleses no e-mail do Yahoo.
Por favor, me dê a sugestão sobre isso.
Motor de busca no Yahoo Finance.
Um conteúdo que está no Yahoo Finance não aparece nos resultados de pesquisa do Yahoo ao pesquisar por título / título da matéria.
Existe uma razão para isso, ou uma maneira de reindexar?
Procure por "turkey ******" imagens sem ser avisado de conteúdo adulto ou que o mostre.
O Yahoo está tão empenhado em atender os gostos lascivos das pessoas que nem posso procurar imagens de uma marca de "peitos de peru" sem ser avisado sobre conteúdo adulto? Apenas usando a palavra "******" em QUALQUER contexto significa que eu vou pegar seios humanos em toda a página e ter que ser avisado - e passar por etapas para evitá-lo?
Aqui está minha sugestão Yahoo:
Invente um programa de computador que reconheça palavras como "câncer" ou "peru" ou "galinha" em uma frase que inclua a palavra "******" e não assuma automaticamente a digitação "***** * "significa que estou procurando por ***********.
Descobrir uma maneira de fazer com que as pessoas que ESTÃO procurando *********** busquem ativamente por si mesmas, sem assumir que o resto de nós deve querer *********** se digitarmos uma palavra comum - ****** - que qualquer um pode ver qualquer dia em qualquer seção de carne em qualquer supermercado em todo o país. :(
O Yahoo está tão empenhado em atender os gostos lascivos das pessoas que nem posso procurar imagens de uma marca de "peitos de peru" sem ser avisado sobre conteúdo adulto? Apenas usando a palavra "******" em QUALQUER contexto significa que eu vou pegar seios humanos em toda a página e ter que ser avisado - e passar por etapas para evitá-lo?
Aqui está minha sugestão Yahoo:
Invente um programa de computador que reconheça palavras como "câncer" ou "peru" ou "galinha" em uma frase que inclua a palavra "******" e não assuma automaticamente a digitação "***** * "significa que estou procurando por mais ...
Por que, quando eu faço login no YahooGroups, todos os grupos aparecem em francês ?!
Quando entro no YahooGroups e ligo para um grupo, de repente tudo começa a aparecer em francês? O que diabos está acontecendo lá ?! Por alguma razão, o sistema está automaticamente me transferindo para o fr. groups. yahoo. Alguma ideia?
consertar o que está quebrado.
Eu não deveria ter que concordar com coisas que eu não concordo com a fim de dizer o que eu acho - eu não tive nenhum problema resolvido desde que comecei a usar o Yahoo - fui forçado a jogar meu antigo mensageiro, trocar senhas, obter novas messenger, disse para usar o meu número de telefone para alertar as pessoas que era o meu código de segurança, receber mensagens diárias sobre o bloqueio de yahoo tentativas de uso (por mim) para quem sabe por que como ele não faz e agora eu obter a nova política aparecer em cada turno - as empresas costumam pagar muito caro pela demografia que os usuários fornecem para você, sem custo, pois não sabem o que você está fazendo - está lá, mas não está bem escrito - e ninguém pode responder a menos que concordem com a política. Já é ruim o suficiente você empilhar o baralho, mas depois não fornece nenhuma opção de lidar com ele - o velho era bom o suficiente - todas essas mudanças para o pod de maré comendo mofos não corta - vou relutantemente estar ativamente olhando - estou cansado do mudanças em cada turno e mesmo aqueles que não funcionam direito, eu posso apreciar o seu negócio, mas o Ameri O homem de negócios pode vender-nos ao licitante mais alto por muito tempo - desejo-lhe boa sorte com sua nova safra de guppies - tente fazer algo realmente construtivo para aqueles a quem você serve - a cauda está abanando o cachorro novamente - isso é como um replay de Washington d c
Eu não deveria ter que concordar com coisas que eu não concordo com a fim de dizer o que eu acho - eu não tive nenhum problema resolvido desde que comecei a usar o Yahoo - fui forçado a jogar meu antigo mensageiro, trocar senhas, obter novas messenger, disse para usar o meu número de telefone para alertar as pessoas que era o meu código de segurança, receber mensagens diárias sobre o bloqueio de yahoo tentativas de uso (por mim) para quem sabe por que isso acontece e agora eu recebo a nova política em cada turno - as empresas costumam pagar muito pela demografia que os usuários fornecem para você ... mais.

Avaliando estratégias de negociação pdf
Editora: John Wiley & Sons.
PDF Download A Avaliação e Otimização de Livros Estratégias de Negociação Para livre escrito por Robert Pardo e foi publicado pela John Wiley & Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2011-01-11 com as categorias Business & Economics.
Uma edição recentemente expandida e atualizada do clássico de negociação, Design, Teste e Otimização do especialista em sistemas de Trading Systems Trading Robert Pardo está de volta, e em Avaliação e Otimização de Estratégias de Negociação, uma edição completamente revisada e atualizada de seu texto clássico Design, Testes e Otimização de Sistemas de Negociação, ele revela como ele aperfeiçoou a programação e o teste de sistemas de negociação usando uma bateria bem-sucedida de seus próprios produtos comprovados pelo tempo. Com este livro, Pardo fornece informações importantes para os leitores, desde a concepção de estratégias de negociação viáveis ​​até a mensuração de questões como lucro e risco. Escrito em um estilo simples e acessível, este guia detalhado apresenta comerciantes com uma maneira de desenvolver e verificar sua estratégia de negociação, não importa que forma eles estão usando atualmente - stochastics, médias móveis, padrões de gráfico, RSI ou métodos de fuga. Se um comerciante está buscando aumentar seu lucro ou apenas começando em testes, a avaliação e otimização de estratégias de negociação oferece instrução prática e aconselhamento especializado sobre o desenvolvimento, avaliação e aplicação de vencedores mecânicos sistemas de negociação.
Teste de projeto e otimização de sistemas de negociação.
Editora: John Wiley & Sons.
PDF Download Teste de Design e Otimização dos Livros de Sistemas de Negociação Para livre escrito por Robert Pardo e foi publicado pela John Wiley & Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 1992-08-26 com as categorias Business & Economics.
O título diz tudo. Orientação concisa e direta ao desenvolvimento de um sistema de negociação de computador vencedor. Direitos autorais © Libri GmbH. Todos os direitos reservados.
Negociação automatizada de opções.
Autor: Sergey Izraylevich Ph. D.
PDF Download Opção Automatizada Trading Books Gratuitamente escrito por Sergey Izraylevich Ph. D. e foi publicado pela FT Press este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2012/03/12 com as categorias Business & Economics.
O primeiro e único livro de seu tipo, a Trading de Opções Automatizadas, descreve um processo abrangente, passo a passo, para criar sistemas automatizados de negociação de opções. Usando as técnicas dos autores, traders sofisticados podem criar estruturas poderosas para a realização consistente e disciplinada de estratégias de negociação bem definidas, formalizadas e cuidadosamente testadas, com base em seus requisitos específicos. Ao contrário de outros livros sobre negociação automatizada, este livro concentra-se especificamente nos requisitos indevidos de opções, refletindo filosofia, lógica, ferramentas quantitativas e procedimentos de avaliação que são completamente diferentes daqueles usados ​​em algoritmos de negociação automatizados convencionais. Cada faceta da abordagem dos autores é otimizada para opções, incluindo desenvolvimento e otimização de estratégias; alocação de capital; gerenciamento de riscos; medição de desempenho; análise de back-testing e walk-forward; e execução comercial. O sistema dos autores reflete um processo contínuo de avaliação, estruturação e gestão de longo prazo de carteiras de investimento (não apenas instrumentos individuais), introduzindo abordagens sistemáticas para lidar com carteiras contendo combinações de opções relacionadas a diferentes ativos subjacentes. Com essas técnicas, finalmente é possível automatizar efetivamente a negociação de opções no nível do portfólio. Este livro será um recurso indispensável para os negociadores de opções sérias que trabalham individualmente, em fundos hedge ou em outras instituições.
Estratégias de Negociação Cibernética.
Editora: John Wiley & Sons.
PDF Download Cybernetic Trading Strategies Livros Para livre escrito por Murray A. Ruggiero e foi publicado pela John Wiley & Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 1997-07-01 com Business & Economics categorias.
"O computador pode fazer mais do que nos mostrar imagens bonitas. Ele pode otimizar, fazer backtest, provar ou refutar velhas teorias, eliminar as ruins e melhorar as boas. A Cybernetic Trading Strategies explora novas maneiras de usar o computador e descobre maneiras fazer uma máquina valiosa ainda mais valiosa ". –– do prefácio de John J. Murphy. Até recentemente, o computador era usado quase exclusivamente como uma ferramenta de coleta de dados e coleta de dados. Mas, como traders e analistas descobriram rapidamente, suas capacidades são muito mais vastas. Agora, neste novo livro inovador, Murray Ruggiero, uma autoridade líder em sistemas de comércio cibernético, desbloqueia seu incrível potencial e fornece uma visão detalhada do crescente impacto das tecnologias avançadas na análise intermarket. Um recurso indiscutível, Cybernetic Trading Strategies fornece instruções e aplicações específicas sobre como desenvolver sistemas de cronometragem de mercado negociáveis ​​usando redes neurais, lógica difusa, algoritmos genéticos, teoria do caos e métodos de indução de máquinas. Atualmente utilizada por algumas das instituições financeiras mais poderosas do mundo - incluindo a John Deere e a Fidelity Investments -, as tecnologias avançadas de hoje vão além das interpretações subjetivas dos indicadores de mercado para aprimorar a análise tradicional. Como resultado, os sistemas de negociação existentes ganham vantagem competitiva. Ruggiero revela como "incorporar elementos de análise estatística, análise espectral, redes neurais, algoritmos genéticos, lógica difusa e outros conceitos de alta tecnologia em um sistema de negociação técnica tradicional pode melhorar muito o desempenho dos sistemas de negociação padrão". Por exemplo: a análise espectral pode ser usada para detectar quando um mercado está tendendo mais cedo do que indicadores clássicos como o ADX. Com base em sua extensa pesquisa sobre análise de mercado, Ruggiero fornece uma visão geral incisiva de sistemas cibernéticos - sistemas que, quando aplicados corretamente, podem aumentar os retornos de negociação em até 200% a 300%. O autor abrange uma ampla gama de tópicos importantes, examinando metodologias clássicas de análise técnica e negociação sazonal, bem como previsão do mercado estatisticamente baseada e a mecanização de métodos subjetivos, como gráficos de velas e o Elliott Wave. Explicações precisas e dezenas de exemplos do mundo real mostram como: ∗ Incorporar tecnologias avançadas em metodologias clássicas de análise técnica. ∗ Identifique quais dessas tecnologias têm maior aplicabilidade no mercado. ∗ Construa sistemas de negociação para maximizar a confiabilidade e a lucratividade com base em seus próprios critérios de risco / recompensa. Mais importante ainda, Cybernetic Trading Strategies leva você passo a passo através de testes e avaliação do sistema, um passo crucial para o controle de risco e gerenciamento de dinheiro. Com informações atualizadas de uma das principais autoridades do campo, a Cybernetic Trading Strategies é o guia definitivo para o desenvolvimento, implementação e teste das mais recentes tecnologias de negociação de computadores.
Negociação de alta frequência.
Editora: John Wiley and Sons.
PDF Download Livros de Negociação de Alta Freqüência Para livre escrito por Irene Aldridge e foi publicado pela John Wiley and Sons este livro suportado arquivo pdf, txt, epub, kindle e outro formato este livro foi lançado em 2009-12-22 com Business & Economics categorias.
Um guia prático para o mundo rápido e em constante mudança da negociação algorítmica de alta frequência Os mercados financeiros estão passando por uma rápida inovação devido à contínua proliferação de algoritmos e poder do computador. Esses desenvolvimentos criaram uma nova disciplina de investimento chamada negociação de alta frequência. Este livro aborda todos os aspectos da negociação de alta frequência, desde o business case e formulação de ideias, passando pelo desenvolvimento de sistemas de negociação até a aplicação de capital e subsequente avaliação de desempenho. Também inclui numerosas estratégias de negociação quantitativa, com microestrutura de mercado, arbitragem de eventos e arbitragem de desvios discutidos em grande detalhe. Contém as ferramentas e os materiais necessários para construir um sistema de negociação de alta frequência Detalhes do processo de análise pós-negociação, incluindo referências de desempenho e avaliação da qualidade do comércio Escrito por Irene Aldridge, conhecido profissional da indústria, o interesse em negociação de alta frequência explodiu no passado ano. Este livro tem o que você precisa para entender melhor como ele funciona e o que é necessário para aplicar essa abordagem aos seus empreendimentos comerciais.
Aplicações de mineração de dados em negócios e finanças.
Autor: Carlos A. Mota Soares.
PDF Download de aplicativos de mineração de dados em E Livros de Negócios e Finanças Para livre escrito por Carlos A. Mota Soares e foi publicado pela IOS Press este livro arquivo suportado pdf, txt, epub, kindle e outro formato este livro foi lançado em 2008- 01-01 com categorias de computadores.
A aplicação das tecnologias de Data Mining (DM) mostrou um crescimento explosivo em um número crescente de diferentes áreas de negócios, governo e ciência. Duas das mais importantes áreas de negócios são finanças, em particular em bancos e seguradoras, e e-business, como portais, comércio eletrônico e serviços de gerenciamento de anúncios. Apesar da estreita relação entre pesquisa e prática em Data Mining, Não é fácil encontrar informações sobre algumas das questões mais importantes envolvidas na aplicação no mundo real da tecnologia DM, desde a compreensão de negócios e dados até a avaliação e a implantação. Os artigos geralmente descrevem pesquisas que foram desenvolvidas sem levar em conta restrições impostas pela aplicação motivadora. Quando esses problemas são levados em conta, eles não são discutidos em detalhes com frequência porque o trabalho deve se concentrar no método. Portanto, o conhecimento que poderia ser útil para aqueles que gostariam de aplicar a mesma abordagem em um problema relacionado não é compartilhado. Os documentos deste livro abordam alguns desses problemas. Este livro é de interesse não apenas para pesquisadores e profissionais de mineração de dados, mas também para estudantes que desejam ter uma idéia das questões práticas envolvidas na mineração de dados.
Superfície de Volatilidade e Estrutura a Termo.
PDF Download Volatilidade Livros de Estrutura de Superfície e de Prazos Para livre escrito por Kin Keung Lai e foi publicado pela Routledge este livro suportado arquivo pdf, txt, epub, kindle e outros formatos este livro foi lançado em 2013-09-11 com Business & Economics categorias.
Publicado pela primeira vez em 2013. Routledge é uma marca da Taylor & Francis, uma empresa de informação.

Avaliando o desempenho da estratégia de Forex.
& laquo; Teste de Estratégia de Negociação Diária.
Fatores de Longo Prazo Direcionando o Mercado de Câmbio: Fluxos de Capital & raquo;
Avaliando o desempenho da estratégia.
Você aprenderá sobre os seguintes conceitos.
Avaliação de desempenho da estratégia Método de retorno médio modificado de Dietz.
Depois que um trader escolheu uma estratégia, fez um backtested e passou por simulações prolongadas em contas de demonstração, ele finalmente começará a usá-la em negociações com dinheiro real. Embora possa ter produzido resultados satisfatórios durante a simulação ou por algum tempo na negociação com dinheiro real, isso não é garantido para continuar. As condições nos mercados financeiros estão mudando constantemente, especialmente alimentadas pelo desenvolvimento de tecnologia moderna, tornando algumas estratégias de negociação obsoletas. A fim de manter sua vantagem competitiva, um comerciante deve avaliar regularmente o desempenho de seu sistema de negociação. E que melhor maneira de determinar se você está satisfeito com seu desempenho comercial do que para calcular os retornos de sua estratégia e ver se é o suficiente?
Calcular os retornos de um investimento (no nosso caso, o capital inicial e o tempo que investimos) pode ser feito de várias maneiras, dependendo do período de tempo, levantamentos secundários ou depósitos na conta, etc.
Taxa Média de Retorno Composta.
A maneira mais comum de calcular os retornos de um investimento é a taxa média de retorno composta. Se for sobre um único período e você não estiver adicionando ou retirando fundos dessa conta, você usaria uma alteração simples de porcentagem, como esta:
& # 8211; EOY é o valor no final do ano.
& # 8211; BOY é o valor no início do ano.
Multiplique o resultado por 100 e você terá a variação percentual. Um valor negativo indica uma perda no valor do ativo.
Por exemplo, se começamos com $ 1 000 e no final do ano há $ 1 500 na sua conta de negociação, então o seu retorno anual é: (1 500 & # 8211; 1 000) / 1 000 = 0,50 ou 50%.
No entanto, dissemos que esse cálculo é em um único período. Se estivermos calculando os retornos para o let digamos por vários anos, a matemática é diferente porque, por exemplo, no segundo ano, você terá retornos após os retornos do primeiro ano. Assim, você está procurando o retorno composto de seu investimento, não o simples retorno de um único ano. Aqui está a fórmula:
& # 8211; EOP é o valor no final do período total.
& # 8211; BOP é o valor no início do período de tempo total.
& # 8211; n é o número de períodos.
Fluxos de dinheiro.
No entanto, ambos os cálculos de retorno acima não incluem quaisquer depósitos adicionais durante o período rastreado, nem levantamentos. É improvável que isso funcione para a maioria dos day traders, porque este é seu principal trabalho e fonte de renda, portanto, as retiradas das contas de negociação serão necessárias, digamos, semanalmente, para cobrir as despesas diárias. Com o dinheiro entrando e saindo da sua conta de negociação, isso distorceria a avaliação de desempenho feita pelas fórmulas anteriores. Existem vários métodos para avaliar seu desempenho, levando em consideração essas variáveis.
A primeira fórmula é o chamado método de Dietz modificado. Ele é baseado na fórmula simples de alteração percentual, mas é ajustado para as entradas e saídas de dinheiro. Esse método é menos preciso, mas compensa sua simplicidade. Aqui está como parece:
(EOY & # 8211; BOY & # 8211; depósitos + levantamentos) / (BOY + depósitos & # 8211; levantamentos)
Vamos dizer, por exemplo, que durante o ano tivemos que sacar US $ 200 em abril, mas depois em agosto depositamos US $ 300. Nosso retorno seria então:
(1 500 & # 8211; 1 000 & # 8211; 300 + 200) / (1 000 + 300 & # 8211; 200) = 0,36, ou 36%.
Taxa de retorno ponderada por tempo.
O segundo método envolve um cálculo de duas etapas mais complicado, mas produz resultados com melhor precisão. É chamado de taxa de retorno ponderada pelo tempo. Primeiro você precisa estimar a variação percentual simples para cada período (no nosso caso para os três meses até abril, os quatro meses até julho e os cinco meses de agosto). Um segundo cálculo é então necessário para incorporar todos esses retornos no período mais longo (no nosso caso para todo o ano). Vamos fazer as contas.
Janeiro & # 8211; Março & # 8211; capital inicial US $ 1 000, capital final, digamos US $ 1 200, a taxa de retorno é de 20%.
Abril & # 8211; Julho & # 8211; capital inicial $ 1 200, retirada $ 200, início ajustado para o período & # 8211; $ 1 000, terminando o capital, digamos $ 1 100, a taxa de retorno é de 10%.
Agosto & # 8211; Dezembro & # 8211; capital inicial $ 1 100, depósito $ 300, início ajustado para o período & # 8211; $ 1 400, terminando capital $ 1 500, a taxa de retorno é de 7,1%
O segundo cálculo é assim:
& # 8211; N é o número total de períodos (no nosso caso é um ano, portanto 1)
& # 8211; r é o retorno desse período.
O cálculo ficará assim: (1 + 0,2) * (1 + 0,1) * (1 + 0,071) -1 = 0,41372.

O Trader R.
Usando R e ferramentas relacionadas em Finanças Quantitativas.
Arquivo para as Estratégias de Negociação & # 8216; & # 8217; Categoria.
Vinculando R ao IQFeed com o pacote QuantTools.
O IQFeed fornece serviços de dados de fluxo contínuo e soluções de negociação que cobrem o mercado agrícola, de energia e financeiro. É um provedor de feed de dados bem conhecido e reconhecido, voltado para usuários de varejo e pequenas instituições. O preço da assinatura começa em cerca de US $ 80 / mês.
Stanislav Kovalevsky desenvolveu um pacote chamado QuantTools. É um pacote tudo em um projetado para melhorar a modelagem de negociação quantitativa. Ele permite baixar e organizar dados históricos de mercado de várias fontes, como Yahoo, Google, Finam, MOEX e IQFeed. O recurso que mais me interessa é a capacidade de vincular o IQFeed à R. Eu uso o IQFeed há alguns anos e estou feliz com ele (não estou afiliado à empresa em nenhum caminho). Mais informações podem ser encontradas aqui. Eu tenho procurado uma integração dentro de R por um tempo e aqui está. Como resultado, depois que fiz alguns testes, mudei meu código que ainda estava em Python para R. Apenas para completar, aqui está um link que explica como baixar dados históricos do IQFeed usando Python.
A QuantTools oferece quatro funcionalidades principais: Obter dados de mercado, Armazenar / Recuperar dados de mercado, Dados de séries temporais de plotagem e Testes reversos.
Primeiro, verifique se o IQfeed está aberto. Você pode baixar dados diários ou intradiários. O código abaixo faz o download dos preços diários (Aberto, Alto, Baixo, Fechado) para o SPY de 1º de janeiro de 2017 a 1º de junho de 2017.
O código abaixo faz o download dos dados intraday de 1º de maio de 2017 a 3 de maio de 2017.
Observe o parâmetro do período. Pode usar qualquer um dos seguintes valores: tick, 1min, 5min, 10min, 15min, 30min, hora, dia, semana, mês, dependendo da freqüência que você precisa.
O QuantTools facilita o processo de gerenciar e armazenar dados do mercado de ticks. Você acabou de configurar os parâmetros de armazenamento e está pronto para começar. Os parâmetros são onde, desde que data e quais símbolos você gostaria de armazenar. Sempre que você puder adicionar mais símbolos e se eles não estiverem presentes em um armazenamento, o QuantTools tentará obter os dados da data de início especificada. O código abaixo salvará os dados no seguinte diretório: & # 8220; C: / Users / Arnaud / Documents / Market Data / feed & # 8221 ;. Há uma subpasta por instrumento e os dados são exibidos em arquivos. rds.
Você também pode armazenar dados entre datas específicas. Substitua a última linha de código acima por uma das abaixo.
Agora, se você quiser recuperar alguns dos dados armazenados, basta executar algo como:
Observe que apenas os ticks são suportados no armazenamento local, portanto, o período deve ser & # 8216; tick & # 8217;
O QuantTools fornece a função plot_ts para plotar dados de séries temporais sem fins de semana, feriados e lacunas durante a noite. No exemplo abaixo, primeiro recupero os dados armazenados acima, depois seleciono as primeiras 100 observações de preço e, finalmente, desenho o gráfico.
Duas coisas para notar: primeiro espião é um objeto data. table, portanto, a sintaxe acima. Para obter uma visão geral rápida dos recursos do data. table, dê uma olhada nesta excelente folha de dicas do DataCamp. Segundo, o parâmetro local é TRUE, pois os dados são recuperados do armazenamento interno.
O QuantTools permite escrever sua própria estratégia de negociação usando sua API C ++. Eu não vou elaborar sobre isso, pois isso é basicamente código C ++. Você pode consultar a seção Exemplos no site da QuantTools.
No geral, acho o pacote extremamente útil e bem documentado. O único bit faltante é o feed ao vivo entre R e IQFeed, que fará do pacote uma solução real de ponta a ponta.
Como de costume, qualquer comentário é bem-vindo.
BERT: um recém-chegado na conexão R Excel.
Há alguns meses, um leitor me mostrou essa nova maneira de conectar R e Excel. Eu não sei há quanto tempo isso acontece, mas nunca me deparei com isso e nunca vi nenhum post ou artigo de blog sobre isso. Então eu decidi escrever um post enquanto a ferramenta realmente vale a pena e antes que alguém pergunte, eu não estou relacionado à empresa de forma alguma.
BERT significa Basic Excel R Toolkit. É gratuito (licenciado sob a GPL v2) e foi desenvolvido pela Structured Data LLC. No momento em que escrevo, a versão atual do BERT é 1.07. Mais informações podem ser encontradas aqui. De uma perspectiva mais técnica, o BERT é projetado para suportar a execução de funções R a partir de células da planilha do Excel. Em termos do Excel, é para escrever Funções definidas pelo usuário (UDFs) em R.
Neste post eu não vou mostrar como R e Excel interagem via BERT. Há muito bons tutoriais aqui, aqui e aqui. Em vez disso, quero mostrar como usei BERT para construir uma torre de controle & # 8220; & # 8221; para minha negociação.
Meus sinais de negociação são gerados usando uma longa lista de arquivos R, mas eu preciso da flexibilidade do Excel para exibir os resultados de forma rápida e eficiente. Como mostrado acima, o BERT pode fazer isso para mim, mas também quero adaptar o aplicativo às minhas necessidades. Combinando o poder do XML, VBA, R e BERT, posso criar um aplicativo bonito, mas poderoso, na forma de um arquivo do Excel com código VBA mínimo. Em última análise, eu tenho um único arquivo do Excel reunindo todas as tarefas necessárias para gerenciar meu portfólio: atualização de banco de dados, geração de sinal, submissão de pedidos etc & # 8230; Minha abordagem pode ser dividida nos três passos abaixo:
Use XML para criar menus e botões definidos pelo usuário em um arquivo do Excel. Os menus e botões acima são essencialmente chamadas para funções do VBA. Essas funções do VBA são encapsuladas em torno de funções R definidas usando BERT.
Com essa abordagem, posso manter uma clara distinção entre o núcleo do meu código mantido em R, SQL e Python e tudo o que é usado para exibir e formatar os resultados mantidos no Excel, VBA & amp; XML Nas próximas seções, apresento o pré-requisito para desenvolver tal abordagem e um guia passo a passo que explica como o BERT poderia ser usado para simplesmente passar dados de R para o Excel com o mínimo de código VBA.
1 & # 8211; Baixe e instale o BERT neste link. Quando a instalação estiver concluída, você deverá ter um novo menu Add-Ins no Excel com os botões, conforme mostrado abaixo. É assim que o BERT se materializa no Excel.
2 & # 8211; Faça o download e instale o editor de interface de usuário personalizada: O Editor de interface de usuário personalizado permite criar menus e botões definidos pelo usuário na faixa de opções do Excel. Um procedimento passo a passo está disponível aqui.
1 & # 8211; Código R: A função R abaixo é um código muito simples apenas para fins ilustrativos. Calcula e retorna os resíduos de uma regressão linear. É isso que queremos recuperar no Excel. Salve isso em um arquivo chamado myRCode. R (qualquer outro nome é bom) em um diretório de sua escolha.
2 & # 8211; functions. R em BERT: No Excel selecione Add-Ins - & gt; Diretório base e abra o arquivo chamado functions. R. Neste arquivo, cole o seguinte código. Certifique-se de inserir o caminho correto.
Isso é apenas o fornecimento de BERT no arquivo R que você criou acima. Em seguida, salve e feche as funções do arquivo. Se você quiser fazer qualquer alteração no arquivo R criado na etapa 1, terá que recarregá-lo usando o botão BERT & # 8220; Recarregar o arquivo de inicialização & # 8221; do menu Add-Ins no Excel.
3 & # 8211; No Excel: Crie e salve um arquivo chamado myFile. xslm (qualquer outro nome é bom). Este é um arquivo habilitado para macro que você salva no diretório de sua escolha. Depois que o arquivo for salvo, feche-o.
4 & # 8211; Abra o arquivo criado acima no editor da interface do usuário personalizada: Depois que o arquivo estiver aberto, cole o código abaixo.
Você deve ter algo parecido com isto no editor de XML:
Essencialmente, este pedaço de código XML cria um menu adicional (RTrader), um novo grupo (My Group) e um botão definido pelo usuário (New Button) na faixa de opções do Excel. Quando terminar, abra myFile. xslm no Excel e feche o Custom UI Editor. Você deveria ver algo assim.
5 & ​​# 8211; Abra o editor VBA: Em myFile. xlsm, insira um novo módulo. Cole o código abaixo no módulo recém-criado.
Isso apaga os resultados anteriores na planilha antes de lidar com os novos.
6 & # 8211; Clique no botão New: Agora volte para a planilha e no menu RTrader, clique no botão & # 8220; New Button & # 8221; botão. Você deve ver algo como o abaixo aparece.
O guia acima é uma versão muito básica do que pode ser obtido usando o BERT, mas mostra como combinar o poder de várias ferramentas específicas para criar seu próprio aplicativo personalizado. Da minha perspectiva, o interesse de tal abordagem é a capacidade de colar R e Excel, obviamente, mas também incluir pedaços de código XML (e em lote) do Python, SQL e muito mais. Isso é exatamente o que eu precisava. Por fim, gostaria de saber se alguém tem alguma experiência com o BERT?
Estratégia de negociação: aproveitando ao máximo os dados da amostra.
Ao testar estratégias de negociação, uma abordagem comum é dividir o conjunto de dados inicial em dados de amostra: a parte dos dados projetados para calibrar o modelo e os dados de amostra: a parte dos dados usada para validar a calibração e garantir que o desempenho criado na amostra será refletido no mundo real. Como regra geral, cerca de 70% dos dados iniciais podem ser utilizados para calibração (isto é, na amostra) e 30% para validação (isto é, fora da amostra). Em seguida, uma comparação entre os dados de entrada e de saída ajuda a decidir se o modelo é suficientemente robusto. Este post visa dar um passo adiante e fornece um método estatístico para decidir se os dados fora da amostra estão alinhados com o que foi criado na amostra.
No gráfico abaixo, a área azul representa o desempenho fora da amostra de uma das minhas estratégias.
Uma inspeção visual simples revela um bom ajuste entre o desempenho de entrada e saída da amostra, mas que grau de confiança eu tenho nisso? Nesta fase não muito e esta é a questão. O que é realmente necessário é uma medida de similaridade entre os conjuntos de dados de entrada e de saída. Em termos estatísticos, isso pode ser traduzido como a probabilidade de que os números de desempenho dentro e fora da amostra sejam provenientes da mesma distribuição. Existe um teste estatístico não paramétrico que faz exatamente isso: o teste de Kruskall-Wallis. Uma boa definição deste teste pode ser encontrada no R-Tutor Uma coleção de amostras de dados é independente se eles vêm de populações não relacionadas e as amostras não afetam umas às outras. Usando o teste de Kruskal-Wallis, podemos decidir se as distribuições populacionais são idênticas, sem presumir que elas sigam a distribuição normal. & # 8221; O benefício adicional desse teste não está assumindo uma distribuição normal.
Existem outros testes da mesma natureza que poderiam se encaixar nessa estrutura. O teste de Mann-Whitney-Wilcoxon ou os testes de Kolmogorov-Smirnov se encaixam perfeitamente na estrutura descrita aqui, porém isso está além do escopo deste artigo para discutir os prós e contras de cada um desses testes. Uma boa descrição junto com exemplos de R pode ser encontrada aqui.
Aqui está o código usado para gerar o gráfico acima e a análise:
No exemplo acima, o período de amostragem é maior do que o período de amostragem, portanto, criei aleatoriamente 1.000 subconjuntos dos dados da amostra, cada um deles tendo o mesmo comprimento que os dados fora da amostra. Então, testei cada um em um subconjunto de amostras em relação aos dados fora da amostra e gravei os valores p. Esse processo não cria um único valor p para o teste Kruskall-Wallis, mas uma distribuição que torna a análise mais robusta. Neste exemplo, a média dos valores de p é bem acima de zero (0,478), indicando que a hipótese nula deve ser aceita: há fortes evidências de que os dados de entrada e saída da amostra são provenientes da mesma distribuição.
Como de costume, o que é apresentado neste post é um exemplo de brinquedo que apenas arranha a superfície do problema e deve ser adaptado às necessidades individuais. No entanto, penso que propõe um quadro estatístico interessante e racional para avaliar os resultados fora da amostra.
Este post é inspirado nos dois artigos seguintes:
Vigier Alexandre, Chmil Swann (2007), "Efeitos de várias funções de otimização sobre o desempenho da amostra de estratégias de negociação geneticamente evoluídas", prevendo a conferência sobre mercados financeiros.
Vigier Alexandre, Chmil Swann (2010), «Um processo de otimização para melhorar a consistência da amostra, um caso da Bolsa de Valores», JP Morgan Cazenove Equity Quantitative Conference, Londres, outubro de 2010.
Apresentando o fidlr: LoanceR de Dados Financeiros.
O fidlr é um suplemento do RStudio projetado para simplificar o processo de download de dados financeiros de vários provedores. Esta versão inicial é um wrapper em torno da função getSymbols no pacote quantmod e somente o Yahoo, Google, FRED e Oanda são suportados. Eu provavelmente adicionarei funcionalidades ao longo do tempo. Como de costume, com essas coisas apenas um lembrete: "O SOFTWARE É FORNECIDO" COMO ESTÁ, SEM GARANTIA DE NENHUM TIPO "# 8230; & # 8221;
Como instalar e usar o fidlr?
Você pode obter o addin / package do seu repositório Github aqui (eu vou registrá-lo no CRAN mais tarde) Instale o addin. Existe um excelente tutorial para instalar o RStudio Addins aqui. Depois que o addin é instalado, ele deve aparecer no menu Addin. Basta escolher fidlr no menu e uma janela como abaixo deve aparecer. Escolha um provedor de dados no menu suspenso Origem. Selecione um intervalo de datas no menu Data Insira o símbolo que você deseja baixar na caixa de texto do instrumento. Para baixar vários símbolos basta digitar os símbolos separados por vírgulas. Use os botões de opção para escolher se deseja baixar o instrumento em um arquivo csv ou no ambiente global. O arquivo csv será salvo no diretório de trabalho e haverá um arquivo csv por instrumento. Pressione Executar para obter os dados ou Fechar para fechar o suplemento.
Mensagens de erro e avisos são manipulados pelos pacotes subjacentes (quantmod e Shiny) e podem ser lidos no console.
Esta é a primeira versão do projeto, então não espere a perfeição, mas esperamos que melhore com o tempo. Por favor, informe qualquer comentário, sugestão, erro etc & # 8230; para: thertrader @ gmail.
Manter um banco de dados de arquivos de preços em R.
Fazer pesquisa quantitativa implica muita análise de dados e é preciso dados limpos e confiáveis ​​para conseguir isso. O que é realmente necessário são dados limpos que sejam facilmente acessíveis (mesmo sem uma conexão com a Internet). A maneira mais eficiente de fazer isso para mim foi manter um conjunto de arquivos csv. Obviamente, este processo pode ser tratado de várias maneiras, mas eu achei um tempo extra muito eficiente e simples para manter um diretório onde eu armazeno e atualizo arquivos csv. Eu tenho um arquivo csv por instrumento e cada arquivo é nomeado após o instrumento que ele contém. A razão pela qual eu faço isso é dupla: Primeiro, eu não quero baixar dados (de preço) do Yahoo, Google, etc & # 8230; toda vez que eu quiser testar uma nova ideia, mas mais importante, uma vez que eu identifiquei e consertei um problema, eu não quero ter que fazer isso novamente na próxima vez que eu precisar do mesmo instrumento. Simples, mas muito eficiente até agora. O processo é resumido no gráfico abaixo.
Em tudo o que se segue, presumo que os dados estão vindo do Yahoo. The code will have to be amended for data from Google, Quandl etc… In addition I present the process of updating daily price data. The setup will be different for higher frequency data and other type of dataset (i. e. different from prices).
1 & # 8211; Initial data downloading (listOfInstruments. R & historicalData. R)
The file listOfInstruments. R is a file containing only the list of all instruments.
If an instrument isn’t part of my list (i. e. no csv file in my data folder) or if you do it for the very first time you have to download the initial historical data set. The example below downloads a set of ETFs daily prices from Yahoo Finance back to January 2000 and store the data in a csv file.
2 & # 8211; Update existing data (updateData. R)
The below code starts from existing files in the dedicated folder and updates all of them one after the other. I usually run this process everyday except when I’m on holiday. Para adicionar um novo instrumento, basta executar o passo 1 acima apenas para este instrumento.
3 & # 8211; Create a batch file (updateDailyPrices. bat)
Another important part of the job is creating a batch file that automates the updating process above (I’m a Windows user). This avoids opening R/RStudio and run the code from there. The code below is placed on a. bat file (the path has to be amended with the reader’s setup). Note that I added an output file (updateLog. txt) to track the execution.
The process above is extremely simple because it only describes how to update daily price data. I’ve been using this for a while and it has been working very smoothly for me so far. For more advanced data and/or higher frequencies, things can get much trickier.
As usual any comments welcome.
Factor Evaluation in Quantitative Portfolio Management.
When it comes to managing a portfolio of stocks versus a benchmark the problem is very different from defining an absolute return strategy. In the former one has to hold more stocks than in the later where no stocks at all can be held if there is not good enough opportunity. The reason for that is the tracking error . This is defined as the standard deviation of the portfolio return minus the benchmark return. The less stocks is held vs. a benchmark the higher the tracking error (e. g higher risk).
The analysis that follows is largely inspired by the book “Active Portfolio Management” by Grinold & Kahn. This is the bible for anyone interested in running a portfolio against a benchmark. Eu encorajo fortemente qualquer pessoa com interesse no tópico a ler o livro do começo ao fim. It’s very well written and lays the foundations of systematic active portfolio management (I have no affiliation to the editor or the authors).
Aqui, estamos tentando classificar com a maior precisão possível as ações no universo de investimento em uma base de retorno a termo. Many people came up with many tools and countless variant of those tools have been developed to achieve this. In this post I focus on two simple and widely used metrics: Information Coefficient (IC) and Quantiles Return (QR).
The IC gives an overview of the factor forecasting ability. More precisely, this is a measure of how well the factor ranks the stocks on a forward return basis. The IC is defined as the rank correlation ( ρ ) between the metric (e. g. factor) and the forward return. In statistical terms the rank correlation is a nonparametric measure of dependance between two variables. For a sample of size n , the n raw scores are converted to ranks , and ρ is computed from:
O horizonte para o retorno para frente tem que ser definido pelo analista e é uma função do turnover da estratégia e da decadência alfa (isso tem sido objeto de extensa pesquisa). Obviously ICs must be as high as possible in absolute terms.
Para o leitor atento, no livro de Grinold & amp; Kahn a formula linking Information Ratio (IR) and IC is given: with breadth being the number of independent bets (trades). This formula is known as the fundamental law of active management . The problem is that often, defining breadth accurately is not as easy as it sounds.
In order to have a more accurate estimate of the factor predictive power it’s necessary to go a step further and group stocks by quantile of factor values then analyse the average forward return (or any other central tendency metric) of each of those quantiles. The usefulness of this tool is straightforward. A factor can have a good IC but its predictive power might be limited to a small number of stocks. This is not good as a portfolio manager will have to pick stocks within the entire universe in order to meet its tracking error constraint. Good quantiles return are characterised by a monotonous relationship between the individual quantiles and forward returns.
Todas as ações no índice S & amp; P500 (no momento da redação). Obviamente, há um viés de sobrevivência: a lista de ações no índice mudou significativamente entre o início e o final do período de amostragem, no entanto, é bom o suficiente apenas para fins ilustrativos.
The code below downloads individual stock prices in the S&P500 between Jan 2005 and today (it takes a while) and turns the raw prices into return over the last 12 months and the last month. The former is our factor, the latter will be used as the forward return measure.
Abaixo está o código para calcular o Coeficiente de Informação e o Retorno de Quantiles. Note that I used quintiles in this example but any other grouping method (terciles, deciles etc…) can be used. it really depends on the sample size, what you want to capture and wether you want to have a broad overview or focus on distribution tails. For estimating returns within each quintile, median has been used as the central tendency estimator. This measure is much less sensitive to outliers than arithmetic mean.
And finally the code to produce the Quantiles Return chart.
3 & # 8211; Como explorar as informações acima?
In the chart above Q1 is lowest past 12 months return and Q5 highest. There is an almost monotonic increase in the quantiles return between Q1 and Q5 which clearly indicates that stocks falling into Q5 outperform those falling into Q1 by about 1% per month. This is very significant and powerful for such a simple factor (not really a surprise though…). Therefore there are greater chances to beat the index by overweighting the stocks falling into Q5 and underweighting those falling into Q1 relative to the benchmark.
An IC of 0.0206 might not mean a great deal in itself but it’s significantly different from 0 and indicates a good predictive power of the past 12 months return overall. Formal significance tests can be evaluated but this is beyond the scope of this article.
The above framework is excellent for evaluating investments factor’s quality however there are a number of practical limitations that have to be addressed for real life implementation:
Rebalancing : In the description above, it’s assumed that at the end of each month the portfolio is fully rebalanced. This means all stocks falling in Q1 are underweight and all stocks falling in Q5 are overweight relative to the benchmark. This is not always possible for practical reasons: some stocks might be excluded from the investment universe, there are constraints on industry or sector weight, there are constraints on turnover etc… Transaction Costs : This has not be taken into account in the analysis above and this is a serious brake to real life implementation. Turnover considerations are usually implemented in real life in a form of penalty on factor quality. Transfer coefficient : This is an extension of the fundamental law of active management and it relaxes the assumption of Grinold’s model that managers face no constraints which preclude them from translating their investments insights directly into portfolio bets.
And finally, I’m amazed by what can be achieved in less than 80 lines of code with R…
As usual any comments welcome.
Risk as a “Survival Variable”
I come across a lot of strategies on the blogosphere some are interesting some are a complete waste of time but most share a common feature: people developing those strategies do their homework in term of analyzing the return but much less attention is paid to the risk side its random nature. I’ve seen comment like “a 25% drawdown in 2011 but excellent return overall”. Well my bet is that no one on earth will let you experience a 25% loss with their money (unless special agreements are in place). In the hedge fund world people have very low tolerance for drawdown. Generally, as a new trader in a hedge fund, assuming that you come with no reputation, you have very little time to prove yourself. You should make money from day 1 and keep on doing so for a few months before you gain a bit of credibility.
First let’s say you have a bad start and you lose money at the beginning. With a 10% drawdown you’re most certainly out but even with a 5% drawdown the chances of seeing your allocation reduced are very high. This has significant implications on your strategies. Let’s assume that if you lose 5% your allocation is divided by 2 and you come back to your initial allocation only when you passed the high water mark again (e. g. the drawdown comes back to 0). In the chart below I simulated the experiment with one of my strategies.
You start trading in 1st June 2003 and all goes well until 23rd Jul. 2003 where your drawdown curve hits the -5% threshold (**1**). Your allocation is cut by 50% and you don’t cross back the high water mark level until 05th Dec. 2003 (**3**). If you have kept the allocation unchanged, the high water mark level would have been crossed on 28th Oct. 2003 (**2**) and by the end of the year you would have made more money.
But let’s push the reasoning a bit further. Still on the chart above, assume you get really unlucky and you start trading toward mid-June 2003. You hit the 10% drawdown limit by the beginning of August and you’re most likely out of the game. You would have started in early August your allocation would not have been cut at all and you end up doing a good year in only 4 full months of trading. In those two examples nothing has changed but your starting date….
The trading success of any individual has some form of path dependency and there is not much you can do about it. However you can control the size of a strategy’s drawdown and this should be addressed with great care. A portfolio should be diversified in every possible dimension: asset classes, investment strategies, trading frequencies etc…. From that perspective risk is your “survival variable”. If managed properly you have a chance to stay in the game long enough to realise the potential of your strategy. Otherwise you won’t be there next month to see what happens.
As usual any comments welcome.
A Simple Shiny App for Monitoring Trading Strategies – Part II.
This is a follow up on my previous post “A Simple Shiny App for Monitoring Trading Strategies“. I added a few improvements that make the app a bit better (at least for me!). Below is the list of new features :
A sample. csv file (the one that contains the raw data) A “EndDate” drop down box allowing to specify the end of the period. A “Risk” page containing a VaR analysis and a chart of worst performance over various horizons A “How To” page explaining how to use and tailor the app to individual needs.
I also made the app totally self contained. It is now available as a stand alone product and there is no need to have R/RStudio installed on your computer to run it. It can be downloaded from the R Trader Google drive account. This version of the app runs using portable R and portable Chrome. For the keen reader, this link explains in full details how to package a Shiny app into a desktop app (Windows only for now).
1 & # 8211; How to install & run the app on your computer.
Create a specific folder Unzip the contain of the. zip file onto that new folder. Change the paths in the runShinyApp file to match your setings To run the app, you just have launch the run. vbs file. I also included an icon (RTraderTradingApp. ico) should you want to create a shortcut on your desktop.
ui. R: controls the layout and appearance of the app server. R: contains the instructions needed to build the app. You can load as much strategies as you want as long as the corresponding csv file has the right format (see below). shinyStrategyGeneral. R: loads the required packages and launches the app.
3 & # 8211; How to add a trading strategy?
Create the corresponding. csv file in the right directory Create a new input in the data reactive function (within the server. R file) Add an extra element to the choice parameter in the first selectInput in the sidebarPanel (within the ui. R file). The element’s name should match the name of the new input above.
Remove the input in the data reactive function corresponding to the strategy you want to remove (within the server. R file) Remove the element in the choice parameter in the first selectInput in the sidebarPanel corresponding to the strategy you want to remove (within the ui. R file).
Please feel free to get in touch should you have any suggestion.
A Simple Shiny App for Monitoring Trading Strategies.
In a previous post I showed how to use R, Knitr and LaTeX to build a template strategy report. This post goes a step further by making the analysis interactive. Besides the interactivity, the Shiny App also solves two problems :
I can now access all my trading strategies from a single point regardless of the instrument traded. Coupled with the Shiny interactivity, it allows easier comparison. I can focus on a specific time period.
The code used in this post is available on a Gist/Github repository. There are essentially 3 files.
ui. R : controls the layout and appearance of the app. server. R : contains the instructions needed to build the app. It loads the data and format it. There is one csv file per strategy each containing at least two columns: date and return with the following format: (“2010-12-22″,”0.04%” ). You can load as much strategies as you want as long as they have the right format. shinyStrategyG eneral. R : loads the required packages and launches the app.
This app is probably far from perfect and I will certainly improve it in the future. Feel free to get in touch should you have any suggestion.
A big thank you to the RStudio/Shiny team for such a great tool.
Using Genetic Algorithms in Quantitative Trading.
The question one should always asked him/herself when using technical indicators is what would be an objective criteria to select indicators parameters (e. g., why using a 14 days RSI rather than 15 or 20 days?). Genetic algorithms (GA) are well suited tools to answer that question. In this post I’ll show you how to set up the problem in R. Before I proceed the usual reminder: What I present in this post is just a toy example and not an invitation to invest. It’s not a finished strategy either but a research idea that needs to be further researched, developed and tailored to individual needs.
What are genetic algorithms?
The best description of GA I came across comes from Cybernatic Trading a book by Murray A. Ruggiero. “Genetic Algorithms were invented by John Holland in the mid-1970 to solve hard optimisation problems. This method uses natural selection, survival of the fittest”. The general process follows the steps below:
Encode the problem into chromosomes Using the encoding, develop a fitness function for use in evaluating each chromosome’s value in solving a given problem Initialize a population of chromosomes Evaluate each chromosome in the population Create new chromosomes by mating two chromosomes. This is done by muting and recombining two parents to form two children (parents are selected randomly but biased by their fitness) Evaluate the new chromosome Delete a member of the population that is less fit than the new chromosome and insert the new chromosome in the population. If the stop criteria is reached (maximum number of generations, fitness criteria is good enough…) then return the best chromosome alternatively go to step 4.
From a trading perspective GA are very useful because they are good at dealing with highly nonlinear problems. However they exhibit some nasty features that are worth mentioning:
Over fitting: This is the main problem and it’s down to the analyst to set up the problem in a way that minimises this risk. Computing time : If the problem isn’t properly defined, it can be extremely long to reach a decent solution and the complexity increases exponentially with the number of variables. Hence the necessity to carefully select the parameters.
There are several R packages dealing with GA, I chose to use the most common one: rgenoud.
Daily closing prices for most luid ETFs from Yahoo finance going back to January 2000. The in sample period goes from January 2000 to December 2010. The Out of sample period starts on January 2011.
The logic is as following: the fitness function is optimised over the in sample period to obtain a set of optimal parameters for the selected technical indicators. The performance of those indicators is then evaluated in the out of sample period. But before doing so the technical indicators have to be selected.
The equity market exhibits two main characteristics that are familiar to anyone with some trading experience. Long term momentum and short term reversal. Those features can be translated in term of technical indicators by: moving averages cross over and RSI. This represents a set of 4 parameters: Look-back periods for long and short term moving averages, look-back period for RSI and RSI threshold. The sets of parameters are the chromosomes . The other key element is the fitness function . We might want to use something like: maximum return or Sharpe ratio or minimum average Drawdown. In what follows, I chose to maximise the Sharpe ratio.
The R implementation is a set of 3 functions:
fitnessFunction : defines the fitness function (e. g., maximum Sharpe ratio) to be used within the GA engine tradingStatistics : summary of trading statistics for the in and out of sample periods for comparison purposes genoud : the GA engine from the rgenoud package.
The genoud function is rather complex but I’m not going to explain what each parameter means as I want to keep this post short (and the documentation is really good).
In the table below I present for each instrument the optimal parameters (RSI look-back period, RSI threshold, Short Term Moving Average, and Long Term Moving Average) along with the in and out of sample trading statistics.

Evaluating trading strategies pdf


In the current climate of cost cutting and downsizing, training professionals are under increasing pressure to provide positive, measurable evidence of the bottom line contribution of training. Yet evaluating the effects and results of training is notoriously difficult. Here are a few thoughts on evaluation, collected from our own experiences, which you may find useful in planning what to evaluate, and how to go about doing it.
The purpose of evaluation.
It can be argued that the only training which organizations should be providing is training which contributes in some tangible way to both performance improvement and the achievement of business needs and objectives.
Organizations which are working towards the Investors in People (IIP) initiative will be aware that evaluation is one requirement against which their training performance is tested as part of the recognition process:
IIP Indicator 4.1:
"The organization evaluates the impact of training and development on knowledge, skills and attitude."
IIP Indicator 4.2:
"The organization evaluates the impact of training and development actions on performance."
IIP Indicator 4.3:
The organization evaluates the contribution of training and development to the achievement of its goals and targets."
The whole concept of Investors in People revolves around the idea that an organization which invests sensibly in developing its human resource will be better able to compete, and to meet its objectives effectively.
Expenditure on training, therefore, is an investment for the future - and like any investment, it needs to be able to show a demonstrable return. If training is to be perceived as a worthwhile investment there must be:
a direct correlation between training activity and performance improvement where possible, a financial value or benefit to the organization of having delivered the training.
Evaluation is concerned with collecting and presenting appropriate information in order to prove the relationship between training activity and benefits to the business.
Evaluation is the process by which training professionals can collect, analyse and present the information needed in order to prove the business value of any training which has been delivered within their organization.
Planning evaluation.
A common mistake which many organizations make is that they leave evaluation considerations until after they have planned and delivered their training. For evaluation to be truly effective the evaluation strategy needs to be planned and designed in conjunction with , rather than after the training planning and design stages.
Key questions to ask include the following:
What are the objectives of the training planned? What benefit, effect or change will result from the achievement of these objectives? How will these benefits, effects or changes contribute to the performance and/or needs of the organization as a whole? How will the actual benefits, effects or changes be identified and measured?
Answers to Question 1 will inform the content and design of the training itself.
Answers to Questions 2 and 3 will link the training to identified business needs and objectives.
Answers to Question 4 will inform the design of the evaluation strategy, and the evaluation methods to be used.
Levels of evaluation.
Training can impact on the organization at various levels. One of the first steps which training professionals will need to go through when planning their evaluation strategy, is to decide what they will be measuring at each level, when they will be measuring it, and how it will be measured.
Although it has been around for nearly 20 years, the Kirkpatrick Model (1979) is still the model most widely used to determine and plan different levels of evaluation:
Whilst the Kirkpatrick Model is useful as it stands, it can be further enhanced by the addition of a Level 0 and a Level 5.
Level 1 (Reactions) is concerned with the measurement of people’s immediate attitudes to the training provided:
Was it useful and relevant? Did they feel comfortable with it? Did it cover what was planned?
‘Happy sheets’, feedback during the training and assessments by the trainer of the materials used are most commonly used at this level.
Level 2 (Learning) is concerned with measuring the learning achieved as a result of the training:
What can participants do, that they could not do previously? What do participants know, that they did not know previously? What perception or understanding have participants gained, that they did not have previously?
Questionnaires, quizzes, and practical tests to check for any change in knowledge, skill or attitude are useful at this level.
Level 3 (Behaviour) is concerned with measuring how actual workplace performance has changed as a result of the training:
To what extent has learning been transferred to workplace performance? To what extent has workplace performance improved as a result of learning?
Evaluation at this level usually requires the involvement of Line Managers in setting post-training assignments which require and test newly acquired learning, or in observing and giving feedback about changes in day-to-day workplace performance.
Level 4 (Results) is concerned with measuring the extent to which changes in performance have contributed to improved business results of the more effective achievement of business objectives.
Measurement at this level needs to focus back to the identified contribution which the training would make to the performance and/or needs of the organization as a whole. If, for example, one of the reasons for the training was to assist the organization in its need to reduce production costs, then the measurement would need to involve some comparison of pre - and post-training production costs. As with Level 3 there would need to be some involvement from those outside the training function, in putting together and providing the required figures for comparison. Level 0 (Pre-training performance) is important, since it provides the initial benchmark against which training effectiveness can be measured. Pre-training knowledge, skill and attitude checks are invaluable in providing a point for comparison with Level 2 and Level 3 evaluation data.
Level 5 (Return on investment) is also important, since it provides a financial value to the organization, of having delivered the training, i. e., a cost benefit ratio:
financial value of change or effect achieved ¸ cost of achieving it x 100/1 = % return on investment.
Rationalizing evaluation.
It is important not to get ‘carried away’ with an evaluation effort which is disproportionately greater than the investment made, or the benefit likely to be achieved. The IPD study ‘Making Training Pay’ (1997) suggests that the scope of an evaluation strategy should be carefully weighed against the following considerations:
the size of the training investment the number of staff involved the likelihood that the training will be repeated the criticality of the training to the business the ‘newness’ of the training methods used.
Training which is critical, uses unproven methods, will be repeated in a roll-out to all staff, and which has been costly to produce, obviously merits a far more extensive evaluation effort than, for example, a one-off course delivered to a small, select group.

Evaluating trading strategies pdf


In the current climate of cost cutting and downsizing, training professionals are under increasing pressure to provide positive, measurable evidence of the bottom line contribution of training. Yet evaluating the effects and results of training is notoriously difficult. Here are a few thoughts on evaluation, collected from our own experiences, which you may find useful in planning what to evaluate, and how to go about doing it.
The purpose of evaluation.
It can be argued that the only training which organizations should be providing is training which contributes in some tangible way to both performance improvement and the achievement of business needs and objectives.
Organizations which are working towards the Investors in People (IIP) initiative will be aware that evaluation is one requirement against which their training performance is tested as part of the recognition process:
IIP Indicator 4.1:
"The organization evaluates the impact of training and development on knowledge, skills and attitude."
IIP Indicator 4.2:
"The organization evaluates the impact of training and development actions on performance."
IIP Indicator 4.3:
The organization evaluates the contribution of training and development to the achievement of its goals and targets."
The whole concept of Investors in People revolves around the idea that an organization which invests sensibly in developing its human resource will be better able to compete, and to meet its objectives effectively.
Expenditure on training, therefore, is an investment for the future - and like any investment, it needs to be able to show a demonstrable return. If training is to be perceived as a worthwhile investment there must be:
a direct correlation between training activity and performance improvement where possible, a financial value or benefit to the organization of having delivered the training.
Evaluation is concerned with collecting and presenting appropriate information in order to prove the relationship between training activity and benefits to the business.
Evaluation is the process by which training professionals can collect, analyse and present the information needed in order to prove the business value of any training which has been delivered within their organization.
Planning evaluation.
A common mistake which many organizations make is that they leave evaluation considerations until after they have planned and delivered their training. For evaluation to be truly effective the evaluation strategy needs to be planned and designed in conjunction with , rather than after the training planning and design stages.
Key questions to ask include the following:
What are the objectives of the training planned? What benefit, effect or change will result from the achievement of these objectives? How will these benefits, effects or changes contribute to the performance and/or needs of the organization as a whole? How will the actual benefits, effects or changes be identified and measured?
Answers to Question 1 will inform the content and design of the training itself.
Answers to Questions 2 and 3 will link the training to identified business needs and objectives.
Answers to Question 4 will inform the design of the evaluation strategy, and the evaluation methods to be used.
Levels of evaluation.
Training can impact on the organization at various levels. One of the first steps which training professionals will need to go through when planning their evaluation strategy, is to decide what they will be measuring at each level, when they will be measuring it, and how it will be measured.
Although it has been around for nearly 20 years, the Kirkpatrick Model (1979) is still the model most widely used to determine and plan different levels of evaluation:
Whilst the Kirkpatrick Model is useful as it stands, it can be further enhanced by the addition of a Level 0 and a Level 5.
Level 1 (Reactions) is concerned with the measurement of people’s immediate attitudes to the training provided:
Was it useful and relevant? Did they feel comfortable with it? Did it cover what was planned?
‘Happy sheets’, feedback during the training and assessments by the trainer of the materials used are most commonly used at this level.
Level 2 (Learning) is concerned with measuring the learning achieved as a result of the training:
What can participants do, that they could not do previously? What do participants know, that they did not know previously? What perception or understanding have participants gained, that they did not have previously?
Questionnaires, quizzes, and practical tests to check for any change in knowledge, skill or attitude are useful at this level.
Level 3 (Behaviour) is concerned with measuring how actual workplace performance has changed as a result of the training:
To what extent has learning been transferred to workplace performance? To what extent has workplace performance improved as a result of learning?
Evaluation at this level usually requires the involvement of Line Managers in setting post-training assignments which require and test newly acquired learning, or in observing and giving feedback about changes in day-to-day workplace performance.
Level 4 (Results) is concerned with measuring the extent to which changes in performance have contributed to improved business results of the more effective achievement of business objectives.
Measurement at this level needs to focus back to the identified contribution which the training would make to the performance and/or needs of the organization as a whole. If, for example, one of the reasons for the training was to assist the organization in its need to reduce production costs, then the measurement would need to involve some comparison of pre - and post-training production costs. As with Level 3 there would need to be some involvement from those outside the training function, in putting together and providing the required figures for comparison. Level 0 (Pre-training performance) is important, since it provides the initial benchmark against which training effectiveness can be measured. Pre-training knowledge, skill and attitude checks are invaluable in providing a point for comparison with Level 2 and Level 3 evaluation data.
Level 5 (Return on investment) is also important, since it provides a financial value to the organization, of having delivered the training, i. e., a cost benefit ratio:
financial value of change or effect achieved ¸ cost of achieving it x 100/1 = % return on investment.
Rationalizing evaluation.
It is important not to get ‘carried away’ with an evaluation effort which is disproportionately greater than the investment made, or the benefit likely to be achieved. The IPD study ‘Making Training Pay’ (1997) suggests that the scope of an evaluation strategy should be carefully weighed against the following considerations:
the size of the training investment the number of staff involved the likelihood that the training will be repeated the criticality of the training to the business the ‘newness’ of the training methods used.
Training which is critical, uses unproven methods, will be repeated in a roll-out to all staff, and which has been costly to produce, obviously merits a far more extensive evaluation effort than, for example, a one-off course delivered to a small, select group.

Como identificar estratégias de negociação algorítmicas.
Como identificar estratégias de negociação algorítmicas.
Neste artigo, quero apresentar os métodos pelos quais eu mesmo identifico estratégias lucrativas de negociação algorítmica. Nosso objetivo hoje é entender detalhadamente como encontrar, avaliar e selecionar tais sistemas. Explicarei como as estratégias de identificação envolvem tanto a preferência pessoal quanto o desempenho da estratégia, como determinar o tipo e a quantidade de dados históricos para testes, como avaliar imparcialmente uma estratégia de negociação e, finalmente, como proceder para a fase de backtesting e implementação estratégica.
Identificando suas próprias preferências pessoais para negociação.
Para ser um profissional bem-sucedido - seja de forma discreta ou algorítmica - é necessário fazer algumas perguntas honestas. Negociação fornece-lhe a capacidade de perder dinheiro a um ritmo alarmante, por isso é necessário "conhecer-se", tanto quanto é necessário compreender a sua estratégia escolhida.
Eu diria que a consideração mais importante no comércio é estar ciente de sua própria personalidade. O comércio e o comércio algorítmico, em particular, exigem um grau significativo de disciplina, paciência e distanciamento emocional. Como você está permitindo que um algoritmo realize sua negociação para você, é necessário que ele seja resolvido para não interferir na estratégia quando ela estiver sendo executada. Isso pode ser extremamente difícil, especialmente em períodos de redução prolongada. No entanto, muitas estratégias que se mostraram altamente lucrativas em um backtest podem ser arruinadas pela simples interferência. Entenda que, se você deseja entrar no mundo do comércio algorítmico, será testado emocionalmente e, para ter sucesso, é necessário superar essas dificuldades!
A próxima consideração é uma das vezes. Você tem um emprego a tempo inteiro? Você trabalha meio período? Você trabalha em casa ou tem um longo trajeto todos os dias? Essas perguntas ajudarão a determinar a frequência da estratégia que você deve procurar. Para aqueles que trabalham em tempo integral, uma estratégia de futuros intradiários pode não ser apropriada (pelo menos até que seja totalmente automatizada!). Suas limitações de tempo também ditarão a metodologia da estratégia. Se a sua estratégia é freqüentemente negociada e depende de feeds de notícias caros (como um terminal da Bloomberg), você terá claramente que ser realista em relação à sua capacidade de executar isso com sucesso no escritório! Para aqueles de vocês com muito tempo, ou as habilidades para automatizar sua estratégia, você pode querer olhar para uma estratégia de negociação de alta frequência (HFT) mais técnica.
Acredito que é necessário realizar pesquisas contínuas em suas estratégias de negociação para manter um portfólio consistentemente lucrativo. Poucas estratégias permanecem "sob o radar" para sempre. Portanto, uma parte significativa do tempo destinado à negociação será na realização de pesquisas em andamento. Pergunte a si mesmo se você está preparado para fazer isso, pois pode ser a diferença entre rentabilidade forte ou um declínio lento em direção a perdas.
Você também precisa considerar seu capital comercial. O valor mínimo ideal geralmente aceito para uma estratégia quantitativa é de 50.000 USD (aproximadamente £ 35.000 para nós no Reino Unido). Se eu estivesse começando de novo, começaria com uma quantia maior, provavelmente perto de 100.000 USD (aproximadamente £ 70.000). Isso ocorre porque os custos de transação podem ser extremamente caros para as estratégias de média a alta frequência e é necessário ter capital suficiente para absorvê-los em tempos de rebaixamento. Se você está considerando começar com menos de 10.000 dólares, então você precisará restringir-se a estratégias de baixa frequência, negociando em um ou dois ativos, pois os custos de transação irão rapidamente engolir seus retornos. A Interactive Brokers, que é uma das corretoras mais amigáveis ​​para aqueles com habilidades de programação, devido à sua API, tem uma conta de varejo de no mínimo 10.000 USD.
A habilidade de programação é um fator importante na criação de uma estratégia automatizada de negociação algorítmica. Ter conhecimento em uma linguagem de programação como C ++, Java, C #, Python ou R permitirá que você crie o armazenamento de dados de ponta a ponta, mecanismo de backtest e sistema de execução por conta própria. Isso tem uma série de vantagens, das quais a principal é a capacidade de estar completamente ciente de todos os aspectos da infraestrutura de negociação. Ele também permite que você explore as estratégias de frequência mais alta, pois você estará no controle total da sua "pilha de tecnologia". Embora isso signifique testar seu próprio software e eliminar bugs, também significa mais tempo gasto na codificação de infraestrutura e menos na implementação de estratégias, pelo menos na primeira parte de sua carreira de negociação de algoritmos. Você pode achar que está confortável negociando no Excel ou no MATLAB e pode terceirizar o desenvolvimento de outros componentes. Eu não recomendaria isso, no entanto, especialmente para aqueles que operam em alta freqüência.
Você precisa se perguntar o que você espera alcançar por negociação algorítmica. Você está interessado em uma renda regular, em que você espera obter ganhos de sua conta de negociação? Ou, você está interessado em um ganho de capital a longo prazo e pode se dar ao luxo de negociar sem a necessidade de levantar fundos? Dependência de renda irá ditar a frequência da sua estratégia. Retiradas de renda mais regulares exigirão uma estratégia de negociação de frequência mais alta com menos volatilidade (ou seja, um índice maior de Sharpe). Comerciantes de longo prazo podem ter uma frequência de negociação mais tranqüila.
Finalmente, não se iluda com a noção de se tornar extremamente rico em um curto espaço de tempo! Algo negociação não é um esquema de enriquecimento rápido - se alguma coisa pode ser um esquema de tornar-se pobre rápido. É preciso muita disciplina, pesquisa, diligência e paciência para ter sucesso no comércio algorítmico. Pode levar meses, se não anos, para gerar lucratividade consistente.
Idéias de Negociação Algorítmica de Sourcing.
Apesar das percepções comuns em contrário, é bastante simples localizar estratégias de negociação lucrativas no domínio público. Nunca as ideias de negociação foram mais prontamente disponíveis do que são hoje. Revistas de finanças acadêmicas, servidores de pré-impressão, blogs de negociação, fóruns de negociação, revistas semanais de negociação e textos especializados fornecem milhares de estratégias de negociação com as quais basear suas idéias.
Nosso objetivo como pesquisadores de comércio quantitativo é estabelecer um pipeline de estratégia que nos fornecerá um fluxo de ideias de negociação em andamento. Idealmente, queremos criar uma abordagem metódica para a terceirização, avaliação e implementação de estratégias com as quais nos deparamos. Os objetivos do pipeline são gerar uma quantidade consistente de novas idéias e nos fornecer uma estrutura para rejeitar a maioria dessas idéias com o mínimo de consideração emocional.
Devemos ser extremamente cuidadosos para não deixar que vieses cognitivos influenciem nossa metodologia de tomada de decisão. Isso pode ser tão simples quanto ter uma preferência por uma classe de ativos sobre outra (ouro e outros metais preciosos vêm à mente) porque eles são percebidos como mais exóticos. Nosso objetivo deve ser sempre encontrar estratégias consistentemente lucrativas, com expectativa positiva. A escolha da classe de ativos deve ser baseada em outras considerações, como restrições de capital comercial, taxas de corretagem e capacidades de alavancagem.
Se você não está familiarizado com o conceito de uma estratégia de negociação, então o primeiro lugar a olhar é com livros de texto estabelecidos. Os textos clássicos fornecem uma ampla gama de ideias mais simples e diretas, com as quais você pode se familiarizar com a negociação quantitativa. Aqui está uma seleção que eu recomendo para aqueles que são novos no comércio quantitativo, que gradualmente se tornam mais sofisticados conforme você trabalha na lista:
Para uma lista mais longa de livros de negociações quantitativas, visite a lista de leitura QuantStart.
O próximo lugar para encontrar estratégias mais sofisticadas é com fóruns de negociação e blogs de negociação. No entanto, uma nota de cautela: Muitos blogs de negociação contam com o conceito de análise técnica. A análise técnica envolve a utilização de indicadores básicos e psicologia comportamental para determinar tendências ou padrões de reversão nos preços dos ativos.
Apesar de ser extremamente popular no espaço comercial geral, a análise técnica é considerada um tanto ineficaz na comunidade financeira quantitativa. Alguns sugeriram que não é melhor do que ler um horóscopo ou estudar folhas de chá em termos de poder preditivo! Na realidade, existem indivíduos bem sucedidos fazendo uso de análise técnica. No entanto, como pessoas com uma caixa de ferramentas matemática e estatística mais sofisticada à nossa disposição, podemos facilmente avaliar a eficácia de tais estratégias baseadas em TA e tomar decisões baseadas em dados em vez de basear as nossas em considerações emocionais ou preconceitos.
Aqui está uma lista de blogs e fóruns de negociação algorítmica bem respeitados:
Depois de ter alguma experiência em avaliar estratégias mais simples, é hora de olhar para as ofertas acadêmicas mais sofisticadas. Algumas revistas acadêmicas serão de difícil acesso, sem altas assinaturas ou custos únicos. Se você é um membro ou ex-aluno de uma universidade, você deve ser capaz de obter acesso a alguns desses periódicos financeiros. Caso contrário, você pode ver os servidores de pré-impressão, que são repositórios da Internet de rascunhos atrasados ​​de trabalhos acadêmicos que estão sendo revisados ​​por especialistas. Como estamos interessados ​​apenas em estratégias que podemos replicar com sucesso, fazer backtest e obter lucratividade, uma revisão por pares é de menor importância para nós.
The major downside of academic strategies is that they can often either be out of date, require obscure and expensive historical data, trade in illuid asset classes or do not factor in fees, slippage or spread. Também pode não estar claro se a estratégia de negociação deve ser executada com ordens de mercado, ordens de limite ou se ela contém perdas de parada, etc. Assim, é absolutamente essencial replicar a estratégia você mesmo, fazer o backtest e adicionar transações realistas. custos que incluem tantos aspectos das classes de ativos que você deseja negociar.
Aqui está uma lista dos servidores de pré-impressão mais populares e revistas financeiras que você pode obter idéias de:
Que tal formar suas próprias estratégias quantitativas? Isso geralmente requer (mas não está limitado a) conhecimento em uma ou mais das seguintes categorias:
Microestrutura de mercado - Para estratégias de maior frequência, em particular, pode-se fazer uso da microestrutura de mercado, ou seja, o entendimento da dinâmica da carteira de pedidos para gerar rentabilidade. Diferentes mercados terão várias limitações tecnológicas, regulamentações, participantes do mercado e restrições que serão abertas à exploração por meio de estratégias específicas. Esta é uma área muito sofisticada e os profissionais de varejo terão dificuldade em ser competitivos neste espaço, particularmente porque a competição inclui fundos de hedge quantitativos grandes e bem capitalizados com fortes capacidades tecnológicas. Estrutura do fundo - Fundos de investimento agregados, tais como fundos de pensão, parcerias de investimento privado (hedge funds), consultores de negociação de commodities e fundos mútuos são limitados tanto pela regulamentação pesada quanto por suas grandes reservas de capital. Assim, certos comportamentos consistentes podem ser explorados com aqueles que são mais ágeis. Por exemplo, grandes fundos estão sujeitos a restrições de capacidade devido ao seu tamanho. Assim, se eles precisarem rapidamente descarregar (vender) uma quantidade de títulos, terão que escalonar para evitar "movimentar o mercado". Algoritmos sofisticados podem tirar proveito disso e de outras idiossincrasias, em um processo geral conhecido como arbitragem da estrutura do fundo. Aprendizado de máquina / inteligência artificial - Os algoritmos de aprendizado de máquina se tornaram mais prevalentes nos últimos anos nos mercados financeiros. Classificadores (como Naive-Bayes, et al.) Correspondentes de função não-linear (redes neurais) e rotinas de otimização (algoritmos genéticos) têm sido usados ​​para prever caminhos de ativos ou otimizar estratégias de negociação. Se você tiver experiência nessa área, poderá ter algumas dicas sobre como determinados algoritmos podem ser aplicados a determinados mercados.
Existem, é claro, muitas outras áreas para os quantos investigarem. Discutiremos como detalhar as estratégias personalizadas em um artigo posterior.
Ao continuar a monitorar essas fontes semanalmente ou diariamente, você está se preparando para receber uma lista consistente de estratégias de diversas fontes. O próximo passo é determinar como rejeitar um grande subconjunto dessas estratégias, a fim de minimizar o desperdício de tempo e recursos de backtesting em estratégias que provavelmente não serão lucrativas.
Avaliação de estratégias de negociação.
A primeira e indiscutivelmente mais óbvia consideração é se você realmente entende a estratégia. Você seria capaz de explicar a estratégia de forma concisa ou requer uma série de advertências e listas de parâmetros sem fim? Além disso, a estratégia tem uma base boa e sólida na realidade? Por exemplo, você poderia apontar para algum raciocínio comportamental ou restrição de estrutura de fundos que possa estar causando o (s) padrão (ões) que você está tentando explorar? Essa restrição seria uma mudança de regime, como uma dramática interrupção no ambiente regulatório? A estratégia depende de regras estatísticas ou matemáticas complexas? Aplica-se a qualquer série temporal financeira ou é específico para a classe de ativos na qual se afirma ser rentável? Você deve estar constantemente pensando sobre esses fatores ao avaliar novos métodos de negociação, caso contrário você pode perder uma quantidade significativa de tempo tentando fazer backtest e otimizar estratégias não lucrativas.
Depois de determinar que você entende os princípios básicos da estratégia, você precisa decidir se ela se encaixa no perfil de personalidade mencionado anteriormente. Esta não é uma consideração tão vaga quanto parece! Estratégias diferem substancialmente em suas características de desempenho. Existem certos tipos de personalidade que podem lidar com períodos mais significativos de levantamento, ou estão dispostos a aceitar um risco maior de retorno maior. Apesar do fato de que nós, como muitos, tentamos eliminar o máximo de viés cognitivo possível e devemos ser capazes de avaliar uma estratégia imparcialmente, os vieses sempre se infiltrarão. Assim, precisamos de meios consistentes e sem emoção para avaliar o desempenho das estratégias. . Aqui está a lista de critérios que julgo uma nova estratégia em potencial:
Metodologia - A estratégia é baseada no momento, na reversão da média, no neutro do mercado, no direcional? Does the strategy rely on sophisticated (or complex!) statistical or machine learning technues that are hard to understand and require a PhD in statistics to grasp? Do these technues introduce a significant quantity of parameters, which might lead to optimisation bias? É provável que a estratégia resista a uma mudança de regime (ou seja, nova regulação potencial dos mercados financeiros)? Índice de Sharpe - O índice de Sharpe caracteriza heuristicamente a relação recompensa / risco da estratégia. Quantifica quanto retorno você pode obter para o nível de volatilidade suportado pela curva de capital. Naturalmente, precisamos determinar o período e a frequência com que esses retornos e a volatilidade (ou seja, o desvio padrão) são medidos. Uma estratégia de frequência mais alta exigirá uma taxa de amostragem maior do desvio padrão, mas um período de tempo global mais curto de medição, por exemplo. Alavancagem - A estratégia requer alavancagem significativa para ser rentável? A estratégia requer o uso de contratos de derivativos alavancados (futuros, opções, swaps) para fazer um retorno? Esses contratos alavancados podem ter características pesadas de volatilidade e, portanto, podem facilmente levar a chamadas de margem. Você tem o capital comercial e o temperamento para tal volatilidade? Freqüência - A frequência da estratégia está intimamente ligada à sua pilha de tecnologia (e, portanto, ao conhecimento tecnológico), ao índice de Sharpe e ao nível geral de custos de transação. Todas as outras questões consideradas, estratégias de maior frequência exigem mais capital, são mais sofisticadas e mais difíceis de implementar. No entanto, supondo que seu mecanismo de backtesting seja sofisticado e livre de erros, eles geralmente terão taxas de Sharpe muito mais altas. Volatilidade - A volatilidade está fortemente relacionada ao "risco" da estratégia. A proporção de Sharpe caracteriza isso. A maior volatilidade das classes de ativos subjacentes, se não protegidas, muitas vezes leva a uma maior volatilidade na curva de capital e, portanto, menores índices de Sharpe. É claro que estou assumindo que a volatilidade positiva é aproximadamente igual à volatilidade negativa. Algumas estratégias podem ter maior volatilidade negativa. Você precisa estar ciente desses atributos. Ganho / Perda, Lucro Médio / Perda - As estratégias diferem em suas características de ganhos / perdas e lucro / prejuízo médio. Pode-se ter uma estratégia muito lucrativa, mesmo se o número de negociações perdedoras exceder o número de negociações vencedoras. As estratégias de impulso tendem a ter esse padrão, pois dependem de um pequeno número de "grandes sucessos" para serem lucrativos. As estratégias de reversão à média tendem a ter perfis opostos nos quais mais dos negócios são "vencedores", mas os negócios perdedores podem ser bastante severos. Drawdown Máximo - O rebaixamento máximo é a maior queda percentual de ponta a ponta na curva de capital da estratégia. As estratégias de dinâmica são bem conhecidas por sofrer de períodos de rebaixamentos prolongados (devido a uma série de muitos comércios de perda incremental). Muitos traders desistirão em períodos de rebaixamento prolongado, mesmo que testes históricos tenham sugerido que isso é "business as usual" para a estratégia. Você precisará determinar qual porcentagem de rebaixamento (e em qual período de tempo) você pode aceitar antes de interromper sua estratégia. Esta é uma decisão altamente pessoal e, portanto, deve ser considerada com cuidado. Capacity/Luidity - At the retail level, unless you are trading in a highly illuid instrument (like a small-cap stock), you will not have to concern yourself greatly with strategy capacity . A capacidade determina a escalabilidade da estratégia para mais capital. Muitos dos maiores fundos de hedge sofrem com problemas de capacidade significativos à medida que suas estratégias aumentam na alocação de capital. Parâmetros - Certas estratégias (especialmente aquelas encontradas na comunidade de aprendizado de máquina) exigem uma grande quantidade de parâmetros. Cada parâmetro extra que uma estratégia requer deixa mais vulnerável ao viés de otimização (também conhecido como "ajuste de curva"). Você deve tentar direcionar as estratégias com o menor número de parâmetros possível ou ter quantidades suficientes de dados para testar suas estratégias. Benchmark - Quase todas as estratégias (a menos que caracterizadas como "retorno absoluto") são medidas em relação a alguns benchmarks de desempenho. O benchmark é geralmente um índice que caracteriza uma grande amostra da classe de ativos subjacente na qual a estratégia negocia. Se a estratégia negociar ações de grande capitalização dos EUA, o S & P500 seria uma referência natural para medir sua estratégia. Você ouvirá os termos "alpha" e "beta", aplicados a estratégias desse tipo. Discutiremos esses coeficientes em profundidade em artigos posteriores.
Observe que não discutimos os retornos reais da estratégia. Por que é isso? Isoladamente, os retornos realmente nos fornecem informações limitadas sobre a eficácia da estratégia. Eles não dão uma visão sobre alavancagem, volatilidade, benchmarks ou requisitos de capital. Assim, as estratégias raramente são julgadas apenas por seus retornos. Sempre considere os atributos de risco de uma estratégia antes de examinar os retornos.
Neste estágio, muitas das estratégias encontradas em seu pipeline serão rejeitadas, pois elas não atenderão às suas necessidades de capital, limitações de alavancagem, tolerância máxima de redução ou preferências de volatilidade. As estratégias que permanecem podem agora ser consideradas para backtesting. No entanto, antes que isso seja possível, é necessário considerar um critério final de rejeição - o dos dados históricos disponíveis sobre os quais testar essas estratégias.
Obtendo dados históricos.
Atualmente, a amplitude dos requisitos técnicos em classes de ativos para armazenamento de dados históricos é substancial. Para manter a competitividade, tanto o lado comprador (fundos) quanto o lado vendedor (bancos de investimento) investem pesadamente em sua infraestrutura técnica. É imperativo considerar sua importância. Em particular, estamos interessados ​​nos requisitos de pontualidade, precisão e armazenamento. Agora descreverei os conceitos básicos da obtenção de dados históricos e como armazená-los. Infelizmente este é um tópico muito profundo e técnico, então não poderei dizer tudo neste artigo. No entanto, escreverei muito mais sobre isso no futuro, já que minha experiência anterior no setor financeiro estava principalmente relacionada à aquisição, armazenamento e acesso de dados financeiros.
Na seção anterior, criamos um pipeline de estratégia que nos permitia rejeitar determinadas estratégias com base em nossos critérios pessoais de rejeição. Nesta seção, filtraremos mais estratégias com base em nossas próprias preferências para obter dados históricos. As principais considerações (especialmente no nível do profissional de varejo) são os custos dos dados, os requisitos de armazenamento e seu nível de especialização técnica. Também precisamos discutir os diferentes tipos de dados disponíveis e as diferentes considerações que cada tipo de dados nos impõe.
Vamos começar discutindo os tipos de dados disponíveis e as principais questões que precisaremos pensar:
Dados Fundamentais - Incluem dados sobre tendências macroeconômicas, como taxas de juros, inflação, ações corporativas (dividendos, desdobramentos), arquivamentos na SEC, contas corporativas, dados de lucros, relatórios de safra, dados meteorológicos etc. Esses dados costumam ser usados ​​para valorizam empresas ou outros ativos em uma base fundamental, ou seja, por meio de alguns fluxos de caixa futuros esperados. Não inclui séries de preços de ações. Alguns dados fundamentais estão disponíveis gratuitamente em sites do governo. Outros dados históricos históricos de longo prazo podem ser extremamente caros. Os requisitos de armazenamento muitas vezes não são particularmente grandes, a menos que milhares de empresas estejam sendo estudadas de uma só vez. Dados de Notícias - Os dados de notícias são frequentemente de natureza qualitativa. É composto por artigos, posts, postagens de microblog ("tweets") e editorial. Machine learning technues such as classifiers are often used to interpret sentiment . Esses dados também costumam estar disponíveis gratuitamente ou são baratos, por meio da assinatura de meios de comunicação. Os bancos de dados de armazenamento de documentos "NoSQL" mais recentes são projetados para armazenar esse tipo de dados qualitativos não estruturados. Dados de Preço do Ativo - Este é o domínio de dados tradicional do quant. Consiste em séries temporais de preços de ativos. Ações (ações), produtos de renda fixa (títulos), commodities e preços de câmbio estão dentro dessa classe. Dados históricos diários geralmente são fáceis de obter para classes de ativos mais simples, como ações. No entanto, depois que a precisão e a limpeza forem incluídas e os desvios estatísticos forem removidos, os dados poderão se tornar caros. Além disso, os dados de série temporal geralmente possuem requisitos de armazenamento significativos, especialmente quando os dados intraday são considerados. Instrumentos Financeiros - Ações, obrigações, futuros e as opções de derivativos mais exóticas têm características e parâmetros muito diferentes. Assim, não existe uma estrutura de banco de dados "tamanho único" que possa acomodá-los. Deve-se dar um cuidado significativo ao projeto e implementação de estruturas de banco de dados para vários instrumentos financeiros. Discutiremos a situação detalhadamente quando chegarmos a construir um banco de dados mestre de títulos em artigos futuros. Freqüência - Quanto maior a frequência dos dados, maiores são os custos e os requisitos de armazenamento. Para estratégias de baixa frequência, os dados diários costumam ser suficientes. Para estratégias de alta frequência, pode ser necessário obter dados em nível de escala e até cópias históricas de dados específicos do livro de ordens da bolsa de valores. A implementação de um mecanismo de armazenamento para esse tipo de dados é muito intensiva em tecnologia e adequada apenas para aqueles com forte histórico técnico / de programação. Benchmarks - As estratégias descritas acima serão frequentemente comparadas a um benchmark. Isso geralmente se manifesta como uma série temporal financeira adicional. Para ações, este é frequentemente um benchmark de ações nacionais, como o índice S & P500 (EUA) ou FTSE100 (Reino Unido). Para um fundo de renda fixa, é útil comparar com uma cesta de títulos ou produtos de renda fixa. A "taxa livre de risco" (isto é, taxa de juros apropriada) é também outro ponto de referência amplamente aceito. Todas as categorias de classe de ativos possuem uma referência favorecida, portanto, será necessário pesquisar isso com base em sua estratégia específica, se você deseja obter interesse em sua estratégia externamente. Tecnologia - As pilhas de tecnologia por trás de um centro de armazenamento de dados financeiros são complexas. Este artigo pode apenas arranhar a superfície sobre o que está envolvido na construção de um. No entanto, ele gira em torno de um mecanismo de banco de dados, como um RDBMS (Relational Database Management System), como MySQL, SQL Server, Oracle ou um Document Storage Engine (por exemplo, "NoSQL"). Isso é acessado por meio do código de aplicativo "lógica de negócios" que consulta o banco de dados e fornece acesso a ferramentas externas, como MATLAB, R ou Excel. Muitas vezes, essa lógica de negócios é escrita em C ++, C #, Java ou Python. Você também precisará hospedar esses dados em algum lugar, seja em seu próprio computador pessoal ou remotamente por meio de servidores da Internet. Produtos como o Amazon Web Services tornaram isso mais simples e mais barato nos últimos anos, mas ainda exigirão um conhecimento técnico significativo para alcançar de maneira robusta.
Como pode ser visto, uma vez que uma estratégia tenha sido identificada por meio do pipeline, será necessário avaliar a disponibilidade, os custos, a complexidade e os detalhes de implementação de um determinado conjunto de dados históricos. Você pode achar necessário rejeitar uma estratégia baseada somente em considerações de dados históricos. Esta é uma grande área e as equipes de PhDs trabalham em grandes fundos, garantindo que os preços sejam precisos e oportunos. Não subestime as dificuldades de criar um data center robusto para seus fins de backtesting!
Eu quero dizer, no entanto, que muitas plataformas de backtesting podem fornecer esses dados automaticamente para você - a um custo. Assim, você tirará muito da dor da implementação e poderá se concentrar apenas na implementação e otimização da estratégia. Ferramentas como TradeStation possuem essa capacidade. No entanto, minha visão pessoal é implementar o máximo possível internamente e evitar a terceirização de partes da pilha para os fornecedores de software. Eu prefiro estratégias de frequência mais altas devido às suas taxas de Sharpe mais atraentes, mas elas são freqüentemente acopladas à pilha de tecnologia, onde a otimização avançada é crítica.
Agora que discutimos os problemas em torno dos dados históricos, é hora de começar a implementar nossas estratégias em um mecanismo de backtesting. Este será o assunto de outros artigos, pois é uma área de discussão igualmente grande!

Комментариев нет:

Отправить комментарий