Stoa :: Rafael Sola de Paula de Angelo Calsaverini :: Blog :: Física

Julho 27, 2010

default user icon

Como esse assunto acontece com alguma recorrência eu vou salvar aqui as coisas que escrevi em outros lugares para fins de referência. 

----------------------------------------------------------------------------------------

 

Eu acredito que estamos melhor sem regulamentação. Vou dar duas séries de argumentos - uma de porque eu sou contra o sistema de regulamentações como um todo e outra de porque eu sou contra a regulamentação da profissão de físico ainda que o sistema de regulamentações não seja desmantelado. 

1) Só existe uma razão objetiva para regulamentar uma profissão: impedir que pessoas não qualificadas exerçam atividades que representam um risco sério caso sejam mal executadas. Qualquer regulamentação que não se baseie nisso só tem um objetivo: criar um clubinho de pessoas que controlam uma série de atividades e impedir o acesso de outras pessoas a essas atividades, gerando uma reserva de mercado.

Isso é prejudicial ao mercado, inibe a geração de empregos e inibe o crescimento de novas áreas de aplicação de conhecimentos antigos, além de aumentar injustificadamente o custo de contratação. 

Isso também é ruim para os profissionais. Uma vez regulamentada a profissão, ficam estabelecidos limites claros para o que aquele profissional faz e o que ele não faz, e é muito provável que se isso se cristalize no mercado profissional. Isso limita as atividades que você pode desenvolver. 

Finalmente, isso é ruim para a profissão. A existência de atividades privativas faz com que os conselhos profissionais obriguem os cursos a ensinarem algumas disciplinas, engessando as estruturas curriculares e preenchendo a grade horário dos estudantes com disciplinas muitas vezes mal colocadas. Por exemplo isso acontece com os cursos de engenharia - por conta da grande quantidade de atividades que são privativas de engenheiros de todas as áreas, todos os cursos são obrigados a ministrar, por exemplo, matérias associadas a construção civil e a projeto de sistemas elétricos, ainda que isso não esteja nem próximo da intenção de um estudante de engenharia de controle e automação ou de engenharia metalúrgica.

2) Acima eu dei razões pelas quais eu sou radicalmente contra o sistema de regulamentação de profissões - que eu acho que deveria ser estritamente limitado a profissões que trazem risco. Mas isso está aí e não há muitas chances de que esse sistema de regulamentação seja posto de lado. Por isso ainda são necessárias razões para não regulamentar a Física ainda que o sistema continue. 

Regulamentar a Física como profissão exige a delimitação de que atividades serão privativas de um físico, que só ele poderia desempenhar. Entretanto, um coisa que salta aos olhos é o fato de que não existe realmente um corpo de atividades acima das quais você pode colocar o rótulo "Física". Física não é um conjunto de atividades ou técnicas mas um conjunto de conhecimentos. Não é como a Medicina, a Fisioterapia, a Engenharia Elétrica, a Enfermagem ou a Geologia - que além de seus respectivos conjuntos de conhecimentos associados possuem um conjunto de técnicas e atividades que as caracterizam. Certamente um físico está habilitado por seus conhecimentos a desempenhar diversas tarefas úteis, mas não são tarefas privativas que qualquer outro profissional não possa aprender e desempenhar com a mesma eficiência.

Pode-se objetar a essa observação dizendo que há sim uma tarefa, que envolve grandes riscos, e que seria primordialmente tarefa dos físicos: dosimetria de radiações e manipulação de elementos radioativos. Eu discordo fortemente dessa visão. Essas não são atividades que exigem todo o conhecimento adquirido em um curso de quatro anos de física, mas que qualquer profissional de física, química, engenharia ou áreas correlatas poderia desempenhar depois de um curso de habilitação. Aliás, essa é uma atividade que a gigantesca maioria dos físicos que eu conheço não está apta a desempenhar por não terem tido treinamento específico.

Finalmente, qual seria o efeito de se regulamentar Física como profissão? 

Seriam dois efeitos:

1) Seria criada uma reserva de mercado para certas atividades, com piso salarial fixado. Muitos vêem isso como vantagem, eu vejo como problema. Hospitais e departamentos de radiologia seriam obrigados a contratar físicos, para empregos incompatíveis com todo o treinamento que esses profissionais possuem. É ridículo supor que exige-se uma formação completa em física para se dosar a radiação de um aparelho de raios X. Basta uma formação de técnico de radiologia. E não se engane - a remuneração vai ser compatível com a de um técnico. Ninguém vai pagar salário de nível superior para fazer isso.

Sobre o piso salarial - físicos não ganham mal. Em uma recente pesquisa da FGV física era o 31º curso superior mais bem remunerado, com salário inicial médio de R$ 3500. 

2) A necessidade de treinamento específico vai fazer com que se insira nos cursos de bacharelado em física disciplinas obrigatórias de instrumentação e dosimetria de radiações, e a gigantesca maioria dos profissionais de física não vão trabalhar nessa área. 

3) Diversas atividades que hoje são desenvolvidas com sucesso por pessoas formadas em física vão ficar de fora da legislação: computação, finanças, projeto de produtos, ... e vão sobrar para a física tarefas menos remuneradas e mais diretamente ligadas ao curso: metrologia, dosimetria, ...

Finalmente, a Fisica não é, nunca foi e nunca será privativa de um clube de pessoas que resolvem delimitá-la. A Física não é delimitável. É IMPOSSÍVEL traçar uma linha e dizer que o que está lá dentro é Física e o que está fora não é. 

Isso não é uma característica apenas da física mas de todo campo que é eminentemente científico e não técnico. Também é impossível delimitar o que um biólogo faz, o que um químico faz, o que um matemático faz, o que um sociólogo faz, o que um estatístico faz. 

Há uma interface tão tênue e tão fluida entre essas áreas que qualquer um é capaz de estudar, aprender e ingressar em qualquer atividade que um físico for capaz de exercer. 

É assim que é, e é assim que tem que ser. Essa é a nossa riqueza e o que realmente diferencia um profissional com uma forte formação científica e quantitativa: não há limitações no que ele pode aprender a fazer.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 1 comentário

Dezembro 17, 2008

default user icon

Hoje, enquanto matutava sobre uma idéia antiga que eu tenho desde os tempos da minha graduação em física (não faz tanto tempo assim na verdade :P) ocorreu-me a seguinte coisa: há algum projeto de laboratórios didáticos de física de conteúdo aberto?

Me explico. Eu sempre gostei da idéia de criar experimentos didáticos para alunos de colegial e faculdades de física e sempre achei os que já existem tremendamente chatos e desinteressantes. E eu sempre fiquei muito empolgado ao ver projetos de ciência na internet e pessoas que construiram diversos aparatos bastante complicados e que fizeram parte de experimentos chave na história da física apenas com componentes comprados no Radio Shack. A quantidade de experimentos bacanas de verdade que se pode fazer em casa é grande. Eu já vi lasers, pequenos aceleradores de partículas, bombas de vácuo, telescópios, … uma infidade de coisas feitas em casa. Há projetos na internet como o Open Source EEG - um aparato de eletroencéfalografia de projeto totalmente aberto na web.

Então me ocorreu a idéia: porque não abrir um Open Source Lab, um projeto de desenvolvimento de experimentos didáticos de física sérios, com projetos detalhados abertos na internet com licença copyleft - totalmente aberta ao uso e modificação por qualquer pessoa - focado em recriar experimentos interessantes da história da física.

Há diversas coisas que, estou certo, são possíveis de serem feitas por pessoas que tem um jeito para por a mão na massa e poderiam ser usadas por escolas, universidades em países de terceiro mundo e até empresas que queiram produzir esses materiais para vender a escolas particulares e etc (o que não é proibido por uma licença copyleft).

A idéia é recriar experimentos famosos através de projetos de experimentos didáticos usando a tecnologia moderna, a moderna acessibilidade a recursos que até poucas décadas atrás eram caros e tornar isso um projeto colaborativo através da web de conteúdo totalmente aberto e de acesso gratuito.

A única coisa que me impede de fazer isso tudo é o maldito lado prático da vida. Eu, como legítimo acadêmico, não sei fazer as coisas andarem e não tenho idéia de quem ou o que financiaria um projeto desse tipo e como se viabilizaria uma coisa dessas sem capital próprio (que no meu caso é bem escasso). Universidades teriam interesse? Empresas teriam interesse? Agencias governamentais teriam interesse? Você que está lendo teria interesse?

Ao leitor que estiver interessado e souber lidar com esse tipo de coisa, souber onde se busca patrocínio para esse tipo de projeto e tiver jeito para por a mão na massa em desenvolver projetos desse tipo:  o que estamos esperando?!!

Palavras-chave: ciência 2.0, Ciência aberta, experiências de física, experimentos, Física, laboratório didático, Open Access, Open Source Science

Postado por Rafael Sola de Paula de Angelo Calsaverini | 4 usuários votaram. 4 votos | 0 comentário

Outubro 31, 2008

default user icon

Estou recolocando aqui alguns posts que eu também faço no blog coletivo Ars Physica. Esse post é o primeiro de uma série de dois (ou mais). Não sei se vou colar o próximo aqui pois pretendo que ele tenha uma série de equações e a tradução do formato wordpress do latex para o do stoa vai ser chata. Mas enfim... ao post!

Escolhendo como título o nome do livro famoso de um laureado pelo prêmio Sveriges Riksbank de Ciências Econômicas em Memória de Alfred Nobel [1], Thomas Schelling [2], pretendo discutir um pouco a minha área de pesquisa recente: modelagem quantitativa em ciências sociais e economia. Apesar de parecer um assunto novo, esse tipo de modelagem é na verdade bastante antigo, remontando a  Pierre de Laplace, Thomas Malthus,  David Ricardo, passando por Léon Walras, John Von Neumann e companhia. Essa é no entanto uma área de modelos bastante primários e ainda muito qualitativos. Ao longo desse período de história da modelagem quantitativa de fenômenos sociais houve um diálogo intenso (e negligenciado pelos dois lados)  com a física, particularmente a termodinâmica e a nascente mecânica estatística no final do século XIX. Ao longo das últimas duas décadas essa relação se intensificou novamente e o paradigma da mecânica estatística passou a integrar um programa de pesquisa em ciências sociais e economia com a criação de modelos microscópicos para diversos aspectos como dinâmica de opiniões, tráfego de automóveis,  negociações no mercado financeiro e outros.

A mecânica estatística é a área da física que lida com a ponte entre a dinâmica microscópia dos constituíntes da matéria e as observações macroscópicas que fazemos sobre ela. Por exemplo ela é capaz de, assumindo-se as leis de Newton para o movimento das moléculas de um gás, mostrar que as propriedades macroscópicas do mesmo devem satisfazer certas equações de estado (por exemplo a famosa lei dos gases ideias PV = nRT). É importante notar que essa ponte é feita admitindo-se um certo grau de ignorância sobre o estado microscópico do sistema e a forma correta de se fazer isso é associar uma distribuição de probabilidades aos possíveis estados microscópicos.

O primeiro problema na direção de um modelo estatístico para problemas economicos deve ser então identificar qual é a dinâmica microscópica - a forma com que cada agente economico se move no espaço de configurações. Para as moléculas dos gases temos leis newtonianas de movimento, para partículas menores temos a mecânica quântica. O que temos para pessoas tomando decisões de consumo e poupança, empresas tomando decisões de produção, governos intervindo e bancos decidindo taxas de empréstimo?

Nesse ponto é que paramos para a primeira grande crítica a esse tipo de modelagem. Partículas microscópicas não são conscientes, não aprendem, não tomam decisões racionais nem usam critérios objetivos para mover-se. São diferentes das pessoas. São mesmo? A história da modelagem das decisões economicas começou no século XIX com Léon Walras, Vilfredo Pareto e uma analogia com a mecânica. Walras criou uma teoria de equilíbrio, em analogia com o equilibrio mecânico. Claro que ninguém está propondo que pensemos nas partículas como pequenos seres racionais, mas a analogia com a mecânica e com a termodinâmica levou os economistas a admitir a idéia de que decisões racionais são tomadas através de problemas otimização (maximização de lucros, minimização de custos, etc.).

Na teoria microeconomica neoclássica as pessoas agem segundo escalas de preferência ordenadas através de um função chamada Utilidade. Construiu-se um modelo segundo o qual as pessoas agem para maximizar uma função que diz quão "felizes" elas estão com a decisão que tomaram, sujeito a vínculos que dependem das decisões das outras pessoas. A evolução dessa linguagem levou à construção do modelo de agente econômico ubíquo: o chamado Homo economicus, um agente ultra-racional, capaz de maximizar uma função  utilidade complicada de diversos parâmetros e escolher dentre todas as estratégias a que mais lhe traz benefício. Esse agente ideal tem poder computacional infinito e completo conhecimento de seu espaço de possíveis estratégias.

Esse modelo, apesar de ter bem servido à economia por um século, passou a ser questionado através de problemas em que era claro que, mesmo que houvesse um agente com esse grau de racionalidade, não há estratégias ótimas a se seguir diante da limitada informação disponível ao agente. Um desses modelos é o El Farol Bar. Hoje há modelos de agentes economicos tendem a ser mais realistas e focam-se na capacidade de aprendizado e desenvolvimento de estratégias "on-the-fly", trocando o agente ultra-racional por um com racionalidade limitada.

Mas mesmo que nos mantenhamos no problema de agentes ultra-racionais, ainda resta a pergunta: como ligamos os modelos microscópicos de maximização de utilidade ao comportamento macroscópico da economia? Nesse campo a análise economica ofereceu poucas respostas. Há poucos estudos teóricos [3] anteriores à década de 90 por exemplo sobre quais são as propriedades de uma economia de escambo de duas mercadorias com muitos agentes neo-clássicos - que maximizam a utilidade em cada transação atingindo um equilíbrio local de Pareto. Os livros clássicos de microeconomia tratam de um problema com dois agentes e os de macroeconomia usam esses resultados para tirar conclusões globais (!). Hoje em dia é um exercício trivial simular isso em computador, mas esse é um problema que  deve ter solução analítica - não passa de um gás de agentes que quando se chocam trocam mercadorias conservadas segundo uma regra de espalhamento bem definida com taxas de transição conhecidas ainda que a regra de maximização de utilidade seja razoavelmente relaxada.

Depois desse blablablá todo (parece mesmo que estou virando economista: em dois posts usei apenas uma equação, e a mais simples que eu conheço :P), permita-me ao menos deixá-los com um tira gosto. No meu próximo post vou comentar um pequeno modelo com solução analítica em que se pode ilustrar o uso de agentes com racionalidade limitada e uma agregação que remete à mecânica estatística - apesar das analogias imperfeitas. É um pequeno modelo de decisão de tráfego, baseado no jogo da minoria. Apesar do contexto diferente, é um modelo que possui claras analogias com problemas de decisão binária que podem ser observadas no mercado financeiro (comprar ou vender?) e que possui a característica fundamental de que o agente gostaria de estar sempre na minoria.

 

Notas:

[1] Com freqüência denominado erroneamente de Nobel de Economia.

[2] Micromotives and Macrobehavior, Thomas Schelling.

[3] Talvez o problema não seja a escassez de resultados teóricos, mas uma falta de capacidade minha de encontrá-los.

Update:

Dias atrás o físico Jean-Phillipe Bouchaud, pesquisador do Service de Physique de l’État Condensé no CEA em Saclay, França, e Chairman do fundo de investimentos francês CFM, enviou um artigo para o arXiv apontando a necessidade desse tipo de modelagem:  Economics need a scientific revolution.

Palavras-chave: Agregação, Economia, Física, Física Estatística, Microeconomia, Modelagem baseada em agentes

Esta mensagem está sob a licença CreativeCommons Atribuição, Não-Comercial.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 2 usuários votaram. 2 votos | 3 comentários

Setembro 21, 2008

default user icon

Cheque seus jornais favoritos. Todos eles. Procure todas as notícias sobre o Large Hadron Collider, o grande acelerador de partículas que entrou em fase de testes recentemente na Europa, e cheque se há pelo menos uma que não qualifique o experimento como "máquina do big bang", ou que não diga que o objetivo do experimento é recriar em laboratório a explosão que deu origem ao universo. 

Há semanas eu tento entender a razão desse padrão jornalístico maluco. Não percebo o que pode motivar os jornalistas a continuar propagando essa imprecisão, essa desinformação, essa... mentira para ser mais exato. Não creio que os jornalistas sejam ignorantes. Eles bem sabem que o que estão publicando não é exatamente verdade. Mas antes de prosseguir com essa digressão sobre os jornalistas, para aqueles que não entendem a razão da minha perplexidade, vamos falar um pouco do LHC, dos seus objetivos e da física que ele pretende explorar. 

Ao longo do século XX um tipo de experimento se estabeleceu como a forma mais simples de investigar a natureza íntima da matéria: produzir partículas subatômicas, acelerá-las até a maior velocidade possível e fazê-las colidir umas com as outras. Parece brincadeira de criança, mas há razões muito fundamentais para fazer isso. Quando partículas se chocam diversos processos podem acontecer que levam à produção de outras partículas. Medindo que tipo de partículas são produzidas, as taxas com que elas são produzidas e diversas outras características desses processos, podemos descobrir como essas partículas interagem e assim criar modelos preditivos sobre a matéria. Quanto maior a energia da colisão, mais e mais se podem observar processos mais raros, com intensidade mais fraca, que produzem partículas mais e mais instáveis.

Através da observação dessas colisões e de outras fontes de informação os físicos conseguiram criar um modelo, conhecido como Modelo Padrão das Partículas Elementares, capaz de explicar os fenômenos até hoje conhecidos envolvendo três das quatro interações fundamentais conhecidas: o eletromagnetismo e as interações nucleares forte e fraca. Entretanto, há coisas que esse modelo ainda é incapaz de explicar, e é justamente para oferecer mais dados sobre esses fenômenos que o LHC foi construído.  

Uma das questões é o fato de que o Modelo Padrão prevê a existência de uma partícula que os físicos chamam Bóson de Higgs. O campo associado ao Bóson de Higgs surge no Modelo Padrão como parte do processo que explica a massa de algumas partículas e o mecanismo associado a essa geração de massa é essencial no modelo. Entretanto essa partícula ainda não foi detectada. Há grandes esperanças de que, se essa partícula de fato existe, ela deve ser produzida em processos de colisão com energias que o LHC conseguirá ter acesso. 

Outra questão não resolvida é a seguinte: há um tipo de simetria das leis físicas denominada super-simetria, que a cada partícula conhecida associa um par supersimétrico. É possível escrever as leis físicas respeitando ou quebrando essa simetria e não se sabe, com os atuais experimentos, se a super-simetria é de fato uma das simetrias que deve ser respeitada pelas leis da física. Se for, isso implica em uma grande simplificação teórica e em excelentes princípios guia para o refino do Modelo Padrão. 

Um terceiro problema é conhecido como problema da hierarquia. Há quatro interações fundamentais na natureza: o eletromagnetismo, as interações nucleares fraca e forte e a gravitacional. Dentre as quatro a gravidade apresenta uma intensidade muito, muito menor que a mais fraca das outras três. Qual é a razão para isso? O que há de especial com a gravidade? Há esperança de que os resultados do LHC possam iluminar algo nessa direção.  

A cada partícula conhecida está associada uma antipartícula, identica sob todos os aspectos, mas com algumas caracteristicas invertidas (carga de sinal contrário, por exemplo). Em todos os aspectos, matéria e anti-matéria são perfeitamente simétricas. Anti-prótons, anti-neutrons e anti-elétrons poderiam juntar-se em anti-átomos, anti-moléculas e até formar um anti-planeta, anti-estrelas e anti-galáxias,  onde a física seria idêntica em todos os aspectos à física aqui no nosso planeta. Espera-se que o processo que gerou o nosso universo teria produzido matéria e anti-matéria em iguais quantidades. Entretanto, onde está a anti-matéria? Onde quer que os cientistas apontem seus instrumentos, só conseguem observar matéria comum. Talvez o LHC possa nos dizer mais sobre essa assimetria. 

Algumas teorias que se apresentam como alternativas ao Modelo Padrão exigem a existência de mais do que 3 dimensões espaciais no nosso universo para que sua matemática faça sentido. Dimensões extra retorcidas em escala muito muito pequena para que fosse perceptível para nós através dos experimentos que já foram feitos, poderiam ser detectadas pelo LHC em algumas condições especiais.

Nas duas últimas décadas duas grandes falhas do modelo padrão se apresentaram. A primeira é: existe matéria que não interage através das interações eletromagnética e nuclear forte e fraca mas que é detectada através da influência gravitacional sobre outras porções de matéria. Por não interagir com a luz (interação eletromagnética) essa matéria é invisivel aos nossos telescópios. Do que é feita essa matéria escura? A segunda está relacionada com a taxa com que nosso universo se expande. Medidas recentes mostram que o universo está em expansão acelerada, o que indica que há um excesso  na densidade de energia do universo. Que é essa energia escura? Esses dois problemas mostram que há mais interações e formas de matéria no universo do que o modelo padrão prevê.

Enfim... há mais dezenas de outras razões pelas quais o LHC foi construído mas a principal é essa: quanto mais profundamente observamos a matéria, mais coisas fantásticas encontramos. Certamente os experimentos lá realizados trarão diversas perplexidades e ainda outras perguntas que não podemos prever. 

E o que isso tem a ver com simular o Big Bang em laboratório? Nada!!! Isso tudo nasceu de um tremendo mal entendido. Eventualmente, durante a divulgação do projeto, alguém comentou que a temperatura atingida durante as colisões será tão grande quanto era a temperatura do nosso universo X segundos depois do big bang. É claro que é muito bonito dizer que os cientistas vão tentar reproduzir o big bang em laboratório. Mas a verdade é tão, tão interessante por si só que as matérias estariam vendidas se os jornalistas simplesmente contassem o que de fato será feito lá. Talvez eles apenas sejam preguiçosos demais...  

 

Palavras-chave: bad science, big bang, Divulgação Científica, Física, Física de altas energias, Jornalismo científico, Large Hadron Collider

Esta mensagem está sob a licença CreativeCommons Atribuição, Não-Comercial.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 4 usuários votaram. 4 votos | 8 comentários

Abril 12, 2008

default user icon

 

Este post encontra-se em construção. Não ficará pronto tão cedo e eu pretendo transformá-lo em uma boa propaganda da minha atual área de pesquisa. Esteja avisado de que ele está incompleto.

De alguns anos para cá existe muito interesse no uso de modelos oriúndos da física para tentar modelar o mercado financeiro e a economia como um todo. O sucesso quantitativo de alguns modelos físicos é bastante estimulante e o sucesso de alguns empreendimentos financeiros baseados nesse tipo de modelagem faz brilhar os olhos de muitos investidores.

Temos na França o fundo Capital Fund Management, fundada por físicos de grande produtividade em física estatística e física da matéria condensada como Jean-Phillipe Bouchaud, que apesar de ser diretor presidente do fundo ainda é um cientista de grande produtividade. Nos EUA temos a Renaissance Technologies, fundada pelo físico matemático James Simons, famoso pelas teorias de campo de Chern-Simons.

Não pretendo nesse post fazer nada muito ambicioso: pretendo apenas expor analogias que julgo interessantes que existem entre problemas de mecânica estatística e teoria quântica de campos e problemas de finanças e economia e coisas do tipo. Não sou tão proficiente quanto gostaria em economia, portanto pode ser que esse post seja muito mais útil para os físicos.

Física estatística e o problema da agregação

No final do século XIX havia a preocupação por parte de certos físicos (Rudolph Clausius, James Clerck Maxwell, Ludwig Boltzmann, entre outros ilustres) de tentar entender o comportamento macroscópico da matéria, em particular dos gases, a partir da hipótese atômica - ou seja, a partir da hipótese de que a matéria era composta de minúsculos agentes microscópicos (moléculas ou átomos) que obedeceriam uma dinâmica bem conhecida: as leis de Newton da mecânica clássica. Um gás típico é composto de um número gigantesco de partículas, algo dar ordem de um mol (\approx 6 \times 10^{23} particulas). É claro que acompanhar as trajetórias de todas essas partículas, ainda que fosse possível, e tentar inferir daí as propriedades macroscópicas do sistema seria virtualmente impossível (1). Para atacar esse problema o conceito de distribuição de probabilidades foi introduzido: o que interessa não é exatamente onde estão e como se movem cada uma das partículas, mas sim como elas se distribuem no espaço de configurações(2). Nascia assim a Teoria Cinética: a partir da dinâmica (leis de Newton) queremos inferir qual é a probabilidade de se encontrar uma partícula com uma certa velocidade e posição dentro de um certo intervalo.

Mais tarde Ludwig Boltzmann, Josiah Willard Gibbs e uma série de outros físicos desenvolveram uma outra visão sobre sistemas em equilíbrio: o que interessa mesmo é contar o número de estados acessíveis ao sistema tais que certos vínculos macroscópicos sejam obedecidos. Por exemplo: suponha um gás ideal, um gás de partículas que não interagem entre si. De quantas formas esse sistema pode se arranjar sem alternar sua energia total? Bem... uma vez que não há energia potencial, quaisquer posições são válidas para as partículas. Isso dá um número de estados disponíveis proporcional à V^N, com V sendo o volume disponível para o gás e N o número de partículas. Boltzmann então fez uma célebre proposta: a equação que está em seu túmulo. Boltzmann pode compreender que a variável que os seus predecessores chamavam de entropia, e que até então carecia de um sentido microscópico, era dada pelo logaritmo do número de estados acessíveis ao sistema:

S = k_B log (\Omega)

Onde S é a entropia, k_B é a constante de Boltzmann e \Omega é o número de estados disponíveis dados certos vínculos externos. Para o gás ideal que discutimos acima, temos \Omega = C V^N e portanto:

S = k_B N log(V) + S(0)

Lembrando da termodinâmica que \frac{P}{T} = \left(\frac{\partial S}{\partial V}\right)_U Boltzmann pode obter:

 PV = k_B N T

a equação de Clausius-Clapeyron para os gases ideais! Posteriormente Gibbs introduziu sua idéia de ensembles e formulou esse mesmo problema do ponto de vista de um cálculo de grandezas médias em distribuições de probabilidade que maximizam a entropia em determinadas situações ( sistemas abertos, sistemas isolados, contato com um banho térmico, etc...). Por exemplo, no ensemble conhecido como canônico, as grandezas termodinâmicas são calculadas como médias sob a distribuição:

 P(x_1,x_2,...,x_N) =\frac{1}{Z} \exp \left\{\frac{1}{kT} E(x_1,x_2,...,x_N) \right\}

onde E é a energia de um sistema de N partículas (ou agentes) com graus de liberdade (posição, velocidadade, spin, momento angular, etc... etc... etc... ) dados pelas variáveis x_1, x_2, ..., x_N e Z é a chamada função de partição, e é dada por:

Z = \sum_{x_1, x_2, ..., x_N}\exp \left\{\frac{1}{kT} E(x_1,x_2,...,x_N) \right\}

Note que a soma se dá sobre todas os possíveis valores de x_1, x_2, ... etc.

E o que isso tem a ver com economia? Bem. Há um problema semelhante em economia. A economia possui dois grandes fundamentos teóricos: a microeconomia, teoria em que os fenômenos econômicos são descritos em termos do processo microscópicos de decisão dos agentes econômicos (pesssoas, empresas, governo,...) e a macroeconomia, em que os fenômenos econômicos são descritos em termos de grandezas economicas agregadas, ou seja, toda a soma de fluxos de capital produzidos pela economia é analisada em termos semelhantes aos da termodinâmica e das leis de conservação em física.

Ora: há claramente uma lacuna nessa descrição se eu sei como se comportam todos os agentes e como eles tomam suas decisões, eu deveria ser capaz de deduzir daí para onde vão os fluxos de dinheiro na escala macroscópica. Basta eu seguir o que cada agente faz e... ops... aí está o problema: para começar os agentes são humanos, não tomam decisões únicas e determinísticamente ditadas por uma dinâmica, e para terminar, mesmo em uma pequena economia, como uma sociedade tribal em uma ilha de colonização polinésia no pacífico, existem pelo menos algumas centenas de agentes. E aí que entra a experiência dos físicos: sabemos como modelar sistemas descritos por dinâmicas microscópicas probabilísticas e sabemos o que fazer quando temos um número de agentes que torna proibitiva o exaustivo cálculo de trajetórias: invocamos os ensembles de Gibbs, a entropia de Boltzmann e o arcabouço da mecânica estatística.

Esse problema da agregação, estudar o comportamento das variáveis agregadas da economia em termos do comportamento dos agentes econômicos microscópico, é muito similar ao programa de pesquisa da física estatística.

Continua na próxima oportunidade. Cenas dos próximos capítulos:

  1. Então me dê um exemplo de modelo simples para que eu consiga enxergar essa analogia de forma mais concreta!!!
  2. E o que eu posso colocar no fator de Boltzmann no lugar da energia?
  3. Simulated Annealing
  4. Equações de Langevin, equações de Fokker-Planck
  5. Integrais de trajetória e teorias de campo
  6. Precificação de derivativos

 

(1) Note que há técnicas computacionais, em particular os algorítmos chamados de dinâmica molecular, que se baseiam em tentar fazer exatamente isso: determina-se as trajetórias de um número muito menor de partículas (\approx 10^{3}) e tentar daí fazer uma inferência sobre o comportamento macroscópico.

(2) O espaço de configurações de um sistema mecânico é o espaço em que cada ponto corresponde uma possível escolha de posições e velocidades para todas as partículas.

Palavras-chave: cálculo estocástico, Derivativos, Economia, entropia, equações de langevin, Finanças, Física, Integrais de Feynman, Integrais de Trajetória, mecânica estatística, Mercado Financeiro, probabilidades, teoria cinética

Esta mensagem está sob a licença CreativeCommons Atribuição, Não-Comercial.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 4 usuários votaram. 4 votos | 1 comentário

Outubro 21, 2007

default user icon

Da série "recuperando antigos posts do Orkut", um post que eu fiz ano passado no Orkut sobre timbre e decomposição espectral. Pretendo melhorar isso mais tarde.

Quando um certo instrumento emite uma nota por exemplo, o Lá fundamental de 440 hertz, não é apenas a frequencia da nota fundamental que está sendo emitida. Todas as frequencias múltiplas dessa frequencia também estão sendo "excitadas". Na verdade isso tem a ver com o teorema da decomposição espectral, um teorema da matemática que diz que toda função periódica (um onda com frequência bem definida é um exemplo) pode ser decomposta em uma soma de senos e cossenos com frequencias multiplas dessa função original.Essa frequencias múltiplas da fundamental são os chamados harmônicos.O que dá o timbre do instrumento é a intensidade relativa de cada harmônico. Se você fizer um gráfico da potência sonora emitida em função da frequencia do número do harmônico, ele será diferente para cada instrumento musical por exemplo.

Nesta figura abaixo por exemplo está o espectro de amplitude (a potência é proporcional ao quadrado da amplitude) em função da frequencia do Dó central do meu violão:



Repare que os picos são mais ou menos igualmente espaçados. Ou seja, eles estão localizados em f, 2f,3f,4f, ... frequencias múltiplas do harmônico fundamental.

Agora vamos ver o dó central do meu clarinete:



A primeira coisa que você vai notar é que meus dois instrumentos estão desafinados heheeh. O dó central tem uma frequencia de 261 Hz. Você pode notar que o pico fundamental do clarinete está em 240 Hz mais ou menos e do violão em 150 Hz.

A segunda coisa que você vai notar é que o formato dos picos do clarinete são muito diferentes. Isso tem a ver com o ataque à nota. O som que gravei para fazer esse gráfico do clarinete era um som sustentado, longo. Não dá pra fazer isso no violão. Por mais suave que se toque a nota existe um perfil de ataque: a nota soa mais intensa logo após o momento que você tange a corda e "morre" com o tempo.

Essa forma como a amplitude se comporta no tempo é que vai dizer qual o formato do pico. Se o pico for fino e simétrico a amplitude do som é mais ou menos constante. Se o pico for mais largo significa que a nota tem um certo perfil de ataque no tempo.

Outra coisa que você vai perceber é que a relação entre as intensidades dos picos são diferentes. Os picos do violão vão ficando menores conforme a frequencia aumenta. Já no clarinete o primeiro pico é grande, o segundo é bem pequeno, o terceiro é grande de novo e etc... Isso é que dá o timbre!

Esta mensagem está sob a licença CreativeCommons Atribuição.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 1 usuário votou. 1 voto | 6 comentários

Outubro 09, 2007

default user icon

Saiu hoje o prêmio Nobel de Física dessa ano para os pesquisadores Albert Fert e Peter Grünberg pela descoberta do fenômeno conhecido como Magnetorresistência Gigante (GMR, Giant Magnetoresistance). A GMR de fato transformou a indústria de computadores acelerando substancialmente a taxa com que a densidade de dados armazenadas em discos rígidos aumenta a cada ano.

Mas do que se trata esse fenômeno? Em primeiro lugar precisamos entender o conceito de spin. O spin é um grau de liberdade intrínseco de uma partícula, é uma grandeza vetorial associada a cada partícula de forma que a determinação do estado dessa partícula, envolve a determinação do estado de seu spin. A grande dificuldade em se entender do que se trata o spin é devido ao fato de que não existe analogia entre o spin e nenhuma variável da mecânica clássica, que é a que temos contato no nosso mundo macroscópico. Basta, para o que segue, entendermos que o spin é uma variável associada a cada partícula e que pode assumir certos valores.

O elétron é uma partícula que denominamos férmions, são partículas tais que uma certa componente do vetor spin em uma dada direção pode assumir um número par de valores diferentes. No caso do elétron, que é uma partícula de spin \frac{1}{2}, o spin do elétron em uma certa direção pode assumir os valores +1 ou -1, ou, de maneira mais pictórica: spins apontando para cima, ou para baixo.

O fato de que o elétron possui um spin é antigo: é conhecido desde a década de 20. Entretanto até recentemente esse fato não era tecnologicamente explorado pela microeletrônica. Toda a eletrônica moderna até a década de 90 era baseada no fato de que o elétron possui uma carga elétrica, mas a existência do spin não era explorada. A razão é simples: as energias associadas aos estados de spin são muito menores que as energias associadas aos estados orbitais dos elétrons, de forma que na prática, os spins em uma corrente elétrica comum estão totalmente misturados: a chance de se encontrar um elétron com spin +1 é exatamente a mesma de se encontrar um elétron com spin -1.

Com a evolução das técnicas de manipulação de materiais semicondutores foi finalmente possível alcançar um estágio em que podemos manipular experimentalmente o spin de elétrons em correntes elétricas e isso abriu novas possibilidades tecnológicas e de pesquisa básica culminando com a criação de um novo campo da física: a spintrônica - (do inglês: spin based electronics - eletrônica baseada em spin).

A GMR foi uma das primeiras grandes descobertas desse campo de pesquisa. O dispositivo básico para se entender esse efeito é descrito na seguinte figura:

As duas camadas vermelhas são camadas de materiais ferromagnéticos, ou seja, materiais que sob a açao de um campo magnetico podem se magnetizar de forma permanente - são finas camadas imãs. A camada azul central é feita de uma material não magnético porém suficientemente puro para que um elétron possa atravessá-lo praticamente sem mudar seu spin original (sem sofrer espalhamento que provoque uma mudança da orientação de seu spin).

Suponha que a primeira camada esteja magnetizada em uma certa direção. Em um material ferromagnético que esteja magnetizado, os estados disponíveis para condução de corrente elétrica tem todos spins alinhados na mesma direção que a magnetização (todos os estados com energia próxima a energia de Fermi tem sua componente de spin alinhada com a magnetização do material). Dessa forma a corrente que atravessa a primeira camada ferromagnética sai dela com uma boa parte de seus elétrons com seus spins apontando em uma direção especifica.

Então essa corrente atinge a camada não magnética e caminha na direção da outra camada ferromagnética. Suponha que a segunda camada ferromagnética esteja magnetizada na mesma direção que a primeira. Então existem estados disponíveis para os elétrons que estão chegando entrarem nessa camada e continuarem a conduzir corrente nessa direção. Dizemos então que a resistência elétrica do dispositivo como um todo é baixa.

No entanto se a segunda camada ferromagnética estiver magnetizada na direção oposta à primeira, então os elétrons que estão chegando não encontram estados disponíveis para ingressar naquele material pois seus spins estão alinhados na direção oposta a da magnetização da camada. A quantidade de elétrons que conseguem entrar nessa nova camada e continuar conduzindo é menor. Assim a resistência elétrica do dispositivo como um todo é bem mais alta.

Se de alguma forma conseguirmos travar a magnetização da primeira camada em uma certa direção (existem técnicas experimentais para fazer isso) e fizermos com que a segunda camada tenha uma magnetização facilmente manipulável, podemos "abrir" ou "fechar" uma válvula que aumenta ou diminue a passagem de corrente.

Assim se cria uma cabeça de leitura para discos rígidos por exemplo. Os dados estão gravados no disco de forma binária: cada pequeno trecho no disco armazena um "0" ou um "1" de maneira magnética, cada possibilidade correspondendo a uma diferente magnetização daquele pequeno pedaço do disco. Ao se aproximar a segunda camada magnética do disco ela vai orientar-se de acordo com o estado daquele trecho de disco permitindo assim a passagem de maior ou menor corrente de acordo com a informação gravada no disco.

Antes do advento dos dispositivos GMR a leitura era feita com pequenas bobinas. Entrentanto, bobinas cada vez menores apresentam cada vez menos capacidade de leitura e existe um limite para o tamanho operacional que a bobina pode ter, limitando a densidade de dados que pode ser armazenada em um disco rígido. As cabeças de leitura baseadas na GMR podem ser bem menores e continuar operando, permitindo assim o grande salto que o espaço de armazenamento dos discos rígidos tiveram no final dos anos 90.

 

 

Palavras-chave: física, nobel, spintrônica

Este post é Domínio Público.

Postado por Rafael Sola de Paula de Angelo Calsaverini | 0 comentário