As pesquisas eleitorais e os modelos científicos

Os resultados das pesquisas de intenção de voto estão entre os assuntos mais comentados nesse período eleitoral. Praticamente toda semana e, ultimamente, quase todos os dias, surge uma nova pesquisa sobre a preferência da população em relação aos candidatos à presidência da República e ao governo dos estados que terão segundo turno.

Os resultados dessas pesquisas não somente influenciam diretamente a forma como os candidatos conduzem as campanhas, mas também acabam influenciando o próprio eleitorado.

Como é possível fazer previsões entrevistando apenas 3 mil pessoas em um universo de mais de 120 milhões de eleitores?

Houve grande frustração pelo fato de nenhum dos institutos de pesquisa de opinião ter conseguido prever com certeza o segundo turno para as eleições presidenciais. O resultado das urnas surpreendeu a muitos, pois houve uma brusca mudança entre a vontade do eleitorado retratada nas sondagens e a realidade apresentada pelas urnas.

Os resultados dessas pesquisas sempre são divulgados ao lado da sua margem de erro, ou seja, o grau de precisão do resultado. No caso das pesquisas para presidente, a margem de erro costumava ser de dois pontos percentuais, para mais ou para menos, criando expectativas, como a situação de “empate técnico” entre dois candidatos.

É comum que a maioria das pessoas se pergunte: como pode ser possível fazer previsões como estas entrevistando apenas 2 ou 3 mil pessoas, em um universo de mais de 120 milhões de eleitores? É possível prever o futuro – no caso, quem será o próximo presidente? Essas previsões são científicas?

As pesquisas de opinião são baseadas em métodos estatísticos que levam em conta a distribuição da população brasileira por idade, sexo, nível de escolaridade, renda mensal e região do país em que vive. Contudo, cada instituto adota metodologias diferentes e, por isso, surgem resultados diferentes, mesmo para pesquisas realizadas na mesma época.

Modelos da natureza

A ciência costuma trabalhar com previsões feitas por meio de modelos desenvolvidos e testados a partir da observação da natureza. As leis da mecânica estabelecidas no século 17 por Isaac Newton (1642-1727), por exemplo, permitem prever o movimento de queda de um corpo ou quais são as órbitas dos planetas ao redor do Sol.

Seu poder de previsão é tão grande que foi possível descobrir, a partir de irregularidades na órbita de planeta Urano, a existência no Sistema Solar de um planeta que ainda não havia sido observado. Cálculos feitos de forma independente pelo matemático Urbain Leverrier (1811-1877), na França, e pelo astrônomo John Couch Adams (1819-1892), na Inglaterra, previram a localização do planeta desconhecido. 

Ele foi observado em 23 de setembro de 1846 pelo astrônomo alemão Johann Gottfried Galle (1812-1910) e pelo dinamarquês Heinrich Louis d’Arrest (1822-1875) e posteriormente batizado de Netuno. Sua descoberta representou a maior glória do modelo newtoniano, pois pela primeira vez foi possível prever a posição de um planeta a partir de cálculos matemáticos.

Netuno e satélite
Netuno e seu satélite Triton fotografados pela sonda Voyager 2 em 1989. A descoberta desse planeta no século 19, feita apenas com cálculos matemáticos, representou um triunfo do modelo newtoniano do universo (foto: Nasa / Jet Propulsion Lab).

Curiosamente, muitos dos planetas descobertos em outros sistemas estelares (que já são 500 na data da publicação dessa coluna) utilizam cálculos semelhantes.

A descoberta de Netuno representou a maior glória do modelo newtoniano

Todo modelo tem o seu limite de validade, ou seja, situações nas quais ele não consegue descrever com precisão os fenômenos observados.

As leis da mecânica newtoniana não conseguem descrever a luz e os fenômenos eletromagnéticos, a estrutura atômica da matéria ou eventos que ocorrem com velocidades próximas à da luz ou na presença de campos gravitacionais intensos. Nesse caso, outras teorias e modelos são necessários para explicar esses fenômenos naturais.

Equações de Maxwell e mecânica quântica

A maioria dos fenômenos eletromagnéticos são descritos pelas equações de Maxwell, que foram organizadas em 1865 pelo físico escocês James Clerk Maxwell (1831-1879). Antes dele, diversos pesquisadores tinham estudado fenômenos associados a campos elétricos e magnéticos, como o caso de Ampère, Oersted, Faraday e outros, mas coube a Maxwell propor um modelo unificado para explicar essas interações. 

As equações de Maxwell não funcionam para explicar os fenômenos na escala atômica

As equações de Maxwell descrevem como os campos elétricos e magnéticos interagem entre si e também mostram que a luz é um fenômeno eletromagnético e se propaga na forma de uma onda. Essa descrição, contudo, não funciona para explicar os fenômenos na escala atômica. Nesse caso, um novo modelo teve que ser desenvolvido.

A mecânica quântica é um modelo físico que começou a ser desenvolvido no começo do século 20. Aos poucos, os físicos descobriam novos fenômenos que os modelos da época – a mecânica newtoniana e o eletromagnetismo de Maxwell – não conseguiam explicar de maneira satisfatória.

Um exemplo disso foi a descoberta de que a luz pode, em algumas situações, não se comportar como uma onda eletromagnética, como previsto pelas equações de Maxwell, mas sim como pacotes de energia proporcionais à frequência da radiação incidente. Posteriormente, esses pacotes de energia foram chamados de fótons. Essa proposta foi feita por Albert Einstein (1879-1955) em 1905 e é considerada um dos marcos desse novo modelo.

Luz
As descobertas de Einstein sobre a natureza da luz em 1905 levaram a uma revisão do modelo de Maxwell do eletromagnetismo (foto: Zouavman Le Zouave / CC 3.0 BY-SA).

A mecânica quântica não foi apenas um novo modelo para descrever os fenômenos na escala atômica, mas também revolucionou a forma de entendermos a natureza. Entre as inúmeras mudanças que ela introduziu, talvez a mais impactante tenha sido a descoberta de que, quando medimos com absoluta precisão a posição de uma partícula, o seu momento (que é o produto da sua massa por sua velocidade) não pode ser conhecido com precisão.

Os modelos e teorias desenvolvidos pela física estão em transformação constante

Essa limitação não é técnica, no sentido de uma limitação dos equipamentos que fazem a medição, mas sim uma imposição da natureza. Esse é o princípio da indeterminação, proposto em 1927 pelo alemão Werner Heisenberg (1901-1976).

Dessa forma, mesmo os modelos e as teorias desenvolvidos pela física e pela ciência de forma geral estão em transformação constante: quando se descobre uma nova situação, o modelo deve ser aprimorado para descrever melhor o fenômeno observado.

No caso de modelos estatísticos que descrevem as opiniões das pessoas, que estão a todo momento sendo influenciadas por muitas variáveis, principalmente a propaganda eleitoral, é sempre difícil conseguir uma precisão absoluta que se refletiria em pesquisas de opinião sem erros.

De fato, o resultado absoluto só é obtido quando se faz a pesquisa levando em conta todas as opiniões, ou seja, a eleição computando cada voto dado. Nesse caso, porém, já não há a necessidade de qualquer modelo ou previsão!

Adilson de Oliveira
Departamento de Física
Universidade Federal de São Carlos