A computação chega à tomografia

Provável radiografia da mão do professor Alfred von Koelliker, tirada em 1896 por Wilhelm Roentgen, descobridor dos raios-X (foto: European Organization for Nuclear Research).    

Consta nos arquivos da Universidade de Würzburg, na Alemanha, que a radiografia ao lado foi obtida no dia 23 de janeiro de 1896 pelo físico alemão Wilhelm Conrad Roentgen (1845-1923), a quem se deve a descoberta dos raios-X. Ao que se sabe, essa radiografia – da mão do professor de anatomia Alfred von Koelliker – foi a segunda e última obtida por Roentgen com partes do corpo humano. A primeira representa a mão da sua mulher, em 22 de dezembro de 1895.

Vemos claramente delineados os ossos e algo que pode ser um anel ou aliança. Em volta dos ossos, há uma imagem difusa, menos nítida. Isso significa que a radiação incidente sobre os ossos e o objeto metálico praticamente não sensibilizou a chapa fotográfica. Ou seja, essa parte do feixe foi absorvida pelos ossos e pelo metal, enquanto a parte que atingiu o tecido próximo aos ossos sensibilizou em maior grau o filme porque foi fracamente absorvida.

Roentgen logo observou que os materiais absorvem os raios-X de forma proporcional à sua densidade. A parte mais densa do corpo humano são os ossos, por isso eles aparecem com mais nitidez em uma radiografia. Como a densidade do corpo humano não é homogênea, a radiografia – uma representação bidimensional de um objeto tridimensional – indica apenas a densidade média na direção do feixe e representa uma seção transversal do corpo irradiado.

Para efeito de diagnóstico médico isso é uma grande limitação, pois qualquer coisa menos densa – como um tumor, por exemplo – que esteja entre os ossos e o feixe incidente ou depois dos ossos ficará invisível. Além disso, a radiografia convencional não é capaz de distinguir partes do corpo humano com pequenas diferenças de densidade.

No entanto, os radiologistas logo perceberam que poderiam superar essas dificuldades se fizessem radiografias em diferentes ângulos, tornando visíveis partes do corpo que na radiografia convencional ficavam escondidas pelos ossos e melhorando a resolução em termos da densidade.

Surge a tomografia
Apesar das grandes dificuldades enfrentadas pelos precursores, algumas tentativas de superar as limitações da radiografia foram implementadas, com princípios similares e denominações diferentes. Nos anos 1930, por exemplo, o italiano Alessandro Vallebona desenvolveu a estratigrafia, posteriormente denominada tomografia axial e considerada por muitos como a antecessora da tomografia computadorizada (TC). A idéia por trás dessa técnica é a obtenção de sucessivas radiografias de finas fatias do objeto examinado. Vem daí o nome, uma vez que, em grego, tomo significa ‘parte’.

A radiologia progrediu muito desde os tempos de Roentgen. A técnica da tomografia computadorizada permite montar uma imagem tridimensional a partir de várias radiografias bidimensionais tiradas de ângulos diferentes (foto: Plouin P.-F. et al., Orphanet Journal of Rare Diseases, 2007).    

Durante muito tempo a tomografia convencional ou analógica foi utilizada para superar as dificuldades da radiografia. No entanto, sua aplicação era limitada a casos específicos, e a interpretação das imagens era muito difícil.

Esse quadro teve uma mudança radical no início dos anos 1970, com os trabalhos do norte-americano Allan McLeod Cormack (1924-1998) e do inglês Godfrey Newbold Hounsfield (1919-2004), que lhes valeram o Nobel de Medicina de 1979. Antes de apreciarmos essa história, cabe questionar: por que demorou tanto para passarmos da estratigrafia para a TC? Uma resposta talvez exagerada ou simplista, mas não muito distante da verdade, seria: por causa da palavra computadorizada. Vejamos por quê.

Podemos reproduzir uma radiografia se conhecermos a intensidade inicial do feixe e a distribuição de densidades da seção transversal do objeto. Trata-se de um problema de tipo direto, razoavelmente simples e que pode ser resolvido com a chamada lei de Beer-Lambert.

Um problema de tipo inverso, mais difícil de ser resolvido, seria a obtenção da distribuição de densidades a partir das intensidades do feixe que atravessou o objeto. Mesmo para uma fina seção transversal, este é um problema complicado. Imagine como não será para o caso real, em que é necessário reproduzir a distribuição tridimensional das densidades, uma tarefa impossível sem o auxílio dos sofisticados recursos computacionais disponíveis a partir dos anos 1960.

Solução elegante para o problema inverso
Na palestra que fez na cerimônia de entrega do Nobel, Cormack relata o início do seu trabalho em 1955, quando era professor de física na Universidade da Cidade do Cabo, África do Sul, e prestava consultoria no setor de radiologia do hospital Groote Schuur. Naquela época, a dose de irradiação para tratamento de câncer era calculada supondo que a densidade dos corpos irradiados era constante – algo claramente falso no caso do corpo humano. Para um tratamento mais preciso, o cálculo da dose deveria ser feito a partir de uma distribuição não homogênea de densidade corpórea. Além disso, Cormack abordou o problema inverso – isto é, o cálculo da distribuição não homogênea – a partir da medida da intensidade da radiação atenuada pelo objeto.

A solução desse problema, publicada em 1963, é hoje considerada a verdadeira origem da tomografia computadorizada. No entanto, o matemático austríaco Johann Radon (1887-1956) havia apresentado uma solução similar, em 1917, ao demonstrar um importante teorema. O contexto do trabalho de Radon, porém, era puramente matemático, sem qualquer conexão com a radiologia. Tanto era assim que ele era pouco conhecido entre os físicos experimentais – o próprio Cormack só tomou conhecimento da sua solução por volta de 1969.

O inglês Godfrey Hounsfield (1919-2004), prêmio Nobel de Medicina de 1979 pelo desenvolvimento da tomografia computadorizada, ao lado de um tomógrafo de primeira geração da EMI (foto: Universidade de Cambridge).    

Cormack também experimentou seu próprio anonimato, provavelmente por ter publicado seus dois principais artigos no Journal of Applied Physics, um periódico raramente lido por médicos, sobretudo naquela época. Mas como o problema estava na ordem do dia, era natural que muitos pesquisadores chegassem a soluções similares e independentes, uma característica típica nessa área de pesquisa, como sabemos hoje.

Assim, não causa estranheza o fato de que na Inglaterra, Hounsfield, um engenheiro que trabalhava no laboratório da EMI (Indústrias Elétricas e Musicais, na sigla em inglês) tenha produzido o primeiro tomógrafo computadorizado sem fazer qualquer referência ao trabalho de Cormack.

Em outubro de 1968, Hounsfield submeteu o projeto ao diretor do laboratório. A idéia era usar técnicas de processamento de dados para aumentar a quantidade de informações presentes em uma radiografia. Ao contrário de Cormack, que concentrou esforços no tratamento matemático, Hounsfield dedicou-se à fabricação de um tomógrafo que pudesse ser utilizado em casos clínicos.

Embora a idéia central seja a mesma – a obtenção de uma imagem que reflita a distribuição tridimensional de densidades de um corpo, a partir das medidas de intensidade dos raios-X –, diferentes abordagens matemáticas estavam disponíveis na literatura e essa diversidade se refletiu nos trabalhos apresentados ao longo dos anos.

Na palestra que fez ao receber o Nobel, Hounsfield salienta que seu tratamento matemático seguiu passos do senso comum. Na sua opinião, muitos dos métodos matemáticos disponíveis então eram idealizados e tinham pouca utilidade prática. De fato, ele usou uma forma simplificada da lei de Beer-Lambert para estimar o coeficiente de absorção do material irradiado – que é proporcional à densidade do mesmo. Para realizar a reconstrução do objeto, ele utilizou um método de reconstrução iterativa, em vez de adotar técnicas de transformada de Fourier, bastante difundidas atualmente.

Repercussão e riscos

A alta exposição à radiação necessária para se obter uma tomografia computadorizada de alta resolução como esta pode aumentar o risco de câncer (foto: Univ. de Colúmbia).    

Logo depois da primeira apresentação pública do equipamento e dos resultados clínicos, em um congresso da Sociedade Norte-Americana de Radiologia, em novembro de 1972, várias máquinas foram encomendadas à EMI. A repercussão foi extraordinária. Na opinião do professor Torgny Greitz, que apresentou os laureados na cerimônia de entrega do Nobel, o trabalho de Hounsfield chocou o mundo com aquelas imagens inacreditavelmente claras.

Desde então, o uso da tomografia computadorizada se tornou tão popular que é difícil achar quem nunca tenha ouvido falar nela. No entanto, há quem considere seu uso desnecessário em alguns casos e que é preciso mais cuidado com os riscos da grande exposição à radiação. Para obter uma imagem com tanta definição quanto a da foto ao lado, a quantidade de radiação necessária é bem maior do que em uma radiografia convencional.

Em novembro de 2007, David Brenner e Eric Hall, do Centro de Pesquisa Radiológica da Universidade Colúmbia (EUA), publicaram um trabalho na prestigiosa revista The New England Journal of Medicine, alertando para a possível subestimação do potencial efeito cancerígeno de um terço das tomografias realizadas nos Estados Unidos. Segundo eles, pode haver um grande problema de saúde pública se o uso da TC crescer na proporção observada atualmente. Eles estimam que, em poucas décadas, aproximadamente 2% dos casos de câncer nos EUA poderão advir das tomografias realizadas atualmente.

De Roentgen a Hounsfield, a centenária história dos raios-X tem mostrado um padrão característico. Como num processo dicotômico, as descobertas inicialmente fascinam pelo inusitado e pelas possibilidades de aplicações médicas e tecnológicas, para no momento seguinte causarem inquietação pelos efeitos danosos. Entretanto, sempre que emerge a inquietação, a humanidade busca um compromisso no qual os benefícios sejam potencializados e os riscos, minimizados. O recente alerta de Brenner e Hall faz parte desse processo, como também fazem parte enaltecedoras observações registradas na literatura. Não há como deixar de se impressionar com a qualidade das imagens obtidas com a tomografia computadorizada. Se assim não fosse, como explicar o interesse recente pelo tratamento artístico dessas imagens?


Carlos Alberto dos Santos
Núcleo de Educação a Distância
Universidade Estadual do Rio Grande do Sul
25/04/2008