Saúde

Identificar patinhos feios para contrair câncer de pele mais cedo
O sistema baseado em aprendizagem profunda permite a identificação em nível de dermatologista de lesões de pele suspeitas a partir de fotos de smartphones, permitindo um melhor rastreamento
Por Lindsay Brownell - 23/02/2021


Reprodução

O melanoma é de longe a forma mais letal de câncer de pele, matando mais de 7.000 pessoas nos Estados Unidos apenas em 2019. A detecção precoce da doença reduz drasticamente o risco de morte e os custos do tratamento, mas o rastreamento generalizado do melanoma não é viável atualmente. Existem cerca de 12.000 dermatologistas em atividade nos Estados Unidos, e cada um deles precisaria ver 27.416 pacientes por ano para examinar toda a população em busca de lesões pigmentadas suspeitas (SPLs) que podem indicar câncer.

Sistemas de diagnóstico auxiliado por computador (CAD) foram desenvolvidos nos últimos anos para tentar resolver esse problema, analisando imagens de lesões cutâneas e identificando automaticamente os SPLs, mas até agora não conseguiram impactar significativamente o diagnóstico de melanoma. Esses algoritmos CAD são treinados para avaliar cada lesão de pele individualmente quanto a características suspeitas, mas os dermatologistas comparam múltiplas lesões de um paciente individual para determinar se são cancerosas - um método comumente chamado de critério do “patinho feio”. Nenhum sistema CAD em dermatologia, até o momento, foi projetado para replicar esse processo de diagnóstico.

Agora, esse descuido foi corrigido graças a um novo sistema CAD para lesões de pele com base em redes neurais profundas convolucionais (CDNNs) desenvolvido por pesquisadores do Instituto Wyss de Engenharia Biologicamente Inspirada da Universidade de Harvard e do Instituto de Tecnologia de Massachusetts (MIT). O novo sistema distinguiu com sucesso SPLs de lesões não suspeitas em fotos de pele de pacientes com aproximadamente 90% de precisão e, pela primeira vez, estabeleceu uma métrica de "patinho feio" capaz de corresponder ao consenso de três dermatologistas 88% das vezes.

“Nós essencialmente fornecemos um proxy matemático bem definido para a intuição profunda em que um dermatologista se baseia para determinar se uma lesão de pele é suspeita o suficiente para justificar um exame mais detalhado”, disse o primeiro autor do estudo, Luis Soenksen , Ph.D., pós-doutorado em o Wyss Institute, que também é Venture Builder no MIT. “Essa inovação permite que as fotos da pele dos pacientes sejam analisadas rapidamente para identificar lesões que devem ser avaliadas por um dermatologista, permitindo o rastreamento eficaz do melanoma em nível populacional.”

A tecnologia é descrita na Science Translational Medicine , e o código-fonte do CDNN está disponível abertamente no GitHub .

Colocando em foco patinhos feios

O melanoma é pessoal de Soenksen, que viu vários amigos próximos e familiares sofrerem da doença. “Fiquei pasmo ao ver que as pessoas podem morrer de melanoma simplesmente porque os médicos e pacientes da atenção primária atualmente não têm as ferramentas para encontrar os“ estranhos ”com eficiência. Decidi enfrentar esse problema aproveitando muitas das técnicas que aprendi em meu trabalho em inteligência artificial no Wyss e no MIT ”, disse ele.

Soenksen e seus colaboradores descobriram que todos os sistemas CAD existentes criados para identificar SPLs analisavam apenas as lesões individualmente, omitindo completamente os critérios do patinho feio que os dermatologistas usam para comparar várias manchas de um paciente durante um exame. Então eles decidiram construir o seu próprio.

Para garantir que seu sistema pudesse ser usado por pessoas sem treinamento especializado em dermatologia, a equipe criou um banco de dados de mais de 33.000 imagens de "amplo campo" da pele dos pacientes que incluíam fundos e outros objetos não-cutâneos, para que o CDNN pudesse para usar fotos tiradas de câmeras do consumidor para diagnóstico. As imagens continham SPLs e lesões cutâneas não suspeitas que foram marcadas e confirmadas por um consenso de três dermatologistas certificados. Após o treinamento no banco de dados e o subsequente refinamento e teste, o sistema foi capaz de distinguir entre lesões suspeitas e não suspeitas com sensibilidade de 90,3% e especificidade de 89,9%, melhorando em relação aos sistemas previamente publicados.

Mas esse sistema de linha de base ainda estava analisando as características de lesões individuais, ao invés de características em lesões múltiplas como os dermatologistas fazem. Para adicionar os critérios do patinho feio em seu modelo, a equipe usou os recursos extraídos em um estágio secundário para criar um "mapa" 3D de todas as lesões em uma determinada imagem e calculou o quão longe estavam as características "típicas" de cada lesão . Quanto mais “estranha” uma determinada lesão era comparada com as outras em uma imagem, mais longe ela estava do centro do espaço 3D. Essa distância é a primeira definição quantificável dos critérios do patinho feio e serve como um portal para alavancar redes de aprendizagem profunda para superar a tarefa desafiadora e demorada de identificar e examinar as diferenças entre todas as lesões pigmentadas em um único paciente.

Aprendizagem profunda vs. dermatologistas

Seu DCNN ainda tinha que passar por um teste final: dermatologistas respiradores com desempenho tão bom quanto vivos, na tarefa de identificar NPS a partir de imagens da pele dos pacientes. Três dermatologistas examinaram 135 fotos de campo amplo de 68 pacientes e atribuíram a cada lesão uma pontuação de "estranheza" que indicava sua aparência preocupante. As mesmas imagens foram analisadas e pontuadas pelo algoritmo. Quando as avaliações foram comparadas, os pesquisadores descobriram que o algoritmo concordava com o consenso dos dermatologistas em 88% das vezes e com os dermatologistas individuais em 86% das vezes.

“Este alto nível de consenso entre inteligência artificial e médicos humanos é um avanço importante neste campo, porque a concordância entre os dermatologistas é normalmente muito alta, cerca de 90%”, disse o co-autor Jim Collins , Ph.D., Membro do corpo docente do Wyss Institute e co-líder de sua Predictive BioAnalytics Initiative, que também é Professor Termeer de Engenharia Médica e Ciência no MIT. “Essencialmente, conseguimos atingir uma precisão de nível dermatologista no diagnóstico de lesões potenciais de câncer de pele a partir de imagens que podem ser obtidas por qualquer pessoa com um smartphone, o que abre um enorme potencial para encontrar e tratar o melanoma mais cedo.”

Reconhecendo que tal tecnologia deve ser disponibilizada para o maior número possível de pessoas para o máximo benefício, a equipe tornou seu algoritmo de código aberto no GitHub . Eles esperam fazer parceria com centros médicos para lançar ensaios clínicos demonstrando ainda mais a eficácia de seu sistema e com a indústria para transformá-lo em um produto que possa ser usado por prestadores de cuidados primários em todo o mundo. Eles também reconhecem que, para ser universalmente útil, seu algoritmo precisa ser capaz de funcionar igualmente bem em todo o espectro de tons de pele humana, que planejam incorporar no desenvolvimento futuro.

“Permitir que nossos cientistas desenvolvam suas paixões e visões é a chave para o sucesso do Wyss Institute, e é maravilhoso ver esse avanço que pode impactar a todos nós de uma forma tão significativa emergir de uma colaboração com nossa recém-formada Predictive BioAnalytics Initiative, ”Disse o Diretor Fundador da Wyss, Don Ingber , MD, Ph.D., que também é Professor Judah Folkman de Biologia Vascular na Harvard Medical School e Boston Children's Hospital, e Professor de Bioengenharia na Harvard John A. Paulson School of Engineering and Applied Ciências.

Outros autores do artigo incluem Regina Barzilay, Martha L. Gray, Timothy Kassis, Susan T. Conover, Berta Marti-Fuster, Judith S. Birkenfeld, Jason Tucker-Schwartz e Asif Naseem do MIT, Robert R. Stavert do Beth Israel Deaconess Medical Center, Caroline C. Kim do Tufts Medical Center, Maryanne M. Senna do Massachusetts General Hospital e José Avilés-Izquierdo do Hospital General Universitario Gregorio Marañón.

Esta pesquisa foi apoiada pela Clínica Abdul Latif Jameel de Aprendizado de Máquina em Saúde, a Consejería de Educación, Juventud e Deportes de la Comunidad de Madrid, por meio do Consórcio Madrid-MIT M + Visión e do Programa Pessoas do Sétimo Programa-Quadro da União Europeia, a bolsa CONACyT do México 342369/40897, e a bolsa de treinamento DOE dos EUA DE-SC0008430.

 

.
.

Leia mais a seguir