
Pesquisadores da Universidade Metropolitana de Osaka descobriram uma maneira prática de detectar e corrigir erros comuns de rotulagem em grandes coleções radiográficas. Ao verificar automaticamente tags de partes do corpo, projeção e rotação, sua pesquisa melhora os modelos de aprendizagem profunda usados para tarefas clínicas de rotina e projetos de pesquisa.
Modelos de aprendizagem profunda que utilizam radiografia de tórax fizeram progressos notáveis nos últimos anos, evoluindo para realizar tarefas que são desafiadoras para os humanos, como estimar a função cardíaca e respiratória.
No entanto, as IAs são tão boas quanto as imagens inseridas nelas. Embora as imagens de raios X tiradas em hospitais sejam rotuladas com informações, como o local e o método de imagem, antes de serem inseridas no modelo de aprendizagem profunda, isso é feito principalmente manualmente, o que significa que ocorrem erros, dados ausentes e inconsistências, especialmente em hospitais movimentados.
Isto é ainda mais complicado por imagens com várias rotações. A radiografia pode ser tirada de anterior para posterior ou vice-versa, podendo também ser lateral, invertida ou girada, complicando ainda mais o conjunto de dados.
Em grandes arquivos de imagens, esses pequenos erros rapidamente se somam a centenas ou milhares de resultados mal rotulados.
Uma equipe de pesquisa da Escola de Pós-Graduação em Medicina da Universidade Metropolitana de Osaka, incluindo o estudante Yasuhito Mitsuyama e o professor Daiju Ueda, teve como objetivo melhorar a detecção de dados rotulados incorretamente, identificando automaticamente os erros antes que eles afetem os dados de entrada para modelos de aprendizagem profunda.
O grupo desenvolveu dois modelos: Xp-Bodypart-Checker, que classifica as radiografias de acordo com a parte do corpo; e CXp-Projection-Rotation-Checker, que detecta a projeção e rotação de radiografias de tórax.
O Xp‑Bodypart‑Checker alcançou uma precisão de 98,5% e o CXp‑Projection‑Rotation‑Checker obteve precisões de 98,5% para projeção e 99,3% para rotação. Os pesquisadores estão otimistas de que a integração de ambos em um único modelo proporcionaria um desempenho revolucionário em ambientes clínicos.
Embora os resultados tenham sido excelentes, a equipe espera aperfeiçoar ainda mais o método para uso clínico.
Planejamos retreinar o modelo em radiografias que foram sinalizadas apesar de terem sido rotuladas corretamente, bem como naquelas que não foram sinalizadas, mas na verdade foram rotuladas incorretamente, para obter uma precisão ainda maior.”
Yasuhito Mitsuyama, Universidade Metropolitana de Osaka
O estudo foi publicado em europeu Radiologia.
Fonte:
Referência do diário:
Mitsuyama, Y., e outros. (2025). Modelos de aprendizagem profunda para classificação de partes do corpo em radiografias e classificação de projeção/orientação de radiografias de tórax: um estudo multiinstitucional. Radiologia Europeia. DOI: 10.1007/s00330-025-12053-7. https://link.springer.com/article/10.1007/s00330-025-12053-7.