indexado en
  • Abrir puerta J
  • Genamics JournalSeek
  • Claves Académicas
  • DiarioTOCs
  • Infraestructura Nacional de Conocimiento de China (CNKI)
  • Directorio de publicaciones periódicas de Ulrich
  • Búsqueda de referencia
  • Universidad Hamdard
  • EBSCO AZ
  • Directorio de indexación de resúmenes para revistas
  • OCLC-WorldCat
  • Publón
  • Fundación de Ginebra para la Educación e Investigación Médica
  • pub europeo
  • Google Académico
Comparte esta página
Folleto de diario
Flyer image

Abstracto

Clasificación de tumores benignos y malignos a partir de imágenes de ecografía mamaria basada en redes neuronales convolucionales

Telagarapu Prabhakar

El método más utilizado para diagnosticar el cáncer de mama es la ecografía mamaria (BUS), pero la interpretación
variará según la experiencia del radiólogo. Hoy en día, los sistemas CAD están disponibles para proporcionar información
sobre la clasificación de imágenes BUS. Sin embargo, la mayoría de los sistemas CAD se basaban en funciones artesanales,
diseñadas para clasificar los tumores. Por lo tanto, la capacidad de estas funciones determinará la precisión del sistema CAD
que se utiliza para clasificar los tumores como benignos y malignos. Con el uso de
la tecnología de redes neuronales convolucionales (CNN), podemos mejorar la clasificación de imágenes BUS. Debido a que proporciona un nuevo enfoque para la clasificación
y representaciones de imágenes generalizables, podemos obtener la mejor precisión como resultado. Sin embargo, la base de datos de
imágenes BUS tiene un tamaño pequeño, por lo que puede estar restringida debido a que las CNN no se pueden entrenar desde cero. Para superar este
inconveniente, examinamos el uso del enfoque de aprendizaje por transferencia, para permitir que el enfoque CNN logre la mejor precisión
con respecto a la clasificación de imágenes BUS. Los resultados finales de la metodología VGG16_TL superan a AlexNet_TL. Los resultados finales
indican que VGG16_TL tiene una precisión, sensibilidad, especificidad, precisión y valores F1 del 88,23 %, 88,89 %, 88,89 %,
90 % y 88,2 %, respectivamente. Por lo tanto, podemos decir que la posibilidad de que los modelos CNN entrenados previamente logren una buena precisión
en la clasificación de imágenes BUS.

Descargo de responsabilidad: este resumen se tradujo utilizando herramientas de inteligencia artificial y aún no ha sido revisado ni verificado