Conjunto de datos de anatomía quirúrgica de Dresde para la segmentación de órganos abdominales en la ciencia de datos quirúrgicos

Noticias

HogarHogar / Noticias / Conjunto de datos de anatomía quirúrgica de Dresde para la segmentación de órganos abdominales en la ciencia de datos quirúrgicos

Jun 02, 2024

Conjunto de datos de anatomía quirúrgica de Dresde para la segmentación de órganos abdominales en la ciencia de datos quirúrgicos

Datos científicos volumen 10, Número de artículo: 3 (2023) Citar este artículo 5751 Accesos 1 Citas 29 Detalles de Altmetric Metrics La laparoscopia es una técnica de imagen que permite realizar

Datos científicos volumen 10, número de artículo: 3 (2023) Citar este artículo

5751 Accesos

1 Citas

29 altmétrica

Detalles de métricas

La laparoscopia es una técnica de imagen que permite procedimientos mínimamente invasivos en diversas disciplinas médicas, incluidas la cirugía abdominal, la ginecología y la urología. Hasta la fecha, los conjuntos de datos de imágenes laparoscópicas disponibles públicamente se limitan principalmente a clasificaciones generales de datos, segmentaciones semánticas de instrumentos quirúrgicos y anotaciones débiles de bajo volumen de órganos abdominales específicos. El conjunto de datos de anatomía quirúrgica de Dresde proporciona segmentaciones semánticas de ocho órganos abdominales (colon, hígado, páncreas, intestino delgado, bazo, estómago, uréter, glándulas vesiculares), la pared abdominal y dos estructuras vasculares (arteria mesentérica inferior, venas intestinales) en vista laparoscópica. . En total, este conjunto de datos comprende 13195 imágenes laparoscópicas. Para cada estructura anatómica, proporcionamos más de mil imágenes con segmentaciones por píxeles. Las anotaciones comprenden segmentaciones semánticas de órganos individuales y un conjunto de datos de segmentación de múltiples órganos que incluye segmentos para las once estructuras anatómicas. Además, proporcionamos anotaciones débiles de la presencia de órganos para cada imagen. Este conjunto de datos amplía notablemente el horizonte de las aplicaciones de la ciencia de datos quirúrgicos de la visión por computadora en la cirugía laparoscópica y, por lo tanto, podría contribuir a una reducción de los riesgos y una traducción más rápida de la inteligencia artificial a la práctica quirúrgica.

Mediciones)

Cirugía laparoscópica

Tipo(s) de tecnología

laparoscopia

Tipo(s) de factor

Presencia y ubicación de estructuras anatómicas dentro de imágenes laparoscópicas.

Característica de la muestra: organismo

Un hombre sabio

Característica de la muestra: entorno

abdomen

Característica de la muestra: ubicación

cavidad abdominal

La cirugía laparoscópica es una técnica comúnmente utilizada que facilita procedimientos quirúrgicos mínimamente invasivos así como la cirugía asistida por robot y conlleva varias ventajas respecto a la cirugía abierta: menor duración de la estancia hospitalaria, menor pérdida de sangre, recuperación más rápida, mejor visión quirúrgica y, especialmente para procedimientos robóticos, control más intuitivo y preciso de los instrumentos quirúrgicos1,2. Mientras tanto, gran parte de la información de la imagen no se utiliza porque la atención humana no es capaz de procesar esta inmensa cantidad de información en tiempo real. Además, se requieren conocimientos anatómicos y experiencia médica para interpretar las imágenes. Esta barrera representa un punto de partida prometedor para el desarrollo de funciones de asistencia informática basadas en Inteligencia Artificial (IA).

Los métodos y técnicas en rápido desarrollo proporcionados por el uso de la IA, más precisamente el reconocimiento automatizado de instrumentos, órganos y otras estructuras anatómicas en imágenes o vídeos laparoscópicos, tienen el potencial de hacer que los procedimientos quirúrgicos sean más seguros y consuman menos tiempo3,4,5. 6. Los conjuntos de datos de imágenes laparoscópicas de código abierto son limitados y los conjuntos de datos existentes como Cholec807, LapGyn48, SurgAI9 o Heidelberg Colorrectal Data Set10 comprenden en su mayoría anotaciones a nivel de imagen que permiten al usuario diferenciar si la estructura de interés se muestra o no en una imagen sin dando información sobre su ubicación espacial específica y su apariencia. Sin embargo, estas anotaciones en píxeles son necesarias para una variedad de tareas de aprendizaje automático para el reconocimiento de imágenes en el contexto de la ciencia de datos quirúrgicos11. En un entorno clínico, dichos algoritmos podrían facilitar el reconocimiento dependiente del contexto y, por lo tanto, la protección de estructuras anatómicas vulnerables, con el objetivo en última instancia de aumentar la seguridad quirúrgica y la prevención de complicaciones.

Un obstáculo importante en el desarrollo y la aplicación clínica de este tipo de funciones de asistencia basadas en IA es la disponibilidad de datos de imágenes laparoscópicas anotadas. Para enfrentar este desafío, proporcionamos segmentaciones semánticas que brindan información sobre la posición de una estructura específica mediante anotaciones de cada píxel de una imagen. Basado en datos de video de 32 resecciones o extirpaciones rectales asistidas por robot, este conjunto de datos ofrece una cantidad total de 13195 imágenes laparoscópicas ampliamente comentadas que muestran diferentes órganos intraabdominales (colon, hígado, páncreas, intestino delgado, bazo, estómago, uréter, glándulas vesiculares) y estructuras anatómicas (pared abdominal, arteria mesentérica inferior, venas intestinales). Para una representación realista de los obstáculos laparoscópicos habituales, presenta varios niveles de visibilidad de los órganos, incluidas partes de órganos pequeñas o parcialmente cubiertas, artefactos de movimiento, iluminación no homogénea y humo o sangre en el campo de visión. Además, el conjunto de datos contiene etiquetas débiles de visibilidad de órganos para cada imagen individual.

Al agregar conocimiento anatómico a los datos laparoscópicos, este conjunto de datos cierra una brecha importante en el campo de la ciencia de datos quirúrgicos y pretende servir como base para una variedad de tareas de aprendizaje automático en el contexto de funciones de asistencia quirúrgica basadas en el reconocimiento de imágenes. Las aplicaciones potenciales incluyen el desarrollo de sistemas de asistencia inteligentes a través de tareas de segmentación automatizadas, el establecimiento de métodos de aprendizaje no supervisados ​​o el registro de datos de imágenes preoperatorias (por ejemplo, CT, MRI) con imágenes laparoscópicas para la navegación quirúrgica.

Este conjunto de datos comprende anotaciones de once estructuras anatómicas abdominales principales: pared abdominal, colon, vasos intestinales (arteria mesentérica inferior y vena mesentérica inferior con sus vasos subsidiarios), hígado, páncreas, intestino delgado, bazo, estómago, uréter y glándulas vesiculares.

Entre febrero de 2019 y febrero de 2021, se recopilaron y contribuyeron a este conjunto de datos datos de vídeo de un total de 32 resecciones o extirpaciones rectales anteriores asistidas por robot realizadas en el Hospital Universitario Carl Gustav Carus Dresden. La mayoría de los pacientes (26/32) eran hombres, la edad promedio general fue de 63 años y el índice de masa corporal (IMC) medio fue de 26,75 kg/m2 (Tabla 1). Todos los pacientes incluidos tenían indicación clínica para el procedimiento quirúrgico. Las cirugías se realizaron utilizando un endoscopio Da Vinci® Xi/X estándar con cámara (8 mm de diámetro, ángulo de 30°, Intuitive Surgical, código de artículo 470057) y se registraron utilizando el sistema CAST (Orpheus Medical GmbH, Frankfurt aM, Alemania). Cada registro se guardó con una resolución de 1920 × 1080 píxeles en formato MPEG-4 y dura entre dos y diez horas. La Junta de Revisión Institucional local (comité de ética de la Universidad Técnica de Dresde) revisó y aprobó este estudio (número de aprobación: BO-EK-137042018). El ensayo, para el cual se adquirió este conjunto de datos, se registró en Clinicaltrials.gov (ID de registro del ensayo: NCT05268432). Se obtuvo de todos los participantes el consentimiento informado por escrito para la adquisición de datos de imágenes laparoscópicas, la anotación de datos, el análisis de datos y la publicación de datos anónimos. Antes de la publicación, todos los datos fueron anonimizados de acuerdo con el reglamento general de protección de datos de la Unión Europea.

El proceso quirúrgico fue anotado temporalmente por un estudiante de medicina con dos años de experiencia en cirugía rectal asistida por robot (MC, FMR) utilizando b<>com *Surgery Workflow Toolbox* [Annotate] versión 2.2.0 (b<>com, Cesson -Sévigné, Francia), ya sea durante la cirugía o retrospectivamente, según un protocolo de anotación previamente creado (Archivo complementario 1), prestando especial interés a la visibilidad de las estructuras anatómicas antes mencionadas. Los órganos ubicuos (pared abdominal, colon e intestino delgado), los vasos intestinales y las glándulas vesiculares no se anotaron específicamente temporalmente.

Para lograr un conjunto de datos muy diverso, se consideraron vídeos de al menos 20 cirugías diferentes para cada estructura anatómica. De cada vídeo quirúrgico considerado, se seleccionaron aleatoriamente hasta 100 fotogramas equidistantes de la cantidad total de datos de vídeo que muestran un órgano específico. Como resultado, este conjunto de datos contiene al menos 1000 imágenes comentadas de al menos 20 pacientes diferentes para cada órgano o estructura anatómica. El número de imágenes extraídas y anotadas por órgano y cirugía, así como el número de segmentos y las proporciones medias de fondo no segmentado por órgano se enumeran en la Tabla 2.

Para estructuras anatómicas sin una anotación temporal (pared abdominal, colon, vasos intestinales, intestino delgado y glándulas vesiculares), se seleccionaron y fusionaron manualmente secuencias que muestran el órgano específico utilizando LossLessCut versión 3.20.1 (desarrollado por Mikael Finstad). Se extrajeron fotogramas aleatorios del archivo de vídeo fusionado utilizando un script de Python (consulte la sección "Disponibilidad del código"). La tasa de extracción (fotogramas extraídos por segundo) se ajustó según la duración del vídeo combinado para extraer hasta 100 imágenes por órgano y por cirugía. Las imágenes se almacenaron en formato PNG con una resolución de 1920 × 1080 píxeles.

Para el hígado, el páncreas, el bazo, el estómago y el uréter, las anotaciones temporales sirvieron de base para el proceso de extracción del marco utilizando el script Python mencionado anteriormente. Basado en un archivo TXT con anotaciones temporales de la presencia de órganos, se extrajeron fotogramas equidistantes de las secuencias respectivas para cada órgano como se describió anteriormente.

Los fotogramas resultantes fueron auditados y las imágenes que no eran utilizables (por ejemplo, el órgano no es visible porque está completamente oculto por un instrumento, todo el campo de visión está lleno de humo, visibilidad muy limitada debido a una cámara borrosa) se excluyeron manualmente.

No se aplicaron procesos de filtrado automatizados para seleccionar o evitar imágenes específicamente (por ejemplo, basándose en información mutua). Para mantener la variabilidad inherente a las imágenes intraoperatorias, no se realizaron pasos de preprocesamiento de la imagen, como la adaptación de la intensidad o el contraste de la imagen o el tamaño de la ventana. Las imágenes se extrajeron directamente de los vídeos grabados durante la cirugía y se convirtieron a PNG (sin pérdidas). Luego, estas imágenes fueron anotadas directamente.

El conjunto de datos resultante incluye más de 1000 imágenes de al menos 20 cirugías para cada estructura anatómica (Fig. 1).

Descripción general del proceso de adquisición y validación de datos. Basándose en anotaciones temporales de 32 resecciones rectales, tres anotadores independientes segmentaron semánticamente cada imagen con respecto a la ubicación en píxeles del órgano respectivo. Estas segmentaciones se fusionaron y un médico con considerable experiencia en cirugía mínimamente invasiva revisó las segmentaciones individuales junto con la segmentación fusionada, lo que dio como resultado la segmentación final en píxeles (panel izquierdo). Además, cada imagen fue clasificada con respecto a la visibilidad de todas las estructuras anatómicas individuales de interés por un anotador y revisada de forma independiente (panel derecho).

Para la segmentación por píxeles, utilizamos 3D Slicer 4.11.20200930 (https://www.slicer.org), incluida la extensión SlicerRT, un software de análisis de imágenes médicas de código abierto12. Las estructuras anatómicas se segmentaron semánticamente manualmente con la función Editor de segmentos utilizando una tableta guiada por lápiz que ejecuta Microsoft Windows. Los ajustes realizados durante la segmentación fueron "tijeras", operación "rellenar interior", forma "forma libre", corte de corte "simétrico". Como guía, generamos un protocolo de segmentación que describe en detalle los criterios de inclusión para cada estructura anatómica considerada (Archivo complementario 2). Cada imagen individual fue anotada semánticamente de acuerdo con esta guía por tres estudiantes de medicina con experiencia básica en cirugía mínimamente invasiva. Por lo tanto, finalmente se segmentó exactamente una estructura anatómica específica en cada imagen (por ejemplo, el colon se anotó en píxeles en cada una de las 1374 imágenes de colon). Además, se creó un conjunto de datos de segmentación de múltiples órganos a partir de 1.430 marcos de estómago. Para ello se eligió el conjunto de datos del estómago porque estas imágenes suelen mostrar varios órganos, como el colon, el intestino delgado o el bazo, así como la pared abdominal. Posteriormente, las tres anotaciones individuales se fusionaron automáticamente (consulte la sección "Disponibilidad del código"). Un médico con tres años de experiencia en cirugía mínimamente invasiva revisó y ajustó las anotaciones individuales junto con los segmentos fusionados. La Figura 1 ofrece una descripción general del proceso de generación y verificación de imágenes. En la Fig. 2 se proporcionan anotaciones de ejemplo.

Imágenes de muestra de cada estructura anatómica. La figura muestra una imagen sin procesar (columna de la izquierda), las tres anotaciones en píxeles y la anotación fusionada (columna del medio), así como la segmentación final revisada (columna de la derecha). Las tres anotaciones se muestran como líneas rojas, verdes y azules. La versión fusionada y la segmentación revisada final se muestran como superficies blancas transparentes.

Las etiquetas débiles proporcionan información sobre la visibilidad de diferentes estructuras anatómicas en toda la imagen. Las etiquetas débiles fueron anotadas por un estudiante de medicina con experiencia básica en cirugía mínimamente invasiva y revisadas por un segundo en cada cuadro (Fig. 1).

Se puede acceder al conjunto de datos completo en figshare13.

El conjunto de datos de anatomía quirúrgica de Dresde se almacena en figshare13. Los usuarios pueden acceder al conjunto de datos sin registro previo. Los datos están organizados en una estructura de carpetas de 3 niveles. El primer nivel se compone de doce subcarpetas, una para cada órgano/estructura anatómica (pared_abdominal, colon, arteria_mesentérica_inferior, venas_intestinales, hígado, páncreas, intestino_delgado, bazo, estómago, uréter y glándulas_vesiculares) y otra para el conjunto de datos de múltiples órganos (multilabel) .

Cada carpeta contiene de 20 a 23 subcarpetas para las diferentes cirugías de las que se han extraído las imágenes. La nomenclatura de las subcarpetas se deriva del número de índice individual de cada cirugía. Cada una de estas carpetas contiene dos versiones de 5 a 91 archivos PNG, una imagen sin procesar que se ha extraído del archivo de vídeo de la cirugía y una imagen que contiene la máscara de la segmentación semántica revisada por expertos (negro = fondo, blanco = segmentación) . Las imágenes sin procesar se denominan númeroimagen.png (por ejemplo, imagen23.png), las máscaras se denominan númeromáscara.png (por ejemplo, máscara23.png). En la carpeta de etiquetas múltiples hay máscaras separadas para cada una de las estructuras consideradas visibles en la imagen individual (por ejemplo, número de máscara_estómago.png). Los índices de las imágenes siempre coinciden con las imágenes asociadas.

Cada carpeta específica de cirugía y órgano contiene además un archivo CSV llamado débil_labels.csv que contiene toda la información sobre la visibilidad de los once órganos considerados en las imágenes respectivas. Las columnas de estos archivos CSV están ordenadas alfabéticamente: pared abdominal, colon, arteria mesentérica inferior, venas intestinales, hígado, páncreas, intestino delgado, bazo, estómago, uréter y glándulas vesiculares.

Además, se puede acceder a las carpetas anno_1, anno_2, anno_3 y fusionadas desde las subcarpetas específicas de cirugía y órganos. Estas carpetas contienen las máscaras generadas por los diferentes anotadores y la versión fusionada de las máscaras generada automáticamente, cada una en formato PNG.

Para fusionar las anotaciones de las tres anotaciones diferentes para cada imagen en el conjunto de datos, se aplicó el algoritmo STAPLE14, que se usa comúnmente para fusionar diferentes segmentaciones en problemas biomédicos. Cada anotador recibió el mismo peso. Luego, las anotaciones fusionadas, junto con las segmentaciones originales de los anotadores, se cargaron en una plataforma de segmentación y anotación llamada CVAT (https://github.com/openvinotoolkit/cvat)15 alojada en el Centro Nacional de Enfermedades Tumorales (NCT/UCC). ) Dresde. El médico encargado de revisar los datos podría entonces iniciar sesión, seleccionar las anotaciones más adecuadas para cada imagen y, si fuera necesario, ajustarlas.

Para evaluar el grado de concordancia entre las segmentaciones de los anotadores individuales y la anotación fusionada con la anotación final de cada imagen, calculamos dos métricas estándar para la comparación de segmentaciones16:

Puntuación F1, que muestra la superposición de diferentes anotaciones con un valor de 0 a 1 (0: sin superposición, 1: superposición completa)

Distancia de Hausdorff, una métrica de distancia, que calcula la distancia máxima entre una anotación de referencia y otra segmentación. Aquí hemos normalizado la distancia de Hausdorff a través de la diagonal de la imagen, dando como resultado valores entre 0 y 1, donde 0 indica que no hay separación entre las dos segmentaciones y 1 significa que hay una distancia máxima entre las dos.

Los resultados de esta comparación se pueden encontrar en la Tabla 3, ordenados según los diferentes tipos de tejido. La tabla muestra que para la mayoría de los órganos no existe una gran discrepancia entre las anotaciones fusionadas y el producto final; la mayoría de las puntuaciones F1 superiores a 0,9 indican una gran superposición y el valor bajo de la distancia de Hausdorff indica que no hay tendencias a una segmentación excesiva o insuficiente. estuvieron presentes. Sólo la puntuación F1 para la clase de uréter parece indicar que el anotador experto tuvo que intervenir regularmente, aunque la diferencia todavía parece ser mínima como lo indica la baja distancia de Hausdorff.

La mayoría de los anotadores también parecían estar de acuerdo regularmente con la anotación final, aunque no siempre en el mismo grado que la anotación fusionada, lo que justifica la fusión a través de STAPLE. Al igual que en las anotaciones fusionadas, hubo mayores discrepancias con respecto a la clase de uréter. Sin embargo, en general, al menos dos anotadores parecieron estar de acuerdo en gran medida con las anotaciones de los expertos.

El conjunto de datos proporcionado está disponible públicamente para uso no comercial bajo Creative Commons Attribution CC-BY. Si los lectores desean utilizar o hacer referencia a este conjunto de datos, deben citar este artículo.

El conjunto de datos se puede utilizar para diversos fines en el campo del aprendizaje automático. Por un lado, puede utilizarse como fuente de material gráfico adicional en combinación con otros conjuntos de datos ya existentes. Por otro lado, se puede utilizar para crear algoritmos de detección de órganos que funcionen con etiquetas débiles o con máscaras de segmentación semántica, por ejemplo como base para un mayor desarrollo de aplicaciones de asistencia17. Las divisiones propuestas de entrenamiento-validación-prueba, así como los resultados de estudios de segmentación detallados, se informan en una publicación separada 18.

Los scripts para la extracción de cuadros, la combinación de anotaciones y el análisis estadístico, así como los resultados del análisis estadístico, se hacen públicos en https://gitlab.com/nct_tso_public/dsad y a través de https://zenodo.org/record/6958337 #.YvIsP3ZBxaQ. Todo el código está escrito en python3 y es de libre acceso.

Kang, SB y cols. Cirugía abierta versus laparoscópica para el cáncer de recto medio o bajo después de quimiorradioterapia neoadyuvante (ensayo COREAN): resultados a corto plazo de un ensayo controlado aleatorio abierto. Lanceta Oncol. 11, 637–645 (2010).

Artículo de Google Scholar

Biffi, R. y col. Abordar la cirugía asistida por robot para el cáncer de recto: estado actual y perspectivas. Mundo J. Gastroenterol. 22, 546–556 (2016).

Artículo CAS Google Scholar

Shvets, AA, Rakhlin, A., Kalinin, AA e Iglovikov, VI Segmentación automática de instrumentos en cirugía asistida por robot mediante aprendizaje profundo. 2018 17a Conferencia Internacional IEEE sobre Aplicaciones y Aprendizaje Automático (ICMLA). 624–628 (2018).

Islam, M., Atputharuban, DA, Ramesh, R. & Ren, H. Segmentación de instrumentos en tiempo real en cirugía robótica utilizando aprendizaje adversario profundo supervisado auxiliar. Cartas de robótica y automatización del IEEE. 4, 2188–2195 (2019).

Artículo de Google Scholar

Kumazu, Y. et al. Segmentación automatizada mediante aprendizaje profundo de fibras de tejido conectivo laxo para definir planos de disección seguros en gastrectomía asistida por robot. Ciencia. Representante 11, 1-10 (2021).

ADS del artículo Google Scholar

Tokuyasu, T. y col. Desarrollo de un sistema de inteligencia artificial que utiliza aprendizaje profundo para indicar puntos de referencia anatómicos durante la colecistectomía laparoscópica. Cirugía. Endosc. 35, 1651–1658 (2021).

Artículo de Google Scholar

Twinanda, AP y cols. EndoNet: una arquitectura profunda para tareas de reconocimiento en vídeos laparoscópicos. Traducción IEEE. Medicina. Imágenes 36, 86–97 (2017).

Artículo de Google Scholar

Leibetseder, A. et al. LapGyn4: un conjunto de datos para 4 problemas de análisis automático de contenido en el dominio de la ginecología laparoscópica. MMSys '18: Actas de la novena conferencia de sistemas multimedia ACM. 357–362 (2018).

Madad Zadeh, S. et al. SurgAI: aprendizaje profundo para la comprensión de imágenes laparoscópicas computarizadas en ginecología. Cirugía. Endosc. 34, 5377–5383 (2020).

Artículo de Google Scholar

Maier-Hein, L. et al. Conjunto de datos colorrectales de Heidelberg para la ciencia de datos quirúrgicos en el quirófano de sensores. Ciencia. Datos 8, 1–11 (2021).

Artículo de Google Scholar

Maier-Hein, L. et al. Ciencia de datos quirúrgicos: desde los conceptos hasta la traducción clínica. Medicina. Imagen Anal. 76, 102306 (2022).

Artículo de Google Scholar

Fedorov, A. et al. 3D Slicer como plataforma de computación de imágenes para Quantitative Imaging Network. Magn. Reson. Imágenes 30, 1323-1341 (2012).

Artículo de Google Scholar

Carstens, M. y col. El conjunto de datos de anatomía quirúrgica de Dresde para la segmentación de órganos abdominales en la ciencia de datos quirúrgicos. Figshare https://doi.org/10.6084/m9.figshare.21702600 (2022).

Warfield, SK, Zou, KH & Wells, WM Estimación simultánea del nivel de rendimiento y verdad (STAPLE): un algoritmo para la validación de la segmentación de imágenes. Traducción IEEE. Medicina. Imágenes 23, 903–921 (2004).

Artículo de Google Scholar

Sekachev, B. y col. Opencv/cvat: v1.1.0 (v1.1.0). Zenodo https://doi.org/10.5281/zenodo.4009388 (2020).

Reinke, A. y col. Limitaciones comunes de las métricas de procesamiento de imágenes: una historia ilustrada. Preimpresión en https://arxiv.org/abs/2104.05642 (2021).

Kolbinger, FR y cols. Inteligencia artificial para la guía quirúrgica contextual en procedimientos oncológicos complejos asistidos por robots: un estudio de viabilidad exploratorio. Preimpresión en https://www.medrxiv.org/content/10.1101/2022.05.02.22274561v1 (2022).

Kolbinger, FR y cols. ¿Mejor que los humanos? Reconocimiento de anatomía basado en aprendizaje automático en cirugía abdominal mínimamente invasiva. Preimpresión en https://www.medrxiv.org/content/10.1101/2022.11.11.22282215v11 (2022).

Descargar referencias

Los autores agradecen a Helene Marie Reimann, Franziska Hammerschmidt, Christian Schwartz y Maksymilian Jakub Ludwig por su excelente ayuda con la anotación de datos. JW, SS y FRK contaron con el apoyo del Centro Else Kröner Fresenius para la Salud Digital (proyecto “CoBot”). FMR recibió el apoyo de la Universidad Técnica de Dresde con una beca en el marco del Carus Promotionskolleg Dresden. Además, FRK recibió financiación dentro del programa MedDrive Start de la Universidad Técnica de Dresde (número de subvención 60487). Además, este trabajo fue apoyado por la Fundación Alemana de Investigación (DFG, Deutsche Forschungsgemeinschaft) como parte de la Estrategia de Excelencia de Alemania - EXC 2050/1 - ID de proyecto 390696704 - Grupo de Excelencia "Centro para Internet táctil con humanos en el- Loop” (CeTI), así como por el Ministerio Federal de Salud de Alemania (BMG) en el marco del proyecto SurgOmics (número de subvención BMG 2520DAT82).

Financiamiento de Acceso Abierto habilitado y organizado por Projekt DEAL.

Estos autores contribuyeron igualmente: Matthias Carstens, Franziska M. Rinner.

Estos autores supervisaron conjuntamente este trabajo: Stefanie Speidel, Fiona R. Kolbinger.

Departamento de Cirugía Visceral, Torácica y Vascular, Hospital Universitario y Facultad de Medicina Carl Gustav Carus, Technische Universität Dresden, Dresde, Alemania

Matthias Carstens, Franziska M. Rinner, Jürgen Weitz, Marius Distler y Fiona R. Kolbinger

División de Oncología Quirúrgica Traslacional, Centro Nacional de Enfermedades Tumorales (NCT/UCC) Dresde, Dresde, Alemania

Sebastián Bodenstedt, Alexander C. Jenke y Stefanie Speidel

Centro de Internet táctil con Human-in-the-Loop (CeTI), Universidad Técnica de Dresde, Dresde, Alemania

Sebastian Bodenstedt, Jürgen Weitz, Marius Distler y Stefanie Speidel

Centro Else Kröner Fresenius para la Salud Digital (EKFZ), Universidad Técnica de Dresde, Dresde, Alemania

Jürgen Weitz, Marius Distler, Stefanie Speidel y Fiona R. Kolbinger

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

MC, FMR y FRK conceptualizaron y compilaron el conjunto de datos, crearon protocolos de anotación, coordinaron el proceso de anotación y escribieron la mayor parte del manuscrito. SB y ACJ realizaron la validación técnica y contribuyeron a la curación del conjunto de datos, así como a la redacción del manuscrito. JW, MD y SS proporcionaron infraestructura clínica y técnica y brindaron importantes aportes científicos. Todos los autores leyeron y aprobaron la versión final del manuscrito.

Correspondencia a Stefanie Speidel o Fiona R. Kolbinger.

Los autores declaran no tener conflictos de intereses.

Nota del editor Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Carstens, M., Rinner, FM, Bodenstedt, S. et al. El conjunto de datos de anatomía quirúrgica de Dresde para la segmentación de órganos abdominales en la ciencia de datos quirúrgicos. Datos de ciencia 10, 3 (2023). https://doi.org/10.1038/s41597-022-01719-2

Descargar cita

Recibido: 02 de junio de 2022

Aceptado: 26 de septiembre de 2022

Publicado: 12 de enero de 2023

DOI: https://doi.org/10.1038/s41597-022-01719-2

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt