Ciencias

BigNeuron: Revolucionando la reconstrucción de neuronas impulsada por IA

Resumen: Los investigadores publicaron un artículo de investigación que detalla su proyecto, BigNeuron. Esta iniciativa tiene como objetivo establecer métodos estándar para la reconstrucción automatizada precisa y rápida de neuronas utilizando algoritmos de aprendizaje profundo.

El proyecto ofrecerá un amplio conjunto de imágenes de reconstrucción neuronal de acceso público y potentes herramientas para el análisis independiente. Esto podría ayudar a los investigadores a comprender la función cerebral y los cambios a lo largo del tiempo.

Principales aspectos:

  1. BigNeuron es una iniciativa internacional en la que participan informáticos y neurocientíficos de diversas instituciones, con el objetivo de crear un marco estándar para la reconstrucción automática de neuronas.
  2. El proyecto proporcionará un vasto conjunto de datos disponible públicamente de imágenes de reconstrucción neuronal, junto con herramientas robustas para el análisis.
  3. El equipo desarrolló un algoritmo automatizado utilizando aprendizaje profundo para discernir la forma de cada neurona en una imagen, superando los desafíos de la diversidad de especies, la ubicación del cerebro, las etapas de desarrollo y la calidad variable del conjunto de imágenes.

Fuente: a&m de texas

el medico Shuiwang Ji, profesor del Departamento de Ciencias de la Computación e Ingeniería de la Universidad de Texas A&M, es parte de una comunidad de investigación colaborativa que recientemente publicó su artículo titulado «BigNeuron: A Resource for Comparing and Predicting the Performance of Algorithms for Automated Tracking of Neurons in light». conjuntos de datos de microscopía” publicado en la edición de abril de la revista Métodos de la naturaleza.

Iniciado en 2015 y dirigido por el Instituto Allen para la Ciencia del Cerebro, BigNeuron es una iniciativa internacional que reúne a informáticos y neurocientíficos de una docena de instituciones.

Su objetivo es desarrollar un marco estándar para ayudar a los investigadores a definir los mejores métodos y algoritmos para una reconstrucción neuronal automática rápida y precisa. Luego, realizará una «prueba de banco» de los algoritmos en conjuntos de datos de imágenes a gran escala utilizando supercomputadoras.

Esto muestra una neurona.
El proyecto dará como resultado un gran conjunto de conjuntos de datos de reconstrucción neuronal disponibles públicamente, junto con herramientas y algoritmos sólidos que los investigadores pueden usar para su propio trabajo de análisis. Crédito: Noticias de neurociencia

El proyecto dará como resultado un gran conjunto de conjuntos de datos de reconstrucción neuronal disponibles públicamente, junto con herramientas y algoritmos sólidos que los investigadores pueden usar para su propio trabajo de análisis.

Solo en el cerebro humano, hay cientos de miles de millones de neuronas, y están conectadas entre sí a través de miles de «ramas» delgadas, formando una estructura similar a un árbol en 3D.

Para comprender cómo funciona el cerebro y cómo cambia con el tiempo, los científicos deben poder reconstruir digitalmente estas estructuras neuronales para descubrir la forma de cada neurona en una imagen.

Usando microscopios de alta resolución para capturar imágenes en 3D de neuronas individuales, los científicos han trabajado en el desarrollo de métodos de reconstrucción de neuronas totalmente automatizados durante casi 40 años.

Recrearlos sigue siendo un desafío debido a la diversidad de especies, la ubicación del cerebro, las etapas de desarrollo y la calidad de los conjuntos de imágenes de microscopía.

Estos factores dificultan la generalización efectiva de los algoritmos existentes cuando se aplican a volúmenes de imágenes obtenidas por diferentes laboratorios.

Para mitigar este problema, el equipo desarrolló un algoritmo automatizado utilizando aprendizaje profundo para determinar la forma de cada neurona dentro de una imagen específica.

Sobre esta nueva investigación en IA y neurociencia

Autor: lesley henton
Fuente: a&m de texas
Contacto: Lesley Henton – Texas A&M
Imagen: La imagen está acreditada a Neuroscience News.

Búsqueda original: Acceso cerrado.
BigNeuron: un recurso para comparar y predecir el rendimiento de algoritmos para el seguimiento automatizado de neuronas en conjuntos de datos de microscopía óptica” por Shuiwang Ji et al. Métodos de la naturaleza


Abstracto

BigNeuron es una plataforma de prueba de banco comunitaria abierta con el objetivo de establecer estándares abiertos para el seguimiento automático de neuronas preciso y rápido. Hemos reunido un conjunto diverso de volúmenes de imágenes en varias especies que son representativos de los datos obtenidos en muchos laboratorios de neurociencia interesados ​​en el seguimiento de las neuronas.

Aquí, informamos las anotaciones manuales estándar de oro generadas para un subconjunto de los conjuntos de datos de imágenes disponibles y la calidad de seguimiento cuantificada para 35 algoritmos de seguimiento automático. El propósito de generar un conjunto de datos diverso curado a mano es avanzar en el desarrollo de algoritmos de seguimiento y permitir una evaluación comparativa generalizable.

Junto con las funciones de calidad de imagen, reunimos los datos en una aplicación web interactiva que permite a los usuarios y desarrolladores realizar análisis de componentes principales, t– incorporación de vecinos estocásticos distribuidos, correlación y agrupación, visualización y seguimiento de datos de imágenes y evaluación comparativa de algoritmos de seguimiento automático en subconjuntos de datos definidos por el usuario. Las métricas de calidad de imagen explican la mayor parte de la variación en los datos, seguidas de las características neuromorfológicas relacionadas con el tamaño de las neuronas.

Observamos que varios algoritmos pueden proporcionar información complementaria para obtener resultados precisos y desarrollamos un método para combinar iterativamente métodos y generar reconstrucciones de consenso.

Los árboles de consenso obtenidos proporcionan estimaciones de la verdad básica de la estructura de las neuronas que normalmente superan a los algoritmos individuales en conjuntos de datos ruidosos. Sin embargo, los algoritmos específicos pueden superar la estrategia del árbol de consenso en condiciones de imagen específicas.

Finalmente, para ayudar a los usuarios a predecir los resultados de trazado automático más precisos sin anotaciones manuales para la comparación, utilizamos la regresión de máquina vectorial de respaldo para predecir la calidad de la reconstrucción dado un volumen de imagen y un conjunto de trazados automáticos.

Prudencia Febo

"Explorador. Entusiasta de la cerveza. Geek del alcohol. Gurú de Internet sutilmente encantador. Erudito de la web en general".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba