Ciencias

Un estudio estima los costes energéticos del procesamiento de información en sistemas biológicos

Este artículo ha sido revisado de acuerdo con Science X’s proceso editorial
Es políticas.
Editores destacó los siguientes atributos que garantizan la credibilidad del contenido:

comprobado

publicación revisada por pares

fuente confiable

revisar

Crédito: Pixabay/CC0 Dominio público

× cerrar

Crédito: Pixabay/CC0 Dominio público

El comportamiento, la fisiología y la existencia de los organismos vivos están respaldados por numerosos procesos biológicos, que implican la comunicación entre las células y otros componentes moleculares. Se sabe que estos componentes moleculares se transmiten información entre sí de diversas formas, por ejemplo, mediante procesos conocidos como difusión y despolarización eléctrica o mediante el intercambio de ondas mecánicas.

Investigadores de la Universidad de Yale llevaron a cabo recientemente un estudio con el objetivo de calcular el coste energético de esta transferencia de información entre células y componentes moleculares. Su artículo, publicado en Cartas de revisión físicapresenta una nueva herramienta que se puede utilizar para estudiar redes celulares y comprender mejor su función.

«Hemos estado pensando en este proyecto de una forma u otra durante algún tiempo», dijo a Phys.org Benjamin B. Machta, uno de los investigadores que llevó a cabo el estudio.

«Hablé por primera vez de las ideas que eventualmente se convirtieron en este proyecto con mi asesor doctoral Jim Sethna hace aproximadamente una década, pero por varias razones ese trabajo nunca despegó. Sam y yo comenzamos a hablar de esto cuando pensamos en cómo entender los costos de energía que la biología necesita gastar para calcular -un tema en gran parte de su trabajo doctoral- y tal vez más ampliamente para asegurar que sus partes sean coherentes y controladas, y ha descubierto cómo hacer estos cálculos».

El trabajo reciente de Machta y su colega Samuel J. Bryant se basa en artículos anteriores publicados a finales de la década de 1990, en particular los esfuerzos de Simon Laughlin y sus colaboradores. En su momento, este grupo de investigación intentó determinar experimentalmente cuánta energía gastan las neuronas al enviar información.

«Laughlin y sus colegas descubrieron que este gasto de energía variaba entre 104-107 kBT/bit dependiendo de los detalles, que es mucho mayor que el límite «fundamental» de ~KBT/bit, a veces llamado límite de Landauer, que se debe pagar para borrar un poco de información», explicó Machta.

READ  Un nuevo estudio revela conocimientos intrigantes sobre la biología vegetal

«De alguna manera, queríamos entender: ¿era este un ejemplo de que la biología simplemente era un desperdicio? O tal vez había otros costos que debían pagarse; en particular, el límite de Landauer no hace referencia a la geometría o los detalles físicos. El límite de Landauer es en sí mismo sutil, porque sólo te pagan por borrar información que puedes calcular de forma reversible, nunca borrar nada y NO pagar costos computacionales, pero ese no es el enfoque aquí».

Otro objetivo del reciente estudio de Machta y Bryant fue determinar si la optimización de estos costos energéticos podría aclarar las razones por las cuales los sistemas moleculares se comunican entre sí utilizando diferentes mecanismos físicos en diferentes situaciones. Por ejemplo, aunque las neuronas normalmente se comunican entre sí mediante señales eléctricas, otros tipos de señales pueden comunicarse mediante la difusión de sustancias químicas.

«Queríamos entender bajo qué régimen cada uno de estos (y otros) sería mejor en términos de costo de energía por bit», dijo Machta. «En todos nuestros cálculos, consideramos la información que se envía a través de un canal físico, desde un remitente físico de información (como un ‘remitente’ de canal iónico que se abre y cierra para enviar una señal) a un receptor (un detector de voltaje en el membrana que también puede ser un canal de iones). El núcleo del cálculo es un cálculo clásico para la tasa de información a través de un canal gaussiano, pero con algunas características nuevas.

En primer lugar, en sus estimaciones Machta y sus colegas siempre consideran un canal físico, por el que se transportan corrientes de partículas físicas y cargas eléctricas de acuerdo con la física de la célula. En segundo lugar, el equipo siempre asumió que un canal estaba dañado por el ruido térmico en el entorno celular.

READ  Ejercicio, nuestro aliado en invierno

«Podemos calcular el espectro de este ruido con el ‘teorema de disipación de fluctuaciones’, que relaciona el espectro de fluctuaciones térmicas con funciones de respuesta cercanas al equilibrio», explicó Machta.

Otra característica única de las estimaciones del equipo es que se llevaron a cabo utilizando modelos relativamente simples. Esto permitió a los investigadores establecer siempre límites inferiores conservadores para la energía necesaria para alimentar un canal y conducir corrientes físicas en un sistema biológico.

«Debido a que la señal debe superar el ruido térmico, a menudo encontramos costos con un prefactor geométrico multiplicando «KBT/bit'», dijo Machta.

«Este factor geométrico puede verse influenciado por el tamaño del emisor y del receptor; un emisor grande generalmente reduce los costos por bit al permitir que una corriente disipativa se distribuya en un área más grande. Además, un receptor más grande permite un mayor promedio sobre las fluctuaciones térmicas, de modo que una señal general más débil aún pueda transmitir la misma información».

«Entonces, por ejemplo, para la señalización eléctrica, obtenemos una forma para el costo por bit que se puede escalar como rdosI σoh kBT/bit, donde r es la distancia entre el remitente y el destinatario y σIoh son el tamaño del remitente y del receptor. Es importante destacar que, para los canales iónicos que tienen unos pocos nanómetros de diámetro pero envían información en micrones, este costo podría fácilmente ser muchos órdenes de magnitud mayor que k.t/bit que argumentos más simples (o más fundamentales) sugieren como límite inferior.»

En general, los cálculos realizados por Machta y sus colegas confirman el elevado coste energético asociado a la transferencia de información entre células. En última instancia, sus estimaciones podrían ser el comienzo de una explicación del alto coste del procesamiento de la información medido en estudios experimentales.

«Nuestra explicación es menos ‘fundamental’ que el límite de Landauer, ya que depende de la geometría de las neuronas y los canales iónicos, y otros detalles», dijo Machta. «Sin embargo, si la biología está sujeta a estos detalles, entonces puede ser que (por ejemplo) las neuronas sean eficientes y enfrenten limitaciones reales de información/energía, y no sólo ineficientes. Estos cálculos ciertamente no son suficientes para decir todavía que un sistema en particular es eficiente, pero sugieren que enviar información a través del espacio puede requerir costos de energía muy altos».

READ  El cielo nocturno de esta semana

En el futuro, este trabajo reciente de Machta y sus colegas podría informar nuevos estudios biológicos interesantes. En su artículo, los investigadores también introdujeron un «diagrama de fases», que representa situaciones en las que el uso selectivo de estrategias de comunicación específicas (por ejemplo, señalización eléctrica, difusión química, etc.) es óptimo.

Este diagrama pronto podría ayudar a comprender mejor los principios de diseño de diferentes estrategias de señalización celular. Por ejemplo, podría aclarar por qué las neuronas utilizan la difusión química para comunicarse en las sinapsis, pero utilizan señales eléctricas cuando envían información de cientos de micrones desde las dendritas al cuerpo celular; además de por qué la bacteria E. coli utiliza la difusión para enviar información sobre su entorno químico.

«Una cosa en la que estamos trabajando ahora es intentar aplicar este marco para comprender la energía de un sistema de transducción de señales concreto», añadió Machta.

«Nuestro trabajo reciente sólo consideró el costo abstracto de enviar información entre dos componentes individuales; en los sistemas reales, normalmente hay redes de procesamiento de información, y aplicar nuestro límite requiere comprender el flujo de información en estas redes. Este objetivo también trae nuevos problemas técnicos. aplicando nuestros cálculos a geometrías específicas (como una neurona ‘esférica’ o un axón que se asemeja a un tubo, cada uno claramente diferente de la llanura infinita que usamos aquí)».

Mas informaciones:
Samuel J. Bryant et al, Restricciones físicas de la señalización intracelular: el costo de enviar un bit, Cartas de revisión física (2023). DOI: 10.1103/PhysRevLett.131.068401

Información del diario:
Cartas de revisión física


Prudencia Febo

"Explorador. Entusiasta de la cerveza. Geek del alcohol. Gurú de Internet sutilmente encantador. Erudito de la web en general".

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba