No. Actualmente tenemos una compensación entre la escala (volumen de tejido) y la resolución (tiempo y resolución espacial).
Las técnicas a gran escala, como la fMRI, pueden evaluar la función de grandes volúmenes de tejido, pero con una resolución espacial limitada (milímetros cúbicos, por lo tanto, millones de neuronas) y temporal (segundos). EEG / MEG tienen una resolución temporal alta, pero una resolución espacial aún peor.
Las técnicas de escala pequeña, como la electrofisiología invasiva (electrodos) tienen una resolución espacial muy alta (micrómetros cúbicos) y temporales (microsegundos), pero solo capturan la actividad de unos pocos cientos (10 ^ 2) de células. La tecnología está apareciendo y puede capturar> 1000 (10 ^ 3) células simultáneamente, pero dado que hay 100 mil millones (10 ^ 11) de neuronas en el cerebro, la tecnología que puede capturarlas a todas al mismo tiempo probablemente esté al menos a 100 años de baja.
Existen algunas técnicas matemáticas ingeniosas (por ejemplo TRUUST) que apuntan a mejorar la resolución espacial del EEG, pero en última instancia, usted está limitado por la cantidad de sensores y las propiedades de filtrado del propio tejido.
Incluso si conocemos la actividad de cada célula, la computación probablemente esté sucediendo a nivel de la sinapsis, y dado que hay ~ 10 ^ 14 sinapsis en el cerebro humano, es probable que comprender toda esa actividad sea ~ 1000 años apagado.
Además,
¿Cuál es el proceso de la acción de la despolarización y la repolarización? ¿Cuándo se aplican?
¿Pueden las células cancerosas sobrevivir en oxígeno?
¿Cuáles son los principales y más importantes bloques de construcción de las células?
1) el cerebro es un sistema altamente no lineal (sistema complejo), por lo que es muy difícil entender lo que significaría toda esa información, o cómo la analizaría, y
2) no está claro cómo transmitiría y almacenaría todos esos datos. Detrás del cálculo de envolope viene! …
10 ^ 11 neuronas * 25 kilosamples / s * 16 bits / muestra => 4 × 10 ^ 16 bits / s => 5 × 10 ^ 15 Bytes / s => 5 Petabytes por segundo de datos !!!!)
Eso es como generar todos los datos actualmente almacenados en Internet (~ 1200 Petabytes, ¿cuántos terabytes de datos hay en Internet?) Cada 4 minutos . Volumen de datos INSANE.