Reflexiones críticas sobre la teoría de la salud pública . Carlos Eduardo Maldonado

Reflexiones críticas sobre la teoría de la salud pública  - Carlos Eduardo Maldonado


Скачать книгу
clase de algoritmo plantea consiguientemente la necesidad de formas de computación no-convencionales. La puerta que se abre por lo tanto es la computación no convencional, la cual incluye a la computación cuántica (Nielsen & Chuang, 2010), criptografía post-cuántica (Bernstein, 2008), la hipercomputación (Syropoulos, 2008) y específicamente la hipercomputación biológica (Maldonado, Gómez-Cruz, 2015).

      A fin de entender mejor en qué consisten los problemas indecidibles, vale la pena tener en cuenta que la gama de algoritmos es amplia y comprende los siguientes tipos: algoritmos cualitativos, cuantitativos, de ordenamiento, de búsqueda, de encaminamiento, adaptativos y estáticos, probabilísticos, cotidianos, heurísticos, de escalada, voraces, deterministas y no deterministas, recursivos, de programación dinámica, de fuerza bruta, aleatorios, “divide y conquista” y de series de Fibonacci, entre otros (Cormen et al., 2009; Skiena, 2011). Muchos de estos admiten a su vez subdivisiones o clasificaciones más específicas. Este es el tema, en general, del cruce entre computación, lógica y matemática.

      Por su parte, los problemas decidibles se articulan, grosso modo, como los problemas P versus NP (Goldreich, 2010). Cabe decir que la idea básica es que los problemas P son aquellos que pueden abordarse y resolverse en un tiempo polinomial. Por su parte, los problemas NP son los que para su comprensión y resolución demandan un tiempo no-polinomial. En los desarrollos de esta clase de problemas, ha habido un proceso de refinamiento y al mismo tiempo de complicación ulterior que ha dado lugar a los problemas NP duros (hard np problems), espacios llamados de P y NP espacios, y otros aspectos contiguos.

      En cualquier caso, lo importante estriba en el reconocimiento explícito de que, en el marco de la computación, la lógica y la complejidad, los problemas se caracterizan como complejos en correspondencia con la propia complejidad computacional; esto es, según el tiempo y recursos necesarios para comprender y resolver un problema.

      Ahora bien, en la ciencia moderna los problemas se comprendían y resolvían gracias a dos herramientas fundamentales, a saber: el cálculo –integral y diferencial– y la estadística. Aquel conduce ulteriormente a las ecuaciones diferenciales de primer orden y de segundo orden, y la estadística, por su parte, da lugar a numerosas estrategias de distribución entre las cuales cabe distinguir las distribuciones normales, exponenciales, binomiales, chi cuadrado, de Poisson, de Bernouilli y otras. De manera clásica, el cálculo y la estadística medían dos sistemas básicos del mundo: la masa o materia y la energía.

      Masa, en efecto, es el concepto que desarrolla el siglo XVIII para explicar la realidad y el universo. Por su parte, el siglo XIX desarrolla un concepto que explica más y mejor que el de masa: el concepto de energía. Mientras que la materia es un concepto unívoco, la energía es polisémico, pues existen distintos de energía: potencial, cinética, química, magnética, gravitatoria y otras.

      Pues bien, el siglo XX desarrolla un concepto aún mejor que el de masa o el de energía, que los comprende a ambos, pero que logra explicar el mundo, la realidad y el universo de manera aún mejor. Se trata del concepto de información.

      La historia del concepto de información es apasionante (Gleick, 2012; Isaacson, 2014). Comprende, en sus capítulos más recientes, desde los trabajos de Ada Loveloce, Charles Babbage y Alan Turing, hasta llegar a nuestros días. Algunas de las dimensiones que al mismo tiempo la constituyen y la catapultan son la computación, la lógica, la física cuántica, internet.

      De manera directa y puntual hay que decir que la información es un concepto físico, pero que no es tangencial o material (Landauer, 2008). Y bastante a la manera misma de la energía, es un flujo, un proceso, y no un estado, que sí es lo que caracteriza a la masa o materia. De suerte que la primera clave que surge en relación con la salud es que la salud es un proceso. En contraste, cabe decir que la enfermedad sí es un estado, como adecuadamente lo establece la clínica (“el estado del paciente”, precisamente por ser eso: “paciente”).

      Es preciso decir, sin embargo, que no existe una definición de información; ni siquiera una buena definición de esta. Información es un concepto que se define relacionalmente, y no con base en un único centro o nodo de referencia. A continuación intentaré una caracterización de la información.

      El concepto emerge originariamente en el siglo XX, gracias al famoso artículo de Shannon (1949); luego siguió el prefacio y el artículo publicado por Weaver en Scientific American, en el que resalta los problemas técnicos, semánticos y de influencias en el texto de Shannon (Weaver, 1949). Como se afirma en este texto, surge una importante teoría “basada en el carácter estadístico del lenguaje. En ella, el concepto de entropía se halla estrechamente vinculado con el concepto de información”.

      Como se observa sin dificultad, la información es el concepto empleado para medir la entropía, más exactamente la entropía de Shannon; es esta relación la que funda la teoría de la información. De manera precisa, en el marco del pensamiento de Shannon, la entropía hace referencia al contenido de información de un mensaje. En términos elementales, la información es una medida de distribución, o también una cantidad, a saber: la cantidad de bits reunidos en un mensaje.

      Aquí, sin embargo, no pretendo hacer la historia acerca de la teoría de la información ni tampoco acerca de las diferentes comprensiones de la entropía1. Por el contrario, mi interés se concentra en entender la salud en términos de información. En consecuencia es fundamental tener en cuenta que, bien entendida, la información en el universo solo puede crecer, aumentar. Así, la información coincide con la evolución misma del universo. Pero, de acuerdo con Vedral (2010), es la compresión de la información lo que resulta verdaderamente determinante.

      Una segunda clave referencial de la información es que esta es relativa siempre a un contexto (Auletta, 2011). No existe información sin un contexto, y es este el que le confiere significado a la información. Es el contexto el que permite entender los contenidos, las articulaciones y el sentido de la información, de tal suerte que el cambio de un contexto modifica por completo la información generada, procesada o recibida. De manera puntual, la información expresa la relación entre eventos posibles.

      En cualquier caso, es importante atender al hecho de que la información depende de su procesamiento. No existe información que no sea procesada, y el procesamiento de la información es, con seguridad, la instancia más importante de ese proceso, abierto, inacabado o incompleto, y en permanente transformación.

      En otras palabras, para decirlo en lenguaje computacional, los datos son procesados, y el resultado es la creación de un tipo de conocimiento determinado. De esta suerte, no existe información antes del procesamiento ni tampoco después, sino tan solo gracias a, y durante, el procesamiento. Esta es una idea difícil con consecuencias impredecibles sobre la cual volveremos en la tercera sección. Mientras tanto, debe quedar claro que la información es información procesada, y que el procesamiento puede adecuadamente ser entendido como metabolización: esto es, la transformación de una información en otra; la transformación de datos en conocimiento; la transformación de vida en más vida, como se prefiera; tres expresiones diferentes para designar una misma idea.

      La esfera en la cual se estudia la información es la teoría de la información. La razón por la que información es un problema de alta complejidad estriba en el hecho de que existe más de una teoría de la información. Específicamente, cabe distinguir la teoría de la información de Shannon, y, antes que él, la teoría de la información de Kolmogorov –y el posterior desarrollo del teorema KAM (Kolmogorov, Arnold, Moser)–, la teoría de N. Wiener –de corte cibernético–, la teoría del propio Alan Turing –con el desarrollo de la máquina de Turing (en rigor, las diferentes MT)–, los desarrollos de la misma teoría por parte de Rolf Landauer, todos los desarrollos y discusiones acerca de la inteligencia artificial y de la vida artificial, e incluso la teoría semiótica de la información, sin dejar de mencionar, al lado de esta, la biosemiótica. Ulteriormente, cabe mencionar, asimismo, la teoría del procesamiento de la información (information processing theory), conjuntamente con los temas y problemas relacionados con el entrelazamiento (cuántico). No en última instancia, la mejor comprensión acerca de la información es la información cuántica o la teoría


Скачать книгу