Retos ecológicos

Shannon, Margalef y la bit-diversidad

Miércoles 22 de octubre de 2014
Estos días se cumple el quinto aniversario de la muerte de Claude Shannon, uno de los científicos más relevantes del siglo XX.

La propuesta de Ramón Margalef de aplicar el célebre índice
de Shannon para calcular la diversidad de los ecosistemas
ha generado todo tipo de interrogantes.


En 1958 España empieza a salir del pozo de la posguerra. Ese año los primeros Seat 600 empiezan a corretear por las calles de nuestras ciudades, el ejército acaba con los últimos brotes de sublevación en Ifni y Sara Montiel muestra alguno de sus encantos en El último cuplé. En este contexto gris y anodino, una idea brillante va a alumbrar con luz propia el exigente mundo de la ciencia ecológica. El doctor Ramón Margalef (1919-2004), desde su puesto en el Instituto de Investigaciones Pesqueras de Barcelona, propone en un artículo usar el recién publicado índice de información de Shannon como medida de la diversidad de un ecosistema.

Un índice todoterreno
Claude Elwood Shannon (1916-2001) es una de las figuras más relevantes de la ciencia del siglo XX. Tras obtener en 1940 su doctorado en matemáticas en el Instituto Tecnológico de Massachusetts, ingresó en los laboratorios de la Bell Telephone. Por aquella época, la genial invención de Alexander Bell (1847-1922) empezaba a ser una realidad para la mayoría de la población de Estados Unidos. Largas líneas telefónicas cruzaban el país de un lado a otro y se convertían en parte del paisaje. Tal despliegue tecnológico llevaba parejo un reto: había que desarrollar un algoritmo capaz de optimizar el flujo de información generado por miles de conversaciones. Shannon tomó el testigo y se propuso resolver el problema de cómo transmitir la información de un mensaje con el máximo grado de eficiencia.

Para el año 1948 había dado con un método que cuantificaba, en código binario, la información contenida en un mensaje. Se cuenta que en un principio no pensaba publicar su trabajo, pero animado por sus compañeros de la Bell Telephone lo dio finalmente a conocer en su obra The mathematical theory of communication, escrita en colaboración con Warren Weaver. Había nacido la teoría de la información.

De acuerdo con la ecuación de Shannon (Cuadro 1), la información de un sistema es equivalente al grado de incertidumbre que puede aplicarse cuando se extrae al azar un elemento cualquiera del conjunto de objetos que constituyen dicho sistema. Esta incertidumbre será mayor cuanto mayor sea el número de clases de elementos y cuanto más repartidos estén tales elementos dentro de cada clase. Tan sencilla expresión fue recibida como agua de mayo por los expertos en telecomunicaciones, que la convirtieron en la piedra angular del formidable desarrollo de la tecnología digital a finales del siglo XX.

Pero entonces sucedió algo sorprendente: una severa fórmula matemática, nacida con una finalidad muy precisa, empezó a cautivar la imaginación de científicos procedentes de muy diversos ámbitos, de la ecología a la economía, de la sociología a la psicología. Uno de los culpables de tal fascinación fue el matemático Norbert Wiener (1894-1964), creador de la cibernética, quien escribió en el año 1948: “La noción de cantidad de información está, naturalmente, vinculada a la noción clásica de la mecánica estadística, la de entropía. Del mismo modo que la cantidad de información en un sistema es una medida de su grado de organización, la entropía de un sistema es una medida de su grado de desorganización; y un aspecto no es más que el negativo del otro.” Ante esta brillante sugerencia, Shannon resolvió llamar a su fórmula “índice de entropía”.

Aplicaciones
a la biodiversidad

Ese mismo año, Margalef se dio cuenta de que la fórmula de Shannon cumplía a la perfección las condiciones para convertirse en un índice que cuantificase la diversidad de los ecosistemas. Simplemente había que asociar el factor p(i) de la ecuación a la probabilidad o incertidumbre de encontrar a la especie “i” en el área considerada (Cuadro 1). De esta forma, la diversidad de un ecosistema no era función únicamente del número de especies, sino también del número de individuos por especie. De acuerdo con esta sugerencia, frente a dos comunidades con un mismo número de especies, será más diversa la que tenga un número similar de individuos en todas las especies que la que concentre el máximo de individuos en unas pocas especies.

La propuesta de Margalef encontró amplio eco en la comunidad ecológica internacional. Más aún, fue tal la fascinación que ejerció que pronto se puso de moda formular nuevos índices matemáticos para cuantificar la diversidad biológica. Y aunque hoy en día se cuentan por cientos, la mayoría publicados entre los años setenta y ochenta, el de Shannon continúa siendo el más empleado, lo que nos da idea de la certera intuición de Margalef.

Además, durante todos estos años, el uso de la ecuación de Shannon como índice de diversidad nos ha deparado una serie de sorpresas (Cuadro 2). De todas ellas, la más sugestiva es sin ninguna duda la constatación de que hay un máximo muy preciso en la diversidad de los ecosistemas, en torno a 5’2 bits por individuo, característico de la selva tropical y los arrecifes coralinos. ¿Por qué precisamente 5’2? No lo sabemos, pero resulta sorprendente constatar que ese valor mágico tampoco se sobrepasa en cualquier otro sistema funcional sujeto a alguna forma de selección, sean las piezas de un mecano o los componentes de un aparato eléctrico. Para Margalef se trataba de una genuina constante científica, similar en muchos aspectos al cero absoluto de la es-cala térmica de Kelvin, con el que comparte su valor límite e inalcanzable. Y, del mismo modo que en el cero absoluto se ponen de manifiesto un conjunto de propiedades sorprendentes, como la superconductividad y la superfluidez, también en las proximidades del cero absoluto ecológico se dan fenómenos peculiares como la superconductividad de nutrientes, evidenciado por el rapidísimo reciclaje típico de la selva tropical.

Otro célebre interrogante es la llamada “paradoja del plancton”. Fue el ecólogo G.E. Hutchinson quien, a principios de los años sesenta del pasado siglo, se hizo la siguiente pregunta: ¿cómo pueden coexistir tantas especies de microorganismos en un agua que parece constituir un medio homogéneo, sin que se aniquilen entre sí por competencia? Se trata de una célebre paradoja que ha traspasado el ámbito puramente microscópico para instalarse en todo el espectro ecológico. La teoría de la información no ofrece una respuesta clara a esta cuestión, pero afirma que al calcular la diversidad de una muestra formada por dos sistemas funcionales vecinos y parcialmente solapados, la diversidad medida es mayor que la correspondiente a un único sistema funcional. Lo cual implica que, en muchos casos, la coexistencia de especies se debe únicamente al azar.

Cuanto más tengo, más gano
Otra aportación clave de la ecuación de Shannon a la ecología se refiere al “principio de San Marcos”, según el cual, cuando dos sistemas con distinto grado de complejidad interaccionan, la información fluye en el sentido de incrementar más la organización del más complejo. La paternidad de este principio pertenece a Robert Merton, un sociólogo norteamericano que, en su libro The sociology of science se inspiró en un célebre pasaje de la Biblia: “Porque al que tiene se le dará; y al que no tiene, aun lo que tiene se le quitará” (Mc. 4, 25). La idea inicial de Merton era aplicar su principio sólo en el campo de la historia de la ciencia, donde es frecuente que cuando alguien destaca en alguna disciplina se le vaya citando cada vez más en detrimento del resto de los protagonistas, hasta que al final sólo se le cita a él. El ejemplo más paradigmático lo constituye el binomio Darwin-Wallace; si bien ambos investigadores descubrieron la teoría de la evolución por el mecanismo de selección natural de forma simultánea e independiente, el mayor prestigio del primero sobre el segundo es responsable de que hoy en día esta teoría se conozca como darwinismo, mientras Wallace es un perfecto desconocido para la mayoría de la población.

En la actualidad, sin embargo, el principio de San Marcos se ha usado para explicar otras situaciones, tales como las crecientes diferencias entre países ricos y pobres o la aniquilación de culturas primitivas por otras más desarrolladas. En el campo de la ecología este principio ha tenido una brillante confirmación, tras medir la biodiversidad de dos ecosistemas adyacentes y comprobar cómo se incrementa más la cantidad de información del más complejo de los dos.

Se abre así una fascinante posibilidad: ¿no será el aumento de complejidad que se aprecia a lo largo de la evolución consecuencia de una especie de vampirismo informativo que se establece entre especies? ¿Estará en la teoría de la información y en el principio de San Marcos la clave del mayor misterio de la biología? Algo de eso debía pensar Margalef cuando aseguró que el principio era “extraordinariamente valioso tanto en ecología como en la teoría general de sistemas.”

Noticias relacionadas