El impacto de la ciencia en la sociedad
2013 Los límites de la ciencia Los límites de la ciencia Eduardo Punset
Cerebro y universo: límites de dos cosmologías David Jou
¿Llegaremos a entender el universo? Stuart Clark
Irracionalidad, caos e incompletitud: los límites matemáticos de la ciencia Marcus du Sautoy
El diseño de organismos vivos: implicaciones éticas y sociales Luis Serrano
El impacto de la ciencia en la sociedad
2013 Los límites de la ciencia
Coordinador
Eduardo Punset
Este libro recoge los textos de las conferencias pronunciadas dentro del xvii ciclo Ciencia y Sociedad, organizado por la Fundación Banco Santander en el Auditorio del CentroCentro Cibeles de Cultura y Ciudadanía en marzo de 2013.
Fundación Banco Santander no se hace responsable de las opiniones vertidas por los autores en estos artículos. No está permitida la reproducción total o parcial de este libro, ni su tratamiento informático, ni la transmisión de ninguna forma o por cualquier medio, ya sea electrónico, mecánico, por fotocopia, por registro u otros métodos, ni su préstamo, alquiler o cualquiera otra forma de cesión de uso del ejemplar, sin el permiso previo y por escrito de los titulares del copyright.
© Copyright 2013 Fundación Banco Santander. Todos los derechos reservados Maquetación: GJ Print Diseño editorial: Investigación Gráfica, S.A. / Alberto Corazón
Índice
Presentación ................................................................................................................................
7
Los límites de la ciencia Eduardo Punset ..............................................................................................................................
9
Cerebro y universo: límites de dos cosmologías David Jou .......................................................................................................................................... 18 ¿Llegaremos a entender el universo? Stuart Clark ..................................................................................................................................... 41 Irracionalidad, caos e incompletitud: los límites matemáticos de la ciencia Marcus du Sautoy ........................................................................................................................... 53 El diseño de organismos vivos: implicaciones éticas y sociales Luis Serrano .................................................................................................................................... 78 Biografías ........................................................................................................................................ 85
Presentación
El ciclo Ciencia y Sociedad, organizado por Fundación Banco Santander con el objetivo de divulgar los últimos avances de la ciencia, dedicó su decimoséptima edición a reflexionar en torno a los límites del conocimiento científico. El progreso de la ciencia en los últimos años ha permitido descifrar el ADN, datar la edad del universo y comenzar a desentrañar la compleja estructura cerebral. No obstante, cada respuesta obtenida da lugar al planteamiento de nuevas incógnitas. ¿Seguirá aumentando el conocimiento o llegará un momento en el que ya no queden respuestas? El progreso en el conocimiento puede encontrarse con serias limitaciones determinadas por el propio método científico, por nuestras capacidades intelectuales o por restricciones técnicas que impidan contrastar ciertas hipótesis. Sabemos hoy que el cerebro –aunque con una complejidad muy superior– contiene un número de neuronas comparable al número de galaxias que pueblan el universo visible. Partiendo de esta analogía, el profesor de Física David Jou establece una comparación entre los límites del cerebro y los límites del cosmos, planteando cuestiones tan inquietantes como cuáles son los límites computacionales del universo, del cerebro y de la vida (natural o artificial) en el futuro del universo.
7
El intento por desvelar el origen del universo y comprender su comportamiento ha sido una constante en la historia del pensamiento físico. La formulación de la teoría de la relatividad general por parte de Eisntein supuso un hito en la historia de la ciencia pues proporcionó, por primera vez, una forma de condensar el universo entero en una sola ecuación. Sin embargo, como señala Stuart Clark, los últimos descubrimientos evidencian sus limitaciones y están dando lugar a la enunciación de nuevas teorías. ¿Constituirán la explicación definitiva o solo un paso más en la búsqueda del conocimiento? ¿Llegaremos a entender algún día el universo? El convencimiento de que las matemáticas son el lenguaje en el que está escrito el universo, condujo a la comunidad científica a creer que descifrar este lenguaje permitiría alcanzar el conocimiento. De hecho, la historia de la ciencia está repleta de descubrimientos realizados gracias a los razonamientos matemáticos. Marcus du Sautoy, en cambio, señala que las matemáticas existentes también tienen sus limitaciones y así lo muestran algunos de los retos más conocidos de esta disciplina: la cuadratura del círculo, el teorema de Fermat o la teoría del caos. Por último, los límites del conocimiento científico pueden ser también los límites de su aplicación. Luis Serrano nos introduce en la importante cuestión de delimitar las implicaciones éticas de la ciencia partiendo de su campo de investigación, la biología sintética, cuya finalidad es el diseño, la modificación y la fabricación de seres vivos con fines prácticos. Es esencial en este sentido la evaluación de las actuaciones científicas en función de su impacto ético y social. Deseamos expresar nuestro más sincero agradecimiento a los participantes en el ciclo, así como a su coordinador, Eduardo Punset, por el esfuerzo realizado para hacer accesible estas complejas cuestiones a un público no especializado.
Fundación Banco Santander
8
Los límites de la ciencia Eduardo Punset Abogado, economista y divulgador cientifíco
Hasta hace muy poco tiempo no nos planteábamos si la ciencia tiene límites. Estábamos seguros, habíamos ya descubierto la cantidad insoportable de límites que tenía el cuerpo humano de todo tipo: de la dieta, de la salud, del tiempo… La humanidad era un pozo de límites comparado con una ciencia que creíamos sin límites, inefable, forever, que iba a durar toda la vida. Una de las cosas que estamos descubriendo –y no sólo me refiero a los límites de la humanidad–, es que los había físicos, por ejemplo, el tamaño. Los que habíamos mirado el tema de la evolución sabíamos que, a partir de un determinado tamaño, el corazón o los pulmones quedaban demasiado lejos de ciertos órganos a los que no se llegaba. Se ganaba teniendo un tamaño bastante menor, más adecuado a la naturaleza humana. De este tipo eran los límites físicos. Luego existían los límites neurales. He conocido personalmente a Gerald Edelman y al descubridor del secreto de la vida, Francis Crick, y es curioso, porque ellos han pasado años estudiando los límites de la ciencia de la conciencia. Ambos creían que en la conciencia estaban la mayor parte de las explicaciones de la naturaleza humana, que la conciencia nos podría explicar un día lo que nos pasaba por dentro y vaticinando lo que nos pasaba por dentro sabríamos lo que nos pasaría dentro de unos años.También hemos des-
9
Eduardo Punset
cubierto otros límites más tremendos. Conozco a científicos de dos tipos: unos que dicen que el cerebro es una chapuza y otros que dicen que es una fuente inacabable de misterios y de grandiosidades.Y luego, a la hora de pensar en los límites humanos, no podemos olvidar los límites organizativos o terapéuticos, como la quimioterapia. A mí hay muchos médicos que me dicen: «No sé dónde me voy a esconder el día que la gente nos persiga pidiéndonos explicaciones de por qué aplicábamos la quimioterapia». Realmente es una ciencia llena de límites. Esta noche, me gustaría compartir con vosotros de dónde procede la inteligencia. Resulta que la primera impresión que estamos descubriendo es que la inteligencia no viene del cerebro sino de los movimientos de las personas. El equilibrio de los bípedos sigue siendo un misterio para la propia ciencia, es muy difícil de entender.Yo creía, como muchos de vosotros, que en el cerebro estaba la explicación de todo y que tarde o temprano iba a llegar esta explicación, pero ahora me doy cuenta de que son las dimensiones. Es verdad que un perro tiene un olfato milagroso, pero yo os digo que es milagroso el equilibrio de un bípedo y que es milagroso también ver cómo se mueven las manos de un pianista interpretando a Beethoven. Parece algo inalcanzable para cualquier cerebro; es impresionante aquello que somos capaces de hacer. Recuerdo que cuando llegamos a Madrid, en el año 67 o 66, en la casa que alquilamos, había en el techo una manada de murciélagos. A mi mujer, que es francesa, le parecía que los murciélagos no podían estar en la casa donde habitaba una familia normal. En cambio, yo, que soy hijo de un médico rural ya fallecido, me eduqué primero con los animales, es decir, que primero aprendí de ellos lo poco que he sabido en la vida. Siempre me han sorprendido los amigos científicos que estaban maravillados descubriendo que los animales también tenían emociones y yo decía: «Pero, ¿qué me estáis diciendo? Si yo he estado con los murciélagos de pequeño y con las perdices y con los gorriones y con las chutas y están llenas de emociones». No hay absolutamente ninguna diferencia entre ellos y nosotros. Ha habido grandes científicos como el primatólogo Jordi Sabater Pi, que hace veinte años me decían: «Eduardo, no hay apenas diferencia entre nosotros y
10
Los límites de la ciencia
el resto de los animales; a veces nosotros hacemos las zapatillas un poquito mejor que los chimpancés, ellos a veces utilizan una especie de paraguas para protegerse en un día de lluvia, pero en el fondo somos muy parecidos». Y ahora cuando me encuentro a Michael Gazzaniga, que es uno de los grandes neurólogos de California, me dice: «Eduardo, somos distintos del resto de los animales», a lo que pregunto: «¿Por qué somos distintos?». Y Gazzaniga responde: «Sí, somos distintos por las social networks, gracias a las redes sociales». Así, las conexiones entre individuos nos han convertido en la especie más innovadora, lo que nos ha permitido intercambiar genes, conocimientos, información y maneras de ser. Bueno, la verdad es que tanto los músicos como los murciélagos y los bípedos con su equilibrio, nos están demostrando que no hace falta esperar grandes cosas del cerebro. Cuando nos enfrentamos a grandes neurólogos, unos me dicen: «El cerebro es una chapuza, Eduardo» y otros que afirman: «El cerebro es algo maravilloso que nos va a transformar la vida», y yo acostumbro a creer a los dos. Realmente, el gran cambio, la gran promesa no está tanto en el cerebro como en los movimientos y estos hay que aprenderlos; no hay más remedio que aprenderlos para que sean algo realmente nuevo. Me acuerdo de Paul Valéry, un literato francés, y de una conversación que tuvo con Albert Einstein. Después de haber estado toda la mañana por el parque andando, Paul Valéry le preguntó un poco maravillado y sorprendido de que Einstein no tomara ninguna nota: «Oye, ¿no tomas notas de lo que estás hablando por si te viene una idea?», y Einstein le contestó: «Si se me ocurre una idea, no te apures que no la olvidaré en la vida». Y es verdad, se nos ocurren muy pocas ideas. Y pienso que no es tanto la inteligencia ni la conciencia, sino los movimientos lo que ha transformado a la humanidad, lo que la ha colocado en un campo de despegue insospechado. Me acuerdo de mi hija, la tercera, Carolina, que es bailarina clásica. Un día le dije: «¿Qué es lo que te ha dado la danza?». Hemos jerarquizado las distintas competencias y en la revolución industrial, cuando yo era chico, en primer lugar teníamos las matemáticas, la física y en el último lugar, estaba la danza. Cuando le pregunté a Carolina acerca de qué le había dado la danza, me contestó sin dudarlo: «¡Todo! La danza lo que me ha hecho es olvidarme del
11
Eduardo Punset
dolor, el dolor no existe para mí».Todo empezó con pequeñas heridas en los dedos de los pies, luego en la espalda y luego no sé dónde, pero a base de repetir una y otra vez se olvidó totalmente del dolor. Y yo pensé que si mi hija tenía que competir con alguien que sabe tanto como ella de su profesión específica, va a ganar porque además se ha olvidado del dolor. Puede emprender lo que sea. Es decir, Carolina sabía de creatividad. Pues bien, hoy estamos intentando explicar a los jóvenes que a lo mejor hemos cometido un error poniendo tan bajo el tema de la creatividad. ¿Qué gran salto ha permitido que existan plantas, animales y humanos? He conocido a científicos que pasaron años escarbando para encontrar las razones que habían permitido pasar de organismos unicelulares a pluricelulares (como nosotros). Hoy son muchísimos más todavía los organismos unicelulares que los pluricelulares, por cierto, pero los segundos, dieron un salto tremendo. De repente te encontrabas con individuos que podían respirar desde lo alto, que podían andar, que podían ser bípedos, que podían pensar, que podían resolver cantidad de problemas. Todo esto cambió la historia de la evolución y se trata del mayor descubrimiento que hubo en los últimos seiscientos millones de años. Creedme que no ha habido otro desde entonces de estas características. A esto hay que añadir el hecho de que la esperanza de vida por primera vez está aumentando. Desde 1840, cada ocho años, la esperanza de vida aumenta dos años y medio. Es increíble. No me extraña que en Sierra Leona, donde la esperanza de vida sigue siendo lamentablemente de treinta años, la gente piense a la hora de morirse en si habrá vida después de la muerte. Pero, ¿nosotros? ¿Yo, con ochenta años? Lo que pienso es si antes de la muerte hay vida, si he vivido de verdad o he hecho el tonto, sin enterarme de lo que estaba ocurriendo. Acabo de llegar de Francia donde he promocionado mi libro Viaje al optimismo, que se ha traducido al francés. Es un libro que escribí en España hace unos años y me preguntaban los periodistas: «Oiga, ¿pero por qué es usted optimista?» y lo les decía: «Es que es muy difícil no serlo. ¿Usted sabe que sólo en el siglo xviii en Europa se quemaron más de treinta mil mujeres por brujas, porque eran las únicas que sabían algo de plantas y de nacimientos
12
Los límites de la ciencia
y de vivir y entregarse a los demás?». Hoy, contamos con científicos como Steven Pinker, de Harvard, que han estudiado en detalle durante años, qué está ocurriendo en el mundo con los índices de violencia y con los índices de empatía. Resulta que, sin lugar a dudas, es mucho mayor la empatía de hoy día que la que había en pleno siglo xx con sus guerras mundiales y a la vez en este planeta están disminuyendo los índices de violencia de una manera asombrosa. Pero la gente sigue siendo pesimista porque no se da cuenta de que lo importante son los movimientos. ¿Cuáles son los tres grandes movimientos que me hacen pensar que se ha transformado el futuro de la humanidad? Con los años descubriréis que con la edad uno es más feliz, pero estoy viendo a jóvenes y la verdad es que me dan envidia porque les quedan muchísimos años, no de sufrimiento sino de descubrimientos increíbles. Ha habido cuatro pequeños experimentos: en el primero de los cuales se han estudiado dos grupos de ratones, unos lamidos constantemente por su madre y otro grupo con una madre feroz y engañosa que les daba patadas, no quería saber nada de ellos. La esperanza de vida de un ratoncito es de unos dos años y medio, pero resulta que los maltratados vivieron menos de dos años y los lamidos constantemente vivieron los dos años y medio, en promedio. De ahí concluí que es preciso conciliar entretenimiento y conocimiento. Desde entonces cuando veo a un empresario con la cara de palo le digo: «Oye, cambia tu cara, empieza a sonreír un poco porque sino vas a llevar a tu empresa a la quiebra». Siempre digo que vale más un buen amigo o una buena amiga que un fármaco porque un fármaco no sabes cuándo empezará a tener efecto, no sabes cuáles son los efectos secundarios y, por lo menos, la amiga lo sabes de entrada. Este ha sido un experimento que nos ha hecho entender la importancia de tratar bien a los demás, de empatizar con los demás, de compartir el dolor de los demás. ¿Cuál ha sido el segundo gran experimento? Este es de Eleanor Maguire, una científica inglesa que estudió el hipocampo, el órgano de la memoria del cerebro, en los taxistas de Londres, los cuales deben enfrentarse a un callejero imposible de aprender y tienen que echarle muchos codos, mucho estudio. Maguire descubrió que, en promedio, su hipocampo era netamente
13
Eduardo Punset
mayor en volumen que el hipocampo del ciudadano medio de Londres. Y no había más que una razón que explicara eso, y es el esfuerzo, la experiencia individual de haber intentado aprender algo que parecía desconcertante. Es el segundo experimento el que nos ha hecho ver la importancia enorme del esfuerzo, de la experiencia individual. Yo he crecido con amigos –algunos científicos, otros no lo eran– que estaban divididos entre genetistas, partidarios de que la genética dictaba la estructura de una conducta, y a otros que creían que la experiencia individual jugaba un papel importante sino determinante. Este debate se ha zanjado, se ha acabado, ya nadie discute eso. Se sabe a ciencia cierta que las dos posturas son ciertas y que la genética puede estar velada, tal y como han demostrado los especialistas en epigenética. Hay genes que no se expresan y, en cambio, la experiencia individual es un arma esencial para el conocimiento. Y ¿cuál ha sido el último descubrimiento? El último descubrimiento es muy importante y permitidme que os cuente una anécdota personal. Un día, en Barcelona, andaba por la calle y me vino una señora de unos setenta años llorando y le dije: «Oye, antes de nada no llores, no sirve de nada, dime qué te pasa», y me explicó: «Estoy llorando porque usted me ha devuelto la confianza en la intuición y durante setenta años me la estuvieron machacando, me dijeron que lo único que contaba era la razón». Equivocadamente, porque John Bargh y otros muchos psicólogos han descubierto ahora que la razón es una cosita efímera, apenas existe. Cuando mis profesores me decían: «Esto hay que estudiarlo, hay que ver la razón», ahora pienso que no hay que ver nada ya que, realmente, la intuición es una fuente de conocimiento tan válida como la razón, y esto ha colmado el vaso, esto es lo que nos ha permitido decir realmente: «No solo puedo conseguir que cambien las ideas de la gente sino que además puedo conseguir incidir sobre su estructura cerebral». Como he dicho muchas veces, cuando tenía veinte años y estaba en el Partido Comunista solo aprendí una cosa que he guardado desde entonces. Los comunistas de aquel tiempo decían: «Déjate de mirar a los intestinos tanto tiempo y piensa cómo transformar el mundo fuera». Pues es verdad que gracias a estos cuatro experimentos, ahora podemos pensar en cómo trans-
14
Los límites de la ciencia
formar el mundo fuera. Ahora bien, os he dicho los secretos para transformar el mundo pero no os vayáis porque no os he dicho algo sin lo cual todo esto no sirve de nada. Los psicólogos y los neurólogos han descubierto ahora algo que llaman ellos «el elemento». El elemento es aquello que te hace vibrar, que te da la sensación de que controlas tu vida y solo hay una manera de conseguir este control: profundizando en el conocimiento de tu elemento. Yo, cuando veo, y lo he visto en California hace poco, una ola inmensa con un surfista en la cima de la ola disfrutando, pienso: «Él sabe cuál es su elemento». Pero es que no solo sabe cuál es su elemento, sino que se ha pasado horas controlando esta ola, sabe cómo hacerlo y cuando mis estudiantes dicen: «No encontramos trabajo», les digo: «¿Cuál es tu elemento?» y me responden: «No lo sé». Y si añado: «¿Cuánto tiempo le dedicas?», me dicen: «No lo sé». Hay que dedicarle muchísimo tiempo, eso es lo que le digo a mis nietas, es muy importante dedicarle horas y horas al elemento para que tocar el piano o el andar erguido surtan efecto. Entonces, es muy importante, aprovechar los cuatro descubrimientos a los que me refería antes, junto a algo tan sencillo como el elemento. ¿Para descubrir qué? Pues nosotros sabemos, por ejemplo, que el ciuncuenta y cuatro por ciento de los jóvenes españoles están en el paro porque sus competencias no son las que pide la sociedad del conocimiento sino las que pedía la revolución industrial. Que los jóvenes de hoy en día aprendan en las escuelas a concentrarse, por ejemplo, es una de las primeras competencias. Pues bien, hay un famoso amigo inglés que tiene un retrato de un joven con una camiseta en la que dice «Mom, it is not a defficit attention, it is that I’m not interested», es decir, «Mamá, no es un déficit de atención, es que no me interesa». Estamos en otro mundo y tenemos que encontrar la manera de que el mundo real sea parte de las competencias de los jóvenes. ¿Qué otro tipo de competencias nuevas hay? La creatividad. No se puede olvidar durante tanto tiempo, como hemos hecho, las maneras de ser creativo. No nos interesaba lo que buscábamos; era el trabajo que podíamos encontrar, no el ser realmente creativos, no buscábamos el dominar las distintas técnicas de comunicación, no buscábamos el no ser competitivos y ser más colaborativos… Estas son las nuevas competencias que les van a enseñar en las escuelas a los jóvenes cuando se hayan producido los cambios
15
Eduardo Punset
inevitables que se tienen que producir. Trabajar en equipo es muy difícil, yo lo veo con amigos míos en el trabajo que esconden el mail que han enviado a alguien para que no descubras lo que solo ellos creen saber. O sea, el espíritu de colaboración se superpone o no se superpone al espíritu de competencia. No se puede hablar de innovación, de ser capaz de innovar sin un enfoque multidisciplinar. Recuerdo siempre a Sydney Brenner, el Premio Nobel sudafricano, que me decía: «Los que más me han enseñado son los que no sabían nada de lo mío». Y es verdad, hay que buscar en otros universos. Esto es lo que les digo a las madres cuando me hablan de la falta de concentración de sus hijos por demasiadas competencias, por demasiados aparatos digitales en los que emplearse, que cada competencia es un universo nuevo y que hay que saber un poco de todo ello. Antes de terminar, me gustaría constatar el poder infinito de la experiencia individual. Me acuerdo de Antonio Damasio, un gran neurólogo de origen portugués, que estuvo en la Universidad de Iowa durante muchos años y que ahora está en California. Damasio le decía a una amiga mía que estaba desesperada porque había perdido a su gran amor: «¿Has cambiado de bares, has cambiado de restaurantes, has cambiado de idioma, has cambiado de ciudad, has cambiado de universo? Y la otra le decía: “No, no, no”. Y le contestaba: «Pues no vas a salir de esta». O sea, el cambio no solo es absolutamente necesario en tiempo normal, sino que es imprescindible en tiempo de crisis. Hace diez mil años, nuestros antecesores tuvieron que aprender, pasando hambre, que cuando sembrabas algo había que esperar unos meses para cosechar, que había que modular el tiempo, que había que conocerlo, que había que controlarlo.Y luego me preguntáis: «¿Por qué es tan difícil salir de esta crisis?».Y dices, en parte ha sido porque nos han engañado vilmente, en el sentido de que nos han hablado de una crisis planetaria como si pudiera haber una crisis con Neptuno o con Saturno o con Urano. La verdad es que los que habíamos estudiado economía nos llevábamos las manos a la cabeza cuando oíamos a un político serio decir que esto era una crisis planetaria. En el segundo año de carrera te enseñan, con enorme detalle, que los déficits de unos países son iguales a los superávits de otros y que, a escala planetaria, todo está equilibrado. Lo que sucede es que unos países específicos se hallan
16
Los límites de la ciencia
en crisis y son crisis específicas. ¿A qué ha contribuido eso? Ha contribuido a que nos fijáramos menos en lo que importaba de verdad y más en lo que no importaba. Y, luego, dejadme que os diga una cosa que recuerdo siempre que leo una conversación entre Laplace y Napoleón.Ya sabéis que Laplace fue un científico maravilloso que estudió muy a fondo el equilibrio planetario de los distintos planetas, y descubrir por qué el Sol no se tragaba a la Tierra y por qué la Tierra no se tragaba a la Luna. Napoleón le llamó y le dijo: «¿Lo has consultado con Dios?». Y le contestó Laplace: «Eso no, porque lo he hecho solito, ahora el resto, consúltalo». O sea, que hay que aceptar lo que está comprobado y no hay que aceptar todo el dogma, sino lo que ha sido comprobado. Por último, me acuerdo de las posibilidades que abre el mundo de las políticas de prevención. Fijaos que muy poca gente habla de las políticas de prevención y, sin embargo, el futuro a partir de ahora va a consistir, sobre todo, en evitar que se produzcan demandas de prestaciones sociales gracias a políticas adecuadas de prevención sobre las que apenas se ha hecho algo y yo diría que no se ha hecho casi nada. Incluso en medicina las terapias más caras están a la moda, pero el saber que un buen amigo es mejor que un fármaco, es algo que no se tiene en cuenta. En Pineda de Mar donde suelo pasar dos días a la semana por la mañana, me da gusto ver la cantidad de gente que está haciendo jogging en la playa cuidando su dieta porque sin cuidar su dieta van a tener problemas, sobre todo, con la edad, eso va calando poco a poco, pero el futuro está lleno de políticas de prevención.
17
Cerebro y universo: límites de dos cosmologías David Jou Profesor de Física Universitat Autònoma de Barcelona
Introducción El cerebro humano es un auténtico universo interior, con un número de neuronas comparable al número de galaxias del cosmos visible, pero con una complejidad muy superior, ya que las formas de interaccionar las neuronas, a través de las sinapsis (más de cien billones), son mucho más variadas que la manera, puramente gravitatoria, de interaccionar las galaxias. Cien mil millones de galaxias fuera, cien mil millones de neuronas dentro: quien no ha conocido esos vértigos ignora una parte importante de sí mismo. En el siglo xvii, Pascal expresó en sus Pensamientos ese doble vértigo ante los espacios que nos rodean y los abismos que nos habitan: «¿Qué es el hombre? No es más que una nada respecto al infinito, un todo respecto a la nada, un punto medio entre la nada y el todo, infinitamente alejado de poder comprender los extremos». Una de las maneras actuales de enfocar ese problema pasa por una combinación de cosmología y neurología, proporcionando nuevos datos a la reflexión filosófica. En esta conferencia compararemos algunos de los límites del cosmos y del cerebro y cómo nos afectan. En concreto, nos plantearemos cuestiones so-
18
Cerebro y universo
bre sus límites computacionales, cómo esos afectan a los límites del futuro de la vida, y cómo pueden ser afectados por los contenidos todavía poco conocidos del cerebro y el universo. ¿Cuáles son los límites computacionales del universo, considerado análogo a un ordenador? ¿Cuáles son los límites computacionales del cerebro y cómo podríamos modificarlos? ¿Cuáles son los límites de la vida en el futuro del universo? Considerar las células, el cerebro y el universo como ordenadores es una metáfora usual en nuestra época, en que los ordenadores y sus redes ejercen un papel tan importante en el trabajo y una fascinación tan adictiva en el ocio. En realidad, hay diferencias básicas entre un ordenador y una célula, un cerebro o un universo, pero resulta atractivo pensar en las cuestiones que se plantean al imaginar desde esta perspectiva esas entidades. En otras palabras, además de verlas como constituidas por materia y energía, como es usual, pensaremos también en ellas desde el punto de vista de la información. En efecto, el concepto de información –antiquísimo concepto filosófico, convertido después en concepto cognitivo, comunicativo y social, y parcialmente formalizado en términos cuantitativos por Claude Shannon en 1945– ha ido ocupando un lugar cada vez mayor en la sociedad, la tecnología y la ciencia: transmisión y almacenamiento de información de todo tipo económica, política, cultural, deportiva; información genómica, metabólica y neuronal en biología; computación clásica y computación cuántica, en física. Los desarrollos actuales en biología, en que se cambia el ADN (el programa) de una célula (el ordenador), lo cual modifica a la larga a la propia célula, es uno de los ejemplos más llamativos de la importancia biológica de la información. La reducción acelerada de costes de secuenciación y de síntesis del ADN abre nuevas perspectivas difíciles de imaginar. Otro ejemplo, más transversal, del relevante papel de la computación en el paradigma científico actual es el gran desarrollo de la simulación informática de todo tipo de sistemas como estrategia de investigación: la información prevalece por encima de la materia real de los sistemas que se está simulando –vuelo de aviones o de pájaros, navegación de buques, circulación de automóviles, distribución de electricidad en una red, evolución de especies biológicas, comportamientos de sistemas
19
David Jou
económicos… La simulación de una realidad virtual cada vez más detallada y eficiente, más audaz e imaginativa, podría acelerarse mucho si se llegara a obtener ordenadores cuánticos, cuyo paralelismo masivo incrementaría en varios órdenes de magnitud la capacidad de computación. Biología, física, información: he aquí las líneas de la presente conferencia.
Los límites computacionales Límites computacionales del universo Al hablar de límites del universo pensamos, sobre todo, en sus límites espaciales y temporales. Nuestro universo visible tiene una edad finita –unos trece mil setecientos millones de años– y un radio del orden de esa edad multiplicada por la velocidad de la luz –en realidad, es un par de veces mayor, pero ahora no nos ocupa exactamente este valor. Es probable que el universo sea infinito –según se deduce de su geometría prácticamente plana, euclídea a gran escala–, aunque podría ser finito y localmente plano, como un gran poliedro en cuatro dimensiones. Pero, dicho esto, aquí nos ocuparemos de otros límites, los computacionales, que están relacionados con el contenido del universo. Esa perspectiva computacional –o informacional– nos proporcionará un nexo de unión entre el cerebro y el universo. Los aspectos computacionales de un sistema físico nos podemos referir a diversas facetas: el número de bits necesarios para su descripción –relacionados con la complejidad del sistema–, el tiempo necesario para procesar dicha información –la llamada profundidad lógica del sistema–, el número de bits procesados por unidad de tiempo por el sistema –o que deberíamos procesar nosotros para simular la evolución del sistema– y el número de bits almacenables en el sistema, si éste es capaz de actuar como memoria. Por un lado, hay límites físicos generales establecidos por la termodinámica, la teoría de la información, y la física cuántica; por otro, hay límites concretos relacionados con la constitución del sistema considerado.
20
Cerebro y universo
¿Qué computa un universo? Podríamos imaginar que el programa de un universo está constituido por sus leyes físicas, con su conjunto concreto de valores para sus constantes universales y sus valores iniciales. Universos con diferentes constantes físicas, o diversas formas de leyes físicas, evolucionarán de forma diferente, o tendrán contenidos diferentes. Así, los valores de las constantes universales –una veintena de constantes– y las condiciones iniciales relevantes son algo así como el ADN del universo, del cual depende su desarrollo y su contenido. Se debería poder establecer una relación entre los diferentes programas y los contenidos respectivos de los diversos universos imaginables. Podríamos preguntarnos, asimismo, si ese universo calculará indefinidamente, o si su computación entrará en un bucle repetitivo. Esa cuestión, según la célebre solución de Turing para el problema de la detención del cálculo de un ordenador, no siempre sería decidible, de manera que no debemos suponer que todos los universos posibles evolucionen hacia un futuro siempre nuevo. Pero, ¿qué computa un universo? Su propia evolución, su propio futuro, tal vez su propia subsistencia. Y lo calcula a escalas diversas de complejidad: trayectorias de partículas elementales, atómicas o moleculares; colisiones, reacciones y enlaces; formación de moléculas, macromoléculas y supramoléculas; formación de células y de organismos… Computa, tal vez, hasta tener conciencia de sí mismo, y sigue computando todavía. En ese cómputo, en que cada nivel de complejidad alcanza, combinando las subrutinas que le caracterizan, su dinámica propia, surgen complicaciones especiales a energías elevadas, por la aparición de nuevos tipos de partículas que no hallamos en la experiencia habitual y, a temperaturas normales, por la inmensa combinatoria posible de estructuras moleculares e interacciones entre ellas. Uno de los episodios de especial interés de esa computación es, precisamente, la emergencia de novedades radicales: la vida unicelular, la vida pluricelular, los sentidos, la inteligencia... Una célula, en cierta forma, se comporta como un pequeño ordenador, con su programa de ADN y su hardware de ARN-polimerasas, ribosomas y otras moléculas que intervienen en la producción de
21
David Jou
las proteínas características de la especie. Esos comportamientos, sin embargo, distan mucho de ser predecibles a partir de un conocimiento exclusivo de las moléculas que los forman. En esa perspectiva, uno de los límites del universo se refiere al grado máximo de complejidad de las entidades que puede llegar a albergar. La cuestión no es obvia, y depende de la estructura física y matemática del universo. Por ejemplo, si no se rompiera la simetría entre materia y antimateria, habría solo luz: simplicidad máxima. Si la diversidad de elementos químicos no fuera más allá del hidrógeno y helio –que eran prácticamente los únicos elementos que había en el universo cuando tenía tres minutos–, el grado máximo de complejidad alcanzable sería muy limitado. No sabemos, en nuestro universo, cuál es el grado máximo de complejidad alcanzable: hemos llegado a la vida y la inteligencia individuales, pero esa inteligencia es influida e incrementada por su participación en una dimensión social, cada vez más amplia y planetaria, enormemente acelerada por las redes de ordenadores y de móviles. Según parece, el cociente intelectual medio de la población suma tres puntos más cada diez años, tal vez como consecuencia a la exposición de esta mayor diversidad de estímulos. ¿Se llegará propiamente a una inteligencia planetaria inconcebiblemente diferente a la de la suma de inteligencias individuales y grupales, en un nuevo tipo de realidad, entre virtual y planetaria? Otro tema de interés es hasta qué punto es determinista esa computación. Dado un programa, ¿queda determinada la evolución y el contenido del universo? ¿Qué papel juega el azar en su evolución? En el examen de algunos problemas relacionados con esa cuestión, fisicoquímicos y biólogos tienen visiones diferentes: el ideal explicativo de los primeros es más determinista y universal; el de los segundos, más histórico y contingente. Por ejemplo, la vida en la Tierra hace intervenir, en las proteínas, veinte aminoácidos. ¿Por qué no dieciocho o veintidós? ¿Por qué precisamente esos aminoácidos y no otros? Los físicos intentarían buscar razones universales para el valor veinte, válidas en cualquier planeta, en tanto que los biólogos lo atribuirían en buena parte a la historia y el azar. A nivel más filosófico, el tema del determinismo conduce a la cuestión de la libertad: ¿es una realidad, o bien es
22
Cerebro y universo
una ilusión suscitada por la complejidad del determinismo subyacente y de nuestra limitación cognitiva?
Estimaciones computacionales sobre el universo Nos preguntaremos ahora por los órdenes de magnitud relacionados con algunos aspectos informacionales del universo. En primer lugar, ¿cuál es el número de bits necesarios para describir el universo visible? La pregunta presupone que conocemos de qué está formado el universo, cosa que no es verdad, ya que la materia conocida sólo forma un cinco por ciento de su contenido total, y el resto está formado por materia oscura y energía oscura, cuya constitución ignoramos y, por lo tanto, resulta difícil describir. Restrinjamos pues nuestra atención a la materia. Si hay en él unas 1090 partículas elementales, y si para cada partícula hemos de precisar posición, velocidad y espín dentro de los límites de incertidumbre de la física cuántica, necesitaríamos unos cien bits por partícula, como máximo. Ello daría unos 1092 bits para la descripción del universo. La máxima capacidad de computación de un sistema con energía E viene dada por E/h bits por segundo, con h la constante de Planck de la física cuántica. Según eso, si hubiera un átomo por cada metro cúbico del universo y si toda su energía estuviera disponible para computación, el universo podría realizar un máximo de 10105 operaciones por segundo. A lo largo de su existencia, habría realizado pues unas 10122 operaciones. Si vamos hasta los límites de la gravitación cuántica, el número de bits crece mucho. Siguiendo la teoría de los agujeros negros, el número máximo de bits del universo está relacionado con el área del horizonte observable. Contando el número de áreas elementales –cuadraditos que tienen como arista la longitud de Planck–, el número de bits asciende a 10122. En cambio, si se almacenara un bit por cada cubito de Planck de los que llenan el volumen del universo, se alcanzaría unos 10184 bits. En ese caso, nos preguntamos cuál es la relación entre el horizonte cósmico y el contenido cósmico, al estilo de un holograma.
23
David Jou
Surgen, finalmente, límites materiales y matemáticos del universo. Por ejemplo, aunque el número de partículas elementales que contiene el universo es del orden de 1090, un número que parece enormemente elevado, ese número de partículas no basta ni tan siquiera para tener simultáneamente un solo ejemplar de cada una de las proteínas posibles de sesenta o más aminoácidos –ya que ello supone 2060, es decir, 1090, posibilidades diferentes–.
Límites computacionales del cerebro El concepto de computación en el universo puede parecer una manera innecesariamente sofisticada de hablar de temas que podrían ser descritos sin ese concepto –aunque ello no es así, al menos cuando se llega al ADN, al cerebro y la sociedad–. Pero parece natural, en cambio, referirse a la actividad computacional del cerebro, órgano dedicado, precisamente, a procesar la información que le llega –del exterior, del mismo cuerpo– y proporcionar respuestas adecuadas a dichos estímulos e informaciones. Los límites computacionales del cerebro están relacionados con el número de neuronas, con sus conexiones y sinapsis, con el ritmo de su actuación, con la velocidad de transmisión y con el código neuronal. Podemos hacer estimaciones del número total de computaciones que puede efectuar el cerebro por unidad de tiempo y a lo largo de la vida, y preguntarnos qué se podría hacer para incrementar dicha capacidad de computación. Si suponemos cien mil millones de neuronas, y si éstas se disparan mil veces por segundo tendremos unas 1014 señales por segundo. Si suponemos una vida de unos ochenta años tendremos unas 4·1023 señales en conjunto. Estas señales estarían relacionadas, en principio, con el procesamiento de todos los estímulos y todas las reflexiones, de todas las experiencias del cerebro, conscientes o no. Esta cantidad aparentemente ingente corresponde a medio mol de bits. En principio, si conociéramos qué estado mental corresponde a cada estado neuronal, con esa información bastaría para rehacer la experiencia de toda una vida. En algunas especulaciones visionarias (como las referidas
24
Cerebro y universo
como digital immortality o mind uploading), se ha pensado en introducir esa información en un ordenador inmensamente potente que no se limitara a conservar esos datos, sino que siguiera computando sus posibilidades de futuro, en interacción con otras individualidades cuyas informaciones irían siendo introducidas en una realidad virtual más amable que nuestra realidad de cada día: en principio, esas existencias virtuales podrían acceder a conocimientos inmensos y tal vez a placeres de gran intensidad. Es una metáfora informática de un acceso a una especie de paraíso –que, probablemente, tampoco estaría exento de conflictos entre esas «almas informáticas»–. Esas promesas o cantos de sirena tecnológicos tan vecinos a la metafísica y la religión atraen a veces la atención de un número considerable de personas.
Coste energético y velocidad de transmisión de las señales nerviosas La capacidad de computación del cerebro está limitada por la relativa lentitud de transmisión de las señales. Cada señal neuronal, o potencial de acción, hace intervenir la entrada en el axón de algunos millones de iones de sodio, y la salida de algunos millones de iones de potasio. Una vez transcurrido el potencial, unas bombas moleculares que consumen ATP se encargan de expulsar el sodio que ha entrado y de recuperar el potasio que ha salido. Esa operación requiere un cierto tiempo y cuesta energía. El consumo total de energía del cerebro viene a ser de unos 25 o 30 vatios, una cuarta parte de lo que gasta un cuerpo humano medio en reposo. Como el cerebro pesa aproximadamente 2 kilos, y el cuerpo unos 60, el consumo de energía por unidad de masa en el cerebro es unas siete veces superior al del cuerpo en términos medios. El exceso de energía con respecto a la media metabólica puede ser interpretado como la energía gastada en computación y, sobre todo, en transmisión de señales a los largo de los axones. De todas maneras, en lo que respecta al rendimiento energético, un cerebro es más eficiente que un ordenador. Por ejemplo, la simulación actual del cerebro de una mosca (unas doscientas mil neuronas, la milésima parte del cerebro de un ratón), requiere un ordenador muy grande y produce mucho calor. Precisamente, la
25
David Jou
gran producción de calor es uno de los factores limitantes en la potencia de los ordenadores actuales, por lo cual la termodinámica de la computación es un aspecto de gran interés en la tecnología actual. La velocidad de las señales a lo largo del axón aumenta con el radio del axón y con la inversa de la capacidad eléctrica de su membrana por unidad de área. Hay, pues, dos estrategias para elevar la velocidad: incrementar el radio del axón, o reducir la capacidad eléctrica de su membrana. Aumentar el radio supone células más grandes: es decir, más consumo de energía y menos capacidad de miniaturización. En cambio, se puede reducir la capacidad de la membrana envolviéndola con una capa de mielina, como una cinta aislante, que aumenta un poco el grosor de la membrana. Con ello, se aumenta la velocidad sin aumentar mucho el tamaño y, más aún, se reduce la energía consumida, ya que el número de iones de sodio y potasio que atraviesan la membrana es muy inferior. Mielinizar los axones es una manera de aumentar la capacidad de procesamiento neuronal por unidad de tiempo. El cerebro de los elefantes tiene más neuronas que el cerebro humano. Sin embargo, como es mucho mayor y tiene menos mielina, no procesa tanta información. Una manera conjetural de incrementar la inteligencia de un elefante sería, tal vez, incrementar su grado de mielinización. Cuando nacemos, los axones están poco mielinizados y poco a poco se van mielinizando, desde el lóbulo occipital a los lóbulos frontales. Estos últimos, la parte que efectúa computaciones más delicadas en lo que respecta a la conciencia y la capacidad de decir, se mielinizan en el periodo de la adolescencia, lo cual puede contribuir a una inestabilidad psicológica, que se suma a los cambios hormonales de ese periodo. Al ensayar con asiduidad y perseverancia alguna actividad, las partes del cerebro involucradas en ello aumentan su grado de mielinización, cosa que aumenta la rapidez y eficacia en tal actividad. La mielina se produce en el cerebro por las oligodendrocitos, que emiten unos brazos envolventes que rodean varias veces algunos de los fragmentos del axón. Fuera del cerebro,
26
Cerebro y universo
en cambio, la mielinización se produce por un tipo diferente de células, las células de Schwann. Otra posibilidad de potenciar la inteligencia, ensayada en algunos animales, es utilizar algunos neuroreceptores genéticamente modificados de forma que tengan un tiempo de recepción más largo que el usual. Con ello, se ha incrementado notablemente la capacidad y rapidez de aprendizaje –por ejemplo, de caminos en laberintos– por parte de ratones y conejos. Si comparamos el potencial de acción con una señal electrónica en un ordenador, constatamos que el primero dura un millón de veces más que el segundo. En efecto, una señal electrónica pone en movimiento unos pocos electrones en un espacio de pocos nanómetros. En cambio, el potencial de acción moviliza un número mucho más considerable de iones, los cuales son mucho más pesados –y lentos– que los electrones, y deben recorrer un espacio mayor. Si fuera posible reproducir a escala, en versión electrónica, un cerebro, podría realizar un millón de veces más computaciones por segundo. En términos prácticos, en tan sólo una hora computaría tanta información como un cerebro actual en ochenta años de vida.
Neuroinformática Desde 1989, se realizan simulaciones computacionales de diversos cerebros –desde cerebros muy simples como el del gusano Caenorabdhytis elegans al de la mosca Drosophila melanogaster, o de un ratón–. Uno de los objetivos es llegar a la simulación del cerebro humano (Human Brain Project). Uno de los preámbulos de ese proyecto es el Blue Brain Project, iniciado en 2005 en la Universidad Politécnica Federal de Lausanne, y en el que participan unas ciento treinta universidades (Madrid colabora en este proyecto con el subproyecto Cajal, del centro de Supercomputación y Visualización). En ese proyecto se intenta combinar datos moleculares, celulares, de órganos y sistemas, cognitivos, de desarrollo, envejecimiento, enfermedades y posibilidades de interacción con ordenadores, para proporcionar un marco general
27
David Jou
sistemático que ponga en contacto los desarrollos en diferentes campos de investigación neurobiológica. Naturalmente, no se podría, por ahora, efectuar una simulación total del cerebro: se pretende, más bien, construir un modelo unificado de las columnas corticales, que atraviesan las seis capas de neuronas del neocórtex humano, con centenares de neuronas, conectadas de formas relativamente características. Una columna cortical tiene unos 2 milímetros de alto y medio de radio, y contiene unas sesenta mil neuronas en los humanos (en los ratones, unas diez mil). El proyecto parte a nivel celular, simulando más o menos realísticamente una neurona, a nivel molecular para estudiar la influencia de los genes, para simular después más o menos una columna cortical. En 2011 se consiguió un mesocircuito de unas cien columnas con unos diez millones de células, y se espera llegar a unos cien mesocircuitos en 2014, que correspondería a un cerebro de ratón. Para 2023, se pretende llegar a un cerebro humano, que correspondería a unos cien mil mesocircuitos.
Límites físicos del cerebro La capacidad total de computación del cerebro depende del número de neuronas, de su conectividad, del tiempo de transmisión de las señales y del número de señales emitidas por unidad de tiempo. Incrementar el número de neuronas del cerebro sería una posibilidad a tener en cuenta. Para ello, se debería modificar algunas fases del desarrollo del cerebro durante su formación. Durante esa etapa, en el cerebro de los chimpancés se producen treinta y una duplicaciones del número de neuronas, y en el de los humanos treinta y tres duplicaciones.Aunque la diferencia relativa entre treinta y una y treinta y tres es pequeña, implica que el cerebro humano tiene cuatro veces más neuronas que el de un chimpancé.Tal vez se pueda controlar ese punto y pasar, por ejemplo, de treinta y tres a treinta y cuatro duplicaciones, con lo cual se duplicaría el número actual de neuronas. La dificultad principal, sin embargo, estaría en las conexiones. Sería difícil conectar adecuadamente las nuevas neuronas con las precedentes. Por
28
Cerebro y universo
otro lado, las conexiones entre neuronas, mediante los axones, requiere un volumen mayor que el de las mismas neuronas, por lo cual ello implicaría un aumento considerable de volumen del cerebro y de su consumo energético. Una estrategia evolutiva para minimizar esos costes ha sido localizar considerablemente algunas funciones concretas –por ejemplo, en los hemisferios de los primates–. En la corteza del cerebro humano, por ejemplo, casi un ochenta por ciento de las conexiones son de corto alcance, dentro de las columnas corticales correspondientes o de columnas contiguas, y un treinta por ciento son conexiones de largo alcance: se gana en velocidad, y se ahorra en energía y en volumen de cableado. Pero añadir una nueva capa de neuronas a las ya existentes sería muy delicado, y requeriría, probablemente, algunos cambios en profundidad, salvo que las nuevas conexiones se establecieran muy prioritariamente dentro de cada columna cortical y conllevaran pocos cambios de cableado. Otra posibilidad de incrementar la capacidad de procesamiento neuronal sería miniaturizar más las neuronas y los axones. Sin embargo, ello supone dos problemas: menor radio significa menor velocidad, pero si el radio se reduce a la mitad la velocidad se reduce sólo en un cuarenta por ciento, por lo cual la reducción podría ser beneficiosa respeto al tiempo de transmisión. Sin embargo, menor radio significa que el axón tendría menos canales de sodio y de potasio y, por lo tanto, estaría más sujeto a fluctuaciones espontáneas de apertura y cierre de los canales de sodio y que producirían impulsos no debidos a la lógica interna de la computación, sino a efectos aleatorios. En otras palabras, el cociente entre el ruido sin sentido y la señal significativa aumentaría apreciablemente.
Neuroingeniería Las actuaciones que hemos mencionado en el apartado anterior son estrictamente biológicas, y difíciles de llevar a cabo, ya que suponen actuar sobre el conjunto del cerebro, a través de modificaciones genéticas. Sin embargo, desde hace años ya se está actuando sobre el cerebro mediante otros
29
David Jou
métodos, para mejorar la memoria, la cognición, la velocidad, la atención, la concentración, para tratar trastornos psicológicos y para mitigar los efectos de enfermedades degenerativas. Los métodos para actuar sobre el cerebro son básicamente cinco: neurofármacos, células madre, estimulación neuronal eléctrica o magnética, implantes electrónicos y conexiones exteriores. En su conjunto, constituyen la neuroingeniería, especialmente en aquellas técnicas que suponen la interacción entre el cerebro y elementos físicos exteriores, –electrodos o máquinas, por ejemplo. Ello requiere, entre otras cosas, materiales biocompatibles y, aún más complejo, una compatibilidad de señales y de códigos que hagan inteligible a la máquina las señales del cerebro. Los neurofármacos son, en sentido extenso, sustancias que modifican las actividades neurales básicas. Pueden actuar como anestésicos, analgésicos, sedantes, antiepilépticos, antiparkinsonianos… Los que más llaman la atención son los que actúan sobre trastornos psiquiátricos o sobre el estado de ánimo en general. Muchos de ellos utilizan biomoléculas neuronales, como neurotransmisores, neuroreceptores, neuromoduladores o sustancias que regulan el ritmo con que trabajan las bombas moleculares. Por ejemplo, algunas depresiones son causadas por una baja concentración del neurotransmisor serotonina; se pueden mitigar aumentando la producción de serotonina, o reduciendo el ritmo con que unas bombas moleculares especializadas, situadas en la membrana de las neuronas, retiran la serotonina de la zona sináptica. Otra forma de actuar es mediante factores neurotróficos, que ayudan a formar el cableado entre neuronas. Otra técnica biológica es el uso de células madre para regenerar neuronas que hayan muerto –las neuronas no se reproducen, y por lo tanto las que mueren no son respuestas–. Se han hallado células madre en el hipocampo, que pueden convertirse en neuronas o en células de glía, si se las lleva al lugar adecuado. Se investiga para poder tomar células madre y situarlas en el lugar adecuado para que den lugar a las neuronas que convenga. El riesgo estriba en que tal vez, en lugar de dar las neuronas esperadas, produzcan otro tipo
30
Cerebro y universo
de células indeseadas, o bien, que se empiecen a reproducir incontroladamente produciendo un tumor. La enfermedad de Parkinson está relacionada con la disminución de células de la sustancia negra, que envían el neurotransmisor dopamina a los ganglios basales: sería deseable poder volver a poblar mediante la acción de células madre la sustancia negra con neuronas. Otra forma de tratamiento es suministrar levodopa, una sustancia precursora de la dopamina que incrementa la formación de ésta. La técnica de estimulación eléctrica o magnética consiste en introducir electrodos –o en establecer campos magnéticos transcraneales– que estimulen las células convenientes. Por ejemplo, se utiliza la estimulación externa del nervio vago contra las epilepsias o las depresiones muy resistentes a tratamientos con neurofármacos, y se estudia su posible utilidad en el tratamiento de migrañas o fibromialgias. En la enfermedad de Parkinson se introduce en el núcleo ventral intermedio subtalámico o el globo pálido una especie de marcapasos eléctrico que reduce los temblores, la rigidez y los problemas de locomoción. Una vez instalado ese aparato se le puede enviar señales desde el exterior, en función del estado del paciente. Esas corrientes pueden bloquear señales de las neuronas, o desincronizar las señales oscilatorias indebidas de la dinámica de grupos neuronales y mitigan considerablemente los problemas mencionados El marcapasos neuronal mencionado en el párrafo anterior es un ejemplo de implante neuronal –artefactos electrónicos acoplados con el cerebro–. En las áreas motoras o sensoriales, se intenta introducir implantes que ayuden a superar discapacidades de diversos tipos. Un tipo de implante es, por ejemplo, una cóclea artificial, que permita oír a los sordos. Más compleja y sofisticada resultaría una retina artificial y, todavía más, lo serían los implantes en las áreas de procesamiento de la visión en el lóbulo occipital. También se intenta conseguir implantes que permitan recuperar la continuidad de la actividad de axones o nervios seccionados, o incluso de la médula espinal. Más lejos de nuestro alcance actual parecen los implantes relacionados con funciones cognitivas como, por ejemplo, para almacenar más memoria, o introducir más información, por ejemplo, sobre una lengua, o sobre datos enciclopédicos de
31
David Jou
historia, geografía, literatura, arte o deportes. El grado de interacción con el entorno, en ese caso, debería ser bastante mayor y más sutil que en las áreas sensoriales. Las conexiones exteriores, mediante las cuales el cerebro puede poner en marcha alguna actividad mecánica, resultan muy prometedoras. Uno de los proyectos más llamativos se refiere a la capacidad para mover objetos con la mente, mediante extremidades articuladas movidas por señales cerebrales. En 2012, una paciente tetrapléjica conseguía mover un vaso mediante un brazo y beber de él: ello requiere un control muy fino de los movimientos. Para ello, se extrae información de la corteza motora, aunque la regulación es todavía más sutil y necesita de los ganglios basales y el cerebelo. La acción de esos puede ser suplida parcialmente mediante el control por ordenador del brazo robótico. Se espera que un niño tetrapléjico sostenido por un exoesqueleto mecánico controlado por señales de su propio cerebro pueda lanzar el saque de honor de las competiciones de fútbol en las olimpiadas de 2014.
Los límites del futuro de la vida Límites planetarios y cósmicos del futuro de la vida La vida natural no durará indefinidamente en el universo. En la Tierra, se terminará dentro de unos cuatro mil millones de años, y en el conjunto del universo, se terminará en unos cuarenta mil millones de años. ¿Se podría superar ese límite mediante vida artificial al estilo de ordenadores autoreproductores? Ello sería en principio posible en un universo que se expandiera cada vez más lentamente, pero no en un universo acelerado, como parece ser el nuestro. La vida terminará en la Tierra cuando el calor desprendido por el Sol por unidad de tiempo sea tan intenso que el agua se evapore de los mares, ríos y lagos. Podría ser que quedara todavía vida bajo Tierra, pero esa vida desaparecería dentro unos mil millones de años después, cuando el Sol crez-
32
Cerebro y universo
ca y engulla Mercurio y Venus. La temperatura será tan elevada que las rocas se fundirán. Después, finalmente, tras acabar su contenido en helio, el Sol se apagará. Una solución para la pervivencia de la especie humana –que entonces ya habrá desaparecido, de todos modos– sería ir a otros planetas. Uno de los temas muy activos de investigación actual es precisamente la búsqueda de planetas habitables o, al menos, que puedan albergar vida microscópica. Pero no tendría sentido ir hacia allí si al llegar estuviéramos en condiciones análogas a las que se encontraría la Tierra, ya que también la estrella tendría edad finita y capacidad finita para albergar vida. Deberíamos buscar, pues, una estrella suficientemente joven y suficientemente cercana para poder hacer el viaje. Aquella estrella también terminará su ciclo y se apagará. ¿Podríamos repetir la aventura de un viaje una vez tras otra, indefinidamente? La respuesta es negativa, ya que el número de estrellas que van naciendo por unidad de tiempo es cada vez menor. El número de estrellas que se producen ahora en nuestra galaxia es unas mil veces inferior al ritmo de producción de hace seis mil millones de años. Las galaxias envejecen. A medida que transcurre el tiempo, la abundancia de hidrógeno y helio va disminuyendo y aumenta la abundancia de carbono, silicio, hierro… Pero los núcleos pesados tienen más protones y, por lo tanto, se repelen con mayor fuerza que los núcleos ligeros. Por ello, es cada vez más difícil formar nuevas estrellas, y las estrellas que se forman no tienen capacidad de mantener vida.
Límites cósmicos de la computación Podríamos pensar, sin embargo, que aunque la vida biológica, tal como la entendemos, tenga un límite, tal vez podríamos construir algunos ordenadores perfectos, alimentados por la radiación cósmica de fondo y que funcionaran indefinidamente. Para ellos, la vida sería la computación. En tal computación podría haber, por ejemplo, la simulación de una nueva vida nuestra. Al expandirse el universo y ser cada vez más baja la temperatura de la
33
David Jou
radiación electromagnética, la energía disponible sería cada vez más baja. Por ello, el ritmo de computación sería cada vez más lento, pero si el universo no tiene fin, el tiempo dejaría de ser un límite. La energía para procesar un bit de información es proporcional a la temperatura absoluta. Por ello, disponer cada vez de menos energía no supone necesariamente un límite, ya que también cada computación requiere menos energía. Si el universo se expandiera cada vez más lentamente, el hecho de disponer cada vez de menos energía no sería un problema decisivo. Sin embargo, si se expande aceleradamente sí lo sería y ello pondría fin, asimismo, a la capacidad de cualquier ordenador. En efecto, en ese caso cada vez habría menos materia dentro del horizonte visible para el ordenador. Así pues, su capacidad de memoria se iría restringiendo, cada vez más. Con ello, la computación ya no sería reversible, lo cual supondría una disipación o producción de calor por cada bit: la energía necesaria para procesar un bit se incrementaría, y a la larga no habría energía suficiente para la computación.
Los límites de la realidad conocida El universo oscuro El contenido del cosmos está dominado por el llamado universo oscuro, constituido por materia oscura y energía oscura. La materia conocida sólo forma un cuatro por ciento del universo total. Nos preguntaremos cómo el universo oscuro participa en los límites del universo conocido, sea estructurando el universo a gran escala –materia oscura– y acelerándolo a gran escala –energía oscura–. Asimismo, las neuronas sólo forman un quince por ciento de nuestro cerebro; las otras células son células gliales. Nos preguntaremos, análogamente, como algunos tipos de células gliales –oligodendrocitos y astrocitos– participan en los límites de la estructuración y computación neuronal. Se postuló por primera vez la materia oscura para explicar que se mantuviera la integridad de las galaxias, a pesar de que la parte exterior de estas gire
34
Cerebro y universo
con una velocidad mucho mayor de la prevista. En otras palabras, la fuerza centrífuga correspondiente a la velocidad de rotación supera en un orden de magnitud, al menos, la fuerza de la atracción gravitatoria debida a la materia visible de la estrella. Al decir materia visible entendemos no estrictamente la materia que alcanzamos a observar por su luminosidad, sino también teniendo en cuenta que muchas estrellas pueden estar acompañadas por un sistema planetario –en nuestro sistema planetario, el Sol tiene una parte importante de la masa total, y ello parece ocurrir asimismo con la mayoría de los casi setecientos sistemas planetarios observados desde 1996 hasta la fecha. Se supuso, pues, que además de la materia visible había al menos un orden de magnitud más de materia invisible, o materia oscura. Esta materia estaría repartida en buena parte alrededor de la galaxia, formando como un gran halo a su alrededor. Combinar esta cantidad de materia oscura con los cálculos de nucleosíntesis primordial condujo a la idea de que esta materia oscura –no interacciona con la luz– no era materia normal, es decir, no estaba compuesta por protones, neutrones ni electrones, sino por otro tipo de partículas. Posteriormente se observó el efecto de los halos de la materia oscura en las colisiones entre galaxias. A partir de los años noventa se advirtió la necesidad de la materia oscura para acelerar el proceso de formación de las galaxias que, de otro modo, todavía no habrían llegado a formarse del todo. Creemos eso a partir de las observaciones de fluctuaciones de la radiación cósmica de fondo de microondas, por los satélites COBE y WMAP, que muestran los núcleos de condensación de las galaxias primitivas. Las fluctuaciones de densidad correspondientes a dichos núcleos son tan tenues, que el proceso de formación hubiera debido ser lentísimo. Sin embargo, como la materia oscura no interacciona con la radiación electromagnética, pudo empezar a agregarse antes de los trescientos ochenta mil años, produciendo unas zonas de atracción gravitatoria en las cuales se habrían podido formar más rápidamente las galaxias, cuando la materia normal dejó de estar ionizada y pasó a formar átomos neutros.
35
David Jou
Así pues, la materia oscura actúa como unos andamios invisibles de las grandes estructuras cósmicas visibles. Uno de los temas actuales de investigación en física es precisamente cuál pueda ser la naturaleza de dicha materia oscura. Se cree que partículas pesadas supersimétricas –predichas por algunas teorías, pero todavía no observadas– podrían ser buenas candidatas para ello. La energía oscura, en cambio, está repartida por todo el espacio, en lugar de agruparse en galaxias. Supone una fuerza repulsiva, que acelera la expansión del universo, en lugar de irla frenando como debería hacerlo la gravitación. Desde este punto de vista, dificulta que se puedan formar grandes acumulaciones de cúmulos de galaxias. En los primeros seis mil millones de años, predominó la gravitación y la expansión se fue frenando, pero después empezó a predominar el efecto acelerador de la materia oscura.
El cerebro oscuro Durante muchos años, se creyó que el papel de las células gliales era meramente auxiliar, dando cohesión al cerebro al mantener las neuronas unidas entre sí, o defendiéndolas de los ataques de agentes patógenos. Sin embargo, poco a poco se ha ido observando que su acción podría ser mucho más sutil e importante. Por ejemplo, en la evolución ha crecido más rápidamente la abundancia de las células de glía que la de las neuronas. Asimismo –anecdóticamente– el cerebro de Einstein era muy parecido a la media en lo que respecta a neuronas, pero su abundancia de glía era considerablemente superior. ¿Podría ser, pues, que la glía ayudara en cierta manera a las funciones cognitivas del cerebro? Además de las funciones de cohesión y defensa ya mencionadas, la glía desempeña otros tres tipos de funciones. Una de ellas es en cierto modo análoga a la que desempeña la materia oscura en el universo, al facilitar la formación de las grandes estructuras cósmicas, guiando gravitatoriamente la materia hacia sus dominios de atracción. En efecto, en el cerebro, la glía
36
Cerebro y universo
radial ayuda a la migración de neuronas hasta sus posiciones, en las columnas de la corteza cerebral. Una segunda función relevante es la de los oligodendrocitos, que fabrican las fundas de mielina que envuelven los axones e incrementan la velocidad de las señales nerviosas. Modificar el grado de mielinización de una parte del cerebro hace que en él las señales corran más y las posibilidades de computación se aceleren. Las alteraciones de los oligodendrocitos pueden tener consecuencias más o menos graves: una de ellas podría ser la dislexia, es decir, el cambio de orden de letras o palabras durante la lectura. Ello podría ocurrir si la velocidad de transmisión de ciertas señales visuales fuera más rápida por unos caminos que por otros, invirtiendo el orden de llegada de las señales a los centros de producción de voz, con respecto a la llegada de señales a los ojos. Otra posibilidad mucho más grave es que un defecto de los oligodendrocitos puede eliminar la mielina e interrumpir las señales nerviosas, con graves resultados para el control de los músculos o muchas otras funciones. La tercera función a destacar, más sutil aún, es que los astrocitos intervienen, todavía no sabemos con detalle hasta qué punto, en la computación neuronal, en las sinapsis tripartitas. El modelo clásico de sinapsis sólo considera la relación entre las dos neuronas implicadas –la presináptica y la postsináptica–, pero en muchas sinapsis participa también un tercer elemento: una fina terminal de uno de los brazos de un astrocito, que reacciona frente a la liberación de neurotransmisores. En unos experimentos recientes, se controló la concentración de calcio de un astrocito, manteniéndola fija, y se observó que las sinapsis relacionadas con las terminales de dicho astrocito no eran capaces de modificar su intensidad para grabar memorias. Por otro lado, los astrocitos se intercambian ondas de calcio, de propagación muy lenta con respecto a la propagación de las señales nerviosas habituales. Ahora bien, ¿podría ser que en estadios de relativo reposo neuronal esas ondas pudieran influir en la computación neuronal, cambiando transitoriamente la capacidad de algunas sinapsis? ¿Podrían contribuir a corrientes de fondo lentas en la computación, no directamente sino a través de las neuronas?
37
David Jou
Conclusiones Preguntarse por los límites de la ciencia invita siempre a la imaginación. Así, pues, terminaremos con cinco preguntas tal vez un poco alocadas, pero próximas a lo que imaginamos como límites: 1) ¿Podremos «crear» un universo? Utilizo comillas porque no estoy suponiendo que seamos capaces de crear un universo desde la nada. Pero en algunas teorías, sí sería posible dar inicio a un nuevo universo si el vacío cuántico subyacente a nuestro universo fuera metaestable, y lo pudiéramos perturbar adecuadamente. Ello significaría conseguir una elevadísima densidad de energía, que inestabilizaría el vacío e iniciaría la dinámica expansiva del espacio, destruyendo nuestro universo y dando lugar a un universo nuevo pero impredecible. 2) ¿Podría haber inteligencia en un universo sólo de luz y de gravitones? Si la interacción entre fotones y gravitones fuera suficientemente intensa y multiplicativa, tal vez se tendrían efectos análogos a los de la óptica no lineal, en que la luz cambia las propiedades de la materia de forma que esta, a su vez, afecta el paso de la luz. Con ello se pueden formar puertas lógicas que, combinadas adecuadamente, permiten llevar a cabo cálculos matemáticos u otro tipo de operaciones. En ese caso, las puertas lógicas serían danzantes. ¿Sería eso suficiente para tener la posibilidad de ráfagas de inteligencia o ráfagas de conciencia? O bien, ¿se podrían ir organizando dichas puertas lógicas y dar una computación más o menos sistemática? 3) ¿Podremos leer el pensamiento? ¿Se podrá leer el pensamiento mediante resonancia magnética nuclear funcional o algunas otras técnicas? Ello sería ciertamente muy difícil, pero sí es posible discernir el dador de actividad neuronal que provocan en algunas áreas del cerebro imágenes diversas. Con ello, sería posible utilizar un peritaje neurológico para saber, por ejemplo, si un sospechoso reconoce verdaderamente o no una persona o un lugar decisivos para la imputación. La idea de máquinas de la verdad cuenta ya casi un siglo, pero actualmente se puede afinar mucho más en
38
Cerebro y universo
esa exploración. Sin embargo, la subjetividad profunda de los recuerdos y las emociones sería probablemente inalcanzable desde el exterior de la propia subjetividad. 4) ¿Podremos «crear» una especie biológica inteligente? Habitualmente, la pregunta de conseguir artificialmente inteligencia se relaciona con máquinas –la inteligencia artificial de nuevos tipos de ordenadores, por ejemplo–. Pero aquí me pregunto si combinando la genómica con la neurobiología podríamos llegar a formar una especie biológica inteligente. Si fuera así, ¿qué podríamos compartir con ella? 5) ¿Podremos «crear» una especie de inteligencia superior a la nuestra? Ya resulta suficientemente inquietante preguntarnos cómo será la inteligencia humana dentro de un siglo, tras una habituación masiva a las redes de ordenadores y realidad virtual. Pero más sorprendente aún es preguntarse si podremos llagar a «crear» una especie biológica descendiente de los humanos y con una capacidad intelectual muy superior a la nuestra. ¿Está ello al alcance de la neurobiología y la genética? Si es así, ¿qué relación tendrá esa especie con nosotros? ¿Nos eliminará? ¿Nos asustaremos de ella y la eliminaremos nosotros mismos? Formuladas esas preguntas, sin embargo, conviene regresar de nuevo a nuestra realidad actual, y preguntarnos qué puede hacer la ciencia por los grandes problemas de la humanidad. Preguntarse por los límites es hermoso y excitante, pero no nos debe hacer olvidar nuestros compromisos con la sociedad en conocimiento, salud, bienestar y justicia.
39
David Jou
Bibliografía Bekenstein, J. : «La información en el universo holográfico», Investigación y Ciencia, octubre 2003. Fox, D.: «La física de la inteligencia», Investigación y Ciencia, septiembre 2011. Jou, D. (2008): Reescribiendo el Génesis. De la gloria de Dios al sabotaje del Universo, Destino, Barcelona. Jou, D. (2011): Cerebro y universo: dos cosmologías, Servei de Publicacions, Universitat Autònoma de Barcelona, Bellaterra. Lloyd, S. (2006): Computing the universe: a quantum computer scientist takes on the Cosmos, Knopf, New York. vv aa: «Más allá de los límites de la ciencia», número monográfico, Investigación y Ciencia, noviembre 2012.
40
¿Llegaremos a entender el universo? Stuart Clark Astrofísico Association of British Science Writers
Hace hoy ciento treinta y cuatro años, el 14 de marzo de 1879, nacía Albert Einstein en Ulm, reino de Wurtemberg, en el imperio alemán. En la actualidad está considerado un icono de la ciencia, el hombre que nos mostró una forma de entender el universo como nunca antes lo habíamos hecho. La cosmología como disciplina se inicia con Einstein y su teoría de la relatividad general, pues, por primera vez en la historia, proporcionó a los científicos una forma de condensar en una ecuación el universo completo. Todos y cada uno de los objetos que componen el universo se podrían reducir a un único término matemático a partir del cual resultaría posible calcular el comportamiento del universo. Tanto el futuro del universo como su pasado se podrían calcular si conociéramos con precisión su estado actual. Hace unos siglos, semejante conocimiento se habría considerado propio de los dioses. Su hallazgo fue producto de una enorme confianza en sí mismo y de una extremada competencia matemática. En un discurso pronunciado con ocasión de una cena en honor de Einstein, el dramaturgo irlandés George Bernard Shaw logró resumir el carácter
41
Stuart Clark
progresista de la ciencia cuando afirmó: «Ptolomeo fundó un universo, que duró mil cuatrocientos años; Newton también concibió un universo, que ha durado trescientos años». Y luego añadió en tono de broma: «Einstein también ha creado un universo, y no sabría decirles cuánto durará». Como veremos, cabe la posibilidad de que la relatividad general de Einstein no llegue siquiera a celebrar su centenario en 2015. La pregunta es: ¿qué la sustituirá?, ¿será una teoría definitiva o se tratará de otro paso más? En suma, ¿llegaremos a entender el universo? En la que época en que nació la relatividad general, Europa se encontraba en una situación desesperada. La Primera Guerra Mundial causaba estragos y Einstein se estaba convirtiendo en una figura cada vez más aislada. Sus opiniones abiertamente contrarias al nacionalismo eran una vergüenza para sus colegas y para Alemania. Aunque éste fuese su país natal, había adoptado la nacionalidad suiza en 1900. Alejado del esfuerzo bélico, con escaso apoyo, se dedicó a trabajar en su teoría preferida con el fin de desarrollar el trabajo de Isaac Newton y dar con una descripción más completa de la gravedad. La obra de Newton había marcado un hito: un modo de describir cómo se moverían los objetos en presencia de otros objetos mediante la fuerza de la gravedad. Explicaba por qué los planetas se desplazaban por el firmamento; por qué, si se deja caer un objeto, éste se precipita hacia el suelo y, sin embargo, la Luna no cae del cielo. Por aquel entonces, se denominó un «sistema del mundo»: la expresión del siglo xvii para lo que ahora llamaríamos la teoría del todo. El astrónomo británico Edmond Halley, amigo de Isaac Newton, llegó a definir su trabajo como la perfección de la astronomía. A finales del siglo xix, esta idea se había afianzado de tal modo en algunos sectores de la comunidad científica que se llegó a pensar que, básicamente, la ciencia estaba completa. El gran científico británico lord Kelvin pronunció en 1900 un discurso ante la asamblea de la Asociación Británica para el Avance de la Ciencia. Es célebre su cita: «Hoy en día, no hay nada nuevo por descubrir en la física. Lo único que nos queda es realizar mediciones cada vez más precisas». Lo que olvidaba
42
¿Llegaremos a entender el universo?
era que, a menudo, los avances científicos se producen gracias a la mejora de las mediciones. Sólo cuando se desarrollan instrumentos más precisos, se hacen patentes movimientos y lecturas que no encajan con las teorías actuales. Si persisten tras una observación reiterada, el deber de la ciencia es tratar de explicarlos. En esta época resultaba evidente que existía una de esas anomalías: el movimiento de Mercurio. Se estaba alejando de donde la ley de la gravedad de Newton decía que debía estar. En un principio, se creyó que un planeta aún por descubrir lo estaba desviando de su órbita, pero la gravedad de Newton no era capaz de proporcionar una solución adecuada acerca del lugar en que se hallaba ese planeta desconocido, y las búsquedas de dicho planeta por medio de la observación realizadas durante eclipses totales tampoco eran capaces de encontrarlo. Trabajando en un despacho con un retrato de Newton colgado en la pared, Einstein resolvió el problema en 1915. En ese momento de triunfo, tuvo fuertes palpitaciones. Evidentemente sobrevivió, pero ¡imagínense por un momento cuál sería la leyenda de Einstein si hubiera fallecido a causa de la impresión provocada por su hallazgo! Conceptualmente, el universo de Einstein no resulta demasiado difícil de entender, pero, para apreciar la gran diferencia, antes tenemos que volver la vista sobre el universo de Newton. Para este último, el tiempo y el espacio eran fijos: constituían un rígido marco conforme al cual se medían todas las cosas. Einstein permitió que este marco se viera distorsionado por las masas de los cuerpos celestes que contenía. El tiempo y el espacio se transformaban en presencia de la materia. Esas distorsiones crean el efecto de la gravedad y explican por qué las cosas se aceleran en presencia de un campo gravitatorio. A pesar de haber hallado el marco matemático adecuado en 1915, hubieron de pasar cuatro años más antes de que el descubrimiento llamara la atención del resto del mundo. Se debía a que las matemáticas son difíciles de entender. La teoría necesitaba verificarse por alguien de forma independiente.
43
Stuart Clark
Por suerte para Einstein, fue posible porque la teoría ofrecía una predicción clara acerca del efecto de la gravedad sobre un rayo de luz: se curvaría en un valor preciso. En 1919, el mundo sufría las consecuencias de la Primera Guerra Mundial: los países y los imperios se desmoronaban; comenzaba a perfilarse un nuevo panorama político. Soplaban vientos de cambio mientras un astrofísico británico construía un telescopio en una pequeña isla africana: su trabajo convertiría a Einstein en un icono. Arthur Eddington nació en Cumbria, Inglaterra, y se educó en Cambridge. Matemático extraordinario, sin duda era consciente de la importancia científica del trabajo de Einstein y opinaba que, si había de desmontarse la teoría de la gravedad de Newton, debería haber un inglés implicado. Eddington esperó a que se produjera el eclipse de 1919 y midió la refracción de los rayos de luz estelar en torno al Sol. El valor de esta refracción, provocada por la distorsión del tiempo y el espacio en torno al Sol, había sido pronosticado con exactitud por la relatividad general de Einstein y, además, difería considerablemente del valor que ofrecía el trabajo de Newton. Eddington midió una desviación que estaba en consonancia con la de la relatividad general, anunció los resultados a principios de noviembre de 1919 y Einstein se convirtió en un personaje mundialmente famoso. El New York Times se lo comunicó a sus lectores con el sorprendente titular: Luces torcidas en los cielos. Hombres de ciencia entusiasmados con los resultados de la observación del eclipse. La teoría de Einstein triunfa. Las estrellas no están donde parecía o se calculaba que estaban, pero no hay razón para preocuparse. Un libro para 12 sabios. No hay más personas en todo el mundo capaces de comprenderlo, afirmó Einstein cuando sus osados editores lo aceptaron.
44
¿Llegaremos a entender el universo?
Pero el propio Einstein, al igual que Newton antes que él, sabía que, desde la elevada cima del éxito, no se divisaba una solución definitiva, sino que ante él se extendía todo un nuevo mundo de posibilidades. Newton lo expresó de forma sumamente acertada cuando escribió: «No sé qué impresión tiene el mundo de mí, pero yo tengo la impresión de no ser más que un niño que juega en la orilla del mar y que se divierte al encontrar, de cuando en cuando, una piedra más lisa o una concha más bonita de lo normal, mientras que, ante mí, se extiende el gran océano de la verdad, aún por descubrir». La relatividad general amplió las fronteras del conocimiento humano a un campo totalmente nuevo. Ahora era posible calcular el comportamiento de todo el universo. La posibilidad de distorsionar el tiempo y el espacio implicaba que el universo podía hallarse en un estado de expansión o contracción general. El belga Georges Lemaître predijo esta expansión en 1927, dos años antes de que el estadounidense Edwin Hubble la «descubriera». Es una cuestión de justicia histórica que hagamos un esfuerzo por conceder a Lemaître el mérito que se merece. También fue él quien utilizó la relatividad general para postular el principio del universo. Ahora lo llamamos el Big Bang, pero Lemaître lo denominó «el día sin ayer». En junio de 1966, Lemaître tuvo conocimiento, en su lecho de muerte, de que se había producido un descubrimiento espectacular: el universo estaba lleno de microondas, tantas que su número superaba al de los átomos en una proporción de mil millones a uno. Lo increíble es que la existencia de estas microondas había sido postulada matemáticamente por Ralph Alpher, un cosmólogo norteamericano. Se podían considerar las microondas como los restos de la gran bola de fuego que acompañó al nacimiento del universo. Así que verdaderamente había existido un día sin ayer. El descubrimiento de la radiación de fondo de microondas fue la contundente confirmación de la creencia extendida entre la comunidad científica de que las matemáticas son el lenguaje en el que está escrito el universo. En 1623, Galileo Galilei plasmó una de las más famosas manifestaciones de esta creencia. Lo hizo en su libro El ensayador. En él escribió: «El universo
45
Stuart Clark
no puede comprenderse sin que antes aprendamos el lenguaje y el alfabeto en que está compuesto. Está escrito en el lenguaje de las matemáticas y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las cuales es humanamente imposible entender una sola de sus palabras. Sin ese lenguaje, navegamos en un oscuro laberinto». Pero, ¿por qué los números habían de describir tan bien el universo? ¿Significa eso que la realidad es matemática o nos estamos engañando tratando de encajar teorías imprecisas en observaciones aproximadas? De ser así, las matemáticas no serían más que una herramienta, en lugar de una propiedad fundamental del universo. Sin embargo, aunque ése fuera el caso, las matemáticas seguirían siendo útiles. El hombre que inicialmente demostró el valor de la astronomía matemática fue el luterano alemán Johannes Kepler. De hecho, a la lista de «universos» de George Bernard Shaw yo añadiría otro: la descripción matemática del movimiento planetario de Kepler, que data de principios del siglo xvii. Kepler fue el primer astrónomo de la historia que demostró que el movimiento de los astros podía expresarse mediante una serie de fórmulas matemáticas generales. Sus tres leyes del movimiento de los planetas son aplicables no sólo a todos los planetas del sistema solar de los que él tenía conocimiento, sino también a los tres que se descubrieron posteriormente. Asimismo son válidas para todos los asteroides y cometas que giran alrededor del Sol, y para los casi mil planetas que se han descubierto girando en torno a estrellas distintas del Sol a lo largo de los últimos diecisiete años. En sus leyes, Kepler descubrió una verdad universal tan profunda que resulta aplicable a todo el universo. Para los astrónomos, supuso el preludio de una nueva forma de trabajar y les dio razones más que sobradas para pensar que el universo era racional y podía capturarse matemáticamente. Según este razonamiento, si algo resulta posible matemáticamente, hay muchas probabilidades de que sea cierto en la realidad. En el siglo xx, tales predicciones matemáticas estaban dando sus frutos. Además de la expansión del
46
¿Llegaremos a entender el universo?
universo que anticipara Lemaître, Karl Schwarzschild predijo la existencia de los agujeros negros, de la que ahora tenemos pruebas abrumadoras. Para los físicos de partículas, sus teorías matemáticas sobre el modo en que interaccionan los átomos y las partículas que los componen hacían presagiar la existencia de partículas en la naturaleza desconocidas hasta entonces. Más aun, los experimentos diseñados para captar esas fugaces partículas estaban dando resultados positivos. La antimateria, cuya existencia se postuló en 1928, fue descubierta en 1932; los neutrinos, propuestos en 1930, se descubrieron en 1956. En la década de 1970, los físicos de partículas empezaban a creer que podían hallar una ecuación para todo, que explicaría por qué, a día de hoy, existen cuatro fuerzas fundamentales en el universo y cómo interaccionan entre sí. Sin embargo, semejante teoría requiere nuevas partículas aún por descubrir. Se pronostica que serán distintas de los átomos y apenas interaccionarán con la materia normal, salvo por medio de su gravedad. De ser así, los astrónomos deberían ver movimientos en el universo que no son capaces de explicar. Y da la casualidad de que los astrónomos llevan tiempo intentando descifrar ciertos movimientos un tanto extraños... El problema empezó porque, a medida que las mediciones se iban volviendo cada vez más precisas, el alcance de la ciencia fue en aumento: ahora los astrónomos podían escudriñar las profundidades del espacio y medir grandes movimientos que, hasta entonces, parecían pequeños únicamente por la distancia. Fue entonces cuando se percataron de que las cosas no eran como parecían ser. El quisquilloso astrónomo suizo Fritz Zwicky emigró a Estados Unidos en 1925 para trabajar en el Instituto Tecnológico de California. En 1933, estaba convencido de que el universo encerraba algo más de lo que el ojo era capaz de ver. Estudiaba un grupo de mil galaxias que se hallaban unidas por medio de la gravedad que generaban. Cada una de esas galaxias albergaba cien mil millones de estrellas o más, pero el análisis de Zwicky indicaba que eso no
47
Stuart Clark
era suficiente. Si las estrellas por sí solas representaban la mayor parte de la materia que había en las galaxias, ese conjunto no podía generar suficiente gravedad para mantenerlo unido. Y, sin embargo, ahí estaba, y no estaba solo; telescopios cada vez más potentes mostraban aglomeraciones de galaxias repartidas por todo el universo: algo las mantenía unidas. Zwicky llegó a la conclusión de que debía de haber provisiones adicionales de materia que generaban una fuerza gravitatoria extra. Y, dado que dichas provisiones no resultaban claramente visibles, era imposible que emitieran luz alguna. El astrónomo publicó el ensayo original sobre el tema en alemán, en una ponencia dirigida a la Sociedad Suiza de Física, y se refirió a esa sustancia desconocida con el nombre de dunkle Materie, es decir, materia oscura. En un principio, se pensó que la materia oscura serían nubes de átomos normales que, hasta la fecha, no habían sido detectadas porque no se habían congregado para formar estrellas. No obstante, decenios de búsqueda apenas arrojaron resultados positivos. Los radiotelescopios y los telescopios infrarrojos lograban encontrar más y más reservas de átomos otrora invisibles, pero ni con mucho en las cantidades necesarias. En la década de 1970, el panorama resultaba desalentador para los astrónomos. Así que las sospechas de los físicos de partículas de que debían existir partículas en la naturaleza aún por descubrir, en relación con la teoría del todo, se convirtieron en una suerte de panacea. La mayoría de los astrónomos no sólo piensan que la materia oscura mantiene unidos a esos conjuntos de galaxias, sino que además opinan que constituye el pegamento gravitatorio que evita que las galaxias se alejen volando. El único problema es que, hasta el momento, nadie ha sido capaz de encontrar una sola prueba directa de que realmente exista. Qué extraño. Pero las cosas empeoraron aún más: a los astrónomos todavía les quedaban muchas cosas por descubrir. El universo nos estaba ocultando no sólo un gran secreto, sino el mayor de los secretos. A finales de la década de 1990,
48
¿Llegaremos a entender el universo?
los astrónomos estaban listos para anunciarlo y, para hacerlo, bien podrían haber recurrido a la frase con la que da comienzo La guerra de las galaxias: «Hace mucho tiempo, en una galaxia muy, muy lejana...». Explotó una estrella. La luz procedente de ese cataclismo llegó a la Tierra miles de millones de años más tarde y los astrónomos analizaron esa luz para compararla con sus expectativas matemáticas basadas en la relatividad general. Los astrónomos esperaban descubrir que la expansión del espacio provocada por la explosión creadora del universo en el Big Bang se estaría ralentizando a medida que la gravedad trataba de reunirlo todo de nuevo. Por eso se habían dedicado a buscar lejanas explosiones de estrellas con el fin de medir el efecto desde entonces hasta ahora. En cambio, vieron que el universo se estaba acelerando: algo se oponía a la gravedad. Pero, ¿qué? Podría ser una energía o una fuerza: nadie lo sabe. Los astrónomos lo han denominado energía oscura para reflejar su carácter misterioso. Sus estimaciones matemáticas se están volviendo cada vez más sofisticadas y revelan que la energía oscura representa casi tres cuartas partes del universo. La presunta materia oscura comprende casi otra cuarta parte, y los átomos normales componen el insignificante cuatro por ciento restante. Según esta visión, los átomos no son más que una nadería celestial: todo lo que vemos a nuestro alrededor es la parte más insignificante del universo. Entonces los físicos de partículas que se encontraban trabajando en la teoría del todo sufrieron un duro revés. En lugar de una descripción matemática definitiva del universo, encontraron varias posibles, cada una aparentemente tan válida como las demás. Éstas recibieron el nombre de teorías de cuerdas porque compartían una base común, la de transformar las partículas de la naturaleza de entidades puntuales en estados vibracionales de energía subatómica. Pero, si las matemáticas eran capaces de proporcionar más de una descripción del universo, ¿cómo podía uno decidirse entre ellas? ¿Qué implicaba aquello para las matemáticas y su relación con la realidad? ¿Cómo decidir entre esas
49
Stuart Clark
realidades? Tal vez no fuera necesario hacerlo, sugeriría el físico estadounidense Hugh Everett. Otra forma de interpretar las teorías de cuerdas es que existe un multiverso, del cual nuestro universo no es sino una pequeña parte. La verdadera realidad está compuesta por multitud de universos en los que todas las posibilidades se llevan a cabo en algún lugar. Nosotros simplemente nos hallamos atrapados en una pequeña porción de ese multiverso. De ser así, la ciencia jamás será capaz de explicar por qué existe nuestro universo. En realidad, simplemente existe porque puede, al igual que muchos otros. En definitiva, probablemente ahora estemos más lejos que nunca, desde Newton, de comprender el universo. Para darle la vuelta a todo esto, necesitamos analizar de forma crítica las premisas sobre las que se sustenta el avance de nuestra investigación, y tenemos que buscar atentamente cualquier observación desconcertante que pueda proporcionarnos una pista acerca de cuál podría ser el siguiente paso. Una de esas premisas es que la gravedad se puede relacionar con las demás fuerzas de la naturaleza utilizando la teoría cuántica, que fue desarrollada en su mayor parte en Alemania en el periodo de entreguerras. En ella, todo se podía reducir a partículas, incluso las fuerzas eran transportadas por partículas. Pero la búsqueda de la teoría cuántica de la gravedad, que condujo a la teoría de cuerdas, está prácticamente atascada. Al ser aparentemente capaz de describirlo todo (incluidos universos más allá del nuestro), la teoría de cuerdas pierde gran parte de su capacidad para decirnos algo sobre nuestra realidad. En la actualidad, no hay ningún postulado real de la teoría de cuerdas que podamos poner a prueba. Así pues, ¿cómo continuamos? Para avanzar necesitamos nuevas pistas, y eso implica nuevos experimentos, que podrían mostrarnos dónde nos estamos equivocando con la teoría de cuerdas o llevarnos en una dirección totalmente distinta. Hay un experimento que está siendo desarrollado actualmente por un grupo de trabajo formado por científicos e ingenieros. A mi juicio, se trata del experimento gravitatorio más importante desde la expedición del eclipse de
50
¿Llegaremos a entender el universo?
1919 concebida por Eddington. La Agencia Espacial Europea (ESA) está construyendo una misión denominada LISA-Pathfinder. En principio, fue diseñada con el único propósito de probar la tecnología necesaria para una misión de mayor envergadura llamada LISA (Antena Espacial de Interferometría Láser), pero ahora se ha descubierto que es capaz de mucho más. Una alternativa a la materia oscura y la energía oscura consiste en modificar el comportamiento de la gravedad. Aunque muchos investigadores consideran que se trata de una posibilidad muy remota, es tal la lentitud de los progresos en el esfuerzo por encontrar la materia oscura o comprender la naturaleza de la energía oscura que cada vez más gente se muestra dispuesta a considerar la que un día se tachara de idea descabellada. Modificar la gravedad no resulta sencillo. La gravedad clásica de Newton y Einstein funciona tan bien en el sistema solar que debemos tener cuidado de no destruirla con cualquier pequeño ajuste que hagamos.Así, por ejemplo, no se puede hacer que la gravedad atraiga con un poco más de fuerza. Hay que ser más sutil que todo eso. En la década de 1980, Mordehai Milgrom, que por aquel entonces trabajaba en la Universidad de Princeton, retocó las leyes de Newton de manera que un objeto que se encontrara en un campo gravitatorio muy débil experimentara una atracción ligeramente mayor de lo que habría predicho Newton, y demostró que esta versión revisada de la gravedad, que ahora se denomina Dinámica Newtoniana Modificada (MOND), puede describir perfectamente la rotación de las estrellas observada en gigantescas galaxias espirales sin necesidad de recurrir a la materia oscura. Pero, ¿cómo podemos comprobar esa teoría? Nunca seremos capaces de enviar una sonda a decenas de miles de años luz, hasta los confines de nuestra galaxia. Puede que el LISA-Pathfinder sea capaz de enviarla a tan sólo unos pocos millones de kilómetros de distancia de la Tierra. El campo gravitatorio del Sol resulta abrumador en el sistema solar, pero existen lugares en los que la gravedad de los planetas es capaz de anularlo. Estos lugares se denominan «puntos de silla». El que se encuentra entre la Tierra y el Sol se halla a 260.000 kilómetros de distancia. Si se pudiera hacer pasar el LISA-Pathfinder a través de este punto de silla, sus instrumentos me-
51
Stuart Clark
dirían la aceleración debida a la gravedad con tanta precisión que sabríamos si interviene la MOND o algún otro comportamiento gravitatorio imprevisto. El grupo de trabajo se encuentra aún definiendo los requisitos de la misión y presentará un informe a la Agencia Espacial Europea este mismo año. Aunque, oficialmente, el lanzamiento está programado para 2015, es posible que se retrase hasta 2017. En tal caso, significaría que el experimento del punto de silla podría tener lugar en 2019, un siglo después de que el eclipse de Eddington confirmara la relatividad general. El 21 de marzo tendremos noticias acerca de nuestra última pista sobre el universo. La Agencia Espacial Europea comunicará los resultados obtenidos por la misión Planck, que ha estado intentando trazar un mapa de la radiación de fondo de microondas del cosmos de la que Lemaître tuvo conocimiento una semana antes de su muerte. Otras misiones espaciales han estudiado esta radiación en ocasiones anteriores. Se trata, en realidad, del plan maestro del universo. La importancia de Planck es que resulta prácticamente imposible captar mejores imágenes de la radiación de fondo de microondas. Si bien podemos construir mejores detectores de microondas, la imagen en sí se vuelve borrosa en su trayectoria a través del espacio. La imagen que percibamos será la mejor representación que veremos jamás del plan maestro del universo. En el futuro habrá otras formas de investigarlo, pero da que pensar que, en tan sólo cuatrocientos años desde el primer uso astronómico de un telescopio, hayamos pasado del catalejo de Galileo al más preciso mapa de nuestros orígenes que resulta posible trazar con un telescopio «similar». La pregunta es: ¿seremos capaces de descifrar su mensaje y, a continuación, comprobar nuestras hipótesis? De ser así, con el resto de los experimentos que acabo de comentar, tendremos la posibilidad de dar un nuevo salto revolucionario. Pero, ¿se tratará de un paso más o será la teoría definitiva? No lo sabemos. No podemos saberlo. ¿Llegaremos a entender el universo? Tal vez, pero me temo que no en mucho tiempo.
52
Irracionalidad, caos e incompletitud: los límites matemáticos de la ciencia Marcus du Sautoy Profesor de Matemáticas Universidad de Oxford
Las matemáticas son un lenguaje extremadamente poderoso. Pueden ayudarnos a entender cómo ha evolucionado nuestro universo en el pasado, pero, lo que tal vez sea más emocionante, pueden decirnos lo que el futuro nos tiene preparado. Nos han ayudado a descubrir nuevas y fascinantes regiones del mundo natural, y también a transformar el entorno que nos rodea con nuevas tecnologías y adelantos. Fue, por ejemplo, estudiar las ecuaciones matemáticas de los cuerpos celestes lo que permitió a Johann Gottfried Galle convertirse en el primer ser humano que observó el planeta Neptuno, cuya existencia había sido postulada por el matemático Urbain Le Verrier en agosto de 1846. La trayectoria descrita en el cielo de la noche por los planetas existentes en el sistema solar no tenía sentido, desde un punto de vista matemático, sin la presencia de alguna otra entidad planetaria que repeliera y atrajera a los planetas visibles en aquel momento. Las matemáticas proporcionaron a Galle las coordenadas a las que debía apuntar su telescopio y, un mes después de que Le Verrier realizara sus cálculos, como por arte de la magia matemática, ahí estaba el planeta Neptuno. Tal y como comentaría con ironía el astrónomo
53
Marcus du Sautoy
François Arago, Le Verrier había descubierto Neptuno «con la punta de su pluma». La química también se ha beneficiado del conocimiento que le han proporcionado las matemáticas. Los patrones matemáticos que Mendeléiev descubrió y que dieron lugar a la tabla periódica de los elementos químicos resultaron clave para la predicción de nuevos átomos aún no observados en la naturaleza. Por ejemplo, el hecho de que hubiera un vacío en el puesto 31 de su tabla llevó a Mendeléiev a postular en 1871 la existencia y las propiedades de una nueva sustancia que más tarde se denominaría galio. Cuatro años más tarde, el químico francés Lecoq de Boisbaudran aisló las primeras muestras de ese nuevo átomo que predijera Mendeléiev gracias a los patrones matemáticos por él descubiertos. La historia de la ciencia está llena de episodios de este tipo que ponen de manifiesto el poder de las matemáticas para desvelar las verdades del universo. La existencia de la antimateria se predijo merced al descubrimiento de que un número como el 4 tiene dos raíces cuadradas: 2, pero también -2. Al aplicarla a las ecuaciones de la materia, resultó que la solución negativa correspondía a una nueva clase de partícula, la materia negativa o lo que ha dado en llamarse antimateria. Hoy en día, las predicciones sobre qué partículas podríamos ver en el Gran Colisionador de Hadrones de la Organización Europea para la Investigación Nuclear (CERN) son consecuencia de las actuales ecuaciones matemáticas que describen el mundo subatómico. El descubrimiento de la estructura del ADN tiene mucho que agradecer a la interpretación geométrica de las imágenes en dos dimensiones producidas por técnicas de cristalografía por rayos X. El origen de enfermedades degenerativas como el Alzheimer y el Parkinson se ha atribuido a patologías en el modo matemático en que se pliegan las proteínas. La propagación de virus como el de la gripe porcina se puede predecir y contener utilizando modelos matemáticos capaces de ayudarnos a estudiar el futuro. La lista de ejemplos en los que las matemáticas han supuesto la base de avances científicos es interminable.
54
Irracionalidad, caos e incompletitud
El gran Galileo resumió el poder de las matemáticas para explorar el mundo de la ciencia de la siguiente manera: El universo no puede comprenderse sin que antes aprendamos el lenguaje y el alfabeto en que está compuesto. Está escrito en el lenguaje de las matemáticas y sus caracteres son triángulos, círculos y otras figuras geométricas, sin las cuales es humanamente imposible entender una sola de sus palabras. Sin ese lenguaje, navegamos en un oscuro laberinto.
Pero las matemáticas también tienen la extraordinaria facultad de desvelar los límites de lo que podemos saber en el mundo tanto de las matemáticas como de sus aplicaciones científicas. Ésta es la historia de los límites matemáticos del conocimiento, no de su poder para revelar nuevos conocimientos.
Irracionalidad Pitágoras pensaba, al igual que Galileo, que las matemáticas eran la clave para desentrañar los secretos del universo. Sin embargo, su famoso teorema de los triángulos rectángulos terminaría conduciendo al descubrimiento de que, en ocasiones, las matemáticas existentes tienen sus limitaciones. Una de las circunstancias que dieron lugar a la inquebrantable fe de Pitágoras en las matemáticas para explicar el universo tiene que ver con el descubrimiento de que los números enteros constituyen la clave para explicar la armonía musical. La leyenda cuenta que un día Pitágoras pasaba por una herrería cuando reparó en lo armoniosas que sonaban las notas procedentes de los yunques. La mente siempre curiosa del matemático se preguntó qué había en las medidas y los pesos de los distintos yunques que les llevaba a producir unas notas tan armoniosas. Dentro descubrió a cinco herreros trabajando con ahínco.
55
Marcus du Sautoy
Dado que no estaba seguro de qué era lo que producía las notas, pidió a los herreros que intercambiaran los martillos para comprobar qué efecto tenía. Las notas parecían seguir a los martillos, así que Pitágoras volcó su atención sobre las propiedades de éstos. Los martillos, con sus vibraciones, actuaban como primitivos diapasones. Cuatro de ellos producían notas que generaban un sonido armonioso. El quinto, en cambio, producía un sonido bastante discordante. A Pitágoras le intrigaba averiguar qué había en los martillos que producía ese efecto. Tras investigar más a fondo, descubrió que los pesos de los martillos armoniosos guardaban razones perfectas de números enteros unos con otros. Dos de las notas sonaban casi idénticas, aunque una era más alta que la otra. Los pesos de esos dos martillos se hallaban en una razón de dos a uno. Uno de los martillos, que producía una nota a medio camino entre las dos anteriores, resultó tener un peso que mantenía una razón de 3 a 2 con el de la nota más baja. El cuarto peso también guardaba una razón de 3 a 2 con uno de los otros martillos y, nuevamente, tenía un sonido sorprendentemente armonioso. Sin embargo, el quinto martillo producía una nota discordante. Al final resultó que el quinto martillo tenía un peso que no guardaba una relación numérica clara con los pesos de los cuatro primeros. Pitágoras estaba tan emocionado con las proporciones matemáticas latentes en esas notas tan armoniosas que el descubrimiento le llevó a afirmar que todo el universo tenía una explicación matemática, una tesis retomada luego por Platón y que aún prevalece en la era moderna. Las antiguas civilizaciones acuñaron la expresión «música de las esferas» para reflejar la creencia de que la conexión entre las matemáticas y la música tiene una relevancia cósmica. Pitágoras creía que todo en el mundo debía poder describirse por medio de las fracciones que constituían la base de la armonía. Pero resulta que las cosas no eran tan perfectas. De hecho, fue su propio teorema de los triángulos el que reveló que el mundo de la geometría no podía capturarse en simples fracciones. Uno de sus discípulos, Hipaso, descubrió que la longitud
56
Irracionalidad, caos e incompletitud
del lado más largo de un triángulo rectángulo cuyos lados más cortos tienen igual longitud no podía expresarse por medio de una fracción. Pitágoras estaba consternado: su teorema de los triángulos rectángulos implicaba que la longitud de la hipotenusa equivalía a la raíz cuadrada de 2 multiplicada por el cateto. Pero Hipaso logró demostrar que no existía ninguna fracción cuyo cuadrado fuera exactamente 2. La demostración utiliza una de las herramientas clásicas del arsenal del matemático: la prueba por contradicción o demostración por reducción al absurdo. Hipaso comenzó suponiendo que existía una fracción cuyo cuadrado era 2. Mediante alguna hábil manipulación, esa proposición llevaba siempre a la afirmación contradictoria de que existía un número que era a la vez impar y par. La única forma de resolver dicha contradicción era aceptar que la proposición original debía ser falsa. Así pues, no podía existir una fracción cuyo cuadrado fuera 2. Pitágoras se sintió tan contrariado por el hecho de que sus hermosos triángulos rectángulos pudieran producir longitudes tan discordantes que obligó a su secta a guardar silencio e hizo que ahogaran a Hipaso en el mar por revelar tamaña discordancia en el mismo corazón del mundo físico. Pero aquellos nuevos números, denominados números irracionales porque no son razones de números enteros, no podían silenciarse tan fácilmente. Sin duda tenemos la sensación de que dicha longitud existe: podemos verla en la regla si la colocamos sobre la hipotenusa del triángulo. Sin embargo, si uno trata de escribir el número como un decimal infinito, jamás será capaz de plasmarlo. Comienza con 1,414213562… y continúa hasta el infinito sin repetirse nunca. Existen infinidad de expresiones con patrones que hacen el número menos misterioso. Por ejemplo: 2=2x(1-1/3)x(1+1/5)x(1-1/7)x(1+1/9)… Pero el descubrimiento por parte de los antiguos griegos de que existían longitudes que no podían expresarse por medio de simples razones de
57
Marcus du Sautoy
números enteros obligó a los matemáticos de la época a crear unas nuevas matemáticas, las matemáticas de los números irracionales, para poder medir de verdad el universo. No obstante, los hallazgos de la física cuántica a lo largo del siglo xx podrían hacer de Pitágoras el último en reír. La teoría de la física cuántica pone en duda que realmente se pueda decir que existe semejante longitud irracional. La física cuántica afirma que el espacio no es continuo, sino que está compuesto por pedazos bien diferenciados, siendo el más pequeño de esos pedazos la denominada longitud de Planck, equivalente a 1,616199x10-35 metros. Si se cuantifica todo el universo, toda longitud será simplemente un múltiplo de la longitud de Planck, en cuyo caso toda longitud podrá plasmarse como razón de un número entero. Así, la longitud de la hipotenusa del triángulo rectángulo tendría que ser un múltiplo fraccionario de los catetos. La única forma de resolver semejante enigma sería admitir que esos triángulos rectángulos de lado 1 no pueden existir físicamente en la naturaleza. La demostración por parte de los antiguos griegos de la irracionalidad de la raíz cuadrada de 2 fue una de las primeras demostraciones matemáticas de que determinadas cosas resultan imposibles. Otra prueba de lo imposible fue el concepto de la «cuadratura del círculo». De hecho, la noción matemática de la «cuadratura del círculo» ha pasado a numerosos idiomas como una expresión de imposibilidad. El reto de la cuadratura del círculo tiene que ver con ciertos problemas geométricos que los antiguos griegos disfrutaban tratando de resolver. La tarea consiste en, sirviéndose de herramientas sencillas –una regla y un compás–, comprobar qué figuras geométricas es posible dibujar con la sola ayuda de esos objetos. La regla no está graduada, de modo que sólo se puede utilizar para trazar líneas rectas. El compás, por su parte, se puede usar para dibujar círculos. Así pues, utilizando combinaciones de líneas rectas y círculos, ¿qué se puede dibujar? Por ejemplo, es posible dividir una línea exactamente en dos utilizando un compás y una regla: basta con trazar arcos de circunferencia del mismo radio
58
Irracionalidad, caos e incompletitud
Figura 1.
con centro en los extremos de la línea y, a continuación, dibujar una línea que una los puntos de intersección de los arcos de circunferencia. La nueva línea bisecará perfectamente a la línea original (Figura 1). Se pueden utilizar construcciones más elaboradas para crear otras figuras más complejas. Por ejemplo, los griegos habían descubierto que el pentágono se puede dibujar perfectamente utilizando una combinación de regla y compás. El desafío de la cuadratura del círculo consiste en tratar de utilizar esas herramientas para construir, a partir de un círculo dado, un cuadrado cuya área sea la misma que la del círculo de partida. Un problema similar surgió a raíz de una historia que se cuenta de la isla de Delos. Al parecer, los habitantes de la isla griega habían consultado al oráculo para que les aconsejara sobre la forma de acabar con una plaga que el dios Apolo les había enviado como castigo. El oráculo respondió que debían duplicar el tamaño del altar dedicado a Apolo, el cual era un cubo perfecto. Platón interpretó que el desafío suponía construir, utilizando regla y compás, un segundo cubo perfecto cuyo volumen fuera el doble del volumen del primer cubo. Si el segundo cubo tiene el doble de volumen que el primero, significa que los lados tienen longitudes que son un múltiplo de la raíz cúbica de 2 del primer
59
Marcus du Sautoy
cubo. Así pues, el problema radica en construir una longitud igual a la raíz cúbica de 2. Construir la raíz cuadrada de dos era sencillo, ya que se deriva de la diagonal de un cuadrado de lado 1. Pero la raíz cúbica de 2 resultó ser tan difícil que los habitantes de Delos no fueron capaces de resolver el problema. Quizás el oráculo pretendía distraerlos con geometría y matemáticas para desviar su atención de los acuciantes problemas sociales a los que se enfrentaban. Los desafíos de la duplicación del cubo, la cuadratura del círculo y un tercer problema clásico, la trisección del ángulo, resultaron ser imposibles. Pero fueron necesarias las matemáticas del siglo xix para que los matemáticos pudieran demostrar sin lugar a dudas que no había forma de llevar a cabo esas construcciones. Fue el desarrollo de la teoría de grupos, un lenguaje para comprender la simetría, lo que proporcionó la clave para probar la imposibilidad de esas construcciones geométricas. Resulta que, con una regla y un compás, sólo se pueden construir longitudes que sean soluciones a ciertos tipos de ecuación algebraica. En el caso de la cuadratura del círculo, ello requiere crear una longitud que sea igual a pi. Pero, en 1882, se demostró que pi no sólo es un número irracional, sino también trascendente, lo cual significa que no es la solución a ninguna ecuación algebraica. Ello, a su vez, quiere decir que la cuadratura del círculo resulta imposible. Uno de los teoremas más célebres de los libros de matemáticas tiene que ver con la demostración de que resulta imposible resolver una ecuación. El último teorema de Fermat establece que no se puede hallar ningún número entero que resuelva la ecuación: xn+yn=zn cuando n es mayor que 2. Si por el contrario, n=2, se corresponde a la ecuación que Pitágoras dedujo a partir de sus triángulos rectángulos. Si n=2, existen numerosas soluciones, por ejemplo, 3n+4n=5n. De hecho, existen in-
60
Irracionalidad, caos e incompletitud
finidad de soluciones y los antiguos griegos hallaron una fórmula para averiguarlas todas. Pero, a menudo, es mucho más sencillo encontrar soluciones que demostrar que nunca será posible dar con un número que resuelva esa ecuación. Fermat pensó que había encontrado una solución, pero garabateó en el margen de su ejemplar de la Arithmetica de Diofanto que el margen era demasiado pequeño para su extraordinaria demostración. Al final, tuvieron que pasar otros trescientos cincuenta años antes de que Andrew Wiles aportara por fin un argumento convincente para explicar por qué nunca seremos capaces de encontrar un número entero que resuelva la ecuación de Fermat. Pero a veces los matemáticos se han negado a admitir tan fácilmente la imposibilidad de resolver una ecuación y, en su lugar, han creado unas nuevas matemáticas capaces de hallar una forma novedosa de resolver una ecuación. A primera vista, la siguiente ecuación parece imposible de solucionar: x2=-1 Al fin y al cabo, si uno toma un número positivo y lo eleva al cuadrado, la respuesta es positiva, pero también un número negativo elevado al cuadrado da un resultado positivo. La primera vez que los matemáticos del Renacimiento se toparon con esta ecuación en su trabajo, su reacción fue dar por sentado que era imposible de resolver. Pero, entonces, el matemático italiano Rafael Bombelli adoptó una postura radical y supuso que había un nuevo número cuyo cuadrado equivalía a -1. Lo que descubrió fue que podía utilizar ese nuevo número para resolver un sinfín de ecuaciones que hasta entonces se habían considerado irresolubles. De hecho, en ocasiones ese número imaginario sólo resultaba necesario en los cálculos intermedios y desaparecía de la solución definitiva, dejando números normales que la gente conocía y que claramente resolvían la ecuación en cuestión. Parecía alquimia matemática y, de hecho, muchos se negaron a admitir en el canon de las matemáticas esos nuevos números que Bombelli proponía. Descartes escribió sobre ellos en un tono bastante despectivo, tachándolos de números imaginarios. Sin embargo, con el paso del tiempo muchos
61
Marcus du Sautoy
matemáticos se dieron cuenta de su potencial, así como del hecho de que, de admitirse, no parecían dar lugar a ninguna contradicción matemática. Pese a todo, no fue hasta comienzos del siglo xix cuando realmente encontraron su lugar en matemáticas, gracias, en parte, a una imagen que ayudó a los matemáticos a visualizar esos números imaginarios. Los números normales (o los que ahora llamamos números reales) se dispusieron a lo largo de la recta numérica que discurría horizontalmente por toda la página. Pero los números imaginarios como i, el nombre dado a la raíz cuadrada de -1, se representaron en un eje que discurría vertical a la página. Esta representación bidimensional de los números imaginarios o complejos fue decisiva para la aceptación de los nuevos números: la geometría de la imagen reflejaba la aritmética de los números. En la actualidad, esos números imaginarios se encuentran en la base de numerosas proezas de la ingeniería. Los aviones no podrían aterrizar de forma eficaz sin su utilización en los cálculos de los radares, y toda la teoría de la física cuántica se basa en su aritmética. De hecho, los números imaginarios pueden ser tan reales como los números 1, 2 y 3 que nuestros antepasados crearan en su día para ayudarles a navegar por el mundo. Las matemáticas constituyen una poderosa herramienta a la hora de determinar cuándo ciertas cosas resultan imposibles. Sin embargo, aun teniendo las ecuaciones para explicar la evolución del mundo natural, los hallazgos del pasado siglo nos han demostrado que el conocimiento matemático no siempre conduce a la predicción física.
Caos Con el descubrimiento del cálculo y las leyes del movimiento, parecía que Newton había convertido el universo en un mecanismo de relojería determinista controlado por ecuaciones matemáticas. El matemático del siglo xviii Pierre-Simon Laplace resumió la creencia de la mayoría de los científicos en
62
Irracionalidad, caos e incompletitud
el extraordinario poder de las matemáticas para desvelarlo todo acerca del universo físico: Podemos considerar el estado actual del universo como el efecto de su pasado y la causa de su futuro. Una inteligencia que, en un momento determinado, conociera todas las fuerzas que impulsan la naturaleza y todas las posiciones de todos los elementos de los que está compuesta –si dicha inteligencia fuera además lo suficientemente amplia para someter a análisis todos esos datos– describiría en una única fórmula los movimientos de los mayores astros del universo y también los del átomo más pequeño: para semejante inteligencia, nada sería incierto y el futuro, al igual que el pasado, se haría presente ante sus ojos.
Pero el descubrimiento de las matemáticas de la teoría del caos por parte del matemático francés Henri Poincaré, a comienzos del siglo xx, condujo al convencimiento de que sólo el propio universo podía llegar a convertirse en un ordenador lo bastante grande y con una información suficientemente completa para poder elaborar semejante modelo matemático. Incluso un pequeño error en la ubicación exacta de cualquier átomo del universo podía producir un resultado totalmente distinto. Poincaré no había empezado con ese objetivo en mente. De hecho, también él, al igual que Laplace, creía en el poder de las matemáticas para predecir el futuro del universo físico. Sin embargo, fue al abordar lo que en principio parecía una cuestión inocente de la física de Newton cuando descubrió lo sensible que puede ser la física incluso a los cambios más insignificantes en la ubicación y el movimiento de los átomos que componen el universo. En 1885, el rey Óscar II de Suecia y Noruega ofreció un premio de dos mil quinientas coronas a cualquiera que pudiera establecer matemáticamente de una vez por todas si el sistema solar continuaría girando como un reloj o si resultaba posible que, en un determinado momento, la Tierra saliera despedida hacia el espacio y desapareciera de nuestro sistema solar. Poincaré pensó que podía hallar la respuesta y comenzó a investigar.
63
Marcus du Sautoy
Uno de los clásicos recursos que a menudo emplean los matemáticos a la hora de analizar soluciones a problemas complicados consiste en simplificar el planteamiento con la esperanza de conseguir que el problema resulte más fácil de resolver. En lugar de comenzar con todos los planetas del sistema solar, Poincaré empezó analizando un sistema solar con sólo dos planetas. Newton ya había demostrado que sus órbitas serían estables: los dos cuerpos se limitan a describir una elipse uno en torno a otro y continúan repitiendo eternamente el mismo patrón. Partiendo de esa base, Poincaré comenzó a estudiar lo que ocurría al añadir otro planeta a la ecuación. Sin embargo, tan pronto había tres astros como la Tierra, la Luna y el Sol, la pregunta de si sus órbitas eran o no estables se volvía increíblemente complicada. De hecho, el problema había dejado perplejo incluso al gran Newton. El problema es que ahora hay unas dieciocho variables distintas, incluyendo las coordenadas exactas de cada astro y su velocidad en cada dirección, y las ecuaciones se vuelven muy difíciles de resolver. El mismo Newton escribió que «considerar de forma simultánea todas esas causas de movimiento y definir esos movimientos por medio de leyes precisas que admitan un cálculo sencillo supera, si no me equivoco, la capacidad de toda mente humana». Poincaré no se dejó amedrentar y realizó importantes avances gracias a sus simplificaciones del problema, con sucesivas aproximaciones a las órbitas. Pensaba que redondear al alza o a la baja las pequeñísimas diferencias en la posición de los planetas no afectaría demasiado a la respuesta final. Si bien no fue capaz de resolver el problema en su totalidad, sus ideas fueron lo suficientemente elaboradas para hacerle merecedor del premio. Sin embargo, cuando el asesor científico del monarca, Mittag Leffler, estaba preparando el ensayo de Poincaré para su publicación, uno de los revisores, incapaz de seguir las matemáticas de Poincaré, planteó una pregunta: ¿podía Poincaré justificar por qué realizar un pequeño cambio en la posición de los planetas
64
Irracionalidad, caos e incompletitud
únicamente tendría como consecuencia una pequeña variación en la trayectoria resultante de los mismos? De pronto, cuando Poincaré trató de justificar su suposición, se dio cuenta de que había cometido un error. Contrariamente a lo que pensara en un principio, incluso un pequeño cambio en las condiciones iniciales podía acabar produciendo órbitas enormemente distintas, de manera que su simplificación no funcionaba. Convocó al comité y trató de conseguir que detuvieran la impresión del ensayo, ya que publicar un trabajo erróneo en honor al rey habría provocado un escándalo político. Aunque el documento ya se había imprimido, lograron recopilar y destruir la mayor parte de las copias. Todo parecía un gran fracaso, aunque en realidad, como a menudo ocurre en matemáticas, cuando algo sale mal, el motivo por el que sale mal es más interesante que si las cosas hubieran sido tan sencillas como Poincaré había creído. Éste redactó un segundo ensayo, más extenso, que exponía su convencimiento de que incluso pequeñísimos cambios en la información de partida podían hacer que, de pronto, un sistema estable se disgregara.Vivimos en un universo mecánico, pero un pequeño cambio en los engranajes puede hacer que una máquina estable se comporte de forma totalmente distinta. El resultado que obtuvo Poincaré gracias a su error desembocó en uno de los conceptos matemáticos más importantes del pasado siglo: la teoría del caos. Poincaré había puesto de manifiesto que, incluso en el universo mecanicista de Newton, las ecuaciones sencillas pueden arrojar resultados extraordinariamente complejos. No se trata de las matemáticas de la aleatoriedad o la probabilidad, sino de un universo determinista controlado por estrictas ecuaciones matemáticas. El problema es que un pequeñísimo cambio en el planteamiento de un experimento puede provocar un resultado enteramente distinto. Esta teoría contradecía las ideas de casi todo el mundo acerca de las leyes de la naturaleza. Supongamos que estoy jugando al billar en una mesa rectangular y que lanzo una bola en una dirección determinada y, luego, dibujo
65
Marcus du Sautoy
su trayectoria. Si repito el experimento, pero lanzando la segunda bola en un ángulo ligeramente distinto, no espero que la trayectoria de la segunda bola varíe demasiado con respecto a la de la primera. Sin duda, así ocurre en una mesa de billar rectangular. Pero, si modifico la forma de la mesa, las cosas pueden cambiar de manera drástica. Por ejemplo, si la mesa tiene la forma de un estadio, con dos extremos semicirculares, pese a que la dirección inicial de la segunda bola sea casi exactamente igual a la de la primera, la trayectoria resultante puede ser totalmente distinta. Un ejemplo a pequeña escala que sirve como modelo del sistema solar consiste en colocar tres imanes de colores en el suelo: uno rojo, uno azul y uno amarillo. Sobre los imanes, emplazamos un péndulo magnético capaz de oscilar libremente en cualquier dirección. El péndulo será atraído por los tres imanes. En el extremo del péndulo colocamos un cartucho de pintura, de manera que, cuando el péndulo comience a oscilar, la pintura gotee y refleje la trayectoria del péndulo. Será como un meteorito que atraviesa el sistema solar a gran velocidad sometido a la fuerza de atracción de tres planetas. Al final, el meteorito acabará chocando contra uno de los planetas. Lo extraordinario es que resulta casi imposible repetir el experimento y obtener la misma trayectoria. Por más que uno intente poner el péndulo en movimiento en la misma posición, nos encontramos con que la pintura dibuja una trayectoria completamente diferente, a menudo siendo atraído el péndulo por un imán totalmente distinto. A continuación se muestra una imagen de varias trayectorias que parecen comenzar en la misma posición, pero que terminan en imanes distintos (Figura 2). La cuestión es que las ecuaciones que controlan el comportamiento del imán son caóticas. Un pequeñísimo cambio en la posición de partida tiene un efecto dramático en el resultado: la firma del caos. Es posible hacer que un ordenador genere una imagen que refleje qué imán atraerá al péndulo. Si comenzamos con el péndulo sobre un punto
66
Irracionalidad, caos e incompletitud
rojo, al final irá a parar al imán rojo. De forma similar, si empezamos con el péndulo sobre un punto azul o amarillo, terminará sobre el imán del color respectivo. Figura 2.
Hay regiones en esta imagen en las que, si se mueve ligeramente el péndulo, el resultado no quedará afectado de forma dramática. Por ejemplo, si comenzamos cerca del imán rojo, es probable que el péndulo termine su recorrido sobre el imán rojo. Pero hay otras regiones en las que los colores cambian rápidamente a medida que movemos el péndulo. En realidad, se trata de un ejemplo de una forma muy del gusto de la naturaleza: el fractal. Los fractales son la geometría del caos y, si enfocáramos más de cerca algunas de las regiones de esta imagen, la estructura seguiría siendo infinitamente compleja. Es esta complejidad la que hace que el péndulo sea tan difícil de predecir, aun cuando las ecuaciones que describen su movimiento no sean, en apariencia, demasiado complicadas. ¿Qué ocurriría si no fuera únicamente el resultado de la oscilación de un péndulo, sino el futuro del sistema solar lo que estuviera en juego? Quizás una leve perturbación causada por la aparición de un cometa pudiera provocar ese pequeño cambio que arroje al sistema solar al espacio exterior. Eso es lo que parece haber ocurrido en el cercano sistema solar de Upsilon Andromedae. Los astrónomos creen que el extraño comportamiento de los planetas existentes es la prueba de que se produjo un instante catastrófico
67
Marcus du Sautoy
en que uno de los planetas originales de ese sistema solar fue expulsado al espacio. Así pues, ¿podría ocurrirle lo mismo a nuestro planeta? Sólo para asegurarse, los científicos han utilizado varios superordenadores recientemente para tratar de dar respuesta a la pregunta que acabó por derrotar a Poincaré: ¿corre la Tierra verdadero riesgo de ser expulsada al espacio? En esos superordenadores, reprodujeron adelante y atrás en el tiempo las órbitas reales de los planetas. ¿Los resultados? Por fortuna, los cálculos muestran que, con una probabilidad del noventa y nueve por ciento, los planetas continuarán moviéndose sin contratiempos durante otros cinco mil millones de años, y para entonces el Sol se habrá convertido en un gigante rojo y habrá engullido al sistema solar interior. No obstante, hay una probabilidad del uno por ciento de que se dé una solución un tanto más interesante (al menos desde el punto de vista matemático). Resulta que los rocosos planetas interiores (Marte, la Tierra, Venus y Mercurio) se encuentran en una situación menos estable que los grandes gigantes gaseosos como Júpiter, Saturno, Urano y Neptuno. Si se les dejara solos, esos grandes planetas gozarían de un futuro increíblemente estable. Es el diminuto Mercurio el que tiene posibilidades de hacer que todo el sistema solar sufra un devastador cataclismo. Simulaciones matemáticas muestran que podría surgir una extraña resonancia entre Mercurio y Júpiter capaz de hacer que la órbita de Mercurio comience a cruzarse en la órbita de su vecino más próximo, Venus. Esta circunstancia crea el marco idóneo para que se produzca una tremenda colisión entre Venus y Mercurio que, probablemente, acabaría con el sistema solar. Pero, ¿ocurrirá realmente? No lo sabemos. El caos hace que resulte mucho más difícil predecir el futuro. El problema es que no es sólo el sistema solar lo que resulta caótico. Numerosos fenómenos naturales presentan rasgos caóticos: el comportamiento
68
Irracionalidad, caos e incompletitud
del mercado de valores, la formación de una ola gigante en el mar o el latido del corazón. Pero tal vez el mejor ejemplo de un sistema caótico que influye en la vida de todo el mundo sea el tiempo. Los meteorólogos cuentan con un montón de información sumamente compleja con la que trabajar, que va desde las mediciones de las estaciones meteorológicas en alta mar hasta imágenes e información procedentes de satélites, y disponen de ecuaciones sumamente precisas para describir cómo las masas de aire que entran en colisión en la atmósfera interaccionan para crear nubes, viento y lluvia. Si tenemos las ecuaciones matemáticas que controlan el tiempo, sin duda resultaría bastante sencillo aplicarlas al tiempo que hace hoy con la ayuda de un ordenador y ver cómo será la próxima semana. Pero, incluso con los superordenadores de hoy en día, una previsión meteorológica con dos semanas de antelación sigue sin ser fiable. Se debe a que nunca podemos saber con precisión qué tiempo hace hoy, por no hablar del tiempo que hará en el futuro. Nunca podemos determinar la velocidad exacta de cada una de las partículas del aire, la temperatura exacta de cada punto del espacio, la presión exacta en todo el planeta.Y tan sólo un pequeño cambio en los datos podría provocar un resultado meteorológico totalmente distinto. A continuación se muestran dos gráficas creadas utilizando la misma ecuación, pero en las que los datos introducidos en las ecuaciones difieren muy ligeramente. Una de las gráficas utiliza como dato de partida 0,506127. La segunda redondea el valor a 0,506. Si bien las dos gráficas empiezan siguiendo trayectorias similares, rápidamente comienzan a comportarse de formas totalmente distintas (Figura 3). Este fenómeno dio lugar a la expresión «el efecto mariposa». El aleteo de una mariposa podría causar diminutos cambios en la atmósfera que, en último término, alterarían un dato de 0,506127 a 0,506, y esa diferencia podría provocar un tornado o un huracán en el otro extremo del mundo.
69
Marcus du Sautoy
Incluso las mejores estaciones meteorológicas tienen una precisión limitada, y un pequeñísimo cambio en una lectura aquí o allá podría generar una previsión completamente distinta. Por este motivo, los meteorólogos realizan varias predicciones meteorológicas de forma simultánea, cada una de las cuales comienza con una ligera variación en las mediciones recibidas de las estaciones meteorológicas y los satélites de todo el mundo. Figura 3.
En ocasiones, todas las predicciones arrojan resultados bastante similares, en cuyo caso los meteorólogos pueden tener la seguridad de que el tiempo –aunque técnicamente caótico– se mantendrá estable durante una o dos semanas. Sin embargo, en algunas simulaciones las predicciones resultan ser totalmente distintas. En esos casos, los meteorólogos saben que no hay forma de predecir el tiempo de un modo preciso con varios días de antelación. Es algo parecido al caótico péndulo que oscila entre los tres imanes de colores. Existen regiones en la imagen que predice el comportamiento del péndulo, en las que un pequeño cambio en la posición inicial de éste no hará que acabe en un imán diferente. La gran región roja es similar a la meteorología en un desierto, donde siempre hará calor, por más que una mariposa bata sus alas. Asimismo ocurre en el Ártico, que correspondería a las veces que el péndulo se encuentra en una región azul. Pero vivir en el Reino Unido
70
Irracionalidad, caos e incompletitud
es como el péndulo que empieza en un lugar en el que los colores de la imagen cambian rápidamente con un ligero desplazamiento en la posición del péndulo. Puede que Laplace estuviera en lo cierto cuando afirmó que el conocimiento de la posición y la velocidad de todas las partículas del universo nos permitiría predecir el futuro con seguridad. El problema es que, si se registra una de esas posiciones aunque sólo sea con un pequeño error, el futuro puede ser totalmente distinto. Es posible que el universo se comporte como un mecanismo de relojería, pero nunca conoceremos la posición de los engranajes con suficiente precisión para sacar partido de su carácter determinista. Pero algunos se preguntarán si el universo es realmente determinista. Las actuales interpretaciones de la física cuántica aseguran que, si bien la ecuación de onda de Schrödinger podría ser una descripción determinista del estado de una partícula, tan pronto se trata de observar dicha partícula, la onda se desvanece de forma probabilista. Tal vez, pese a que las ecuaciones matemáticas de la naturaleza nos proporcionen una descripción completa del universo físico, nuestra interacción física con dichas ecuaciones nos impida ser capaces de aprovechar el poder de las matemáticas. El mundo platónico de las matemáticas y el desordenado mundo de la física no encajan con exactitud, de modo que, al final, nunca podremos utilizar el mapa matemático del universo físico. Pero los descubrimientos de principios del siglo xx no sólo hicieron tambalearse nuestra fe en el poder de las matemáticas para describir nuestro universo físico. Incluso dentro de la esfera platónica de las matemáticas, hemos descubierto que el conocimiento tiene límites.
Incompletitud Desde que los antiguos griegos se percataron del poder del pensamiento analítico para descubrir verdades acerca de los números, hemos creído que, en el
71
Marcus du Sautoy
fondo, cualquier afirmación cierta sobre números se puede explicar recurriendo al poder de la demostración matemática. El gran matemático alemán David Hilbert manifestó esta creencia en un discurso que pronunció en 1930 en su ciudad natal, Königsberg, cuando fue nombrado ciudadano de honor: Para el matemático no existe el Ignorabimus, y, en mi opinión, tampoco para las ciencias naturales (...). La verdadera razón por la que nadie ha logrado hallar un problema irresoluble es, a mi juicio, que no existe ningún problema irresoluble. En contra del insensato Ignoramibus, nuestro credo reza: Debemos saber. ¡Sabremos!
Tras pronunciar su discurso, se lo llevaron a toda prisa a un estudio de grabación con el fin de grabar la última parte del discurso y emitirlo en un programa de radio. Si uno escucha atentamente, puede oír a Hilbert reír tras declarar «debemos saber». No obstante, aunque Hilbert no lo sabía, el último en reír lo había hecho ya el día anterior en una conferencia celebrada no muy lejos de allí, en la misma Universidad de Königsberg: un lógico austriaco de veinticinco años de edad llamado Kurt Gödel había anunciado algo que atacaba el corazón de la cosmovisión de Hilbert. Si los axiomas de las matemáticas son consistentes (es decir, no contienen contradicciones), siempre habrá afirmaciones ciertas sobre números que no puedan demostrarse formalmente a partir de los axiomas. Semejante declaración iba contra el espíritu mismo de lo que las matemáticas habían pretendido desde los antiguos griegos. La demostración siempre se había considerado la vía hacia la verdad matemática. Ahora Gödel daba al traste con esa fe en el poder de la demostración. Había quienes esperaban que, añadiendo nuevos axiomas, fuera posible reconstruir el edificio matemático. Pero Gödel puso de manifiesto que tales esfuerzos eran en vano. Por muchos nuevos axiomas que uno añada a los fundamentos matemáticos, siempre quedarán algunas afirmaciones ciertas sin demostración. Esta bomba de relojería se conoce como el teorema de la incompletitud de Gödel: cualquier sistema axiomático consistente es necesariamente in-
72
Irracionalidad, caos e incompletitud
completo en el sentido de que habrá afirmaciones ciertas que no puedan deducirse de esos axiomas. Para demostrar su teorema, Gödel encontró una forma de adaptar matemáticamente paradojas lingüísticas tales como: Esta afirmación es falsa Un rápido análisis de esta afirmación pone de manifiesto que carece de sentido y nos introduce en un círculo de contradicciones. Pero Gödel planteó una variación sobre este tema. Analicemos la frase: Esta afirmación no es demostrable La ingeniosa maniobra de Gödel consistió en llevar a cabo una codificación de esta afirmación de manera que se tradujera en una afirmación sobre números, en lugar de una afirmación lingüística. Pero una afirmación sobre números debe ser cierta o falsa. Supongamos que es falsa. Eso quiere decir que «Esta afirmación no es demostrable» es falso, lo cual, a su vez, quiere decir que debe ser demostrable, pero las afirmaciones demostrables son ciertas. Así que tenemos una contradicción, lo cual quiere decir que «Esta afirmación no es demostrable» debe ser cierto. Pero recordemos que, utilizando la codificación de Gödel, esto se traduce en una afirmación sobre números. Por tanto, hemos demostrado que existen afirmaciones sobre números que no son demostrables. Los resultados de Gödel supusieron un duro revés para los matemáticos de todo el mundo. Había multitud de afirmaciones sobre números que parecían ser ciertas, pero que no sabíamos cómo demostrar. Goldbach: que todo número par es la suma de dos números primos. Números primos gemelos: que existen infinidad de números primos que se diferencian por dos, como 17 y 19. ¿Acaso éstas serían afirmaciones que eran ciertas, pero que no podíamos demostrar a partir de los fundamentos axiomáticos existentes? Hilbert tuvo conocimiento del bombazo de Gödel unos meses después de aquella jornada que pasó en Königsberg. Por lo visto, Hilbert se sintió «un
73
Marcus du Sautoy
tanto enojado» al escuchar la noticia. La declaración de Hilbert –«Wir müssen wissen. Wir werden wissen»–, realizada al día siguiente del anuncio de Gödel, encontró su última morada: fue grabada en la lápida de Hilbert; un sueño idealista del que finalmente las matemáticas habían despertado. El descubrimiento de Gödel tuvo verdadera influencia en una cuestión surgida en relación con el concepto de infinito. Georg Cantor, un matemático de Halle, Alemania, había descubierto a finales del siglo xix el sorprendente hecho de que existían distintos tipos de infinitos. Puede parecer extraño, pero realmente es posible comparar un conjunto infinito de cosas con otro y determinar si uno de ellos es un infinito mayor que el otro. Cuando Cantor propuso la idea en la década de 1870, se consideró prácticamente una herejía o, en el mejor de los casos, los delirios de un loco. Para comparar dos infinitos, imaginemos una tribu que tiene un sistema de cálculo que progresa «uno, dos, tres, muchos». Aun así, resulta posible determinar quién es el miembro más rico de la tribu, aunque resulte imposible definir el valor numérico exacto de dicha riqueza. Si las gallinas son el símbolo de la riqueza de una persona, dos personas no tendrán más que emparejar sus gallinas. Claramente, la persona que se quede sin gallinas antes será la más pobre de las dos. No hace falta que sean capaces de contar las gallinas para comprobar que un conjunto supera al otro. Utilizando esta idea de emparejar objetos, Cantor demostró que, si se comparan todos los números enteros con el conjunto de todos los números fraccionarios (tales como 1/3, 3/4, 5/101), se pueden emparejar de forma exacta. La idea puede parecer absurda, pues se diría que hay muchas más fracciones que números enteros. Sin embargo, Cantor halló un modo de emparejar perfectamente los números enteros con todas las fracciones existentes de manera que no quede ninguna fracción sin pareja. Por el contrario, Cantor elaboró un ingenioso argumento para demostrar que no había forma de emparejar las fracciones con todos los números reales, incluidos números irracionales como pi, √2 o cualquier número con una representación decimal ilimitada. Cantor logró demostrar cómo se puede hallar un número con
74
Irracionalidad, caos e incompletitud
una representación decimal ilimitada que no aparezca en ningún intento de emparejar las fracciones con todos los números reales. He ahí dos conjuntos infinitos que Cantor podía demostrar que tenían tamaños diferentes. Hilbert reconoció que Cantor estaba creando unas matemáticas totalmente nuevas. Es más, declaró que las ideas de Cantor sobre los infinitos eran «el más asombroso fruto del pensamiento matemático, uno de los más hermosos logros de la actividad humana en el ámbito de lo puramente inteligible (…) nadie nos expulsará ya del paraíso que Cantor ha creado para nosotros». Es de todos sabido que, en el Congreso Internacional de París de 1900, Hilbert desafió a la comunidad matemática con veintitrés problemas abiertos. En reconocimiento a las innovadoras ideas de Cantor, dedicó el primer problema de su lista de veintitrés a una pregunta planteada por éste: ¿existe un conjunto infinito de números mayor que el conjunto de fracciones, pero menor que el conjunto de todos los números reales? Creo que esperaba que la respuesta fuera «sí» o «no». Pero el inquietante hallazgo fue que la respuesta era «sí» y «no». En la década de 1960, el matemático estadounidense Paul Cohen demostró que esa pregunta tan básica era una de las sentencias indemostrables de Gödel. Con ello se desvaneció la esperanza de los matemáticos de que tan sólo los casos de problemas aislados y complejos fueran indecidibles. Cohen había probado que no es posible demostrar, a partir de los axiomas que actualmente utilizamos en matemáticas, que existe un conjunto de números cuyo tamaño se encuadre estrictamente entre el número de fracciones y todos los números reales y, asimismo, que tampoco es posible demostrar que no exista dicho conjunto. De hecho, elaboró dos modelos diferentes que cumplían los axiomas que utilizamos en matemáticas y, en un caso, la respuesta a la pregunta de Cantor era «sí», mientras que, en el otro, la respuesta era «no». Algunos han utilizado la respuesta de Cohen para afirmar que significa que no hay unas únicas matemáticas, que escogemos distintos tipos de números en función del mundo matemático en el que queramos vivir. Algunos lo comparan
75
Marcus du Sautoy
con el hallazgo por parte de Gauss de que existen distintas geometrías, no sólo la geometría del mundo físico que nos rodea. En cierto modo es verdad. Pero la cuestión es que, como matemáticos, tenemos una idea bastante clara de a qué nos referimos cuando hablamos de números. Sin duda, los axiomas que utilizamos para demostrar cosas sobre estos números también podrían cumplirlos otros números «sobrenaturales». No obstante, la mayoría de los matemáticos aún creen que la pregunta de Cantor sólo tiene una respuesta cierta para los números con los que construimos nuestras matemáticas. La matemática estadounidense Julia Robinson resumió la reacción de la mayor parte de los matemáticos a la demostración de Cohen cuando le escribió: «Por el amor de Dios, ¡sólo hay una teoría de números cierta! Esa es mi religión». Sin embargo, decidió tachar la última frase antes de enviar la carta a Cohen. Por inquietante que resultara para la ortodoxia matemática, el descubrimiento de Cohen le valió una medalla Fields en reconocimiento a su innovador trabajo. No se puede negar que los descubrimientos realizados por Gödel cambiaron la forma de pensar de la gente. Si un problema resultaba tan imposible de resolver como el de Goldbach, tal vez fuera sencillamente indemostrable con las herramientas y axiomas lógicos que estábamos aplicando. No obstante, habría que procurar no exagerar la trascendencia de los resultados de Gödel: no supusieron la muerte de las matemáticas. Gödel no había socavado la verdad de nada que se hubiera demostrado. Su teorema ilustraba que la realidad matemática es más que la mera deducción de teoremas a partir de axiomas. Las matemáticas eran más que una simple partida de ajedrez. Se produciría una constante evolución de la base de la pirámide matemática, al tiempo que continuaría la construcción del edificio que se apoya sobre dicha base. A diferencia de la naturaleza formal de la construcción que se apoya sobre la base, la evolución de los fundamentos requeriría más bien un recurso a la intuición de los matemáticos sobre cuáles eran los nuevos axiomas que, en su opinión, mejor describían el mundo de las matemáticas. Muchos saludaron el teorema de Gödel como una confirmación de la naturaleza superior de la mente respecto del espíritu mecanicista que surgiera como consecuencia de la revolución industrial.
76
Irracionalidad, caos e incompletitud
Para mí, lo emocionante de las matemáticas es que se trata del lenguaje más poderoso de que disponemos para desvelar la verdadera naturaleza del universo físico. Y, al mismo tiempo, también son lo suficientemente poderosas para volverse contra sí mismas, poner de manifiesto sus propias limitaciones y demostrar cuándo no resulta posible saber algo. Las matemáticas nos proporcionan constantemente una comprensión más y más profunda del universo en que vivimos, pero también nos muestran los límites del conocimiento humano.
77
El diseño de organismos vivos: implicaciones éticas y sociales Luis Serrano Biólogo molecular EMBL-CRG Systems Biology Programme
Una breve introducción al material genético Todos los seres vivos tienen cromosomas formados por el material genético (ADN) y proteínas, que contiene la información necesaria para poder replicarlos. Este material genético se traduce en RNA y proteínas que ejecutan las instrucciones que hay codificadas en el ADN. Este material genético tiene que duplicarse para poder pasar a la descendencia usando una maquinaria muy compleja. Antes y durante el proceso de replicación se pueden producir errores que resultan en la introducción de mutaciones. Esas mutaciones pueden, o no, cambiar la información contenida en el cromosoma. Aquellos cambios que afectan a la viabilidad o competitividad de un ser vivo en un determinado ambiente son objeto de la selección natural. De una forma muy simplificada aquellos cambios que mejoren la eficiencia del ser vivo serán seleccionadas y pasarán a la siguiente generación.
78
El diseño de organismos vivos
El hombre y la selección de variantes naturales Cuando apareció la agricultura y se domesticaron los primeros animales empezó un proceso en el cual la selección natural dejó paso en muchos aspectos a la selección humana. Cuando los primeros agricultores empezaron a cultivar plantas como el trigo y el maíz observaron que había plantas que crecían mejor que otras, que producían más grano o era más gordo, y que mantenían más tiempo los granos en la espiga o mazorca, lo que facilitaba su recolección. De forma consciente, alguno de nuestros ancestros descubrió que si plantaba preferentemente las semillas de estas plantas tenía más plantas del mismo tipo en la siguiente cosecha. Lo mismo pasó con los animales. Probablemente hace más de treinta y tres mil años algunos lobos más mansos o menos asustadizos que otros se acercaban a comer restos de poblados humanos. Quizás alguna hembra de estos animales tuvo crías cerca de los asentamientos y alguien decidió criar a los cachorros. Una vez que empezó este proceso se seleccionarían aquellos lobos que fueran más mansos hacia su amo y que a su vez defendieran a la tribu, y se cruzaron entre sí. Así empezó un proceso fascinante que nos ha conducido a la enorme cantidad de razas caninas que actualmente tenemos. Todos estos procesos de selección durante muchos miles de años se hicieron sin base científica, aprendiendo de la experiencia. En los últimos cien o doscientos años esto cambió. Con la aparición del racionalismo y del método científico, se introdujeron procesos de cría y selección científicos que han permitido mejorar el rendimiento de los cultivos y de la cría de animales, y el desarrollo de especies tolerantes a plagas, salinidad, temperatura, etc. Después de la Segunda Guerra Mundial este proceso se aceleró en el caso de los cultivos gracias al desarrollo de técnicas que permitían cultivar a partir de trozos de tejido plantas enteras en el laboratorio, así como técnicas para introducir mutaciones usando métodos químicos o por irradiación. La combinación de estas nuevas técnicas permitió crear nuevas variedades de una forma acelerada y son responsables en gran parte de la enorme variedad que tenemos ahora en el tamaño y color de las flores cultivadas. Ya a finales del siglo xx el desarrollo de la biología molecular ha permitido poder introducir
79
Luis Serrano
selectivamente genes concretos en las especies de nuestro interés (organismos recombinantes), lo que elimina en gran parte los procesos de selección o de mutación al azar. En el caso de las plantas transgénicas esto ha creado una controversia sobre su utilización, sobre todo en Europa. Curiosamente el público no ha reaccionado cuando se trata de expresar proteínas recombinantes en bacteria para usos terapéuticos como la insulina, la hormona del crecimiento o la famosa EPO, utilizada en medicina pero también para doparse en el caso de algunos deportes. Si comparamos la mejora de las especies animales y vegetales llevada a cabo por el hombre con el desarrollo de la aviación, podemos decir que estamos en un momento similar a cuando se empezaron a crear los primeros aviones de hélice de forma industrial. Sin embargo, así como los aviones modernos se diseñan en el ordenador y cuando se ensamblan ya se sabe cómo van a volar y comportarse, no hemos alcanzado este punto en el diseño y modificación de los seres vivos. Conseguir esto es el objetivo de la biología sintética.
La biología sintética En biología sintética probablemente haya tantas definiciones como investigadores trabajando en este área. Probablemente un elemento común a todas las definiciones sería el siguiente: la biología sintética implica el diseño y construcción de componentes biológicos, procesos biológicos y seres vivos con fines prácticos. Como tal la biología sintética es una ciencia multidisplicinar que combina las técnicas clásicas de la biología molecular con el diseño por ordenador de genes, proteínas, circuitos biológicos, etc., y donde trabajan físicos, matemáticos, químicos, biólogos y médicos. Las herramientas de la biología sintética son los genes, las proteínas y los ordenadores. Por qué la biología sintética se ha constituido en una disciplina científica en los últimos años está relacionado con las herramientas que necesita. En primer lugar, en los últimos veinte años hemos conseguido secuenciar cientos de genomas de especies distintas, hemos podido analizar todos los genes y proteínas que tienen algunos seres vivos, determinar sus metabolitos y re-
80
El diseño de organismos vivos
construir las redes de interacción de proteínas implicadas en la regulación de su actividad. Esta información permite a los biólogos sintéticos seleccionar los genes o procesos de su interés para modificarlos. En paralelo a estos avances la capacidad de cálculo de los ordenadores se ha multiplicado exponencialmente, lo que permite simular procesos muy complejos. Finalmente, en los últimos años, la tecnología de síntesis de ADN ha avanzado hasta un punto donde hoy es posible sintetizar el cromosoma de una bacteria y, por tanto, si fuéramos capaces de entender cómo funciona un ser vivo al ciento por ciento podríamos crear especies nuevas. Es importante a la hora de diseñar o modificar un proceso biológico tener en cuenta que los seres vivos tienen peculiaridades que los hacen especiales y que implica que no todas las técnicas de la ingeniería clásica se puedan aplicar. En ingeniería, cuando uno diseña un circuito, es posible aislar unos componentes de otros al ciento por ciento, esto no es posible en un sistema biológico donde siempre habrá un grado de conectividad con otros componentes que no se puede desdeñar. Como dijimos al principio, los seres vivos mutan y la selección natural actúa sobre esas mutaciones. Eso implica que si diseñamos una bacteria para que produzca un bien, si no aplicamos una selección muy fuerte para que no pierda la capacidad de producción de este bien en unas pocas generaciones se perdería este rasgo dado que muy probablemente las bacterias que mutaran y dejaran de producirlo tendrían ventaja.
Aplicaciones de la biología sintética Los primeros pasos en la biología sintética consistieron en diseñar circuitos de juguete, es decir, circuitos sin ninguna aplicación práctica donde simplemente se pedía que el circuito diseñado se comportara como se había concebido cuando se pusiera dentro de una célula. Así se diseñaron circuitos que imitaban circuitos clásicos en ingeniería como supresores de ruido, osciladores, creación de patrones espaciales, amplificadores, reglas lógicas, etc. El suceso de estos diseños (aunque muchos requerían varios pasos de prueba y error y no funcionaban a la primera), llevó a los investigadores a
81
Luis Serrano
empezar a pensar en proyectos más arriesgados y con fines prácticos. Si clasificamos de forma grosera todos los proyectos que hoy están en marcha en el mundo en el campo de la biología sintética, vemos que estos procesos tienen como objetivo hacer frente a los grandes desafíos del siglo xxi: alimentar a la población, descontaminar y detoxificar suelos, biosensores, producción de nuevos compuestos de forma no contaminante, producción de fuentes alternativas de energía al petróleo, mejora de la salud humana y erradicación de infecciones, etc. Así tenemos grupos modificando plantas para que cuando crezcan encima de una mina cambien de color, o detecten infecciones en catéteres en hospitales (biosensores); modificando bacterias para que puedan producir seda de araña (nuevos materiales); diseñando y modificando plantas y bacterias para producir biofueles o hidrógeno que reemplacen al petróleo (nuevas fuentes de energía). Utilizando bacterias para descontaminar aguas residuales o eliminar productos tóxicos del suelo (biorremediación). Todos estos proyectos se encuentran en fase de desarrollo y todavía no han llegado al público. Quizás uno de los más avanzados y reconocidos a nivel mundial ha sido la producción de una nueva droga (artemisina) contra la malaria usando bacterias o levaduras. La artemisina es una nueva droga muy eficaz contra la malaria resistente a los derivados de la quinina. Esta substancia la produce una planta y el costo de cultivarla y extraerla lo hace prohibitivo para los habitantes de países del tercer mundo. Pues bien, usando técnicas de biología sintética investigadores de USA han conseguido reducir el coste más de diez veces produciéndola en bacteria o levadura. Otras aplicaciones de la biología sintética menos avanzadas pero con un gran potencial son en el campo de la salud humana, donde se están diseñando bacterias (biobots) para combatir enfermedades como el cáncer, infecciones o en procesos de regeneración celular.
La ética y la biología sintética La biología sintética, como toda nueva tecnología o avance científico, puede tener un impacto ético y necesita de un debate informado con la sociedad para que esta decida cuáles son los límites de sus aplicaciones. Avances que
82
El diseño de organismos vivos
aparentemente pueden ayudar a una gran parte de la humanidad –como es la síntesis más barata de la droga contra la malaria, la artemisina mencionada anteriormente– tienen un aspecto negativo, que es la destrucción de miles de puestos de trabajo y de una economía local de los pequeños agricultores en el tercer mundo, que ahora cultivan la planta de la cual se extrae la droga, y el traspaso de su producción a grandes conglomerados industriales en el primer mundo. En términos más generales hay que evaluar una serie de temas éticos generales como: bioseguridad y riesgo, acceso a las nuevas tecnologías, usos relacionados con armas biológicas o bioterrorismo, el impacto social, etc. Desde hace unos diez años se han creado diversos comités a nivel internacional que debaten y han elaborado documentos sobre el tema. Temas tan diversos como el potencial uso en bioterrorismo, el impacto en el medio ambiente, el jugar a ser Dios creando nuevas formas de vida o de futuro como la posibilidad de modificar el genoma humano, se abordan en estos comités. Es importante, sin embargo, educar a la sociedad sobre lo que se puede y podrá conseguir con la biología sintética y sus posibles riesgos e implicaciones éticas, para que sean los agentes sociales bien informados los que decidan los límites y las aplicaciones de esta nueva disciplina científica. En este punto es importante recordar que la ciencia y el conocimiento científico no es bueno ni malo, es la sociedad la que debe decidir qué aplicaciones son buenas y los usos a los que se deben destinar.
83
Luis Serrano
Bibliografía Choffnes E. R., D. A. Relman and L. Pray (2011): The Science and Applications of Synthetic and Systems Biology, Workshop Summary, Institute of Medicine (US) Forum on Microbial Threats, Washington (DC), National Academies Press (US). [http://www.ncbi.nlm.nih. gov/books/NBK84445/] Ruder, W. C., T. Lu and J.J. Collins (2011): «Synthetic Biology Moving into the Clinic», Science 333, 1248. (2012): Inventory of synthetic biology products – existing and possible, Draft – July 27. [http:// www.synbioproject.org/process/assets/files/6631/draft/ synbio apllications wwics.pdf] WANG, B., J. WANG, W. ZHANG and D. R. MELDRUM (2012): «Application of synthetic biology in cyanobacteria and algae», Frontiers in Microbiology, September,Vol. 3, pp. 344.
84
Biografías Stuart Clark David Jou Eduardo Punset Marcus du Sautoy Luis Serrano
Los límites de la ciencia
Stuart Clark El astrofísico Stuart Clark es miembro de la Royal Astronomical Society y vicepresidente de la Association of British Science Writers. Es conocido por sus colaboraciones como periodista y divulgador científico en numerosos medios de comunicación (BBC,The Times,The Guardian, Daily Express) y en revistas especializadas (Astronomy Now o Sky). Además, Clark ha publicado varios libros en los que acerca al público las complejas teorías acerca del universo. Entre sus obras más conocidas destacan: The Big Question: The Universe, Journey to the Stars,Voyager: 101 Wonders between Earth and the Edge of the Cosmos y la trilogía The Sky’s Dark Labyrinth.
David Jou Es poeta y catedrático de Física de la Materia Condensada en la Universitat Autònoma de Barcelona. Ha publicado numerosos trabajos de investigación en su campo de estudio, la física de sistemas lejos del equilibrio, así como varios ensayos (El laberinto del tiempo, La sinfonía de la materia, Cerebro y universo, dos cosmologías). Su trayectoria científica ha sido reconocida con diversos galardones, entre otros, el premio Rey Juan Carlos a la Investigación Científica (1986), el premio Ciudad de Barcelona (1993) y la medalla Narcís Monturiol (1992). Sus poemas, de inspiración científica y filosófica, han sido reunidos en dos volúmenes titulados El éxtasis y el cálculo y El huracán sobre los mapas.
Eduardo Punset Licenciado en Derecho por la Universidad de Madrid y máster en Ciencias Económicas por la London School of Economics, de la Universidad de Londres. Dirige el programa de divulgación científica Redes en TVE y preside la productora audivisual de contenidos científicos Smart Planet. Fue profesor de Ciencia, Tecnología y Sociedad en el Instituto de Empresa de Madrid, en ESADE y en el Instituto Químico de Sarriá de la Universidad Llull de Barcelona. Detentó el cargo de ministro de
87
Biografías
Relaciones para las Comunidades Europeas y el de representante del Fondo Monetario Internacional en el Caribe. Es autor de varios libros como La salida de la crisis, Adaptarse a la marea, El viaje a la felicidad, El viaje al amor, Por qué somos como somos y Excusas para no pensar.
Marcus du Sautoy Catedrático de Matemáticas en la Universidad de Oxford, lleva a cabo una importante labor de divulgación de esta disciplina en diversos medios de comunicación. Ha recibido varios premios en reconocimiento a su labor científica y divulgativa como el premio Berwick (2001), el premio Peano (2004), el premio Sartorius (2005) y el premio Michael Faraday (2009). Es autor de varias obras de divulgación matemática como The Music of the Primes, Finding Moonshine y The Num8er My5teries: A Mathematical Odyssey Through Everyday Life.
Luis Serrano Biológo molecular con una gran trayectoria internacional de investigación en el ámbito del genoma humano. Desempeñó el cargo de jefe de grupo en el Laboratorio Europeo de Biología Molecular (EMBL) con sede en Heidelberg, además del de jefe del programa de Biología Estructural y Computacional en esta institución europea y en el Centro Nacional de Investigaciones Oncológicas (CNIO) de Madrid. En la actualidad es jefe de grupo en la unidad de investigación en Biología de Sistemas en el Centro de Regulación Genómica de Barcelona.
88
Ciencia y Sociedad La decimoséptima edición del ciclo Ciencia y Sociedad, organizada por Fundación Banco Santander, estuvo dedicada a reflexionar en torno a las limitaciones del conocimiento científico. Es innegable que el avance de la ciencia en las últimas décadas ha sido considerable, sin embargo, cada nuevo descubrimiento da lugar al planteamiento de nuevas incógnitas. ¿Seguirá aumentando el conocimiento o llegará un momento en el que se planteen preguntas sin respuesta? El progreso del conocimiento puede encontrarse con serias limitaciones derivadas del propio método científico, de nuestras facultades intelectuales, de dificultades técnicas que impidan verificar hipótesis o de restricciones éticas en su aplicación. El físico David Jou, el astrofísico Stuart Clark, el matemático Marcus du Sautoy y el biólogo molecular Luis Serrano, coordinados por Eduardo Punset, expusieron cuáles son, a su juicio, los límites del conocimiento partiendo de un análisis de sus diversas disciplinas científicas.