sábado, 31 de diciembre de 2016

El I+D de 2016, en 10 noticias.




Es hora de ajustar cuentas con 2016.
  1. Pasará a la historia: el descubrimiento de las ondas gravitacionales en uno de los experimentos más espectaculares de la historia de la ciencia.    Cosas así  me reconcilian con el género humano.
  2. Premio Nobel para las fases topológicas. Esta ha sido otra de las alegrías del año, por varios motivos.   El premio Nobel había sido anticipado, en parte, por este blog, hace 2 años.  Más importante:  este premio  reivindica una forma de mirar al universo que nos es muy querida a los físicos de la Materia Condensada.
  3. Los españoles no somos más tontos.    Uno de los hitos de 2016 ha sido el descubrimiento de un planeta potencialmente habitable en  Proxima Centauri, el sistema solar más cercano al nuestro.  El descubrimiento ha sido realizado por un equipo internacional liderado por los astrofísicos españoles    Guillem Anglada-Escudé (Londres)  Pedro J. Amado (Granada), entre otros.   Ciertamente,  esto de descubrir otros mundos es parte de nuestra tradición cultural.
  4. Los españoles no somos más tontos (2). Otro de los hitos de este año ha sido el logro del equipo del español Juan Carlos Ispizua (Instituto Salk,  Long Island, NY),  mostrando la posibilidad de revertir el envejecimiento en ratones.   Las posibles aplicaciones en humanos,  y lo que esto supondría,  se comentan por si solas.
  5. Las universidades españolas siguen siendo muy malas. Un año más, la publicación de varios rankings   no sitúa a ninguna de nuestras universidades en la lista de las 150 primeras.  Sin embargo, en algunas disciplinas específicas,  algunas universidades  españolas  dan la talla, como le gusta apostillar a mi colega de la U. Alicante,  Juan Carlos Sancho.   Así, la Autónoma de Madrid sale la 50 en Física,  por delante de Leiden, Bruselas  y  UC San Diego.    Por tanto,  si se puede hacer bien, y  no es que falten mimbres, el problema es de gobernanza.
  6.  Rector español acusado de plagio.   Los problemas de gobernanza de las universidades españolas  han quedado en evidencia, más si cabe, con el escándalo que rodea al rector de la Universidad Rey Juan Carlos,  que ha sido acusado de varios casos de plagio que afectan a su tesis doctoral y a más de una decena de publicaciones.  Aunque el caso está todavía lejos de llegar a una sentencia judicial, los indicios en contra del Rector son abrumadores. Anoto como prueba documental  de los males que aquejan a la universidad española la frase que ha dejado el rector   en su nota de prensa: "El rector solo se debe a su comunidad universitaria".   Ilustrísimo Rector:  el 85% del presupuesto  de su universidad lo ponen los contribuyentes, también nos debemos a ellos ¿no?.  
  7. Informe Pisa:  los estudiantes españoles de 15 años por detrás de Portugal, en habilidad lectora,  y matemáticas.    Desgraciadamente nos hemos acostumbrado a  estar  por detrás de Singapore, Corea del Sur, Japón y China,   como si lo que ocurre allí no fuera con nosotros.  También nos hemos acostumbrado a estar por detrás de Alemania, Francia,  y el recurrido ejemplo de Finlandia.  A ver si perder también con nuestro  entrañable vecino Portugués, al que ocasionalmente hacemos de menos y casi siempre ignoramos,    remueve algo en el orgullo patrio e intentamos remediar los  graves problemas del sistema educativo, el más importante de todos que a la mayoría de la gente le importa un carajo la educación: viva el vino.
  8.  La parálisis política también afectó al I+D.   Está claro que un gobierno en funciones tiene aún menos margen para gestionar el I+D, y así hemos estado en 2016.   Me llamó particularmente la atención que durante 2016 también se paralizó el sistema de acreditación de profesores de Universidad, que gestiona la ANECA.  No me queda claro si se trata de una coincidencia, pero lo cierto es que durante 2016 el procedimiento para acreditar la validez de los profesores para poder acceder a puestos de profesor titular y de catedrático no ha funcionado. 
  9. Europa intenta liderar la segunda revolución cuántica.  2016 ha sido el año del Manifiesto Cuántico, el  documento elaborado por científicos europeos para animar a la Unión Europea a iniciar un ambicioso programa de inversiones en "nuevas tecnologías cuánticas",   el llamado "programa buque insignia en tecnologías cuánticas",  o "flagship on Quantum Technologies".  Este es un campo  que podría permitir el desarrollo de varias tecnologías disruptivas, como los ordenadores cuánticos y telecomunicaciones ultraseguras.   Es por esto que grandes empresas norteamericanas como Google, Microsoft, Intel e IBM  están haciendo grandes inversiones.  El gobierno español parece haber  tomado nota, en parte, de la importancia del flagship,  y ha promovido tres Foros de discusión sobre el tema.  Así, en Mayo de 2016,   tuvo lugar una reunión  en el Ministerio de Economía.    Me debo estar haciendo muy mayor,   y estamos viviendo en el futuro, con la física cuántica abriéndose camino por los pasillos del Ministerio de Economía.
  10.  El INL y la Universidade do Minho ponen en marcha el QuantaLab.  Fue en este contexto en el que mi centro de investigación, el INL, y su vecino de la acera de enfrente,  la Universidade do Minho, han puesto en marcha un centro mixto de investigación en Tecnologías Cuánticas y Materiales cuánticos, el QuantaLab.  Este proyecto es uno de los hijos de 2016, y espero que nos de mucho que hablar en los próximos años. 
2017,  allá vamos.  

sábado, 22 de octubre de 2016

Escraches en la universidad




Por los mismos pasillos de la Facultad de Derecho de la Universidad Autónoma de Madrid (UAM)  en  los que esta semana decenas de jóvenes,  ocultando su rostro,  gritaban insultos y consignas  contra González y Cebrián,   tuvo necesariamente que caminar  hace ya 20 años un tipo con una pistola, subir  hasta el despacho de Francisco Tomás y Valiente,  que desarmado e indefenso estaba hablando por teléfono con un colega.   El asesino le descerrajó dos tiros por la espalda, a sangre fría, acabando así con la vida del catedrático en la misma Facultad  en la que algunos de los participantes del escrache  portaban  pancartas a favor de los terroristas de ETA y  llamaban asesinos a González y Cebrián.  La sala en la que iban a dar su conferencia  lleva el nombre de  Francisco Tomás y Valiente.  A no ser que estén enfermos de una maldad que me cuesta concebir,  quiero pensar que la inmensa mayoría de  los manifestantes  no tienen ni puñetera idea de quien era Tomás y Valiente, y de qué  ocurrió en esos mismos pasillos el 14 de Febrero de 1996.     

Desgraciadamente, estos  incidentes no son  algo nuevo.  Hace   22 o 23 años, un par de años antes de que asesinaran a Tomás y Valiente,   asociaciones de estudiantes "progresistas" organizaron un acto invitando a participar a Herri Batasuna en la UAM.  Fue en esa época cuando estudiantes "de derechas" le montaron una sonora pitada a Felipe González en un acto, también en la UAM.   Pero la UAM no tiene el patrimonio de los escraches ni los jaleos.    En 2010,  fue en  la Universidad Complutense de Madrid donde le intentaron reventar un acto a Rosa Diez,  y en primera fila,  con una mirada y una actitud que los lectores de este blog sabrán juzgar,  se encontraba el que ahora es un conocidísimo líder político.   A la misma Rosa Díez también le dijeron de todo, y lanzaron hasta piedras en la Universidad Autónoma de Barcelona.  Las mismas caretas que portaban los acosadores de esta semana en la Autónoma las vi  yo mismo,  hace 10 años, en  un acto de protesta de unos 20 encapuchados contra la visita del presidente de la comunidad autónoma vasca, Ibarreche,  hace 10 años, en la Universidad del Pais Vasco.   Y en Febrero de 2015  tuvimos que saltar una valla,  mi visitante de un Max Planck Institute y yo, para poder entrar   a la Universidad de Alicante,   bloqueada  un día entero, impidiendo el acceso  a sus tres mil trabajadores y 25 mil estudiantes,  por    un grupo de menos de 100 estudiantes,   en un día de  huelga.

Estos eventos son las erupciones puntuales de un volcán cuyo magma es, casi siempre,  una amalgama ideológica que  combina el anti-capitalismo, la anti-globalización, la simpatía por el régimen cubano, por el Che, por el pueblo palestino, y por otras causas siempre lejanas  y un temor absolutamente infundado contra la privatización de la Universidad y la "defensa de la Universidad pública" que casi nunca incluye el elogio del estudio, el esfuerzo y la meritocracia.     Tiene ironía y cierta gracia que lo de  antiglobalización te lo espeten desde un móvil coreano  con chips fabricados en Taiwan, en una red social programada en California, sentados en un restaurante chino, vistiendo ropa hecha en Bangladesh, con unas gafas diseñadas en Italia,  mientras intercambian mensajes con software ruso sobre el último comic japonés, escuchando música inglesa.  Lo que también es irónico, pero nada gracioso, es que siguiendo el manual del perfecto fascista,  insulten en grupo con esa palabra, fascista,  a González y Cebrián, que por muy lobbystas enriquecidos que puedan ser,  han escrito la brillante historia de éxito que convierte la triste  España de 1975 en un  país democrático, moderno, plural, e integrado en Europa, un par de décadas más tarde.    

Por supuesto,  la pasividad, tornada a veces en complicidad,  de las autoridades académicas ante la presencia notoria de estos grupos y su discurso radical  en la Universidad, tiene mucho que ver con todos estos incidentes.    Las Universidades en España  han demostrado su eficacia a la hora de producir tipos desaliñados hablando contra el capital y montando escraches,  pero desgraciadamente,  no producimos Premios Nobel,  Zuckelbergs,  Googles.   No estaría mal que produjésemos más scratch, la aplicación de MIT para que los niños programen ordenadores,  y menos escraches.  

sábado, 15 de octubre de 2016

3 cifras para ponernos en situación.



Primera cifra: 360 mil euros.    Es doce de Octubre.  A pesar de que vivo a unos 4 kilómetros, me llega clarísimo  el estruendo de explosiones a las 8 de la mañana. Son las fiestas de  El Campello, moros y cristianos.    El Campello se funde unos 360k€  en fiestas, según su presupuesto de 2014, disponible en la web del ayuntamiento   ( partidas 33401, 33402,  33801 página 5).    Me llama la atención de la partida de pirotecnia, 67k€.

Segunda cifra:   1200 millones de euros.   El 13 y 14O visito   la Universidad de Manchester,  llena de obras y renovación por todos los lados.  La foto habla por si sola:


 Fijaos en el cartel: Un "1 billion pounds campus master plan".  1000 millones de libras esterlinas, o sea, al cambio post-brexit,  1200  millones de euros. El presupuesto íntegro de la universidad de Alicante de 7 años, para renovar el campus de una única universidad, que tiene apenas un 20% más de estudiantes.   Hace unos meses han estrenado  el flamante edificio del National Graphene Institute,  los réditos del descubrimiento del grafeno (hecho, por cierto, por Novoselov y Geim,  inmigrantes rusos en Manchester, otra ventaja de recibir inmigrantes).  Me encuentro, entre otros, con algunos científicos españoles trabajando allí.

National Graphene Institute,  Universidad de Manchester. 


Tercera cifra:  17 mil euros.   De vuelta a España,   me ponen al día de la reunión de la Junta de Gobierno de la Real Sociedad Española de Física. Entre otros muchos temas,  mis colegas han discutido sobre el problema del pago de la cuota del estado español a la IUPAP, la "International Union of Pure and Applied Physics".  Se trata de 17k€, que el estado  español, 44 millones de habitantes,  dejó de pagar en 2013 y 2014.  El mismo año que El Campello,  municipio alicantino con 27 mil habitantes,   se gastó 360k€ en fiestas.

Si,  supongo que son muchos números, y da pereza pensar, y mola más irse a tomar cervezas,  y disfrazarse de sarraceno.   Y así nos va.   Pero lo cierto es que mientras los ayuntamientos queman el dinero en fiestas, el gobierno se lo regatea a la ciencia y a la Universidad, mientras que nuestros competidores hacen fuertes inversiones que les harán más productivos.  Este es el futuro que estamos sembrando.

domingo, 9 de octubre de 2016

Premio Nobel de Física 2016: el universo no es como el Lego.



Esta entrada está dedicada al premio Nobel de Física de 2016,  concedido a Michael Kosterlitz,  David Thouless y Duncan Haldane por  sus  "descubrimientos teóricos sobre las transiciones de fase topológicas y las fases topológicas de la materia" (theoretical discoveries of topological phase transitions and topological phases of matter).    La prensa se ha hecho eco del premio usando  la  expresión  de la nota de prensa emitida por la Real Academia Sueca de las Ciencias:  los galardonados " revealed the secrets of exotic matter".  Las palabras "Materia exótica" y "topología"   dejarán a la mayoría con la misma cara que una vaca delante de un cohete,  cosas raras de gente muy lista que difícilmente pueden importar.   Sin embargo, el Nobel de este año premia un conjunto de ideas  excepcionalmente importantes ya  que  suponen un desafío a la visión "reduccionista" del universo.

En la imagen reduccionista,   el universo es como una caja de Lego muy grande. El número total de piezas es gigantesco, pero con muy poca variedad. Un número pequeño  de  tipos de piezas,  los electrones, quarks, fotones y neutrinos, se  repite casi hasta el infinito.   Igual que ocurre en el Lego, diferentes combinaciones de las mismas piezas dan lugar a diferentes juguetes.  En esta imagen, el estudio de las piezas individuales  es una rama más profunda o fundamental de la física, mientras que el estudio de los "juguetes"  aborda aspectos menos esenciales, alejados de las verdades inmutables y últimas.

El  descubrimiento del efecto Hall cuántico, en 1980,   es uno de los ejemplos de por qué la visión  reduccionista del universo  es esencialmente incompleta, y el trabajo de Thouless en 1982  ayudó a entender por qué.  El efecto Hall cuántico ocurre cuando una capa delgada de material semiconductor es enfriada a 270 grados bajo cero y sometida a un campo magnético miles de veces mayor que el de la tierra, de forma que   conduce electricidad de forma "cuantizada": la  conductancia  (inverso de la resistencia eléctrica) de ese sistema, constituido   por  trillones de trillones  de átomos,  únicamente puede tomar valores múltiplos del llamado "cuanto de conductancia".  Esta cantidad es el resultado de dividir el cuadrado de la carga del electrón por la constante de Planck,  que  a su vez  es el cociente entre energía y la frecuencia de los fotones.   ¿Cómo puede ser que la resistencia eléctrica del material no dependa de su longitud, de su sección, o de su composición química, tal y como le enseñamos a los estudiantes en la carrera?.  ¿ Y cómo puede  ser  que  la conductancia de un objeto macroscópico esté cuantizada, cuando este tipo de fenómeno se suele atribuir de forma exclusiva a propiedades de sistemas  de tamaño atómico?  Y más aun: ¿cómo puede ser que la precisión con la que ocurre este fenómeno sea tal que este experimento, y no uno hecho con fotones y electrones,   nos proporciona la definición del "cuanto de conductancia"?.  O sea, ¿cómo puede ser que si repetimos el experimento del efecto Hall cuántico  con dos circuitos diferentes,   ambos conduzcan electricidad de forma idéntica?.

El trabajo Thouless en 1982, junto con  tres colaboradores (M. Kohmoto, M. P. Nightingale, and M. den Nijs) ayudó a entender todo esto de forma particularmente elegante, al relacionar la conductancia (Hall) del sistema con el producto del "cuanto de conductancia"  y un "invariante topológico".   La topología es la rama de las matemáticas que describe las propiedades de un objeto que permanence inalteradas cuando el objeto se deforma, se retuerce o se dilata, sin romperse.  Repitiendo el ejemplo casi inevitable, el número de agujeros de un objeto es un "invariante" topológico:  una manzana tiene 0 agujeros, un donut 1 agujero y unas gafas 2 agujeros.     Esto ayuda a entender  por qué, en el régimen del  efecto Hall cuántico ,  la conductancia  permanece inalterada cuando se cambia el tamaño del circuito o su composición química.  Así,  objetos complejos pueden tener propiedades intrínsecas perfectamente definidas,   igual que las partículas elementales.

El uso de conceptos topológicos en 1982 no fue ni el primero ni el último. El mismo Thouless,  en colaboración con  Kosterlitz,   había propuesto   10 años antes el concepto de transición de fase topológica  en un modelo matemático que se usa para describir materiales superconductores en dos dimensiones. Ahora que el grafeno sale en el telediario, esto nos parece normal, pero en aquel momento el modelo podía parecer un divertimento  matemático. El modelo describía un inmenso tablero de ajedrez en el que en cada casilla  colocamos una brújula  que  sentiría el campo magnético creado por las brújulas adyacentes.   El conocimiento establecido en aquel momento decía que, en dos dimensiones,  no puede haber transiciones de fase en sistemas con simetría continua, como ocurre con las brújulas, suponiendo que no hay un campo magnético externo.   Kosterlitz y Thouless  propusieron un nuevo tipo de transición de fase cuyos protagonistas no eran las brújulas,  sino unas super-estructuras que solo cobran sentido si miramos a decenas de brújulas, como se puede ver en la figura.   Los vórtices son remolinos que pueden girar "a izquierdas" o "a derechas". Al sentido de giro se le puede asignar el número +1 o -1, y resulta ser  un invariante topológico.  Al juntar dos remolinos, únicamente pueden aniquilarse, si tienen sentido de giro opuesto.   En la transición de fase topológica de Kosterlitz y Thouless, los vórtices están ligados en parejas en la fase fría, pero se "divorcian" en la fase caliente.    Un aspecto fascinante de este sistema es la emergencia de objetos con propiedades bien definidas  y robustas, los vórtices,  al considerar el comportamiento colectivo de piezas de construcción más pequeñas, en este caso las brújulas.

Figura de pares ligados de vortices (izquierda), y s en el modelo XY. Fuente:  resumen para no expertos de la academia. 


Ahora vayamos con el tercer premiado, Haldane.  El comité Nobel menciona dos contribuciones decisivas, aquí me concentraré en una de ellas. En 1988 Haldane  escribió un artículo en el que proponía un modelo matemático para otro material bidimensional,  muy parecido a lo que hoy llamamos grafeno, que tendría la propiedad de presentar efecto Hall cuántico sin necesidad de aplicar un campo magnético externo. En el modelo de Haldane,  los electrones están sujetos a un campo magnético peculiar que cambiaba de orientación en distintos puntos del sistema, de forma que el campo promedio moverse que se anulaba al ser  promediado sobre todo el sistema.  Lo cierto es que aquel trabajo apenas suscitó interés de la comunidad  hasta que en 2004 dos físicos norteamericanos, Charles Kane y Eugene Mele,  se dieron cuenta de que el modelo de Haldane servía para describir el efecto de la interacción spin órbita en grafeno, lo que les llevó a proponer un nuevo tipo de efecto Hall cuántico, el "Efecto Hall cuántico de spin".   Esta contribución fue decisiva para que otros grupos propusieran la realización de este tipo de fenómeno en otros materiales que ahora llamamos aislantes topológicos, lo que ha conducido  a su observación experimental en la última década, abriendo un nuevo capítulo en la historia del estudio de las propiedades electrónicas de los materiales.

Esta historia tiene varias moralejas. La más importante es la reivindicación  de las ideas de Phil Anderson sobre  el concepto de "emergencia":  el comportamiento de un sistema va mucho más allá de la suma de las partes.   Hacen falta muchas "brújulas" para formar un vórtice,  en la misma medida en la que hacen falta muchos átomos para hacer una brújula,  y muchos quarks para formar un átomo, y por el otro lado, muchos vórtices para dar lugar a una transición de fase topológica.   Entender como se comporta una brújula apenas ayuda a entender un vórtice, igual que entender la física atómica no permite desentrañar los misterios del ADN, y descodificar el genoma no permite averiguar como se pliegan las proteínas.

La moraleja específica del premio Nobel de 2016 es que las estructuras que emergen al combinar otras más pequeñas  pueden tener propiedades definidas de forma muy precisa gracias a la robustez que proporciona la topología.  Por ello, las propiedades de algunos de estos "objetos emergentes" están  definidas de forma tan reproducible como las propiedades de las partículas fundamentales. Todo esto  ilustra lo equivocado de atribuir un carácter más fundamental  al estudio de las partículas subatómicas que al de la  materia condensada. Por último,  a aquellos que únicamente esperan de la ciencia resultados prácticos  les tranquilizará saber que todo esto de la cuantización de la conductancia, además, resulta terriblemente práctico. El efecto Hall cuántico  nos proporciona el patrón de medida de conductancia eléctrica, una cantidad de indudable interés tecnológico en la civilización en el siglo XXI, que permite calibrar los miles de millones de componentes electrónicos que nos rodean.


sábado, 10 de septiembre de 2016

¿Es rentable el CSIC?



 Jhon Müller,  periodista con el que muy a menudo estoy de acuerdo,  "retwiteó" el otro día la siguiente reflexión de un  señor del que no había oído hablar, Amadeo Petitbó:  "El CSIC pierde millones de euros y no sucede nada. Todo el mundo sigue. Debería ganar dinero con patentes y otros ingresos. Pésima gestión".


Tras un par de tweets de respuesta se me ha hecho evidente que ciertos asuntos no se pueden despachar en 140 caracteres.    Vaya por delante que, como he dejado escrito en este blog  (aquí, aquí  y aquí  ),      opino que   el CSIC puede hacer las cosas mucho mejor.  Pero la cuestión que quiero abordar en esta entrada no es esa.  Lo que quiero rebatir aquí es la afirmación del catedrático Petitbó, "El CSIC pierde millones de euros y no sucede nada. ...Debería ganar dinero con patentes y otros ingresos".    ¿Es rentable el CSIC?. ¿Debería "ganar dinero" ?. ¿Puede ser rentable?. 

Imaginemos que hubiera una forma de gestionar el CSIC tal que, invirtiendo 600 millones al año en su mantenimiento (aproximadamente el presupuesto anual del CSIC, algo así como el de la Universidad Complutense de Madrid), el CSIC produjese 630 millones al año en patentes y "otros ingresos".  El CSIC tendría una rentabilidad anual del 5%, algo parecido a El Corte Inglés.  Para ello, quizá habría que hacer "investigaciones útiles", como propone Petitbó en su tweet del 20 de Agosto.  El CSIC sería rentable, y no otra losa en los presupuestos de los españoles.  El CSIC sería una máquina de hacer dinero.   

Si esto fuera posible, la pregunta es: ¿por qué no se dedican los grandes inversores a construir centros de investigación privados,  que gestionados adecuadamente,   se dedican a obtener dinero fácil  dirigiendo  a los investigadores para que hagan "investigaciones útiles" , y no dedicarse investigar cosas inútiles?.   ¿Por qué no proliferan como setas  centros de investigación privados  rentables?.   Tenemos unos cuantos problemillas prácticos cuya solución podría ser bastante rentable: obtención de energía limpia y barata,  reducción de las emisiones de gases de efecto invernadero, prevención enfermedades cardiovasculares (principal causa de mortalidad en países avanzados),  cura del Alzheimer,   diagnóstico rápido de varias enfermedades letales,  cura de enfermedades mentales varias.  Seguro que si consultan a alguien con una mentalidad más pragmática que la mía, que al fin y al cabo soy físico teórico,  le pueden dar más ideas para hacer "investigaciones útiles". 

¿Y si no fuera tan fácil?.  Y si les dijera que la mayoría de los descubrimientos ocurren por accidente.  Que la investigación que condujo a   muchos de los descubrimientos "útiles", como el Viagra, el Ritalín, el microondas,  o la magnetoresistencia gigante, iban realmente buscando otra cosa.  Que la planificación de los objetivos de investigación tiene una eficacia parecida a la de la planificación de las actividades económicas.   Quizá esto ayude a entender por qué  las inversiones en empresas tecnológicas tiene un altísimo riesgo, dado que la mayoría fracasan,   pero las que no lo hacen generan un negocio enorme.  

Termino con cuatro breves reflexiones: 
1)  La mayoría de los descubrimientos  no vale para nada "rentable", al menos a corto plazo.  Esto es cierto para los grandes descubrimientos que salen en los medios, como el bosón de Higgs o las ondas gravitacionales,  y no digamos para los 6 millones de publicaciones científicas, reportando otros tantos hallazgos, que se publican cada año.   Los investigadores deberíamos hacer un esfuerzo por educar a los periodistas en este aspecto. 

2) Los países que se lo pueden permitir, financian programas de investigación "inútil" (también conocidos como ciencia básica),  ya que  poseer un sistema  de investigación  potente conlleva varias ventajas. Primera,  dicho sistema permite formar gente altamente cualificada,  cuyos conocimientos benefician al sector productivo.  Segunda, es una forma excelente de hacer publicidad. Un país que invierte en ciencia manda el mensaje, a su sociedad y al resto del mundo, de que apuesta decididamente por su futuro, y de que hay personal altamente cualificado en el país, y no únicamente toreros,  camareros y tertulianos.  Tercera,  de vez en cuando,   la investigación "inútil" conduce a descubrimientos que lo cambian todo, como el laser o la energía nuclear.  

3) El CSIC puede y debe hacer muchas cosas para mejorar. Lo mismo es válido para las universidades españolas.  Unos y otros deben hacer un esfuerzo para atraer y retener talento,  tratando de forma excepcional a los investigadores excepcionales, y acabando con el café para todos, sobre todo cuando queda tan poco café.

4) El CSIC nos cuesta cada año el equivalente a la construcción de unos 42 kilómetros de via de alta velocidad.    La explotación de la práctica totalidad de esas vías de alta velocidad se hace a pérdida,  ya que casi ninguna es rentable, debido al bajo número de pasajeros.  Las famosas ayudas a Bankia (19 mil millones de euros) permitirían financiar el CSIC durante 31 años.    Hay tanto dinero público francamente mal gastado que produce irritación, y un poco de vergüenza ajena, que sigan  señalando  al CSIC,  que ya ha sufrido serios recortes que han afectado gravemente su funcionamiento y que han acabado con el contrato de mucha gente, no por su incompetencia, si no por no estar protegidos por un contrato de funcionario, lo que está llevando a que la edad promedio de los empleados del CSIC supere los 50 años.     Esto si que me parece una  "pésima gestión"



martes, 23 de agosto de 2016

España en el medallero de Shangai



España ha quedado en el puesto 14 en el medallero de los JJOO de Rio de Janeiro.   Teniendo en cuenta que ocupamos el puesto 12 en el ranking de producto interior bruto, nuestro  puesto en el medallero parece  razonable: únicamente hay un país por encima   con menor población y menor renta per-capita (Hungría).  Es decir, que nuestra ubicación en el medallero se corresponde  con  nuestra potencia económica.    Lo mismo se aplica a una gran cantidad de rankings. Por ejemplo, en  el ranking de millonarios de la lista Forbes de 2015,  el español Amancio Ortega ocupa el segundo puesto. Inditex y Mercadona están en el top-50 de grupos de distribución, a nivel mundial.  En un ranking de bancos, el Santander ocupa el puesto 17.  De acuerdo con el ranking de MBAskool,  Telefónica es la octava compañía de comunicaciones del mundo. El País y el Mundo ocupan los puestos 12 y 19 en el ranking de periódicos  on-line.   España ocupa el tercer lugar en el ranking de esperanza de vida de 2015, el segundo lugar en el ranking mundial de kilómetros de vías de tren de alta velocidad, el quinto  país con más restaurantes con 3 estrellas michelin, el undécimo lugar en el ranking de libros publicados.

Realmente,  lo difícil es encontrar un ranking en el que España, o una empresa española, o un ciudadano español no estén entre los 100 primeros, lo cuál es un fiel reflejo de nuestra potencia como país, la decimosegunda economía más grande del mundo.  A la luz de todo esto, resulta realmente difícil de digerir el resultado que, año tras año,  arroja   el  famoso ranking de Shangai, que recoge las 500 mejores Universidades del mundo.   Nuestra universidad mejor situada (Universidad de Barcelona) aparece en el puesto 176.  Hay 23 países que tienen al menos una Universidad mejor que nuestra mejor Universidad:  EEUU, Reino Unido, Suiza, Japón, Canadá, Dinamarca, Francia, Australia, Alemania, Suecia, Holanda, Noruega, Israel, Finlandia, Bélgica, Rusia, Singapur, Corea del Sur, Brasi, Arabia Saudi, Taiwan, Italia e Irlanda.  Esto incluye varios países con menor población (Suiza, Canadá, Dinamarca, Australia, Suecia, Holanda, Noruega, Israel, Finlandia, Bélgica, Singapur, Taiwan, Irlanda),   y con menor renta per capita (Israel, Rusia, Brasil, Arabia Saudi) y con menor  PIB (Suiza, Dinamarca, Canada, Australia, Suecia, Holanda, Noruega, Israel, Finalandia, Bélgica, Singapur).

Iba a terminar  esta entrada con un desafío   a los lectores de este blog,  pidiendo que encuentren  un ranking internacional de cualquier  aspecto   en el que quedemos peor.    Algo en lo que España esté entre los 23 mejores, como país,  o en un ranking en el que compiten empresas, personas o instituciones,  no nos metamos en el top 176. Dicho de otra forma,  iba a pedir que alguien me diga si  hay algo en España que funcione,  comparado con el rendimiento de otros países,  peor que nuestras universidades.   Resulta que si, que España  hace peor todavía  otra cosa, también relacionada con la educación. En el Programa de Evaluación Internacional de Estudiantes, conocido como Informe PISA,   España sale en los puestos 33, 29 y 30, en Matemáticas,  Ciencias y Habilidad lectora, respectivamente, basándose en pruebas objetivas realizadas a estudiantes de 15 años.   A la luz de lo poco que parece importarle esto a la gente,  tener un sistema educativo muy malo, con una tasa de paro que triplica la de la OCDE,  no es un problema si eres el país con mayor número de bares por persona del mundo,   y vas sacando medallas en los juegos olímpicos y ganando Copas de Europa, ¿no?.



miércoles, 27 de julio de 2016

Nuestro pequeño homenaje a Feynman



Los lectores de este blog conocen bien la historia: en 1959 el genial físico norteamericano Richard Feynman impartío una  charla visionaria sobre un campo de investigación que entonces no existía y que hoy llamamos nanociencia.  Feynman predijo  que sería posible  guardar una  cantidad descomunal de información en un espacio reducido  si fuésemos capaces de desarrollar la tecnología para  leer y a escribir la información a pequeña escala.

En su charla,   titulada "hay mucho sitio al fondo" (There is plenty of Room at the Bottom), Feynman se preguntó si sería posible almacenar toda la enciclopedia británica en la cabeza de un alfiler.  Para ello el tamaño de cada letra debería ser 25 mil veces menor que el de la letra impresa en un periódico. Así, los pequeños puntitos de los con los que están escritas las letras deberían tener un diámetro de unos 32 átomos.

 Feynman fue más lejos, y dijo que "no temía considerar si,  finalmente, en el futuro lejano,  podríamos manipular los átomos a voluntad; los mismos átomos... ¿Qué pasaría si pudiéramos ordenar los átomos, uno a uno, en la forma que queramos?".  La invención del microscopio de efecto túnel por parte de Gerd Binnig y Heinrich Rohrer ,   hizo posible  observar y manipular los átomos, uno a uno. En 1989 Don Eigler y Erhard K. Schweizer construyeron la primera estructura artificial ensamblando átomos. Para ello, escribieron las letras "IBM", con 35 átomos de xenon depositados en una superficie de níquel.  Se llevaban a cabo dos de los sueños de Feynman: usar átomos individuales como pixels para escribir las letras, y "ordenar los átomos uno a uno".

A aquel experimento pionero le siguieron muchos otros,  demostrando la capacidad para fabricar pequeñas estructuras,  moviendo átomos de uno en uno con un microscopio de efecto túnel, encima de una superficie.  Dada la naturaleza del  método, relativamente  artesanal,  las estructuras más grandes así  fabricadas tienen menos de mil átomos,  la mayoría de las veces menos de 10, y nadie había escrito un texto mucho más largo que  "IBM".

A final de 2015  me contactó mi colega de TU Delft,  Sander Otte, para decirme que habían descubierto un sistema en el que era particularmente fácil manipular los átomos. Se trataba  de cloro depositado en  una  superficie  de cobre. En esta superficie,  los átomos de cloro se disponen  formando una red cuadrada. Sin embargo, esta red bi-dimensional  no es perfecta,  ya que en algunos sitios de la red faltan átomos.    Estas "vacantes" son particularmente estables. A diferencia de un átomo sobrante en una superficie, como los átomos de xenon en el níquel usados para escribir "IBM", que se mueven por la superficie  en cuanto ésta se calienta unos pocos grados por encima  del cero absoluto,  las vacantes de  cloro se quedan quietas durante horas incluso a temperaturas bastante mayores (77 Kelvin).   Por otro lado, el grupo de Sander descubrió  que era relativamente fácil mover a voluntad  las vacantes,  aplicándoles pulsos eléctricos con el microscopio de efecto túnel.  Tenían por tanto el sistema ideal para hacer grabados atómicos en una superficie. ¿Qué hacer con él?.

Mis colegas se dieron cuenta de que el sistema era perfecto para leer y escribir  "bits", la unidad básica de información digital.  Dada una pareja de sitios de la red cuadrada, en los que hay un átomo de cloro y una vacante, la posición de la vacante define un bit. Si está arriba, tenemos un '0', y si está abajo un '1'.    En la figura vemos  1 byte, o sea 8 bits,  construidos usando este principio,  separados por columnas con 2 átomos de cloro (puntos azul claro).

Así, en lugar de grabar letras, podíamos grabar información digital con una densidad (cantidad de bits por área) 500 veces mayor que la de los discos duros más avanzados.   Usando el código ascii, discutido  hace unos meses  en el  blog,  mis colegas de Delft se se propusieron escribir el primer kilobyte hecho con bits de tamaño atómico, es decir, 1016 bytes, o 8128 bits,  que en este caso quiere decir 8128 vacantes colocadas "en la forma que queramos".    La elección del texto más adecuado para escribir el primer kilobyte atómico constituyó nuestro pequeño homenaje a Feynman, extraído de There is plenty of Room at the Bottom:

"But I am not afraid to consider the final question as to whether, ultimately – in the great future – we can arrange the atoms the way we want; the very atoms, all the way down! What would happen if we could arrange the atoms one by one the way we want them (within reason, of course; you can't put them so that they are chemically unstable, for example).

Up to now, we have been content to dig in the ground to find minerals. We heat them and we do things on a large scale with them, and we hope to get a pure substance with just so much impurity, and so on. But we must always accept some atomic arrangement that nature gives us. We haven't got anything, say, with a "checkerboard" arrangement, with the impurity atoms exactly arranged 1,000 angstroms apart, or in some other particular pattern".

Escrito átomo a átomo, tiene esta pinta, donde cada bloque es un grupo de 8 bytes, o sea, 8 filas con 8 bits cada uno: 



Este trabajo ha sido publicado en la revista Nature Nanotechnology, y ha recibido una gran atención mediática ( The EconomistWall Street Journal,  BBCDer Spiegel,  El País,  El Mundo).   Quiero destacar aquí  los comentarios de dos  colegas y amigos.    Ramón Aguado, físico teórico del CSIC  nos felicitó por el "ZX81",  en alusión al  un antiquísimo ordenador personal con una memoria de 1 kilobyte, que cayó en mis manos alguna vez.  Ivan Brihuega ( profesor de la Universidad Autónoma de Madrid),  que hace sus propias maravillas con el microscopio de efecto túnel,  nos dijo que "Feynman habría llorado" al ver el experimento. 

Quiero creer que esta historia no termina aquí. El experimento del kilobyte atómico demuestra que es posible construir circuitos operativos  en el que las unidades funcionales son átomos.  Por supuesto,  esto  está lejos de ser una tecnología, pero  no puedo dejar de pensar en otra de las visiones de Feynman,  los ordenadores cuánticos.   Para fabricar uno, será necesario ensamblar un montón de unidades funcionales cuánticas, como por ejemplo, átomos.  La posición de los átomos de cloro es una variable clásica, con lo que nuestro kilobyte es totalmente "no cuántico" (clásico, en la jerga de los físicos). Por otro lado, si en lugar de átomos de Cloro pudiéramos hacer algo parecido con átomos magnéticos, cuyo spin se comporta cuánticamente,   podemos empezar a hacer ingeniería cuántica, átomo a átomo.   Parece muy complicado,  pero será fascinante intentarlo. 

lunes, 13 de junio de 2016

El manifiesto cuántico: tecnologías cuánticas, la segunda revolución

Tras unos meses de parón, retomo el blog con un tema fascinante,  la llamada 'segunda revolución' en tecnologías cuánticas.     Esta revolución empezó a cocinarse hace más de 30 años,  y se basa en la provocadora idea  de que es posible  sacarle partido a las dos características más extrañas y contra-intuitivas de la física cuántica, la "coherencia" y el "entrelazamiento" (entanglement, en inglés).    Lo que os voy a contar ahora sería un gran guión para una película de ciencia ficción y de espías ,  pero  va totalmente en serio.

 La teoría cuántica nos dice que   un sistema físico puede estar en dos  estados  a la vez.  Por ejemplo, un electrón puede estar en dos átomos diferentes a la vez, y algo tan contraintuitivo es la piedra angular que nos permite entender  entender nada menos que el enlace químico que da lugar a  la formación de moléculas.   En la jerga de los físicos cuánticos, el electrón está en una "superposición lineal coherente" de estar en el átomo A y en el átomo B.   Por otro lado, cuanto mayor es un objeto, más difícil resulta conseguir que esté en dos sitios a la vez, de ahí que nosotros no podamos imtar a los electrones,  aprovechar este recurso de la naturaleza y estar a la vez durmiendo y trabajando.  Pero allá por el año 1982 , Richard Feynman,   uno de los héroes de este blog,   especuló sobre la posibilidad de usar las leyes de la física cuántica para hacer simulaciones con ordenadores.     Si un sistema puede estar en dos estados a la vez, quizá sería posible  concebir un bit que estuviese en 2 estados a la vez,  y un ordenador que hiciese muchos cálculos a la vez.  Con un ordenador normal, como el que estás usando para leer esto,   necesitamos dos procesadores para hacer dos cálculos a la vez.  En un ordenador cuántico, un único procesador podría hacer muchos cálculos a la vez,  gracias al 'paralelismo cuántico', término acuñado en 1984 por físico de Oxford,  David Deutsch.

Estas ideas  pasaron de ser especulaciones interesantes a una posibilidad que amenazaba la ciberseguridad mundial, cuando  en 1994 el profesor de matemática aplicada de  MIT  Peter Shor propuso un algoritmo  que  resolvía un problema que todos aprendemos a hacer en la escuela primaria, pero que resulta un ingrediente esencial en las técnicas convencionales de encriptado de información.   El problema en cuestión es la  factorización de números enteros como producto de números primos.  Por ejemplo, el puedo escribir mi edad, 45, como el producto de tres números primos,  45=3*3*5.   El concepto es sencillo, pero si le pedimos a un ordenador clásico que encuentre los dos números primos  cuya multiplicación es igual a este número de  309 dígitos,

13506641086599522334960321627880596993888147560566702752448514385152651060
 48595338339402871505719094417982072821644715513736804197039641917430464965
  89274256239341020864383202110372958725762358509643110564073501508187510676
  59462920556368552947521350085287941637732853390610975054433499981115005697
  7236890927563

el ordenador tardará muchos años en conseguirlo.    En cambio, si alguien nos proporciona esos dos números,  el ordenador apenas tardará unos microsegundos en hacer la multiplicación.   La asimetría  gigantesca en la dificultad  asociada a estas dos operaciones, factorizar y multiplicar, es la esencia de los algoritmos de encriptado  utilizados en una buena parte de las telecomunicaciones.    Pues bien, si alguien construye un ordenador cuántico e implementa el algoritmo de Shor,   el tiempo de cálculo se reducirá exponencialmente, con lo que en principio podrá descodificar fácilmente todas las comunicaciones que ahora creemos privadas. 

Así, hace más de 20 años se inició la carrera para construir un ordenador cuántico. La tarea es realmente difícil, porque requiere conseguir dos objetivos  contradictorios. Por un lado, cada uno de los elementos del ordenador cuántico, los bits cuánticos o qbits,  debe estar relativamente  aislados del resto del universo, para poder estar a la vez en el estado "0" y el "1".    Durante décadas hemos aprendido que los objetos cuánticos se comporta como si les diera vergüenza   estar en este estado coherente, o de "indecisión" cuántica. Así, si  no se sienten observados,   preservan la coherencia, es decir, están a la vez en dos estados físicos.  Por otro lado,  el ordenador es un objeto en el que centenares de bits cuánticos deben comunicarse unos con otros, y además,   al final del cálculo ha de ser posible leer su estado. Ambos requerimientos  hacen  difícil preservar la coherencia.

Otra forma de  comprender el desafío que supone  fabricar un ordenador cuántico es la siguiente:  los objetos que se comportan de forma cuántica son muy pequeños, átomos,  moléculas, fotones.   Hacer tecnología integrando dichos objetos es realmente difícil.  Por tanto,  no es tan sorprendente que la estrategia que está logrando grandes avances adopte  un enfoque diferente, usando anillos superconductores que se comportan como bits cuánticos a pesar de que son "enormes" (micras,  es decir, 10 mil veces más grandes que un átomo).   Para ello hay que enfriar estos sistemas a 10 o 15 milikelvin, es decir, una temperatura muy inferior a la del espacio exterior.

Uno de los principales impulsores de esta segunda revolución cuántica  es el fabricante del primer ordenador cuántico comercial, la  empresa privada, D-wave, radicada en Vancouver, Canadá.   Su director científico y co-fundador en 1999,  Eric Ladizinsky,   se refiere al proyecto que están llevando a cabo, como un "mini proyecto Manhattan", dada su complejidad y ambición.  D-wave se financia con fondos de inversores de riesgo, y ya han vendido su primer prototipo a la empresa de tecnología militar y aeroespacial Lockheed  Martin.     Algo fascinante de todo este asunto es que los expertos no se ponen de acuerdo sobre hasta qué punto se puede afirmar que los ordeandores de D-Wave son cuánticos, y en qué medida son más eficaces que los ordenadores clásicos.  De momento los ordenadores de D-wave tienen 512 bits cuánticos, o menos, a comparar con los miles de millones de bits clásicos de un móvil  o una tablet.    Además, los ordenadores cuánticos se programan para resolver problemas muy específicos,  para los que los ordenadores clásicos son muy ineficaces.

El hecho de que en los últimos dos años varios de los gigantes del negocio de la informática y la electrónica, como Intel, Google, IBM y Microsoft,  hayan anunciado fuertes inversiones para construir ordenadores cuánticos es un indicio de que todo este asunto va muy en serio. Eso han debido pensar varios investigadores europeos que han promovido el llamado manifiesto cuántico, solicitando que la Unión Europea lance un programa de inversiones en investigación para permitir que Europa no pierda la ola de la segunda revolución cuántica.    Hace unas pocas semanas IBM anunció que ponía a disposición de la comunidad su pequeño ordenador cuántico de 5 qbits,  de forma que es posible  usarlo remotamente, desde casa.  No hay nada más poderoso que una idea a la que le ha llegado su momento, y ese parece ser el caso de la segunda revolución cuántica.  


viernes, 12 de febrero de 2016

Las ondas gravitacionales, explicadas a mis padres



Si estás leyendo este blog, estás equipado con un sistema de detección  de ondas electromagnéticas,  tus ojos, y   de un par de detectores de  ondas acústicas,  tus oídos.   Pero, ¿qué es una onda?.  En inglés la palabra onda y la palabra ola son la misma, wave. Por tanto, los anglosajones ya tienen construida en su cerebro una imagen muy conveniente  de lo que es una onda: una perturbación que se propaga por el espacio.   Igual que una ola se propaga por la superficie del mar hacia la playa, una onda acústica es la propagación de una  perturbación que cambia la densidad y la presión del aire.   Y en el caso de la luz,  lo que se propaga es un campo electromagnético.

¿Qué tienen que ver las ondas con   la gravedad?. La gravedad es la fuerza que nos mantiene pegados a la superficie de la tierra,  y que a su vez mantiene a la tierra orbitando en torno al sol. ¿Qué tiene que ver esto con las ondas?.  Aquí es donde entra Einstein, y su teoría general de la relatividad, formulada en 1915.   En aquella teoría,  Einstein propuso que  más que atraerse unos a otros, las masas deforman el espacio-tiempo. El espacio-tiempo sería como la superficie de un globo o como una alfombra, que puede cambiar de forma. Por tanto,  en la teoría de Einstein de la gravedad, los cuerpos con masa deforman   espacio-tiempo  de manera complicada   y los objetos se mueven por el espacio curvo de una manera que es,  matemáticamente hablando,  "sencilla".

  La teoría de Einstein de la gravedad era mucho más que una reformulación  matemática de la teoría de Newton.  Por ejemplo,  si los cuerpos deforman el espacio, esto quiere decir que  la luz sería desviada por la acción de la gravedad, algo que la teoría gravitatoria de  Newton no preveía.  Esa predicción de la teoría de Einstein fue confirmada por los experimentos de la expedición de Eddington de 1919.   Además, usando la teoría de Einstein,  Schwarzschild describió en 1916 la existencia de objetos con tanta masa que podían atrapar la luz, los llamados agujeros negros.

Ese mismo año 1916 Einstein se dio  cuenta que su teoría de la relatividad  predecía la existencia de ondas, es decir, de perturbaciones que se propagan.  En este caso, la perturbación afecta al espacio-tiempo. Es decir, una onda gravitacional es una deformación en movimiento del espacio-tiempo.     De forma parecida a   las ondas electromagnéticas, que  son emitidas por cargas en movimiento acelerado,  las ondas electromagnéticas son emitidas por masas en movimiento acelerado. Por ejemplo, en su movimiento en torno al sol, la tierra emite ondas gravitatorias.  Afortunadamente para nosotros,  el sistema tierra-sol es astrofísicamente muy aburrido:  el ritmo al que la tierra emite ondas gravitatorias, y por tanto pierde energía y se acerca al sol,  es tan lento que tardamos mil años en acercarnos el equivalente al tamaño de un átomo.

En cambio,  existen sistemas ahí fuera en las que todo es mucho más violento. Así, en 1974 los físicos norteamericanos Taylor y Hulse descubrieron un sistema binario de estrellas,  el pulsar PSR B1913+16. Una de las estrellas giraba sobre si misma a un ritmo de 17 veces por segundo, pero el ritmo de giro variaba lentamente con el tiempo lo que delataba la presencia de la otra estrella.  Observaciones llevadas a cabo durante varios años permitieron inferir que el movimiento orbital de esta pareja de estrellas ha decaído al ritmo predicho por la teoría de Einstein para la radiación gravitatoria.  Por tanto,  una de las consecuencias de la existencia de ondas gravitatorias, la pérdida de energía debida a la emisión de radiación gravitatoria,  ya había sido confirmada experimentalmente, y le valió el premio Nobel a Taylor y Hulse en 1993.

Lo que iba a resultar mucho más difícil era medir una onda gravitatoria, es decir, percibir una modulación transitoria o provisional en la variación del espacio tiempo. Para hacernos una idea, durante su  tránsito por una cinta métrica, una onda gravitatoria hace que  un metro deje de medir un metro, provisionalmente.   ¿Cómo detectar algo así?.  Además, el problema es que la magnitud de las deformaciones del espacio tiempo que generan las ondas gravitatorias es muy pequeña, debido a que las fuentes más potentes de ondas gravitatorias están muy lejos de nosotros, y como ocurre con otras ondas, la amplitud de una onda gravitatoria decae a medida que se aleja de la fuente.

Durante las últimas 3 décadas un equipo internacional de físicos, inicialmente liderados por el físico teórico norteamericano Kip Thorne, de la universidad de Caltech, en Pasadena,  la misma en la que pasó sus últimas décadas Feynman,   ha puesto en marcha un espectacular experimento para cazar esta pequeñísima perturbación transitoria del espacio tiempo.  El LIGO,  Laser Interferometry Graviational-wave Observatory, es realmente una red de observatorios,  cada uno de ellos de varios kilómetros,  y situados en a miles de km de distancia entre si. Ambas instalaciones tienen un gigantesco interferómetro, que es un aparato  en el que un haz de luz laser transita por un circuito en forma de L, con 4 kilómetros de lado en cada pata.  A su paso por cada detector, una onda gravitatoria dilataría un brazo de la "L" y contraería el otro brazo, lo cuál cambiaría el recorrido de la luz laser, dando lugar a una modulación en su intensidad. Este esquema ha recibido sucesivos refinamientos durante varias décadas para lograr medir una variación relativa en la longitud del una milésima de trillonésima (10^-21).  Para hacernos una idea, la precisión de esta medida es el equivalente a medir la distancia de aquí al sol y equivocarse solo en  un átomo.

El 15 de septiembre de 2015  dos de los observatorios  del LIGO, en los estados de Washington y de Louisiana, a miles de kilómetros de distancia, detectaron una señal idéntica a la que según complicados cálculos usando la teoría de Einstein tendría que producir la colisión de dos agujeros negros, ocurrida hace mil doscientos millones de años.  El equivalente gravitatorio al sonido de aquella explosión se ha propagado por el universo durante un 10% de la historia cósmica,  mucho antes de que los dinosaurios pisaran la faz de la tierra, para pasar durante una escasa décima de segundo, y  seguir su camino hacia los confines del universo.  Ha sido  un instante  fugaz en  los detectores,  pero un gran paso para la humanidad.   Con  esta primera observación, los científicos del LIGO han detectado por primera vez la colisión entre dos agujeros negros, demostrando así que tenemos una nueva herramienta para explorar  eventos que ocurrieron la noche de los tiempos, lo cuál explica parte de la excitación que se ha hecho patente estos días en los medios.  Otro día os seguiré contando el fascinante conjunto de   innovaciones tecnológicas, muchas en el  ámbito de la física del estado sólido, que han hecho posible la medida más precisa de la historia.



sábado, 6 de febrero de 2016

La revolución "spintrónica": el vídeo



En la entrada de hoy os invito a ver el siguiente video que hemos preparado en SPINOGRAPH.






domingo, 31 de enero de 2016

Bits y bytes: aprende en 5 minutos el idioma de los ordenadores




Esta entrada va dedicada a esa gran mayoría que usa ordenadores, teléfonos inteligentes y otras maravillas y no ha recibido un curso de electrónica.  Todo el mundo sabe que la capacidad de almacenar información se mide en bytes. Así, una tarjeta de memoria para el móvil o la cámara puede tener 16 Gigabytes,  o sea,  dieciséis mil millones de bytes.    ¿Y qué es un byte?.  Un byte son ocho bits, con lo que lo que voy a intentar explicar   qué  es un bit y cómo se usa para almacenar información. Allá vamos.

Para escribir un texto en español usamos  27 letras,  además de  números y signos. En otros sistemas, como el chino y el coreano, tienen un número diferente de símbolos.  ¿Cuál sería el número mínimo de símbolos que podemos usar para almacenar un texto?.   Por ejemplo, la vida se las ingenia para almacenar la información en un código genético de 4 letras (ACGT) .  ¿Existe un código que permita  almacenar información con menos letras? La respuesta es si: el llamado código binario usa únicamente dos letras, o bits, que son el "0" y "1".

¿Cómo se "escribe" un texto en binario?.    Por ejemplo, en binario  el texto  "¿Cuánto son 2+2?"  quedaría  así:
  
101111110100001101110101 11100001011001000111010001101111001000000111001101101111011001000010000000110010001010110011001000111111

Pero, ¿cómo hemos llegado de un texto normal a   esta lista de ceros y unos?.  Hay que hacerlo en dos etapas.   Primera: hay que convertir el  texto "¿cuánto son 2+2?"  en una lista de  números.  Para ello, se usa el llamado código ASCII, "American Standard Code of Information Interexchange", que asigna a cada letra, número, y símbolo, un número entre el 0 y el 255.      Para que os hagáis una idea, muestro aquí  un trozo de la tabla de conversión.

  Así, con esta tabla podemos convertir el texto de 16 símbolos
"¿Cuánto son 2+2?" (contando espacios) en  números entre el 0 y el 255: 
191 67 117 225 110 116 111 32 115 111 110 32 50 43 50 63
¿     c    u     á     n     t     o     _    s     o       n    _   2    +   2   ?

En la segunda etapa, convertimos los números del "sistema decimal" del código ASCII  ( "191",  "67",  "225", ...)   a números binarios.    Esto funciona así.  En decimal, tenemos 10 dígitos, del 0 al 9.  Si queremos expresar un número mayor que 9, tenemos que usar 2 dígitos. Y si queremos expresar un número mayor que 999, 3 dígitos, etcétera.

En binario, hay dos bits, "0" y "1".  Si  queremos expresar un número mayor que 1, tenemos que usar dos "bits" .





DECIMAL    BINARIO
0                     0
1                     1
2                     10
3                     11
                                                     
Si queremos ir más allá de (0,1,2,3), o sea, más allá de 4 posibilidades, tenemos que usar 3 "bits" y para seguir, 4 "bits",  etcétera:

DECIMAL    BINARIO
4                     100
5                     101
6                     110
7                     111
8                     1000
9                     1001
10                   1010
11                   1011
12                   1100
13                   1101
14                   1110
15                   1111
16                   10000

 O sea, que para contar del 0 al 7,  que son  8 números, hacen falta 3 bits y para contar hasta 15 hacen falta 4 bits, y así sucesivamente.   

Ahora podemos ver por qué es especial un byte, o sea, 8 bits. Con 8 bits tenemos 256 combinaciones, es decir   2 elevado a 8, que permiten contar de 0 a 255 .   Como ya hemos dicho, el código ASCII tiene exactamente 256 entradas.  Es decir, que cada entrada del código ASCII se puede convertir en un número binario de 8 bits, o sea, en un byte.  Por tanto,  el  texto "¿cuánto son 2+2+?" se puede escribir así: 

TEXTO    ASCII     BINARIO
¿                197         10111111
c                  67         01000011
u                117         01110101
á                 225        11100001
n                 110        01100100
t                  116        01110100
o                 111        01101111
espacio        32         00100000
s                  115        01110011
o                 111        01101111
n                 110        01100100
espacio        32         00100000
2                  50         00110010
+                  43         00101011
2                  50         00110010
?                  63         00111111

Aunque a los humanos  el lenguaje binario nos resulte incómodo,   para fabricar ordenadores,   es muy conveniente.   Para almacenar información usando el código binario,  podemos usar cualquier cosa que tenga  dos estados posibles.  Por ejemplo, una bombilla encendida o apagada, nos serviría para tener un bit, y 8 bombillas nos permitirían tener un byte.   Dentro de tu ordenador hay, literalmente, miles de millones de interruptores  que pueden estar "encendidos" o "apagados" y por tanto cada uno de ellos es un "bit". En su realización física más sencilla, un "bit" es  un componente electrónico  que está constituido por  un  único  "transistor",  el dispositivo  semiconductor inventado en 1947 por Bardeen, Brattain y Shockley.  


Volvamos al principio.    En una tarjeta de memoria  de 16 Gbytes, es decir,  16 mil millones de bytes,  tenemos  128 mil millones de bits.   En el caso de la tarjeta de la figura, este número gigantesco  de "bits" tiene que caber en un área de unos  2cm x 2cm.   Dos  centímetros  son  igual a  20 millones (20M)  de nanometros (nm).   Así,   una tarjeta tiene unos  20M nm x  20M nm,  o sea, 400 billones de nanometros cuadrados.  Repartiendo bits por nanometros cuadrados,  cada bit dispone de un área de 4000 nanometros cuadrados, que  nos da  un región cuadrada de 63 nm  de lado.     Por eso  hablamos de nanoelectrónica.  Por tanto, los ingenieros y los físicos tienen que ser capaces de hacer bits de ese tamaño,  de poner billones de ellos juntos, de diseñar métodos para leer y escribir esos bits,  y de hacerlo de manera tan eficiente que puedan vender estas maravillas a 8 euros.   La física del estado sólido que hace esto posible tiene mucho que ver con este milagro tecnológico, del que seguiré hablando otro día.



martes, 5 de enero de 2016

So close and such a stranger: un documental sobre la física de la materia condensada




Dado su interés y total sintonía con el espíritu de este blog,  la primera entrada de 2016 no podía ser otra que el vídeo maravilloso que han hecho Elsa Prada, Isabel Guillamón y Enrique Sahagun,  como parte de su proyecto "So close".   Me quito el sombrero.