Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas
Mostrando entradas con la etiqueta Tecnología. Mostrar todas las entradas

De por qué la gasolina a partir de aire sólo la utilizarán los coches deportivos de los ecologuais, por César Tomé

Experiencia docet.




Hace unos días el diario británico The Independent lanzaba una exclusiva de la que se han hecho eco muchos otros medios, entre ellos la BBC, y webs ecologistas que tocan de oído, en la que relataba cómo una empresa británica era capaz de fabricar gasolina a partir del aire. También han aparecido automáticamente los conspiranoicos habituales que afirman que las petroleras no lo permitirán nunca, otros que afirman que se están violando leyes fundamentales de la física y aún otros que afirman que el proceso debería hacerse público para evitar su secuestro por las grandes compañías. Ejemplos de todo ello en los comentarios de esta entrada de NeoTeo.

Estamos ante un nuevo ejemplo de empresa en búsqueda de financiación para un producto ecológico, usando tecnologías conocidas, con mucha publicidad, relaciones públicas y atención de los políticos. Pues bien, de entrada, respondamos así de claro:
  1. El proceso fundamental se encuentra en cualquier libro de texto de química
  2. Lo que puede aportar novedad es la selección de la tecnología empleada de entre las disponibles 
  3. No se viola nada
  4. Esto, salvo sorpresa mayúscula, no va a ninguna parte
Pero veamos con algo de detalle el proceso que publica Air Fuel Synthesis en su web:

1. Se introduce aire en una torre donde existe un aerosol de disolución de hidróxido sódico. El dióxido de carbono del aire reacciona con parte del hidróxido sódico para formar carbonato sódico. Esta es una tecnología de captura de dióxido de carbono conocida y más que probada. Stolaroff et al. estimaron en 2008 que el coste de captura de la tonelada de dióxido de carbono, excluyendo la recuperación de la solución y otros costes operativos, era de un mínimo de 53 dólares y podía alcanzar los 127; los costes operativos no incluidos sólo de esta fase son del mismo orden de magnitud. Por tanto, podemos estimar conservadoramente que sólo esta fase cuesta 100 dólares por tonelada de dióxido de carbono capturado.

2. La disolución de hidróxido y carbonato de sodio obtenida en el paso 1 se bombea a una cuba electrolítica en la que se hace pasar una corriente eléctrica. La electricidad provoca la descomposición del carbonato con la liberación de dióxido de carbono. En este paso hay tres consideraciones trascendentes desde el punto de vista industrial. La primera, que se recupere eficientemente la disolución de hidróxido sódico, para ello la limpieza debe ser absoluta y el agua estar libre de iones que puedan precipitar como hidróxidos o carbonatos; segundo, relacionado con la primera consideración, el dióxido de carbono se liberará en forma de gas por lo que la celda debe estar cerrada y con un vacío previo si no queremos contaminaciones del producto; y tercero, esta disolución es muy corrosiva. Estos tres aspectos implican que el mantenimiento y la operación de esta fase son muy complejos, laboriosos y, por tanto, costosos. Es algo que a nivel de laboratorio se puede acometer con cierta facilidad pero que a nivel industrial es una pesadilla. Si añadimos el coste de la electricidad, ya ni te cuento.

3. Opcionalmente se puede instalar un deshumidificador que condense el agua del aire que se pasa por la torre en el paso 1. El agua condensada se pasa a una celda electrolítica donde una molécula muy estable se separa mediante electricidad en sus componentes hidrógeno y oxígeno. El agua se puede obtener de otras fuentes pero debe ser purificada para tener calidad electrolítica. Esta es la fase del proceso más cara energéticamente. Démonos cuenta de que la electrolisis del agua requiere sobrepotenciales para sobrepasar varias barreras de activación, por lo que la necesidad energética es mayor de la que se calcula a partir de la energía de las moléculas de agua. Es un proceso tan caro que es la principal barrera para la obtención de hidrógeno como fuente de energía. Un estudio del Departamento de Energía de los Estados Unidos calculó el objetivo de coste para un kilo de hidrógeno en 2012 en 3,70 dolares; en 2010 era de 5,21.

4. El dióxido de carbono y el hidrógeno se hacen reaccionar para conseguir una mezcla de hidrocarburos, variando las condiciones en función del tipo de combustible que se requiera. Lo que está muy bien y es muy bonito, pero veamos en realidad de qué se trata.

4.1 Convertir la mezcla de dióxido de carbono/hidrógeno en una mezcla de monóxido de carbono/hidrógeno conocida como gas de síntesis. El gas de síntesis es archiconocido por cualquiera que haya estudiado algo de química y mediante el proceso de Fischer-Tropsch, uno de esos que cae seguro en el examen, se obtiene el hidrocarburo líquido que quieras. Esta tecnología se conoce y se usa desde 1925. El problema radica en reducir el estable dióxido de carbono al reactivo monóxido de carbono, que no es algo tan sencillo. Conseguirlo de forma eficiente, igual que mencionábamos antes con el hidrógeno, ya sería un gran logro. Para dar una idea de la importancia y complejidad puede verse este artículo de Technology Review.

4.2 Una alternativa que, al igual que el proceso Fischer-Tropsch, es archiconocida, es hacer reaccionar el gas de síntesis para obtener metanol que se puede usar a su vez para obtener hidrocarburos con la reacción metanol-a-gasolina de Mobil. El problema continúa siendo obtener el monóxido de carbono.

5. Los productos obtenidos no pueden usarse directamente. Deben ser aditivados convenientemente para poder ser usados en los motores actuales.

Sólo con los costes de captura de dióxido de carbono y obtención de hidrógeno, sin nada más (y esa nada es enorme), resulta que el kilo de 2,2,4-trimetilpentano (el estándar de octano de la gasolina) me sale a 7,69 dólares o, lo que es lo mismo, a 5,31 dólares el litro. La compañía lleva invertidos 1,6 millones para obtener 5 litros; pues, mire usted, me lo creo.

Concluyendo:
  1. No existe una síntesis directa de gasolina. Se especula con que se pueda conseguir pero hoy día lo realizan por dos rutas establecidas y muy conocidas: conversión a gas de síntesis y proceso Fischer-Tropsch o síntesis de metanol + proceso Mobil.

  2. Los sistemas de obtención de los productos de partida son críticos debido al nivel de pureza necesario para los reactivos. La tecnología elegida ha sido la electrolisis lo que implica procesos discontinuos, altos costes energéticos y altos costes de mantenimiento y limita las fuentes de materias primas usables.

  3. La economía de todo el proceso depende de la obtención de electricidad a costes muy bajos. Además, la obtención económica de los productos intermedios, como hidrógeno o monóxido de carbono, ya sería un hito suficiente.

  4. El uso de cubas electrolíticas, el tratarse de un proceso por lotes y la necesidad de disponer de agua de una pureza alta, dificulta el escalado y, por tanto, la obtención de economías de escala para una producción masiva. El tamaño de planta eficiente no podrá ser muy grande.

  5. No hay novedad científico-técnica. La noticia es que estén intentando hacerlo con tantas papeletas en contra. Lo máximo que pueden aspirar, salvo el hallazgo de algo revolucionario que en estos momentos no existe, es a fabricar gasolina con la etiqueta “ecológica”, signifique ello lo que signifique, a precios exorbitantes. Sólo millonarios esnobs que quieran disfrutar de deportivos con etiqueta ecológica se me ocurren como posibles clientes.


    Esta entrada es una participación de Experientia docet en la XVIII Edición del Carnaval de Química que alberga XdCiencia.

Coursera


Dear Courserians,

Today, we are thrilled to welcome 17 more universities — including four international schools — onto Coursera:
View a full list of schools and courses here.

These 17 universities will expand the course offerings even further, adding new classes in the fields of music, medicine, and humanities (among other disciplines) from renowned professors like Arnold Weinstein of Brown University and Grammy award winning Gary Burton from Berklee College of Music. We are proud of the diversity of the course offerings — from "The Science of Gastronomy" from Hong Kong University of Science and Technology to "Financial Engineering and Risk Management" from Columbia University. Many of these courses are pushing the boundaries of what was thought to be possible to teach online.

Working with schools, professors, and students over the past six months has taught us that online education has an incredible power to bring people together and open up doors that might otherwise remain shut. If you haven’t already, read Laura Cushing’s first-person essay of how online courses have given her the opportunity to learn more than she ever thought was possible.

We are deeply inspired by these stories — your feedback continues to help shape the evolution of our course experience.

We’re learning along with you, and thank you for being part of this!
Happy learning!

Daphne, Andrew, and your Coursera team.

El error de Río + 20

Andrés Oppenheimer.



Los 120 jefes de estado y más de 50,000 ambientalistas, activistas sociales y líderes empresaRíos que se reunieron esta semana en Brasil para la así llamada Conferencia Río + 20 sobre el desarrollo sustentable merecen crédito por intentar salvar al planeta, pero tal vez no lo estén haciendo de la mejor manera.
No, no me cuento entre los anti-ambientalistas que afirman que el cambio climático, la escasez de agua, la polución de los océanos y otros problemas ambientales son un invento de los científicos, y que argumentan que el sector privado no debería estar sujeto a más leyes de protección ambiental.
Por el contraRío, los ecologistas tienen razón cuando dicen que los gases tóxicos, la polución industrial y la destrucción de los bosques tropicales está causando un daño terrible a nuestro hábitat, y que el problema empeorará a menos que hagamos algo al respecto.
Se calcula que la población mundial crecerá desde los 7,000 millones actuales a 9,000 millones para el 2050. El planeta necesitará mucha más agua, alimentos y energía en los próximos años. Hay que hacer algo para salvar el aire, los bosques y las selvas. El modelo económico que postula “crecer ahora, limpiar después” no es justo, ni viable.
Pero leyendo un nuevo libro, “Abundancia: El futuro es mejor de lo que se cree”, de Peter H. Diamandis y Steven Kotter, me resultó difícil no llegar a la conclusión de que la megaconferencia Río + 20, convocada por las Naciones Unidas, está invirtiendo demasiado tiempo en castigar a los contaminadores, y demasiado poco en incentivar a los innovadores para que descubran nuevas tecnologías que resuelvan los problemas.
En los últimos años, las nuevas tecnologías han contribuido a mejorar el mundo. Cuando yo era chico, la convicción general era que el mundo pronto se quedaría sin alimentos, porque la población mundial estaba creciendo mucho más rápido que la producción de comida. Había hambrunas en India, y muchos auguraban crisis alimentarias en todos lados.
En cambio, se produjo la Revolución Verde de la década de 1960, que desarrolló nuevas maneras de producir cosechas de alto rendimiento, e India se convirtió en un gran exportador de comida. Hoy, la expectativa de vida en todo el mundo ha aumentado de los 64 años a mediados de la década de 1980 a los 68 años en la actualidad, y la mortalidad infantil se redujo casi a la mitad durante ese mismo período.
Todo esto me lleva nuevamente al libro “Abundancia”, que esencialmente dice que hay pocos recursos verdaderamente escasos: son tan sólo inaccesibles. Si cambiamos nuestro pensamiento negativo por un pensamiento creativo y apelamos a la tecnología, podemos resolver virtualmente todos los problemas planetaRíos de agua, energía y salud, afirma.
Consideremos el caso del agua: hoy, alrededor de 1,100 millones de personas no tienen acceso al agua potable, y algunos científicos calculan que 135 millones de personas morirán antes del 2020 por carecer de agua potable y sistemas sanitaRíos.
El planeta está lleno de agua —los océanos cubren dos tercios de su superficie—, pero el problema es que la mayor parte del agua es demasiado salada, o está demasiado concentrada en unas pocas áreas, o está mal distribuida y administrada.
Sin embargo, hay docenas de nuevas tecnologías de desalinización y de distribución nanotecnológica, que muy pronto podrían conseguir que haya abundante agua para todo el mundo.
Alrededor del 80 por ciento del agua que estamos usando está destinada a la agricultura, y una parte considerable de ella se desperdicia debido a las filtraciones de las cañerías, pero nuevas tecnologías informáticas permiten colocar toda clase de sensores en cañerías, y ahorrar entre 30 por ciento y 50 por ciento del agua que se usa.
Diamandis, que es co-fundador de Singularity University, director de la Fundación X Prize y fundador más de una docena de empresas de alta tecnología y espaciales, me dijo que “los políticos están demasiado concentrados en el corto plazo, y emplean un pensamiento lineal, con puntos de vista basados en la escasez, y típicamente basados en el miedo”.
En cambio, deberían estar pensando en las “tecnologías exponenciales”, o tecnologías cuyo capacidad de desempeño se duplica cada año. “Estamos usando esas tecnologías para jugar videojuegos, pero no para aplicarlas a los problemas más grandes del planeta”, explicó.
Mi opinión: Estoy de acuerdo. La conferencia de Río + 20 merece aplausos por alentar la conservación, pero debería también dedicarle más tiempo a promover la innovación.
Por ejemplo, las Naciones Unidas deberían hacer en gran escala lo mismo que la X Prize Foundation de Diamandis hace a nivel privado: entregar premios de $10 millones a los inventores que resuelven problemas particulares. Eso podría producir más resultados que las mega-conferencias dedicadas a debatir la redacción de largas declaraciones que por lo general pocos cumplen.
Twitter: @oppenheimera

Read more here: http://www.elnuevoherald.com/2012/06/20/v-fullstory/1233765/oppenheimer-el-error-de-rio-20.html#storylink=cpy

Tsunamis y terremotos. Hablamos con Elisa Buforn.

Audio en Ciencia para Escuchar.

Tsunamis y terremotos - Hablando con Científicos - Cienciaes.com
La Tierra es un planeta vivo y tranquilo que, a veces, despierta violentamente de su letargo, como si quisiera recordarnos lo frágiles que somos. Hoy les invitamos a escuchar una entrevista sobre esos bruscos despertares en forma de terremotos y tsunamis. Hablamos con Elisa Buforn Peiró, catedrática de Física de la Tierra en la Universidad Complutense de Madrid.
Elisa Buforn ha investigado la física que gobierna el comportamiento de la tierra justo en el lugar en el que se produce el terremoto, el foco sísmico, y ha desarrollado un conjunto de algoritmos que permiten estudiar el comportamiento de los terremotos a distancias regionales. Sus aportaciones han servido para obtener un mayor conocimiento de las características sísmicas y tectónicas de la región Sur de España y Norte de áfrica, y se han aplicado también a zonas americanas como Perú, Bolivia y El Salvador.
Las palabras de la profesora Buforn nos invitan a aprender de estos fenómenos naturales. Como complemento al programa, les invitamos a leer el siguiente reportaje:
LOS COLETAZOS DE UN GRAN TSUNAMI.
Existen muchas imágenes de la potencia destructora de un tsunami o de un terremoto. Sus devastadores efectos nos hacen estremecer pero su historia no acaba ahí, las secuelas de la catástrofe perduran en el tiempo y se reflejan en muchos aspectos que provocan daños colaterales que conviene estudiar.
El 11 de marzo de 2011, Japón sufrió el azote de un seísmo de gran potencia seguido de un tsunami devastador. La destrucción no sólo se llevó por delante vidas humanas y construcciones costeras, sino que creó una cantidad de desechos que se estima en 25 millones de toneladas, muchos de los cuales fueron arrastrados al océano. Los satélites artificiales fotografiaron la región y descubrieron enormes cantidades de restos de construcciones, barcos y objetos domésticos que flotaban a lo largo de la costa japonesa. Desde entonces, todos aquellos desechos han sido arrastrados por las olas, el viento y las corrientes oceánicas dispersándolos por todo el Pacífico.
Cualquier desecho flotante es potencialmente peligroso en el mar, los de mayor tamaño, bloques de construcción, contenedores portuarios o vehículos, por ejemplo, son peligrosos para la navegación, las sustancias químicas toxicas que transportan algunos contenedores arrastrados por las aguas, los combustibles de vehículos y barcos o las fugas radiactivas de la central nuclear de Fukushima, amenazan a la vida marina y contaminan las playas, pero incluso las pequeñas bolsas de plástico pueden ser ingeridas por los animales marinos provocándoles la muerte. A la catástrofe siguió un mar de contaminación que todavía perdura.
Conocedores de los peligros, un grupo de investigadores de la Universidad de Hawaii, intenta hacer un seguimiento de todos estos desechos para prevenir otras catástrofes quizás no tan espectaculares pero no menos importantes. Para ello han elaborado programas de ordenador capaces de modelar el movimiento de los residuos del gran tsunami de Japón.
Los vientos y corrientes marinas han hecho un gran trabajo con todos los restos de la catástrofe. En un principio los desechos formaban enormes aglomeraciones tan inmensas que eran visibles desde los satélites de observación de la Tierra. Ahora toda esa contaminación se ha ido separando y dispersando por una zona cada vez mayor separada en trozos más pequeños que ahora es imposible ver desde los satélites. Los barcos que navegan por el Pacífico conocen bien el problema. En el mes de septiembre, un barco ruso que navegaba cerca del Atolón de Midway, a 4.000 kilómetros del lugar del desastre, se encontró con los restos de un barco de pesca japonés, un frigorífico, un televisor y otros electrodomésticos. En diciembre, otros restos fueron recogidos en Vancouver, Canadá.
La enorme cantidad de toneladas de desechos vagan ahora por el Pacífico y los científicos intentan detectar los peligros que representan para las comunicaciones marina y para la vida oceánica, los bloques grandes pueden dañar los arrecifes de coral y los restos pequeños son un peligro para los animales marinos como los albatros, las focas o las tortugas.
Nancy Wallace, directora del Marine Debris Program de la NOAA ha declarado a Scientific American que su organización se están preparando para el peor de los escenarios porque todas esas miles de toneladas de desechos producidos por el Tsunami están en algún lugar del océano. En el mapa adjunto se muestra el camino seguido por los desechos en su dispersión por todo el Océano Pacifico.

Conoce tus elementos – El cobre

Pedro Gómez-Esteban.
Dentro de la serie Conoce tus elementos, en la que recorremos juntos la tabla periódica, llevamos unos cuantos meses inmersos en la “zona media” de la tabla, poblada por los llamados metales de transición. Como además seguimos aún conociendo elementos de número atómico relativamente bajo, que son los más comunes, casi todos los metales que hemos visto últimamente no sólo son muy conocidos, sino que han sido nuestros compañeros de viaje desde tiempo inmemorial. Es el caso del elemento de hoy, el de veintinueve protones: el metal chipriota, el cobre.
Si llevas toda la serie con nosotros ya tienes una idea de los grupos en los que podemos clasificar los elementos químicos en cuanto a nuestro conocimiento histórico sobre ellos: algunos son muy comunes y además se encuentran puros en la naturaleza con mayor o menor frecuencia, además de ser fácilmente identificables, con lo que los hemos conocido prácticamente desde siempre, como es el caso del hierro. Otros son muy comunes pero casi imposibles de encontrar puros, con lo que convivimos con ellos durante milenios pero sin saber que estaban ahí, como sucedió con el fósforo, que sólo identificamos en el siglo XVII. Finalmente, otros no sólo son muy infrecuentes sino que además son difíciles de detectar, con lo que su descubrimiento es aún más reciente; esto sucedió, por ejemplo, con el helio.
El cobre es, en este sentido, un elemento muy colaborador: no sólo se presenta con relativa frecuencia en estado puro, sino que además es facilísimo de identificar cuando esto sucede. Por lo tanto, es un ejemplo excelente de un metal conocido desde la Antigüedad, uno de los siete metales que cumplen esa condición –y en la tabla periódica hay ochenta y tantos metales, así que se trata de un grupo muy selecto–. Por si te lo estás preguntando, los otros miembros del club son el hierro, el estaño, el plomo, la plata, el oro y el mercurio.
Cable de alta tensión de cobre
Cobre en un cable de alta tensión (WdWd / CC 3.0 Attribution-Sharealike License).
Ya dijimos, al hablar del titanio, que ese elemento se ha convertido en un extraordinario aliado tecnológico de la civilización moderna. El cobre, sin embargo, lo deja en pañales en cuanto a su importancia para nuestra tecnología: el conocimiento de su existencia, su utilidad y, sobre todo, la capacidad de obtenerlo en gran cantidad, cambiaron nuestra historia como especie para siempre. Gracias a él abandonamos la Edad de Piedra, para luego abandonarlo hasta cierto punto y luego volver de nuevo a él como metal fundamental en nuestra tecnología. Pero vamos por partes.
Aunque parezca contradictorio, el cobre no es de los elementos más abundantes en la corteza terrestre. Existe en una proporción de unas 50 partes por millón, y si ordenásemos los elementos de la corteza según su frecuencia ocuparía el nada honorable puesto número 26, entre el zinc y el cerio. Para ponerlo en perspectiva, el hierro es unas ochocientas veces más abundante que el cobre en la corteza de nuestro planeta. Sin embargo, no sólo supimos cómo extraer cobre de las rocas antes que hierro, sino que durante muchos milenios el cobre fue nuestro metal tecnológico fundamental.
Continuar leyendo en El Tamiz.

La increíble historia del virus que cambiará el modo de hacer guerras

Obamaworld.

El presidente George W. Bush quería más opciones. En 2006 Irán había retomado el enriquecimiento de uranio en la planta de Natanz (en la foto). Estados Unidos solo tenía dos opciones: permitir la hipotética bomba nuclear iraní o impedirla con un ataque militar.

Bush quería algo más. La única alternativa que encontraron la secretaria de Estado, Condoleezza Rice, y el asesor de Seguridad Nacional, Stephen Hadley, procedía de una unidad recién creada, el Cibercomando de Estados Unidos.


La propuesta era simple: introducir un virus en el sistema de control de los centrifugadores que enriquecen uranio en Natanz para que diera órdenes erróneas y los aparatos se autodestruyeran. Bush era escéptico, pero aceptó. Empezaron el trabajo.

Necesitaban probar el virus en modelos iguales a los anticuados iraníes, que procedían de una venta del padre del programa nuclear pakistaní, A. Q. Khan. Por suerte, Estados Unidos almacenaba en Tennessee unos iguales: venían de los restos del programa nuclear libio que Muamar Gadafi había abandonado en 2003.

Al cabo de unos meses se hicieron las primeras pruebas. Fueron un éxito. Poco antes del final de su presidencia, Bush se encontró en la mesa de la “Situation Room” de la Casa Blanca el polvo de los centrifugadores destruidos. Habían creado el primer virus informático capaz de salir del ordenador y destruir artefactos del mundo real. Los mejores ejércitos del mundo sumarán otra opción a su arsenal de tierra, mar, aire y espacio: la red.

El programa americano para crear el virus se llamó con el código “Juegos Olímpicos”, aunque en el mundo lo dio a conocer el nombre que le puso un informático de Microsoft, Stuxnet.

Esta historia y la confirmación de que Estados Unidos fabricó este virus procede de una investigación del periodista del New York Times David Sanger. Publicó primero un artículo en el periódico, que resumía parte de sus descubrimientos de su nuevo libro, Confront and Conceal, que salió el martes. Estados Unidos no trabajó solo: una unidad israelí especializada en ciberataques ayudaba.

La colaboración tenía para los americanos dos motivos: los israelíes son buenos y si les tenían cerca quizá lograban convencerles de que había otras maneras de frenara el programa nuclear iraní sin usar misiles.

Ahora venía la otra parte difícil: meter el virus en los ordenadores de Natanz que controlan los centrifugadores. El reto era doble. Primero había que mandar un virus espía para que describiera cómo funcionaban. Pero había otro problema aún mayor: Natanz no está conectado a internet. El virus debía saltar. La solución era un usb.

Algún técnico o científico debía conectar un disco duro portátil en su ordenador y luego pasarlo a las máquinas de la central. Lo lograron; no está claro si con ayuda consciente dentro de Irán o no (Sanger escribe que tras el usb, “métodos más sofisticados se desarrollaron para enviar el código maligno”; no dice cuáles). El virus envió las instrucciones de vuelta a Estados Unidos. El primer sabotaje de infraestructura real mediante un programa informático estaba casi a punto.

El virus era tan complejo y trabajaba con tanta discreción que los iraníes no entendían qué ocurría cuando todo empezó a fallar: imaginaron defectos de fabricación, errores imprevistos y llegaron incluso a despedir científicos. El objetivo de Stuxnet era retrasar las intenciones iraníes y lo consiguió: Natanz era una planta destinada para 50 mil centrifugadores; hoy hay aún menos de diez mil.

Según Sanger, con Obama ya elegido, los dos presidentes se reunieron en el Despacho Oval a solas. Bush pidió a su sucesor que mantuviera dos programas secretos: Stuxnet y los aviones sin piloto contra Al Qaeda en Pakistán y otros países. Obama cumplió con creces.

Ahora se ha confirmado gracias a Sanger que Estados Unidos e Israel estaban detrás de Stuxnet, pero hace casi dos años que se sabe que existía y se sospechaba que solo podía estar detrás un país con los recursos americanos. En 2010, una variante del virus original para llegar a más centrifugadores -aparentemente preparada por los israelíes, aunque no está claro- no reconoció bien su destino y salió a la red abierta.

En junio de 2010, una empresa bielorrusa de antivirus lo detectó cuando ya había infectado miles de ordenadores. Con el tiempo, otros expertos en seguridad informática desglosaron el código y comprobaron el nivel de perfección y vieron que el virus estaba sobre todo en ordenadores iraníes y, en menor medida, indonesios e indios. Fue fácil intuir qué había ocurrido.

Stuxnet es sobre todo la confirmación de que Estados Unidos trabaja desde hace años en ciberarmas de ataque, no solo defensivas o de espionaje. Aunque en ese ámbito también los americanos están a otro nivel. La mejor prueba es un nuevo centro de la Agencia de Seguridad Nacional en Utah que estará listo en septiembre de 2013 (en la imagen).

Estará dedicado a almacenar y analizar -espiar, en suma- información secreta de otros países y de sus ciudadanos. Será, según cuenta Wired, en este largo reportaje, es el primer centro capaz de poder analizar cantidades ingentes de datos para ver qué es interesante. Ningún país está a ese nivel.


El espionaje industrial de empresas y funcionarios americanos desde China es célebre. El robo de datos financieros desde Europa del este y Rusia es conocido. Los ataques de Anonymous se hicieron famosos. Pero cualquier compración con la capacidad americana y lo que veremos en el futuro es ridícula.

Estados Unidos se planteó eliminar en 2011 las defensas antiaéreas libias con un ataque en la red. Les hubiera llevado un año, según un funcionario. Pero ese tiempo se reducirá. El único intento parecido al del Stuxnet lo hizo Israel cuando trató con escaso éxito de limitar las defensas sirias cuando destruyó su reactor nuclear en 2007.

Nadie más está a niveles parecidos. Pero todo llegará. Ese centro impresionante que construye Estados Unidos cuesta 2 mil millones de dólares; Irán prevé invertir mil en su ciberejército. ¿Qué consecuencias tendrá para las guerras del futuro? Los expertos creen que hará variar estrategias, pero no dará más opciones a países menos poderosos.

La razón principal es obvia: un enemigo pequeño podría llegar a causar con un ciberataque un desastre parecido al del Katrina en Nueva Orleans. Pero ese país respondería con un ataque militar convencional. Así que el equilibrio de poderes variará menos de lo que parece.

El ciberterrorismo a estos niveles requiere también por ahora demasiada inversión y capacidad como para ser significativo. La red traerá nuevas opciones militares, pero la única arma que por ahora ha cambiado las guerras es aún la bomba nuclear.

Does Technology Drive The Growth of Government?

Tyler Cowen.


Introduction.

Why is government so large in the Western world? This has been a question of central importance to the Mont Pelerin society since its very beginnings.

I start with what Gordon Tullock (1994) has called the paradox of government growth. Before the late nineteenth century, government was a very small percentage of gross domestic product in most Western countries, typically no more than five percent. In most cases this state of affairs had persisted for well over a century, often for many centuries. The twentieth century, however, saw the growth of governments, across the Western world, to forty or fifty percent of gross domestic product. Other measures of government intervention, such as the regulatory burden, have grown as well. Whether or not we think these developments are desirable, they are among the most important features of the last one hundred and fifty years and they cry out for explanation. My basic focus is on the United States, although a comparative perspective can help us make sense of the evidence. I’d like to address the key question of why limited government and free markets have so fallen out of favor. Of course this investigation is only one small piece of that larger puzzle.

Read full.

Verdea el desierto

Antón Uriarte.



Estas son imágenes de satélite del desierto de Arabia Saudí en diversas fases, desde Febrero de 1987 hasta Enero de 2012.

Muchos puristas preferirían que los circulitos verdes, de aproximadamente un kilómetro de diámetro cada uno, fueran placas solares.

Pero no. Son cultivos de regadío y utilizan agua extraída desde más de mil metros de profundidad, de un acuífero  formado hace unos cuantos miles de años, cuando el clima era allí más húmedo.

El uso del agua para regar el desierto se ha triplicado desde 1980 en Arabia Saudí. A este paso va a llegar el día en el que el CO2 de la atmósfera no va a dar abasto para satisfacer tanta fotosíntesis antropogénica.

Ya oigo a los maltusianos quejarse del gasto de agua y llorar sin lágrimas por la sed de las generaciones futuras. Uagh.

Crop Circles in the Desert : Image of the Day.

Smart Phones and Tablets Might Be Spreading Faster Than Any Technologies in Human History

Mark Perry.







From an article in MIT's Technology Review "Are Smart Phones Spreading Faster than Any Technology in Human History?":

"Presented in the top graphic above is the U.S. market penetration achieved by nine technologies since 1876, the year Alexander Graham Bell patented the telephone. Penetration rates have been organized to show three phases of a technology's spread: traction, maturity, and saturation. 

Those technologies with "last mile" problems—bringing electricity cables or telephone wire to individual homes—appear to spread more slowly. It took almost a century for landline phones to reach saturation, or the point at which new demand falls off. Mobile phones, by contrast, achieved saturation in just 20 years. Smart phones are on track to halve that rate yet again, and tablets could move still faster, setting consecutive records for speed to market saturation in the United States.

It is difficult to conclude categorically from the available data that smart phones are spreading faster than any previous technology. Statistics are not always available globally, and not every technology is easily tracked. Also, because smart phones have not yet reached market saturation, as electricity and television have, the results are still coming in.

Smart phones, after a relatively fast start, have also outpaced nearly any comparable technology in the leap to mainstream use. It took landline telephones about 45 years to get from 5 percent to 50 percent penetration among U.S. households, and mobile phones took around seven years to reach a similar proportion of consumers. Smart phones have gone from 5 percent to 40 percent in about four years, despite a recession. In the comparison shown, the only technology that moved as quickly to the U.S. mainstream was television between 1950 and 1953."

MP: How does this fit in with "The Great Stagnation" hypothesis?  

Global warming Policies might be bad for your Health

Indur Goklany.

Leer informe completo.



Conclusion: reducing the urgent Health risks that global warming would exacerbate.


Even on the basis of speculative analysis that tends to systematically overestimate the threat of global warming, it is now, and for the foreseeable future, outweighed by numerous other health threats. Many of these greater threats are diseases of poverty.


Exaggerating the importance of global warming seriously risks misdirecting the world’s priorities and its resources in efforts to reduce poverty and improve public health. Equally importantly, policies to curb global warming would, by increasing the price of energy and reducing its usage worldwide, slow down, if not reverse, the pace of economic growth. As economic development is central to the fight against poverty, such policies would tend to perpetuate the diseases—and all the other problems—associated with poverty. Specifically, since the diseases of poverty are currently responsible for 70–80 times more death and disease than global warming, such policies may well be counterproductive. They would, moreover, slow advances in society’s adaptive capacity, and otherwise retard improvements in human well-being (Goklany 2009e).


For example, the increase in biofuel production between 2004 and 2010, partly as a consequence of policies designed to reduce dependence on fossil fuels, is estimated to have increased the population in absolute poverty in the developing world by over 35 million, leading to about 200,000 additional deaths in 2010 alone. Moreover, to the extent that mitigation may have reduced the rate of warming (which is the best that mitigation can hope to achieve given current technologies and the inertia of the climate system), it may have slowed the reduction in excess winter mortality, a phenomenon that isn’t only restricted to the higher latitudes.


Since global warming would mostly amplify existing health risks that are associated with poverty, tackling these underlying health risks (e.g., hunger, malaria and other vector-borne diseases listed in Table 1) would also address any incremental health risks attributable to global warming. Accordingly, global health and well-being would, for the foreseeable future, be advanced farther, faster, more surely and more economically through (a) focused adaptation, that is, efforts focused on reducing vulnerability to today’s urgent poverty-related health problems that may be exacerbated by global warming, or (b) increasing adaptive capacity, especially of developing countries, through economic and technological development rather than on (c) quixotic and, most likely, counterproductive, efforts to reduce energy usage.

Cráneo sin cerebro

Arcadi Espada.

Comparto, cómo no, algunas de las cosas que dice Mario Vargas Llosa en su nuevo libro, y que lleva diciendo hace tiempo en sus artículos. Pero me preocupa que el balance final incida, agravándolo, en el principal problema de la civilización digital: los que saben se alejan y los que todo lo ignoran se afianzan a los mandos. Cualquier interesado por las máquinas observará una descomunal desproporción entre la sofisticación de las máquinas (hardware) y la banalidad de su cerebro (software). Dos ejemplos del iPad: sus mejores programa de escritura (iWriter: limpio, sencillo, eficaz y iBooks Author: ultimismo y multimedia) no saben poner pies de página. Y el segundo: la abrumadora mayoría de las ediciones de periódicos y de revistas son fotocopias exactas de las versiones impresas. Y no puedo extenderme aquí y ahora sobre la sucia pobreza formal de los e-books. La civilización digital es una inteligencia básica de ingenieros que han creado máquinas de la belleza y sofisticación del iPad. Han puesto a disposición de los creadores posibilidades expresivas puramente extraordinarias. Pero nadie ha escrito todavía el manual de instrucciones. Entre otros motivos, porque los grandes creadores como Vargas Llosa no presionan lo suficiente: prefieren denunciar la banalidad. No pasó lo mismo en los albores del cine: ningún director de fotografía fue ni ha sido nunca más importante que los realizadores y los actores. Si lo digital es banal es porque los Vargas no meten el dedo. Ni en la llaga ni en el enchufe.

Cuba entre los 10 países con mayor censura en el mundo

Cubanet.

Yoani Sánchez
MIAMI, Florida, 2 de mayo (Agencias,www.cubanet.org) – Cuba es uno de los países con mayor censura en el mundo, debido al control de la prensa por parte del Gobierno  y al acoso a comunicadores independientes, según indica un informe difundido el miércoles.
El informe del Comité para la Protección de Periodistas (CPJ, por sus siglas en inglés) coloca a la isla en el puesto número 9 entre las 10 naciones con mayor control sobre los medios de prensa en el mundo, mientras que Eritrea, Corea del Norte y Siria encabezan la lista.
La relación de países con más censura se completa con Irán, Guinea Ecuatorial, Uzbekistán, Myanmar (antes Birmania), Arabia Saudita, Cuba y Bielorrusia.
El documento destaca “el control arbitrario sobre la cobertura informativa, mediante una combinación de propaganda, fuerza bruta y tecnología sofisticada”, como la característica que define a los 10 países que conforman la lista.
En el caso de Cuba, el CPJ dijo que aunque los 29 periodistas independientes encarcelados durante la llamada primavera negra del 2003 han sido excarcelados, el gobierno continúa el acoso a sus críticos “con arrestos arbitrarios, detenciones de corto plazo, golpizas, vigilancia, y campañas difamatorias”.
Sobre la manera en que funciona la censura en la isla el informe destaca que todos los medios nacionales autorizados son controlados por el Partido Comunista, que reconoce la libertad de prensa “solo en acuerdo con los objetivos de la sociedad socialista”.
“Los proveedores de servicios de internet se ven obligados a bloquear cualquier contenido objetable. Todos los periodistas independientes y blogueros trabajan en páginas web hospedadas en el exterior y actualizadas por medio de las embajadas o costosas conexiones de hoteles”, señala el informe.
“Aquellos que apoyan al Gobierno suelen reunirse fuera de los hogares de periodistas para intimidarlos. Los funcionarios otorgan visas a periodistas extranjeros de forma selectiva.”
El informe recuerda que en febrero las autoridades negaron la visa requerida para salir del país a la bloguera independiente Yoani Sánchez, y añade que en varias ocasiones la activista ha sido objeto de “campañas difamatorias, ataques virtuales en su blog y de asaltos”.
La lista fue elaborada a a partir de 15 criterios, entre los que figuran el bloqueo a páginas web, restricciones a la grabación y divulgación electrónica, ausencia de medios de comunicación privados o independientes, limitaciones al movimiento de periodistas e interferencia y bloqueo de emisiones y corresponsales extranjeros.
“En nombre de la estabilidad o el desarrollo, estos regímenes suprimen la labor informativa independiente, amplían la propaganda y utilizan la tecnología para ejercer control en lugar de apoderar a sus propios ciudadanos”, indicó Joel Simon, director ejecutivo del CPJ.
El CPJ consideró que en Azerbaiyán, Etiopía, China, Sudán, Turkmenistán y Vietnam también hay una fuerte censura.
Amnistía Internacional (AI) también denunció el miércoles en un informe titulado “Represión en la era digital” el aumento de la represión contra periodistas y blogueros en Cuba, México y Honduras en 2011, un año que, según AI, fue “el más mortífero para los ciberactivistas” alrededor del mundo, reportó la agencia Efe.
Ante la celebración mañana del Día Mundial de la Libertad de Prensa, la organización de defensa de los derechos humanos alerta de que países como Siria, China o Cuba han extendido su censura de la internet a través del bloqueo de los motores de búsqueda, el encarecimiento del precio de internet, la tortura a activistas para conseguir sus contraseñas de Facebook o Twitter, o la aprobación de leyes para controlar lo que se publica en la red.
“Los Estados están atacando a los periodistas y activistas en línea porque saben que estas personas valientes saben aprovechar eficazmente la internet para desafiarlos”, dijo Widney Brown, responsable de Derecho Internacional de AI.