lunes, 21 de diciembre de 2009

Las pantallas de "Hiper Realidad" de Apple

Te imaginas a ti dándole vueltas al nuevo modelo de coche que tu escudería favorita de F1 presentará el próximo año, observando cada detalle desde arriba, hacia los costados o abajo? Si tener la posibilidad de acercarse al menos a ese privilegio reservado para unos pocos te entusiasma, más cautivante será la sensación cuando veas tu propio rostro reflejado en la reluciente pintura del coche que se observará tan real como las sombras y claroscuros que provocará la iluminación de tu habitación sobre su carrocería. Suena impresionante, ¿verdad? Observa este video de Johnny Lee utilizando un Wiimote para lograr un resultado equivalente y comprenderás mejor el alcance de esta tecnología con la que Apple viene trabajando y con la que promete transformar el mundo que vemos detrás de la pantalla del ordenador.




La solicitud de patente de invención nos cuenta que Apple pretende integrar los sensores habituales que vienen, en la mayoría de los casos, integrados al hardware para lograr un funcionamiento efectivo de este desarrollo. Por ejemplo, una simple webcam sería capaz de detectar la posición de la cabeza del usuario y algunos elementos del escenario donde se encuentra ubicado. Con este único elemento, la invención sería capaz de mostrar sobre el objeto observado el rostro de la persona que se encuentra frente a la pantalla, como también podrá detectar luces encendidas en su entorno y aplicar esta información iluminando con diversas tonalidades al objeto mostrado en imagen. Por ejemplo, si en tu habitación posees iluminación incandescente, una tonalidad cálida de luz se reflejará sobre, por ejemplo, un antiguo jarrón chino que estás a punto de comprar en una página de subastas y al que estás observando en detalle en todo su alrededor.
Monitores 2D que brindarán imágenes 3D de alto realismo

Otros elementos de hardware que cumplirían la función de “sensores” pueden ser micrófonos y detectores de radiación infrarroja o ultravioleta para interpretar longitudes de onda no percibidas por el ojo humano. Un claro ejemplo resultante de esto sería la transformación del medio ambiente que estás observando en la pantalla. El sistema tomaría los datos de temperatura, humedad e iluminación del hábitat en el que tú te encuentras y transformaría la escena mostrada en pantalla según las condiciones que tú tienes a tu alrededor. Dicho de otro modo, la pantalla de tu ordenador sería como una ventana hacia el mundo virtual que se está mostrando en imagen.

Por citar otro ejemplo, en el caso de la utilización de los micrófonos, el protagonista del film se detendría en su feroz batalla contra el monstruo y te diría: “Atiende tu teléfono Max, nosotros te esperamos”. Es decir, la idea involucra a todos los medios tecnológicamente disponibles en el mercado que pueden ser utilizados como sensores. El propósito es detectarte a ti y a todo lo que te rodea para crear un hábitat en el cual verdaderamente sientas que estás inmerso. Además, se espera que este sistema se complemente de manera muy interesante y práctica con la incipiente tecnología de Realidad Aumentada. Las cámaras y sensores podrían captar tus sensaciones y miedos al estar luchando ante un ejército de zombies hasta que, de repente, en medio de una partida de Left 4 Dead veas en la pantalla del ordenador una imagen espejo de tu habitación en la que tú te encuentras frente al ordenador rodeado de zombies streepers impuestos allí a través de la Realidad Aumentada.

La interacción entre este desarrollo y la Realidad Aumentada promete mostrar cosas increíbles en pantalla

Otras aplicaciones descritas en la solicitud de patente de invención es la posibilidad de tener acceso a “tocar” los elementos que aparecen en pantalla y moverlos de un punto a otro en la escena. Es decir, aquí ya se avanza un poco más allá del simple hecho de mirar. Y todo se basa en los movimientos que el usuario efectúe delante del monitor, a pesar de que la mayoría de las aplicaciones a las que estamos acostumbrados en la actualidad contemplan una posición estática del observador. Podemos hablar, entonces, que en el futuro, gracias a los avances que puedan lograr este tipo de desarrollos, el ambiente que rodea nuestro ordenador será muy diferente al que hoy conocemos. Tal vez exista una gran pantalla al estilo de una TV y nosotros tengamos espacio para caminar o movernos en su cercanía, para observar sectores ocultos o interactuar con la escena que estamos viendo. Por ejemplo, la bella señorita siempre estaría mirándonos y extendiendo su mano hacia nuestra posición, aunque intentemos escondernos a un costado de la pantalla.

Imágenes sencillas que se pueden encontrar en la solicitud de patente de invención

Las derivaciones que esta “tendencia 3-D” imprimirá a nuestra relación diaria con el ordenador tendrá matices tan insólitos como fabulosos. Más ejemplos: los iconos de inicio de programas que tienes sobre tu pantalla de escritorio serán también 3D; los podrás rotar en la medida en que lo desees y dejarlos en la posición más simpática que te parezca o también podrás verlos desde los costados si decides moverte y ver cómo se aprecian desde una perspectiva diferente a la que ves de manera frontal. Es decir, si te corres a un costado, podrás apreciar cómo los verá tu compañero/a de trabajo desde su posición a tu lado.

En un escritorio con múltiples ventanas, podrás moverte y observar que ocurre en las traseras

Por ahora las pocas imágenes que aparecen en la solicitud dan una perspectiva del funcionamiento del sistema aplicando las variaciones que experimentarán las imágenes según la posición del observador frente a la pantalla y el paralaje que resultará de estar en movimiento frente a la misma. Lo que creemos que será una etapa a superar para poder llevar a la práctica con total éxito estos increíbles desarrollos es el notable incremento de potencia de proceso que necesitarán experimentar las interfaces gráficas de los ordenadores. Aceleraciones muy potentes (casi impracticables hoy en día) serán necesarias para poder disfrutar a pleno de estas fascinantes experiencias que desde hace muchos años Steve y sus amigotes nos tienen preparadas para este nuevo siglo que recién comienza.

viernes, 11 de diciembre de 2009

URL Brain Damage: Jugando con el URL

Internet se ha convertido un terreno fértil para toda clase de juegos curiosos y poco comunes. Los denominados juegos casuales están causando furor en la red, pero no todo se trata de clones del Tetris o cosas parecidas. URL Brain Damage es uno de los mejores ejemplos a la hora de demostrar que con una muy buena imaginación se puede crear algo completamente diferente y entretenido. El juego sólo tiene un indicador de nivel, pero no hay gráficos, ni poderes, ni habilidades. La clave para este juego es nuestro cerebro, y debemos utilizarlo al máximo para poder avanzar de nivel. ¿El objetivo? Completar la dirección URL que aparece en el navegador.

URL Brain Damage: Haz clic aquí

Milton-Bradley Microvision: Abuelo de Game Boy

Hace 30 años atrás fue lanzado el Milton-Bradley Microvision. Hasta aquí todos nos preguntamos por qué razón debería importarnos el lanzamiento de una de las tantas consolas portátiles de la historia. La respuesta es simple: Milton-Bradley Mircrovision fue la primera consola portátil de cartuchos intercambiables lanzada al mercado. Hasta ese entonces, todos los sistemas de entretenimiento que cabían en nuestros bolsillos (de pantalones Oxford, claro) contenían un solo juego, el cual rápidamente se hacía insoportable, monótono y aburrido.

Un acercamiento a la portátil Milton-Bradley Microvision

Con el concepto de cartuchos intercambiables, se alargó la vida útil de estas consolas, abriendo un mercado a todos los desarrolladores para crear videojuegos que puediesen ser incluidos en un solo dispositivo mediante la modalidad de cartuchos independientes. Así, los mismos fabricantes de hardware prontamente se interesaron en lanzar sus propios productos para competir con esta nueva y revolucionaria idea. Diseñada por Jay Smith en 1979, fue lanzada al mercado a través de la juguetería MB, recaudando 8 millones de dólares durante su primer año en las calles. La gloria duró hasta 1982 cuando una serie de inconvenientes (poca variedad y cantidad de cartuchos, escaso apoyo de las compañías desarrolladoras de videojuegos y su pantalla de tamaño reducido) la condenaron a su desaparición definitiva.

Milton-Bradley Microvision con sus cartuchos intercambiables.

La portátil Milton-Bradley Microvision estaba compuesta por una pantalla en blanco y negro de 16x16 pixeles (¿quién dijo que hacen falta más píxeles para divertirnos?) con una cubierta con una carcasa de plástico duro de color beige o gris (sí, espantosas). En un primer momento su CPU estaba compuesto por el microprocesador 8021 de la empresa Intel, el cual le brindaba un ancho de registro de 8 bits, pero por cuestiones de ahorro de energía y prestaciones de memoria finalmente se decidió incorporar los micros TMS1100 de la desarrolladora Texas Instruments. Este procesador, que si bien le brindaba solamente 4 bits resultó ser mucho más efectivo y barato, otorgándole una velocidad de 100 kHz. Algo similar sucedió con el uso de las pilas: al principio se necesitan dos baterías de nueve voltios, pero el cambio de procesador disminuyó la cantidad de energía requerida. El riesgo de sobrecalentamiento y cortocircuito obligó a los fabricantes a tener que modificar el “concepto” del compartimiento para las pilas, dejando libre una de las terminales promocionándolo como espacio para “batería de repuesto”. Por debajo de su pantalla se encontraban 12 diferentes botones de goma, configurables de acuerdo a las diferentes matrices intercambiables de plástico impreso que correspondían a los distintos títulos. De este modo algunos botones quedaban bloqueados para el usuario, mientras que solo se dejaban expuestos aquellos que cumplían una funcionalidad a la hora de jugar.

Block Buster en detalle.

En total fueron 12 diferentes títulos los que conformaron el poco variado menú de videojuegos que podíamos utilizar en la consola. Dispuestos en cartuchos ROM intercambiables, que poseían cada uno su propio CPU con opciones configurables que se integraban al sistema central de la consola, los 6 juegos que venían incluidos en el Milton-Bradley Microvision eran Block Buster, Bowling, Connect Tour, Mindbuster, Pinball, Star Trek Phaser Strike y Vegas Slots. Al año siguiente se sumaron a esta lista Baseball y Sea Duel, mientras que en 1981 se incluyeron Alien Raiders y Cosmic Hunter. El último año de vida de la consola recibió el lanzamiento de Barrage y Super Blockbuster, los cuales terminaron siendo los dos desarrollos definitivos que no podrían detener la inminente desaparición del sistema de entretenimiento digital. En cuanto al sonido, debíamos someter nuestros pobres oídos a los chirridos de un zumbador piezoeléctrico (de allí al sonido 5.1 envolvente… ¡Gracias, evolución digital!).

Los juegos que incluía Milton-Bradley Microvision.

Algunas dificultades relacionadas con las propias prestaciones de la máquina determinaron el hundimiento de Milton-Bradley Microvision. En primer lugar, el sellado de la precaria pantalla LCD sufría episodios de corrosión por golpes e impurezas, producíendo la fuga del cristal líquido (también llamado Screen rot) lo que generaba manchas negras permanentes en el área de visión. Si bien los juegos podían seguir siendo utilizados, las marcas eran permanentes y obstruían le correcto desarrollo de las partidas para los jugadores. Fue tan común sufrir este inconveniente que hoy en día es muy difícil encontrar pantallas de Microvision que no estén dañadas o con manchas imposibles de solucionar. En segundo lugar, un grave problema de diseño disponía a los pines de cobre que se conectaban directamente con las terminales de los cartuchos intercambiables sin protección contra las cargas electroestáticas. Por lo tanto, muchas veces era el mismo usuario quien terminaba generando una importante carga de energía electroestática (o EDS) que al abrir la puerta de protección del aparato generaba una ruptura dieléctrica que “quemaba” todo el sistema. Los cartuchos poseían un circuito integrado de bajo voltaje que era muy vulnerable a la EDS generada normalmente por cualquier sujeto normal. En tercer lugar el recubrimiento de plástico impreso que protegía los botones, sufría un desgaste irreversible ante los constantes cambios de las diferentes matrices que se utilizaban en los distintos videojuegos. Los botones se rasgaban y estiraban volviéndose inutilizables con el paso del tiempo si no se los cuidaba adecuadamente.

Milton-Bradley Microvision al desnudo.

A pesar de todas las dificultades que castigaron sus buenas intenciones, podemos decir con toda seguridad que Milton-Bradley Microvision fue el pionero entre las consolas portátiles con cartuchos intercambiables. Consolas como Game Boy, Sega Game Gear, o la PSP se nutrieron de sus enseñanzas para brindar sus propias propuestas a un mercado deseoso de llevar su divertimento consigo a todos lados. A treinta años de su lanzamiento nos pareció adecuado en Neoteo contarles lo mucho que la industria sufrió para darnos hoy en día tantas opciones de calidad que intentan saciar nuestro profundo aburrimiento (que parece no tener límites). Todos terminamos sintiendo un cariño y respeto por nuestras consolas, que a pesar de ser siempre sustituidas por nuevas versiones con más bits, discos con capacidades inconmensurables que jamás llegamos a llenar y prestaciones que verdaderamente nunca terminaremos usando, formarán parte de nuestra vida por siempre. En nombre de la comunidad de videojugadores les mandamos un afectuoso abrazo a todos esos Ataris, Commodores 64 y Family Games que tantas alegrías nos han brindado. En estas fiestas brindaremos por ustedes. ¡Salud!


miércoles, 9 de diciembre de 2009

Gas metano y vida en Marte

Si bien las posibilidades a favor de la existencia de vida en otros lugares del Universo son abrumadoramente grandes, lo cierto es que no hemos sido capaces de encontrar nada vivo fuera de la Tierra. De hecho, ni siquiera tenemos muestras confirmadas que contengan rastros de vida extraterrestre. El meteorito de origen marciano hallado en la Antártida puede ser uno de los elementos que más cerca nos deja de haber hallado esos indicios, pero no todos los científicos están de acuerdo en los resultados de su análisis. Ahora, un trabajo efectuado por científicos del Imperial College de Londres parece demostrar que en Marte hubo, alguna vez, vida. El documento, que será publicado dentro de unas horas por la revista Earth and Planetary Science Letters, da por tierra con la una teoría esgrimida por la NASA

La Agencia Espacial Estadounidense sostiene que el gas metano presente en la atmósfera de Marte puede explicarse a partir del impacto de meteoritos. Sin embargo, el estudio del Imperial College demuestra que esto no es así, y que el a menudo denominado “gas de los pantanos” proviene en realidad de las actividades metabólicas de la biomasa. Según los científicos, el metano sólo puede durar un tiempo limitado -del orden de los cientos de años- en la atmósfera de Marte antes de ser destruido por la luz solar. El hecho de que aún haya restos de ese gas en la atmósfera significa que -de alguna manera- se está inyectando constantemente cantidades apreciables de metano al planeta.

Los meteoritos solo pueden aportar unos 10 kilogramos de metano al año.

Marte es golpeado regularmente por meteoritos. El equipo del Imperial College en primer lugar investigó la hipótesis de que el metano existente en Marte puede ser producido por el calor intenso generado por el ingreso de estas rocas espaciales en la atmósfera marciana. Las pruebas de laboratorio destinadas a recrear las condiciones existentes durante estos eventos no lograron crear cantidades significativas de metano. Como parte del experimento, los científicos calentaron muestras de meteoritos a las temperaturas que alcanzan al “rozar” con la atmósfera, y midieron los gases que se desprenden con un instrumento llamado espectrómetro.

Los especialistas calculan que los meteoritos solo pueden aportar unos 10 kilogramos de metano al año, cantidad ridícula si la comparamos con las entre 100 y 300 toneladas necesarias para alcanzar los niveles de metano que se observan en la atmósfera marciana. Uno de los autores del trabajo, el Dr. Richard Court, explica que “los meteoritos, al vaporizarse en la atmósfera, constituyen una fuente de metano. Pero las pruebas de laboratorio demuestran que solo aportan una pequeña cantidad de gas, insuficiente para explicar las cantidades que existen en su atmósfera.” Otra fuente de metano podrían ser los volcanes. La roca volcánica, al reaccionar con el agua, puede producir gas metano. Sin embargo, el equipo del Reino Unido ya había descartado esa hipótesis.

En ese sentido, el profesor Colin Pillinger, de la Universidad Abierta, señala que las columnas de metano descubiertas por la NASA en enero no se están produciendo en las zonas donde hay volcanes. “El metano es un producto de los seres vivos. Para que exista metano a la atmósfera de Marte, tiene que haber una fuente renovable.” Esto explicaría porque a pesar de la acción destructiva de la luz solar, todavía podemos medir altos niveles de metano en Marte. “La fuente generadora de metano más evidente es la vida, así que si usted encuentra metano en la atmósfera, puede sospechar que hay vida,” concluye Pillinger

Para que exista metano a la atmósfera de Marte, tiene que haber una fuente renovable

Lamentablemente, ni la NASA ni otras agencias espaciales tienen previsto enviar nuevas sondas robóticas al planeta rojo hasta 2018. En ese año, una misión conjunta de la NASA y la Agencia Espacial Europea enviarán un robot a Marte para que excave su superficie buscando evidencia de organismos marcianos. Justamente, el equipo del Imperial College ha desarrollado instrumentos que servirán para extraer el material orgánico de las rocas marcianas. El profesor Mark Sephton, del Imperial College, dice que “debemos ser como Sherlock Holmes: eliminamos todos los demás factores y el que queda debe ser la verdad. La lista de posibles fuentes de gas metano es cada vez más pequeña, y la vida extraterrestre sigue siendo una opción.” Parece que, finalmente, se van reuniendo las pruebas que demuestran que no estamos solos en el universo.

martes, 8 de diciembre de 2009

Un “elixir zombie” para la guerra (DARPA)

Más o menos la mitad de las bajas que ha tenido el ejército de los Estados Unidos en los diferentes campos de batalla alrededor del mundo se deben a la pérdida de sangre. En efecto, a diferencia de lo que se ve en las películas de Hollywood, donde los combatientes mueren al ser volados, incinerados, machacados o cortados en trocitos, la principal causa de muerte de estas tropas es algo tan poco espectacular como desangrarse hasta morir tirado por ahí. En estos momentos los encargados de mantener la maquinaria de guerra funcionando se encuentran embarcando otros 30.000 soldados con rumbo a Afganistán, de los cuales -si las estadísticas son correctas- la mitad de los que mueran serán víctimas de la perdida de sangre. Lógicamente, DARPA, la agencia del Pentágono destinada a las investigaciones y desarrollos de defensa, tiene algunas ideas para evitar este “problema”.

El plan contempla realizar, en primer lugar, algunos experimentos con cerdos. Si todo marcha como creen, el paso siguiente será aplicar el sistema en humanos. Para comenzar con las investigaciones, DARPA ha otorgado un contrato de 9,9 millones dólares al Texas A&M Institute for Preclinical Studies (TIPS), quienes deberán desarrollar tratamientos y terapias destinados a proporcionar “un tiempo extra de vida” a los soldados que han sufrido hemorragias masivas. El tratamiento deberá ser aplicado en el transcurso de la primera hora luego de haber sido heridos, ya que dentro de ese lapso de tiempo es dónde se tiene la mejor oportunidad de recuperarse de una pérdida masiva de sangre.

DARPA quiere convertir a los heridos en zombies.

¿Cómo se convierte un humano saludable en un zombie medio muerto? Fácil. En primer lugar, es necesario proporcionar al paciente algunos disparos (no mortales, por supuesto) en lugares estratégicos -el abdomen, un pulmón, alguna arteria importante- de forma que pierda mucha sangre y se encuentre al borde de la muerte. El campo de batalla es, obviamente, el lugar ideal para llevar a cabo esta primera etapa. Luego, hace falta crear alguna droga capaz de hacer con nuestros cuerpos y su metabolismo más o menos lo que hacen las ardillas en invierno: detener sus “funciones corporales” casi hasta cero. Esto es posible gracias al uso de una enzima pancreática que parece tener el poder de “ponernos en pausa”. También hace falta disminuir nuestras naturales ganas de respirar. Para eso, el Dr. Mark Roth del Fred Hutchinson Cancer Research Center, se encuentra investigando gusanos nematodos y ratas para comprobar de qué forma el sulfuro de hidrógeno puede bloquear la capacidad del cuerpo para utilizar oxígeno. Combinando estas dos “terapias” en una persona que ha perdido una gran cantidad de sangre, se la puede poner en una especie de “animación suspendida” en la que el corazón deja de latir y -por lógica consecuencia- las heridas no sangran.

Con lo explicado hasta aquí uno podría creer que los médicos no han hecho otra cosa que terminar el trabajo que tan eficazmente comenzaron las balas enemigas. Teníamos un paciente gravemente herido, perdiendo sangre, y gracias al uso de un par de drogas ahora tenemos uno muerto, que ya no sangra. No parece un gran progreso. Sin embargo, el secreto de DARPA consiste en que pueden resucitar a estos cadáveres. En algunos de los experimentos efectuados con ratas, el Dr. Roth “retiró” el 60% de la sangre del animal, le suministró su “coctel zombie especial” y logró traerlos a la vida luego de 10 horas.

Es posible mantener “semivivos” a algunos cerdos luego de ser desangrados.

El siguiente paso lógico es intentar reproducir estos experimentos utilizando cerdos. Estos animales, además de dos jamones exquisitos, poseen un sistema cardiovascular muy parecido al de los seres humanos, y los investigadores Theresa Fossum y Matthew Miller -ambos del TIPS- creen que pueden obtener datos concretos que -una vez aplicados en humanos- salven montones de vidas en el campo de batalla. Otra forma de salvar esas vidas sería no yendo a la guerra, pero a menudo la realidad sigue caminos bastante tortuosos. Algunos experimentos ya han comenzado, y se ha logrado mantener “semivivos” a algunos cerdos luego de ser metódicamente desangrados. En este momento, un equipo de 15 personas trabaja exclusivamente en el proyecto, y los encargados prevén los primeros resultados positivos dentro de 18 meses. "DARPA quiere que esto suceda 'ayer', porque era necesario ayer", dice el Dr. Miller. Una vez que el equipo consiga este “elixir zombie”, deberá someterlo a las pruebas de seguridad obligatorias a nivel federal. Después de eso, el método será enviado a los campos de batalla para la aplicación humana.

Fossum, evidentemente muy entusiasmado con la perspectiva de matar y resucitar gente, predice que cada soldado llevará a la zona de combate una jeringa llena de esta sustancia. En caso de un “accidente” (ponerte delante de la bala de un fusil, por ejemplo), la aplicación de esta inyección reducirá al mínimo sus necesidades metabólicas, induciendo un estado de animación suspendida sin actividad cerebral o cardiaca. Una vez terminada la “emergencia”, mediante un tratamiento realizado por los médicos, el paciente sería “reanimado” y estaría en condiciones de recibir el siguiente balazo.

Realmente, no hay dudas de que la guerra es la estupidez más grande en la que periódicamente nos embarcamos. Y dentro de este marco, algunos -DARPA, por ejemplo- parecen disfrutar de la posibilidad que estas masacres les brindan para realizar los experimentos más locos que se les puedan ocurrir. Si todo sale como la agencia piensa, entre los petates de cada soldado habrá una jeringa que lo puede “matar” de una forma especial, para que luego sus compañeros los “resuciten”. Si fuese parte del argumento de una película de ciencia ficción, nos reiríamos de ello. Lamentablemente, es parte de la realidad.

Magnetismo sintético inducido por láser

Existen una gran cantidad de fenómenos -casi siempre relacionados con el mundo de las partículas subatómicas o la física cuántica- que resultan de interés para los físicos. La forma en que interactúan dos electrones contenidos en dos dimensiones dentro de un campo magnético, por ejemplo, es difícil de investigar utilizando materiales convencionales como los semiconductores. No sólo es difícil controlar las numerosas variables implicadas, sino que las muestras utilizadas suelen tener defectos o irregularidades que poco ayudan a la hora de llegar a un resultado confiable. Sin embargo, este tipo de investigación es importante. No solo para la física básica, sino para el desarrollo de nuevos dispositivos útiles para la informática cuántica y la ciencia de la información. El “magnetismo sintético”, inducido mediante el uso de luz láser, proporciona a los científicos una manera nueva de modelar y analizar los sistemas cuánticos manteniendo el control absoluto de todos los parámetros implicados.

La creación de campos magnéticos sintéticos para átomos neutros permite diseñar experimentos que hasta hoy eran imposibles”, dice Ian Spielman, líder del grupo de investigación del Joint Quantum Institute y físico del National Institute of Standards and Technology (NIST). Spielman es el especialista que firma el artículo sobre este tema que aparece publicado en el último número de la revista Nature. Los científicos utilizaron en su experimento un grupo de átomos de rubidio-87, que fueron “desacelerados” por el método Zeeman y luego encerrarlos en una trampa magneto-óptica. Estos átomos se sometieron además a un enfriamiento por evaporación hasta llegar a una temperatura apenas por encima del cero absoluto (sólo 100 nano Kelvin). En estas condiciones de baja energía, los átomos forman los que los físicos denominan un “condensado Bose-Einstein (BEC)”. Este es un muy extraño estado de la materia en la que la mayoría de los átomos de un grupo ocupan el mismo estado cuántico de energía, comportándose como si fuesen un único "súper átomo".

Los átomos forman un “condensado Bose-Einstein”

Luego, se aplicó un pequeño (y variable) campo magnético de forma perpendicular al BEC, produciendo un gradiente que afectó a los átomos de forma diferente dependiendo de su posición a lo largo de un eje de la trampa magneto-óptica. Luego, dos rayos láser con una longitud de onda de 801,7 nm (infrarrojo cercano), orientados en ángulos de 90 grados uno del otro, se enfocaron sobre los átomos. Como resultado de la interacción entre el campo magnético y los haces láser, se alteraron las propiedades de los átomos de diferente forma, dependiendo de su ubicación espacial dentro de la trampa. Como resultado de todo este galimatías que solo los físicos disfrutan, los átomos ubicados en algunos puntos específicos comenzaron a moverse de una forma que había sido predicha por Spielman a principios de este año: tal como lo haría una partícula cargada que gira en un campo magnético.

Este experimento, dice Spielman, “tendrá un impacto sustancial en diversos campos de la investigación cuántica, especialmente en lo que respecta al comportamiento de los electrones confinados en diferentes geometrías, como ocurre en los materiales reales.” Quién sabe, quizás tu próximo ordenador o juguete sexual funcione gracias a los principios descubiertos por Spielman.

WISE: El nuevo telescopio de la NASA

Los telescopios ópticos han sido una de las tantas herramientas que nos han permitido mirar al cielo y conocer sus secretos, pero existen cosas que pueden mantenerse ocultas incluso ante el poder de detección que poseen. Entre ellas podemos encontrar pequeños asteroides que no pueden ser observados a simple vista pero que podrían representar una amenaza para la Tierra, al igual que cometas alejados del sol, y tampoco debemos olvidar a las denominadas enanas marrones, intentos de estrellas que se quedaron en el camino al no poder la masa suficiente para iniciar la fusión nuclear que las convertiría en estrellas reales. Además de emitir muy poca luz (y enfatizamos el "muy poca"), los objetos son demasiado fríos, lo cual reduce severamente sus posibilidades de detección. Allí es en donde entra WISE, el nuevo telescopio infrarrojo de la NASA.

El WISE desde tres ángulos diferentes

La capacidad de detección del WISE es muy superior a otros sistemas similares que se han puestos en órbita, como el IRAS de 1983, el Spitzer lanzado en 2003 y el AKARI en 2006. La misión del WISE, además de intentar detectar a aquellos objetos demasiado oscuros y fríos, se enfocará también en la Vía Láctea y en regiones lejanas de Universo. El WISE obtendrá la enorme cantidad de un millón y medio de imágenes durante los siete meses que durará su misión, formando aproximadamente un 99 por ciento del cielo. El WISE buscará en el cielo utilizando cuatro longitudes de onda de la banda infrarroja, con una sensibilidad mil veces mayor de la que tenía el IRAS a principios de los '80. Se espera que con el WISE se incremente de forma considerable la cantidad de objetos detectables en nuestro Sistema Solar, y en su página oficial incluso se especula con la posibilidad de encontrar una estrella aún más cercana al Sol que Próxima Centauri, probablemente tan fría y tan pequeña que se mantiene oculta a nuestros telescopios actuales.

La NASA posee varios proyectos en actividad actualmente, pero el WISE se presenta como uno de los más interesantes, tanto por lo tangible de su objetivo (obtener imágenes) como por la cercanía de su lanzamiento. Sin calcular posibles demoras y/o variaciones, el WISE será lanzado el próximo 11 de diciembre, y alcanzará una órbita sincrónica a 525 kilómetros de altura. Es probable que con la ayuda del WISE obtengamos un panorama significativamente más completo de nuestro cielo. Su misión puede parecer corta, pero se mantiene dentro de los parámetros de otros telescopios similares, y la cantidad de imágenes que obtendrá en ese tiempo será cualquier cosa menos despreciable. Esperamos que todo vaya bien en su lanzamiento, y que podamos observar las primeras imágenes pronto.

Space Beer: Una cerveza extraterrestre

La cerveza es una bebida singular de por sí, con granos de cebada y otros cereales en su composición y luego fermentada en agua hasta el punto justo. Claro que ésta misma “extraña composición” es lo que le entrega la variedad. Existen tantos ingredientes y composiciones diferentes que es casi imposible encontrar dos cervezas iguales. Y es la misma variedad de ésta bebida lo que ha llevado a una cervecería japonesa a crear la Space Beer, una cerveza extraterrestre… literalmente.

La cervecería japonesa, Sapporo, trabajando junto a biólogos de una universidad japonesa y científicos rusos, presentaron la primer cerveza espacial. Estuvo en desarrollo en la Estación Espacial Internacional durante cinco meses y la firma solo ha producido 250 botellas que serán vendidas a los mejores postores durante los próximos días. El precio por seis botellas se encuentra alrededor de los 10,000 yenes, equivalente a 77 euros.


Más allá de las condiciones diferentes del espacio, no es sorpresa que ésta misteriosa cerveza espacial tenga el mismo gusto que una cerveza tradicional (confirmado por la BBC). Claro que eso no ha evitado el interés masivo de las personas, que han llegado a hacer 2.000 órdenes de ésta edición limitada. Por fortuna, las ganancias de éste proyecto no quedarán en el bolsillo de nadie, sino que serán donadas a una caridad de educación espacial para niños japoneses.





Es decir, la cerveza espacial es cara y tiene el mismo gusto que la que puedes comprar en cualquier tienda. Entonces, ¿qué es aquello tan llamativo que obliga a las personas a querer seis botellas por 10,000 yenes? Pues un vocero de la compañía nipona expresó: “Creemos que esto muestra que el interés por las persona es alto, considerando que el precio por seis botellas es bastante alto.” Sí, eso lo sabemos, lo que no entendemos es, ¿por qué?

sábado, 5 de diciembre de 2009

Las 10 Dimensiones

Muchas veces pensamos que en la vida existen tres dimensiones: ancho, largo y profundidad. Algunas personas que comprenden un poco mas podrían agregar el tiempo a esta perspectiva, por lo que podríamos pensar en 4D(cuarta dimensión).



En este imagen podemos ver las 4 dimensiones (el espacio-temporal)



Pero.... ¿que piensan si les dijera que "en teoría" existe desde la dimensión 0 ( un punto, ya que no tiene ancho ni largo ni profundidad) hasta la 10(cuya concepción es la de nuestro universo de tamaño sub-atómico)?

La dimensión es, esencialmente, el grado de libertad para realizar un movimiento en el espacio. Comúnmente, las dimensiones de un objeto son las medidas que definen su forma y tamaño.

La Teoría de las cuerdas predice que el espacio en que vivimos tiene muchas más dimensiones. pero comprender esta teoría es muy complicado, es por ello que aquí les traemos estos dos vídeos(en español), los cuales, ofrecen una explicación muy simple de cada teoría






viernes, 27 de noviembre de 2009

Hardware para los que se portaron bien

Comprar hardware nuevo es una experiencia fabulosa. Algunos pueden decir que "comprar cualquier cosa" es fabuloso, pero el hardware posee un sabor especial que no está presente en otras cosas que pueden ser igual de costosas, o incluso más. La comodidad de comprar un ordenador ya armado es innegable, ya que son muchos los que carecen del conocimiento necesario como para escoger sus propias piezas, y ni hablemos de los sistemas de Apple, que más allá de su precio superior, tienen una terminación sencillamente imposible de encontrar entre ordenadores convencionales. Aún así, el espíritu de "construcción" es muy fuerte entre nuestros lectores, y aunque decidan no seguir nuestra guía al pie de la letra, les será muy útil saber en qué deben basar sus búsquedas. Aquí les van algunas de nuestras sugerencias.

Procesador: Intel Core i5-750

Ya hace un tiempo que Intel ha introducido a sus Core i7 en el mercado, vanguardia absoluta con capacidades monstruosas, pero la relación costo/beneficio ha sido mucho más difícil de digerir de lo que se esperaba. Además, todos sabíamos que Intel lanzaría una plataforma más flexible con muchas de las virtudes del i7, y así fue como llegó el Core i5. Este procesador introdujo el nuevo zócalo LGA 1156, planeado desde el principio como reemplazo del LGA 775, hogar de los conocidos Core 2 Duo y Core 2 Quad. En un principio había dudas sobre cómo respondería el i5-750 frente a procesadores mayores, teniendo en cuenta una velocidad de reloj un poco más baja, un canal de memoria menos, y la ausencia de la tecnología Hyper-Threading. Sin embargo, todas las dudas quedaron en el olvido, y además de ser mucho más benevolente con la billetera, ofrece un rendimiento espectacular, al punto de que muchos lo consideran como el mejor procesador que Intel hizo en el año. Haz clic aquí si deseas saber en dónde puedes comprarlo.

Uno de los procesadores de Intel con la mejor relación costo/beneficio que hemos visto hasta ahora

Tarjeta madre: Asus P7P55D Premium

Esta ha sido una decisión difícil. Los productos de alta gama de Asus son muchos, con varios integrantes bajo una sola familia que poseen diferencias sutiles. La familia P7P55D posee diez modelos diferentes, que se ajustan a casi todos los bolsillos. Pero decidimos escoger al P7P55D Premium sobre los otros por contar con tecnología SATA III (seis gigabits por segundo), algo que será especialmente apreciado por los discos de estado sólido, pero que también ofrece retrocompatibilidad con tecnología SATA anterior. Dos puertos PCI Express para quienes deseen aventurarse en las tierras del SLI o el CrossFireX, cuatro ranuras de memoria DDR3, doce puertos USB y una enorme cantidad de funciones para obtener alto rendimiento, incluyendo al pequeño control remoto que puede realizar overclocking "a demanda" del usuario. Podrán pensar en otros modelos de la serie P7P55D, o incluso en la serie Maximus, pero la versión Premium es una compañera ideal para el i5-750. Lo único que podría llegar a reemplazarlo es alguna de las variaciones "-E" con puertos USB 3.0, pero no las hemos visto en el mercado. Puedes adquirirlo haciendo clic aquí.

Asus ha lanzado excelentes modelos durante este año

Memoria RAM: Corsair Dominator 8 GB (4x2GB) DDR3-1600

En el caso de las memorias RAM, algunas marcas suelen ser una opción segura, como es el caso de Kingston. Sus memorias HyperX se encuentran entre lo mejor del mercado, aunque hemos notado que hay muchos kits de 3 y 6 GB, preparados de esta forma para mantener la compatibilidad de triple canal del Core i7 de zócalo LGA 1366. Sin embargo, el Core i5 y la tarjeta Asus utilizan canales duales, y siendo un poco golosos, la idea es llenar todos los zócalos disponibles de una sola vez. De esta forma nos inclinamos por la serie Dominator de Corsair, utilizando dos kits de 2 GB para alcanzar un total de 8 GB. Su alta frecuencia permite una mayor estabilidad en casos de overclocking intenso, pero también es una alternativa interesante para aquellos que deseen forzar latencias más cortas, o en otras palabras, exprimir hasta la última gota de jugo de su sistema. Aquí tienes un enlace para adquirir estas memorias.

Cuatro de estas deberían cubrir la demanda de RAM actual

Discos: OCZ Vertex SSD 60 GB + WD Caviar Black 2 TB

Los discos de estado sólido han bajado mucho de precio durante este año, pero algunos modelos todavía permanecen en planos "estratosféricos", y habrá que esperar a que decidan convertirse en algo un poco más terrenal. Sin embargo, ya hay unidades accesibles como el OCZ Vertex. Es cierto que solamente tiene 60 GB de capacidad, pero eso es más que suficiente para instalar cualquier sistema operativo y todas las aplicaciones críticas que se beneficiarán de los casi inexistentes tiempos de acceso que ofrece este disco SSD. Por supuesto, el almacenamiento general es algo que no podemos ignorar, y para cubrir la demanda, probablemente no haya nada mejor que el modelo Caviar Black de Western Digital con capacidad de dos terabytes. Los discos SSD son rápidos, los discos duros poseen un factor de almacenamiento sin rival. ¿Por qué no tener lo mejor de ambos mundos? Para comprar el OCZ Vertex haz clic aquí, mientras que puedes recurrir a este enlace para el Caviar Black. Sólo ten en cuenta que el OCZ Vertex es un disco de 2.5 pulgadas. Será necesario un adaptador a 3.5 pulgadas en ciertas carcasas, como el que se ve aquí, aunque sólo se requiere de las piezas metálicas.

El Vertex de OCZ es un disco de 2.5 pulgadas, por lo que necesitará un adaptador
Toda una mole del almacenamiento

Unidad óptica: LG BH08LS

A pesar del aumento de la capacidad de almacenamiento en los discos duros y la enorme popularidad de las descargas (de todo tipo) a través de Internet, cualquier ordenador aún necesita un medio óptico para leer y grabar discos. Claro que esta unidad se destaca un poco por encima del resto, ya que la LG BH08LS es una grabadora Blu-ray. Los discos Blu-ray han bajado de precio de forma significativa, lo que abre la posibilidad para aquellos soñados respaldos masivos en un solo disco óptico, en vez de tener que recurrir a tubos enteros de DVD's en blanco para salvar nuestra información. De más está decirlo, con esta unidad también se tiene acceso a todo el contenido multimedia disponible para ese formato, y también es retrocompatible con CD's y DVD's, tanto en lectura como en escritura (aclaramos esto porque ya existen unidades que no leen CD-ROM). Pulsa aquí para comprarla.

Poder leer Blu-ray es bueno. Poder grabar Blu-ray, es mejor.

Carcasa: Thermaltake Armor+

Todo esto que hemos nombrado hasta aquí debemos colocarlo en alguna parte, ¿verdad? Existen muchas carcasas disponibles que reflejan los diferentes gustos de los usuarios. Algunos prefieren un modelo funcional y eficiente, mientras que otros los prefieren con más luces que un plato volador. En nuestra elección nos inclinamos por una carcasa sólida, y Thermaltake tiene algo más que adecuado con su modelo Armor+. No vamos a negar que está en el mercado desde hace un tiempo, pero fue diseñado de tal forma que se reirá a carcajadas durante un buen tiempo a la hora de recibir hardware nuevo. Con una cantidad enorme de espacio, múltiples bahías para refrigeración adicional, y un diseño fabuloso, este monstruo masivo de casi 17 kilogramos demanda respeto desde cada ángulo por el que se lo mire. Uno de los mejores modelos que tiene Thermaltake para ofrecer, y sin lugar a dudas, algo más que digno para tu nuevo ordenador. Haz clic aquí para conocer su precio.

Habrá que hacer un poco de lugar para recibir a este monstruo

Fuente de alimentación: Thermaltake Toughpower 1200W

Casi tenemos todo el sistema armado, pero nos hace falta una pieza fundamental, el reactor que hará girar a los engranajes. En una época, la fuente de alimentación era un factor bastante ignorado, pero ahora, con los niveles de energía que pueden llegar a demandar ciertas configuraciones, una mala elección en la fuente de alimentación es un camino de ida al desastre. Para cubrir la demanda actual y futura, recurrimos una vez más a Thermaltake, y escogimos un excelente modelo de fuente de alimentación, el Toughpower 1200W. Es verdad, no necesitaremos los 1200 watts para mover a un ordenador como el que podría ensamblarse con esta lista, pero un alto número de watts y una marca con buen respaldo asegura que la fuente de alimentación posea una alta eficiencia energética, que es uno de los factores más importantes a la hora de evaluar esta clase de hardware, junto con la estabilidad de sus líneas de voltaje. La Toughpower cumple con ambos, y eso es algo que nos da seguridad. Puede que algunos prefieran alternativas menos costosas, pero cada euro que ahorran en una fuente de alimentación es un riesgo extra que corren, tomen la palabra de un servidor que ha visto volar fuentes por los aires sin razón alguna. Para comprarla, haz clic aquí.

La fuente debe estar a la altura del ordenador, de lo contrario habrá problemas

Sonido: Asus Xonar HDAV1.3 Slim

¿Sonido? ¿Qué acaso no hay sonido integrado? Sí, eso es verdad, pero si existen un par de euros extra para gastar y buscas una de las mejores experiencias de sonido que puedas encontrar, entonces necesitas a esta tarjeta. Hay muchos otros modelos de Xonar en el mercado, pero este tiene algo que los demás todavía deben alcanzar: Soporte real para audio DTS True HD, el tipo de audio que suele utilizarse en los discos Blu-ray, y que muchos usuarios no pueden disfrutar por diferentes restricciones en el hardware. Tampoco posee inconvenientes con Windows 7, por lo que deberías disfrutar de esta tarjeta apenas la hayas instalado en tu sistema. Más allá de que el sonido integrado haya mejorado mucho con el paso del tiempo, no hay nada como una tarjeta dedicada, y este modelo específico de Xonar es uno de los mejores que puedes encontrar en el mercado actualmente. Pulsando en este enlace obtendrás más información.

Excelente calidad, y soporte real para DTS HD

Vídeo: Sapphire Radeon HD 5850 1GB

La nueva serie 5000 de la familia Radeon HD ha puesto de cabeza al mercado de las tarjetas de vídeo, comenzando con las dos integrantes de la familia 5800, la 5870 y la elegida de hoy. Una extraordinaria capacidad de procesamiento, soporte nativo para DirectX 11, y un precio bastante razonable la convierten en nuestra elección para esta guía. Algunos juegos pueden dejar de rodillas a todo un sistema, pero con una de estas podrás jugar a todo lo que ha salido hasta la fecha... y eso es exactamente lo que queremos, ¿verdad? A Windows 7 no le incomodará en lo absoluto correr en un sistema que cuente con esta tarjeta, sin olvidar que con esta tarjeta se piensa un poco a futuro, a través del soporte DirectX 11. Incluso si deseas conectar más de un monitor al ordenador, esta tarjeta entregará una experiencia excelente con ayuda de la tecnología Eyefinity. Si quieres una de estas ya, puedes comprarla aquí.

DirectX 11, Eyefinity, gran rendimiento... para no dejarla pasar

Prueba el nuevo buscador de Google

Hace un buen tiempo se había estado hablando sobre un rediseño del popular buscador de Google. Luego de la salida de Bing, el nuevo buscador de Microsoft, éstos cambios eran casi obvios, ya que la nueva competencia logró quitarle una, pequeña pero considerable, porción de su base de usuarios. Ahora, tú puedes probar el nuevo buscador que todavía se encuentra en desarrollo. Para poder acceder a él, debes seguir los siguientes pasos al pie de la letra:

1. Abre Google.com (solo funciona con la versión “.com”)

2. Pega el siguiente código en el cuadro de texto donde se escriben las direcciones web (debes sobrescribir el http://www.google.com/). Haz doble clic sobre el texto, así copias todo.

javascript:void(document.cookie="PREF=ID=20b6e4c2f44943bb:U=4bf292d46faad806:TM=1249677602:LM=1257919388:S=odm0Ys-53ZueXfZG;path=/; domain=.google.com");


3. Presiona Enter.

4. Refresca la página o abre otra instancia de Google.com. Ahora, cada vez que ingreses a la versión internacional del buscador, podrás usar el nuevo diseño. Puede que tarde en tomarlo, así que si no funciona la primera vez, intenta hacerlo otra vez o actualizar Google nuevamente.

5. Para garantizar que salió correctamente, el buscador debería verse como la primera imagen en la parte inferior. Con el logo más coloridos y los botones de búsqueda en color azul.

Google ha optado por una fachada más colorida.
La barra de la izquierda permite búsquedas más dinámicas.

jueves, 26 de noviembre de 2009

ESE PUNTITO AZUL

Diez cosas que quizá no sabías sobre la Tierra

1. La gravedad no es uniforme

Aunque los científicos todavía desconocen el motivo, lo cierto es que la fuerza gravitacional varía a medida que nos desplazamos por el planeta, de manera que nuestro peso no es objetivamente el mismo en España y en La India, por ejemplo. Se cree que las causas pueden estar las profundas estructuras subterráneas y tener alguna relación con la apariencia de la Tierra en un pasado lejano. Actualmente, dos satélites gemelos del programa GRACE escrutan escrupulosamente el planeta para elaborar un mapa gravitacional más detallado.

2. La atmósfera se ‘escapa’

Algunas moléculas situadas en el límite de la atmósfera terrestre incrementan su velocidad hasta el límite que les permite escapar de la fuerza gravitatoria del planeta. El resultado es una lenta pero constante fuga del contenido de nuestra atmósfera hacia el espacio exterior. Debido a su menor peso atómico, los átomos sueltos de Hidrógeno alcanzan su velocidad de escape con más facilidad y su salida hacia el espacio es la más frecuente. Afortunadamente para la vida en nuestro planeta, el abundante oxígeno ha preservado la mayor parte del hidrógeno bloqueándolo en moléculas de agua y el campo magnético de la Tierra ha protegido al planeta de la fuga de iones


3. La rotación se está ralentizando

La velocidad con que la Tierra gira sobre su propio eje no es constante, sino que sufre pequeñas alteraciones que hacen variar la duración de nuestros días. Mediante la sincronización de diferentes radiotelescopios desde distintas latitudes, y gracias a los modernos sistemas de GPS, los científicos han podido medir con precisión estas pequeñas variaciones en la velocidad de rotación y constatar que la mayor de ellas se produce entre los meses de enero y febrero, cuando los días se hacen más largos por unas pocas milésimas de segundo. Esta variación se debe a la interacción gravitatoria de la Tierra y la Luna, pero también se achaca a la fuerte actividad de la atmósfera en el hemisferio norte y a fenómenos meteorológicos como “El Niño”. Por poner un ejemplo, algunos expertos creen que el Tsunami de Indonesia de hace dos años redujo la duración del día en 2,68 millonésimas de segundo.

4. Los cinturones de Van Allen

Alrededor de la Tierra existen sendas zonas de alta radiación – una interior y otra exterior - denominadas cinturones de Van Allen (en honor de su descubridor) y situadas a una altura de 3.000 y 22.000 km sobre el ecuador. Dichos cinturones están formados por partículas de alta energía, sobre todo protones y electrones, cuyo origen se halla probablemente en las interacciones del viento solar y de los rayos cósmicos con los átomos constituyentes de la atmósfera. La potencia de la radiación es tal que los cinturones son evitados por las misiones espaciales tripuladas, dado que podrían aumentar el riesgo de cáncer de los astronautas y dañar gravemente los dispositivos electrónicos. En 19
62, los cinturones de Van Allen fueron alterados por las pruebas nucleares de EEUU en el espacio (el Starfish Prime test) lo que provocó que varios satélites quedaran inmediatamente fuera de servicio.

5. La Tierra y la Luna se separan

Desde hace varios millones de años la Luna se separa de la Tierra a un ritmo lento pero constante. Los científicos calculan que la tasa de alejamiento es de unos 3,8 centímetros al año, lo que a largo plazo llegará a separar a la Luna hasta una distancia crítica. Sin embargo, los astrónomos creen que dentro de 5.000 millones de años, cuando el Sol se convierta en una gigante roja, la atmósfera en expansión de la estrella provocará que el proceso se invierta. La Luna volverá a acercarse a la Tierra y acabará por desintegrarse al superar el denominado límite de Roche (a unos 18.470 kilómetros sobre nuestro planeta) estallando en mil pedazos y formando un espectacular anillo, como el de Saturno, alrededor de la Tierra.

6. Mareas en la atmósfera

Aunque el efecto es casi inapreciable, una variación de apenas 100 microbares, los científicos han podido comprobar mediante detalladas mediciones estadísticas que la fuerza de la Luna no solo desplaza los mares y la tierra sino también la masa de aire que rodea nuestro planeta. Aunque el movimiento es tan pequeño que apenas supone el 0,01 por ciento de la presión normal en la superficie, el dato revela que el poder gravitatorio de la Luna es capaz de trastocarlo todo.

7. Un extraño “bamboleo”

El denominado "bamboleo de Chandler" es el único movimiento de la Tierra para el que aún no existe una explicación convincente. Descubierto en 1891 por el astrónomo Seth Carlo Chandler, se trata de una variación irregular en el eje de rotación de la Tierra que provoca un desplazamiento circular de entre 3 y 15 metros al año en los polos terrestres. Sobre este movimiento se han lanzado todo tipo de teorías, como que es el causante del movimiento de las placas tectónicas, incluidos terremotos y erupciones, o que es el detonante de fenómenos como El Niño o el calentamiento global. En julio del año 2000, un equipo de científicos estadounidenses anunció que la causa del bamboleo estaba en las fluctuaciones de presiones en el fondo del océano. Según esta teoría, este movimiento en el fondo de los mares cambiaría la presión ejercida sobre la superficie terrestre, y provocaría el extraño bamboleo de los polos. Sus teorías han quedado en el aire después de que entre enero y febrero de 2006 laboratorios de todo el mundo comprobaran que el movimiento había cesado por completo, en una anomalía que todavía no han sabido explicar.

8. La Tierra es un gran circuito eléctrico

Perfectamente localizados a ambos lados del ecuador, la Tierra dispone de ocho circuitos cerrados de corriente eléctrica que permiten el intercambio de carga entre la atmósfera y la superficie a través de flujos verticales. En condiciones de buen tiempo, los científicos han observado un flujo de carga positiva que se mueve desde la atmósfera hacia la Tierra a causa de la carga negativa de nuestro planeta. Tras años de observación del comportamiento de las tormentas y las variaciones en la ionosfera, la hipótesis preferida hoy por los científicos es que este flujo descendente de corriente positiva se contrarresta con la carga negativa que se traslada a la Tierra durante las tormentas. Aún así, todavía falta una explicación plausible a la relación a la forma en que las variaciones en la ionosfera afectan a la formación de tormentas en la Tierra.

9. Toneladas de material cósmico caen cada año a la atmósfera

Según datos de space.com, la cantidad de polvo cósmico que cae cada año a la Tierra supera las 30.000 toneladas. La mayor parte de este material procede del cinturón de asteroides situado entre Marte y Júpiter. Los fragmentos provienen de los constantes choques entre asteroides y son arrastrados hacia el interior del sistema solar. Una buena cantidad de ellos están entrando permanentemente en nuestra atmósfera.
10. Los polos magnéticos de la Tierra cambian constantemente de lugar

El campo magnético de la Tierra varía en el curso de las eras geológicas, es lo que se denomina variación secular. Durante los últimos cinco millones de años se han efectuado más de veinte inversiones, la más reciente hace 700.000 años. Otras inversiones ocurrieron hace 870.000 y 950.000 años. No se puede predecir cuándo ocurrirá la siguiente inversión porque la secuencia no es regular. Ciertas mediciones recientes muestran una reducción del 5% en la intensidad del campo magnético en los últimos 100 años. Si se mantiene este ritmo el campo volverá a invertirse dentro de unos 2.000 años.

¿Cómo dicen “Está en chino” en otros idiomas?

Es muy común escuchar entre las personas que hablamos español la frase “está en chino” cuando se refieren a algo que está difícil, pero alguna vez te has preguntado ¿cuál es la equivalencia de la frase “está en chino” en otros idiomas?, y si has ido más allá, ¿cuál la equivalencia en chino?

Aquí tienes un diagrama que encontré en duopixel con las equivalencias en otros idiomas, por ejemplo los que hablan inglés dicen “está en griego”, ¿quienes dicen está en español?

Está en chino

Algo curioso es que los japonese no dicen nada, ¿será que para ellos nada es difícil? y los chinos “Heavenly script” en español: Es un escrito celestial.

simpson y mario themes

bueno aqui les dejo un cover de la cancion de mario bros y los simpson





Meteorito ALH 84001 y la vida en Marte

De confirmarse esta información, parece que la NASA gastó algunos cientos de millones de dólares en balde. Las misiones destinadas a analizar el suelo de Marte, para determinar de una buena vez por todas si ese planeta tuvo (o tiene) alguna clase de vida microscópica, podrían haberse evitado simplemente revisando a fondo un trozo de roca hallado en la Antártida en 1992. El meteorito, conocido como ALH 84001 -o la roca espacial Allen Hills- se hizo famoso en 1996 cuando la NASA y la Casa Blanca hicieron pública su existencia. Los científicos sospechaban que ciertas marcas que se encontraban sobre la piedra, que se encuentra en nuestro planeta desde hace unos 13.000 años, podrían deberse a la actividad de seres vivos microscópicos. Por supuesto, quedaba por determinar si esos rastros correspondían efectivamente a microorganismos marcianos o, como muchos creían, se habían producido luego del arribo del meteorito a nuestro planeta.

Parece que estos rastros corresponden efectivamente a microorganismos marcianos.

Una nueva investigación, realizada por el mismo equipo que analizó el meteorito por primera vez y encabezado por el especialista Dennis Bazylinski, revela que los microorganismos que dejaron su huella sobre ALH 84001 son efectivamente extraterrestres. Los resultados ya han sido publicados en la revista Geochimica et Cosmochimica Acta, de la Sociedad de la geoquímica y meteoritos, y se espera que la NASA realice declaraciones al respecto en cualquier momento. Para llegar a semejante conclusión, que de ser cierta es una de las revelaciones más sorprendentes del Universo y la confirmación de que no somos los únicos seres vivos en el espacio, los investigadores del Centro Espacial Johnson utilizaron un microscopio electrónico de alta resolución mucho más avanzado que el que se empleó hace trece años. Las fotografías de los cristales de magnetita que forman pequeñas estructuras -semejantes a collares de perlas- son muy parecidas a las que dejan algunas bacterias terrestres, pero los científicos están convencidos que fueron hechas por seres de Marte. Los nuevos datos apuntan a criaturas microscópicas que habrían vivido en lagunas de la superficie o del subsuelo del planeta Rojo.

Trabajo con las bacterias magnéticas, y estos cristales de magnetita en particular son una prueba de que había vida en Marte en la antigüedad, el meteorito ha sido marcado por esta clase de bacterias. En un primer momento [cuando los datos se analizaron en 1996], pensamos que podría haber sido un error. Pero no tengo ninguna duda de eso ahora, sé que no hay ningún error, dice Bazylinski

No hay que olvidar que el trozo de roca que está siendo analizado se formó hace unos 4.000 millones de años, como el resto de la corteza de Marte. Luego, posiblemente por el choque de otra roca, se desprendió de la superficie del planeta y comenzó un viaje de unos 16 millones de años por el espacio hasta que terminó en nuestro planeta, como parte de una lluvia de meteoritos producida hace 13.000 años. Esto significa que muy posiblemente las bacterias que dejaron su huella en la roca ya no existan en Marte, dado que en los 16 millones de años transcurridos la superficie del planeta se modificó enormemente. Sin dudas, este descubrimiento (si es tal cual lo reproduce la fuente) representa un espaldarazo para el programa de misiones espaciales de la NASA, que ahora tendrá la excusa perfecta para mandar sondas a Marte para buscar los “parientes” de estos microorganismos. Pero antes de entusiasmarnos, esperemos al comunicado de la NASA. A pesar del renombre de los científicos involucrados, una noticia de esta magnitud debe tratarse con cuidado.

miércoles, 25 de noviembre de 2009

Computación con luz cada vez más cerca (MIT)

Los métodos actuales de fabricación de chips están enfrentando una situación que pronto los colocará en un estado crítico. La miniaturización está cerca de alcanzar un punto límite, y el aumento en la demanda de ancho de banda provoca que cada vez más poder de procesamiento deba ser concentrado para transmitir volúmenes de datos cada vez mayores. A esto también hay que agregar una mayor ineficiencia, ya que demandan más energía, y se necesitan tomar mayores recaudos para proveer al chip de un enfriamiento adecuado. Se están explorando diferentes formas para romper este círculo vicioso, y puede que los chips ópticos tengan la respuesta. Estos chips transmiten datos utilizando luz en vez de electricidad, convirtiéndose en una alternativa mucho más eficiente y poderosa en materia de rendimiento. Claro que aún no se ha encontrado una forma práctica de aplicar tecnología óptica a la informática de hoy. Los pocos experimentos que se han llevado a cabo hasta la fecha han tenido resultados limitados, y nunca han salido del laboratorio.

Los pequeños círculos que se ven en el circuito pueden filtrar la luz en diferentes longitudes de onda

Los profesores Vladimir Stojanović y Rajeev Ram del Instituto de Tecnología de Massachusetts esperan obtener chips ópticos utilizando métodos actuales de fabricación. Para llevar a cabo su objetivo, han adquirido acceso a una planta de manufactura utilizada por nada menos que Texas Instruments para crear microprocesadores y chips para teléfonos móviles. Los investigadores han podido demostrar que es posible colocar una cantidad significativa de componentes ópticos y electrónicos dentro de un mismo chip, pero todavía se enfrentan a algunos problemas. La "electrónica" del chip aún no puede controlar de forma directa a la "óptica", aunque esperan superar este inconveniente con el próximo grupo de prototipos.

Hasta este momento se han enfocado sobre los microprocesadores, pero los investigadores creen que, de tener éxito en este proyecto, la misma tecnología óptica podría ser trasladada a chips de memoria. Sin embargo, el proceso de fabricación deberá ser muy eficiente en relación con su costo, ya que el mercado de las memorias es muy dependiente de ello (hemos visto empresas enteras dedicadas a la fabricación de memoria ir a la quiebra durante la última crisis financiera). De acuerdo a las palabras de los investigadores, la aplicación de tecnología "fotónica" a los procesadores podría en principio cuadruplicar el rendimiento, pero si se aplicara tanto al procesador como a los chips de memoria, el beneficio de rendimiento podría escalar a un mínimo de diez veces, y a un máximo de veinte. Definitivamente se trata de algo que cambiaría por completo la informática actual, si llegara a lograrse. Esperamos que así sea. Crucemos los dedos.