viernes, 14 de mayo de 2010

love & theft

La parte más pequeña de la eternidad

¿Un pestañeo? ¿El batir de alas de un colibrí? ¿Un latido? Es muchísimo más rápido que eso. Científicos alemanes han logrado romper la barrera del tiempo y han conseguido capturar por primera vez un intervalo de tiempo ínfimo. Con un complejo láser de alta energ
ía como cronómetro, los investigadores han generado un pulso de luz que ha durado 12 attosegundos. Se trata de un récord mundial y un fragmento de eternidad que difícilmente podemos imaginar, ya que un attosegundo equivale nada menos que a la trillonésima parte de un segundo. La fragmentación del tiempo que nos parece natural -siglos, años, meses, semanas, días, horas, minutos y segundos- fue superada en los años 60 cuando aparecieron las primeras máquinas
de rayos láser. La tecnología permitió medir fenómenos que ocurren en menos de un segundo, y apareció el milisegundo (milésima parte de un segundo, 10-3 segundos), microsegundo (millonésima parte de segundo), nanosegundo (milmillonésima parte), picosegundo (billonésima parte), femtosegundo (milbillonésima parte y como comparar un segundo con 100 millones de años) y attosegundo (trillonésima parte).
Controlar el tiempoFueron unos científicos canadienses los primeros que consiguieron controlar el tiempo en su unidad más mínima al medir un pulso de luz de 650 attosegundos. Después, el límite se bajó a los cien. Ahora, los investigadores alemanes del Max Born Institute for Nonliner Optics and Short Time Spectroscopy (MBI) han logrado superar el récord y medir empíricamente sólo 12 attosegundos, una fracción increíblemente corta de tiempo. Su investigación ha sido publicada en la revista Nature Photonics.
La parte más pequeña de la eternidad
Para el ser humano es imposible imaginar un intervalo tan breve / ABC
Para el ser humano es casi imposible imaginar un intervalo tan breve -ni siquiera un suspiro es comparable-, y mucho menos aplicarlo a nuestra vida cotidiana, pero el descubrimiento puede permitir importantes avances en la investigación sobre los procesos más rápidos de la naturaleza. También puede ser útil en la femtoquímica, un disciplina que explora los sucesos moleculares elemetnales involucrados en la reacciones químicas, como por ejemplo las formación de enlaces químicos, que se produce a altísima velocidad.

El tiempo vuela, y esta vez de verdad.

The Adjustment Bureau (Trailer)

El amor y la ciencia ficción suelen formar una mezcla bastante difícil de resolver. Podemos citar algún que otro ejemplo, pero la ciencia ficción suele estar más asociada con la acción, el terror o la aventura que a los sentimientos o las emociones. Si se combinan mal, el resultado suele estar condenado al fracaso, pero con The Adjustment Bureau, hay un par de cosas por considerar. Una de ellas es Matt Damon, y la otra es la historia corta de Philip K. Dick en la que se basa la película. Tal vez, y sólo tal vez, el amor y la ciencia ficción tengan una oportunidad aquí.


Bacterias resistentes a los antibióticos

El mundo se horrorizó cunado el ministro de Salud de Malasia, Datuk Chua Jui Meng, reveló en 1996 que más de la mitad de los pollos vendidos en su país contenían niveles de nitrofuran (un antibiótico cancerígeno) 4.000% más alto que lo permitido por el Departamento de Veterinaria. Este hecho alertó sobre el uso generalizado de los antibióticos en la crianza de animales para consumo humano y sus peligros. Si dejamos por un momento de lado lo alarmante que resulta la presencia de una sustancia cancerígena en nuestra comida, el uso de estos medicamentos de uso humano en ganado bovino, porcino o aves supone otro peligro enorme, que es la aparición de nuevas cepas de bacterias resistentes a los antibióticos. En efecto, algunos veterinarios y productores ganaderos suelen proporcionar estas sustancias a sus rodeos para curar sus enfermedades o incluso para aumentar su tamaño. Las dosis suministradas son pequeñas y no destruyen la totalidad de las bacterias, sino que producen una especie de “selección artificial” de las más resistentes, que siguen multiplicándose y haciéndose resistentes a los medicamentos. Si los consumidores no cocinan correctamente estas carnes o algunos subproductos como el queso o la leche, pueden incorporar esos gérmenes resistentes a sus organismos. Pero esta, a pesar de la influencia que tiene, no es la única causa de la aparición de bacterias resistentes a los antibióticos.

Consulta con tu médico para saber si realmente necesitas un antibiótico.

Como todos, probablemente enfrentes cada año los habituales resfriados, dolores de garganta o alguna de las infecciones víricas más comunes. Y es posible también que, como mucha gente hace, en lugar de ir al médico te automediques o no respetes el tiempo de tratamiento indicado por el profesional de turno. Estos son otros dos motivos por los que los antibióticos son cada vez menos efectivos. Si padeces alguna enfermedad infecciosa leve, como una diarrea, bronquitis o afecciones urinarias y el médico te prescribe un tratamiento en base a antibioticos que debes seguir durante 10 dias, debes respetar ese plazo. Es posible que al 4 o 5 día te sientas mejor, y abandones el tratamiento. Eso, en general, hace que el 90 o 95% de las bacterias que tenías en tu cuerpo hayan muerto, pero las más resistentes aún siguen vivas, listas para multiplicarse y seguir mutando en el cuerpo de alguna persona cercana, ganando en cada generación mayor inmunidad al tratamiento.

Existen enfermedades infecciosas graves -tuberculosis, septicemia o meningitis bacteriana- cuyos microorganismos responsables se han hecho resistentes a los antibióticos. Algunas estadísticas sugieren que -a nivel extrahospitalario- entre el 30 y 50% de las bacterias no responden a los antibióticos comunes. Dentro de los hospitales es mucho peor, y el porcentaje se eleva hasta un 90 por ciento. Y no son pocos los casos -como ha ocurrido esta semana en un hospital de Argentina- que se produzca el deceso de varios pacientes por haber llegado al extremo de que ningún antibiótico es capaz de combatir los gérmenes que causan múltiples infecciones.

Muchos microorganismos se han hecho resistentes a los antibióticos.

El fenómeno de resistencia bacteriana a los antibióticos preocupa -y mucho- a los científicos desde hace unos 10 o 15 años. Si bien es cierto que existe un tipo de resistencia bacteriana que se produce a partir de la mutación genética espontánea, es decir que el microorganismo cambia su estructura sin que medie intervención humana, los datos indican que hay otra vía, mucho más frecuente. Se trata de la denominada “presión selectiva o adquirida”, provocada por los hábitos mencionados antes y que podríamos evitar simplemente utilizando los antibióticos de una forma más racional.

Consulta con tu médico para saber si realmente necesitas un antibiótico.

¿Qué podemos hacer para evitar contribuir a este problema? Existen algunos consejos sencillos que deberían bastar para limitar enormemente la aparición de bacterias resistentes a los antibióticos. El Centro para el Control y Prevención de Enfermedades (CDC, por Centers for Disease Control and Prevention) sugiere las siguientes estrategias:

  • Consulta con tu médico para saber si realmente necesitas un antibiótico. Existen muchas ocasiones en las que se pueden recetar medicinas diferentes para controlar una enfermedad pero que no son antibióticos.
  • No utilices un antibiótico si lo que tienes es un catarro común. La mayoría de los catarros son causados por virus y estos son completamente inmunes a los antibióticos.
  • Asegúrate de terminar los tratamientos prescritos por tu médico, aún cuando ya no te sientas enfermo. Es posible que cuando la cantidad de bacterias en tu organismo descienda desaparezcan los síntomas, pero eso no quiere decir que estás completamente curado.
  • No guardes comprimidos por si te enfermas de lo mismo en el futuro. Hacer esto no solo implica que no estás terminando el tratamiento esta vez, sino que las restantes van a ser insuficientes para la próxima vez.
  • Consume antibiótico exactamente como te lo ha recetado el médico, sin saltarte dosis y respetando el tiempo estipulado entre ellas.
  • Si se trata de un antibiótico líquido, recuerda agitarlo bien antes de cada toma. Si no lo haces, seguramente el ingrediente activo se asentará en el fondo (o flotará en la superficie), con lo que estarías ingiriendo poco antibiótico al principio y mucho al final del tratamiento, o viceversa.
  • No te tomes los antibióticos recetados a otra persona. El médico determina las dosis necesarias de acuerdo a tu peso, estatura y edad. Es muy poco probable que lo recetado a otra persona sirva para ti. También recuerda que hay diferentes antibióticos para diferentes bacterias, y la enfermedad de otra persona puede no ser idéntica a la tuya.
  • Cocina bien los alimentos, especialmente las carnes. Si el animal del que provienen ha sido tratado con antibióticos y alguna bacteria ha sobrevivido al tratamiento, debes asegurarte que muere durante la cocción.
  • No te enfermes: para no tener problemas con los antibióticos y bacterias mutantes, lo mejor es permanecer sano. Lavate las manos varias veces al día y evitar estar muy cerca de alguien que está enfermo o que estornuda frecuentemente.

Las bacterias resistentes a los antibióticos pueden convertirse en un serio problema para todos. Cada vez es más común que alguno de estos microorganismos se “atrinchere” dentro de alguna sala de cuidados intensivos o quirófano y obligue a tomar medidas extraordinarias para librarse de ellas. Si seguimos estos sencillos consejos ayudaremos a evitar su aparición. ¿Te apuntas?

Bulletstorm, un FPS casual (Trailer)

Los juegos han evolucionado mucho desde sus comienzos. Porque eso es lo que sucede con todos los medios. Evolucionan, cambian y se adaptan a las épocas. Con el avance de la tecnología era de esperarse que lo que antes era considerado un juego bien hecho, hoy sea “simple” o “irreal”. Pero todavía hay desarrolladores a quienes esos adjetivos no les importan. People Can Fly, quienes han tenido una larga relación con Epic Games, vuelven a lo que saben hacer y nos traen un "FPS casual", donde lo único que vale es gastar balas.

Hoy los FPS no son como fueron los originales, ya sea Doom o Quake. Ahora son más estrategicos, necesitando buscar cobertura si hay muchos enemigos o usar granadas tácticas como puede ser una flashbang para tener una ventaja sobre el resto. Bulletstorm lanza todo al tacho de basura y se concentra en lo que importa: tener el dedo en el gatillo y los reflejos afilados. Pero no se contenta con la “simplicidad” de su juego anterior, Painkiller, ya que agrega varios elementos a la mezcla. Y estos elementos no están para hacer la experiencia más compleja, sino para mantener la acción fresca y lo más entretenida posible, ya que aunque sea un título simple, hoy en día es más dificil mantener a los jugadores pegados a la pantalla.




Inicialmente, está la historia, que como buen FPS de la vieja escuela no es muy importante, pero ayuda a dar una razón para toda la masacre... si es que alguien necesita una. Ocupas el rol de Grayson Hunt en un mundo futurístico donde la confederación es protegida por una banda de mercenarios. Cuando Hunt y su compañero Ishi Sato se dan cuenta que han estado trabajando con la gente equivocada, los traiciona y son exiliados a los confines de la galaxia. Nosotros llegamos años luego de su exilio, con Hunt convertido en un borracho pirata espacial. Luego de ser parte responsable de la nave de sus viejos compañeros estrellándose en un planeta desconocido. En la superficie, se reencuenta con su compañero Sato con quien une fuerzas para batallar contra los mutantes y bandidos que habitan el planeta y vengarse de quien los envío allí en un principio.

Como buen juego de acción sin sentido y siendo fiel a su nombre, Bulletstorm tendrá un enorme arsenal de armas ridículamente grandes y poderosas. Pero también hay un sistema que recompensa al jugador por crear caos de la manera más creativa posible. Esto permitirá mejorar al personaje, desbloquear nuevas armas y diferentes tipos de ataques. Seguramente te estarás preguntando qué tipo de brutales y divertidas ejecuciones se podrán lograr. Pues hay una gran variedad, desde empalar a un enemigo en un cactus, usar un látigo para acercarlo o incinerarlo con cien balas rápidamente disparadas.

Por supuesto, los headshots dan más puntaje.

En una entrevista con los desarrolladores, dijeron que quieren que los jugadores no se sientan mal cuando encuentran una emboscada, sino que sientan la emoción de poder asesinar mutantes de maneras variadas y divertidas, o como dijo el productor, Cliff Bleszinski: “devolverle la diversión a los FPS”. Y aunque podríamos describir la ridiculez de la acción, la mejor manera de entenderla es echándole un vistazo al trailer que han lanzado recientemente, donde no solo se puede ver la acción, sino también los bonitos gráficos que presenta y los gigantes jefes finales que tendremos que enfrentar.

En defintiva, no necesitas estar en los primeros puestos del ranking de Modern Wafare 2 para ser bueno en Bulletstorm. Solo debes querer apretar el gatillo y no espantarte con el mal momento que le harás pasar a tus enemigos. Hoy en día ya casi no hay de estos FPS, más allá del remake de Serious Sam y ya comenzabamos a preocuparnos por la falta de juegos de acción simples. Ahora, Bulletstorm tiene la oportunidad de demostrarle a los fanáticos de la simulación militar, que no hace falta visión nocturna para ver a los enemigos... solo debes seguir la dirección de las balas. Bulletstorm estará disponible a principios de 2011 para PC, Xbox 360 y PlayStation 3.

Iron Sky, Nazis en la Luna (Trailer)

Un joven finés de nombre Samuli Torssonen creó, hace algunos años, lo que la comunidad de Internet considera como una de las mejores parodias de ciencia ficción jamás hechas: Star Wreck. Torssonen también contó con la ayuda de otro joven finés, un director llamado Timo Vuorensola. Después del éxito del último filme de la saga Star Wreck, conocido como "In The Pirkinning", ambos se encuentran trabajando en una película de ciencia ficción que toma una temática muy explotada por viejos escritores de este género: Los Nazis en el espacio. Ahora, ¿cómo hacen los Nazis para llegar allí? La historia en sí misma es más que irónica, ya que si nos guiamos por ella, la primera transmisión televisiva en llegar al espacio fue la apertura de los Juegos Olímpicos de Berlín en 1936, con Adolf Hitler a cargo del discurso de apertura (sin mencionar las actuales disputas a este hecho). Pero los Nazis llegaron al espacio, de la mano de múltiples escritores y directores, utilizando cosas como realidades alternativas o viajes en el tiempo. ¿Cuál es el truco de Torssonen, entonces?





Antigravedad. Iron Sky cuenta que al final de la Segunda Guerra, Hans Kammler (ingeniero, científico, y uno de los chicos más retorcidos de la SS) junto con un grupo de colegas hacen un gran descubrimiento en materia de antigravedad, que les permite escapar hacia el lado oscuro de la Luna, desde una base secreta instalada en la Antártica (algo consistente con el reclamo de la región conocida como New Swabia por parte de los Nazis en 1939). En la Luna crean la base Schwarze Sonne, y allí comienzan un lento proceso de preparación que les lleva aproximadamente setenta años. En el año 2018, los descendientes de aquellos Nazis derrotados están listos para regresar a la Tierra, e iniciar su conquista, llevando con ellos una impresionante flota de naves, resultado del refinamiento en la tecnología antigravitacional y su mezcla con la tecnología de 1945, transmitiendo una sensación retro-futurista que pocos trabajos han logrado.

El proyecto tiene un presupuesto estimado de cinco millones de euros, una campaña de "bonos de guerra" en la que los fans pueden asistir a la producción de la película comprando material exclusivo (cuesta 50€), y un videojuego en desarrollo llamado Iron Sky: Operation Highjump. Probablemente lo más llamativo sobre Iron Sky es que ha sido presentado como "comedia de ciencia ficción", aunque el trailer no ha revelado nada sobre eso. Sólo hemos visto una flota Nazi en camino a la Tierra, pero nada de chistes o humor hasta el momento. A menos que haya alguna demora, Iron Sky debería estar lista para la pantalla grande a principios del año que viene. En lo personal, por alguna razón no dejo de pensar en McBain luchando contra los "Comunistas Nazis", pero dejaré una ficha o dos sobre Iron Sky. El trailer se ve bastante bien, sólo basta esperar a ver cómo sigue su producción.

sábado, 8 de mayo de 2010

Stephen Hawking y los peligros del contacto

Hoy en día es ridículo decir que no hay vida fuera de esta Tierra, no solo suena a sentido común, sino que estadísticamente todo indica que como hay en esta debe haber en otro planeta. Es por eso que a lo largo de los años hemos tratado de establecer contacto y nuestra mente divaga con las millones de fantasías que podemos tener sobre los posibles extraterrestres. Pero recientemente, nuestras fantasías se vieron aplastadas por las francas y resonantes palabras del brillante Stephen Hawking.

El próximo mes Stephen Hawking aparecerá en un documental, en la cadena televisiva Discovery Channel, donde dará su opinión sobre la vida extraterrestre y, desde su punto de vista, los peligros de hacer contacto con ella. Para Hawking, que haya vida extraterrestre es un hecho: “Para mi mente matemática, solo los números hacen pensar en extraterrestres algo perfectamente racional. El verdadero desafío es imaginar cómo serán exactamente.

A la hora de hablar de posibles vidas inteligente fuera de la Tierra cree que la puede haber de todo tipo y en cualquier parte. Según, Hawking la mayoría de la vida extraterrestre serían microbios o simples animales como los que habitan la Tierra, viviendo en otros planetas, en el centro de las estrellas y hasta flotando en el espacio. Pero también habló sobre vida que posiblemente haya evolucionado a lo que conocemos como vida inteligente y hacer contacto con ellos puede ser “un poco arriesgado”.

“Si los extraterrestres nos llegan a visitar, creo que el resultado sería muy parecido a como cuando Cristóbal Colón llegó a América, lo que no terminó muy bien para los indígenas.”

En lo que probablemente sea una de las frases más resonantes de esta joven década, Hawkings resumió: “Solo debemos mirarnos a nosotros mismos para ver cómo la vida inteligente puede convertirse en algo que no quisiéramos conocer.” Luego, casi reflejando nuestro posible futuro, el físico declaró: “Imagino que habiendo usado todos los recursos en su planeta natal deben existir en naves gigantes. Semejantes extraterrestres avanzadas se volverían nómades, buscando conquistar y colonizar cualquier planeta que pudieran alcanzar.

Y en caso de que nosotros hagamos lo posible por evitar contacto extraterrestres y ellos se tomen el trabajo de venir hasta nosotros, Hawking opinó: “Si los extraterrestres nos llegan a visitar, creo que el resultado sería muy parecido a como cuando Cristóbal Colón llegó a América, lo que no terminó muy bien para los indígenas.” Y solo estas simples palabras, son suficiente para replantearnos la cuestión. Es obvio que los esfuerzos para contactar vida inteligente no se detendrán, pero definitivamente da mucho lugar para reflexionar… y para quien tenga la valentía, volver a ver Mars Attack.

Historia de los procesadores Pentium

Eran los comienzos de la década de los '90, o más precisamente hablando, el año 1993. Algunos de los procesadores 486 ya llevaban cuatro años en el mercado, sin embargo, quien tenía uno podía considerarse un semidiós caminando sobre la tierra, teniendo en cuenta lo "pesadas" que eran las aplicaciones de ese entonces: D.O.S. como sistema operativo, y Windows 3.1 como "entorno". Pero Intel, que en ese tiempo enfrentaba una competencia mucho más dura frente a alternativas como IBM, AMD, Cyrix y Texas Instruments, decidió lanzar una nueva plataforma, mejorando la tecnología presente en los chips 486 de forma considerable. El nombre designado fue Pentium, representando la quinta generación de procesadores. Una de las razones para el nuevo nombre se debía a que las oficinas de patentes se negaban a registrar números como propiedad. En ese entonces, los procesadores eran clasificados como 80386 y 80486. Si hubiera sido posible, tal vez lo que conocemos por Pentium hoy no hubiera sido otra cosa más que 80586, pero Intel sabía en ese momento que necesitaría más que un nombre llamativo para imponerse frente a las plataformas existentes. La popularidad de los 486 fue algo impresionante, a un extremo tal que Intel recién dejó de fabricarlos en el año 2007, aunque ya estaban orientados a sistemas embebidos y con objetivos específicos.

El primer Pentium: ¡60 megahertz de puro poder!

El 22 de marzo de 1993 fue testigo de la aparición del Pentium 60. Tanto su frecuencia como su bus estaban sincronizados en 60 megahertz, y marcó la aparición de un nuevo zócalo, el socket 4, por lo que era necesario un nuevo motherboard para recibirlo (hubo una excepción, que la nombraremos más adelante). Unidad de punto flotante integrada, 64 bits de bus de datos, y un masivo consumo de energía (ubicado en los cinco voltios) eran algunas de las características del nuevo procesador. Al Pentium original se lo conoció como P5 en el círculo técnico, y sólo tuvo una versión superior, de 66 megahertz de velocidad. El consumo de energía se volvió un verdadero problema: Intel debió elevar a 5.25v para mantener estable al chip en 66 megahertz, algo que también despertó un demonio que ni siquiera hoy podemos derrotar del todo: La temperatura. Era necesario un diseño más eficiente (no era por nada que le decían "calentador de café" al Pentium), y así fue como Intel llegó, en octubre de 1994, a crear el P54C, una versión revisada del Pentium que, además de bajar el voltaje a 3.3v, también permitió elevar las velocidades de reloj a 75, 90 y 100 megahertz respectivamente. Sin embargo, hubo dos puntos muy importantes que jugaron en contra de la adopción del Pentium: Los nuevos P54C requerían un nuevo zócalo, el socket 5, que no era retrocompatible con el zócalo anterior. Y lo más importante, fue que se descubrió un bug en la unidad de punto flotante integrada en el diseño del Pentium, que se popularizó como el "bug FDIV". Lo que realmente causó problemas no fue el error en sí, sino el hecho de que Intel hubiera estado consciente del mismo cinco meses antes de que fuera reportado por el profesor Thomas Nicely del Lynchburg College, mientras trabajaba con el procesador sobre la Constante de Brun.

El bug FDIV estuvo presente en una cantidad significativa de procesadores, pero fue la actitud de Intel la que hizo más daño

Por otro lado, Intel debía ofrecer una opción de actualización para aquellos sistemas con zócalos antiguos, y así fue como se creó el Pentium OverDrive. De acuerdo a Intel, aquellos usuarios con un sistema 486 podían colocar un procesador OverDrive y alcanzar un rendimiento muy similar al de los procesadores Pentium. Lamentablemente, el diseño OverDrive fue víctima de múltiples problemas de compatibilidad, afectando su rendimiento final. Las alternativas presentadas por AMD y Cyrix ofrecían un rendimiento, y había circunstancias en las que incluso un 486DX4 podía vencer a un OverDrive. Tampoco debemos olvidar el precio, ya que si bien Intel había lanzado el OverDrive para que los usuarios evitaran cambiar todo el sistema, el dinero que se ahorraban en ese proceso prácticamente debían invertirlo sobre el OverDrive en sí. Los primeros OverDrive estuvieron disponibles para socket 2, 3, 4, 5, 7 y 8.

Ninguna de las versiones OverDrive fue muy popular

En poco más de tres años, Intel había logrado triplicar la velocidad de sus chips Pentium. Los P54C abrieron el camino para los P54CS, que elevaron las frecuencias a 133, 150, 166 y 200 megahertz respectivamente. Entre ambas estirpes apareció el P54CQS, representado únicamente por el Pentium 120. A partir de los diseños de 120 megahertz, los chips Pentium dejaron atrás al bug FDIV, pero el frente se abrió en dos. En primer lugar, aparecieron los P55C, más conocidos entre los usuarios como Pentium MMX. Y en segundo lugar, Intel lanzó al Pentium Pro en noviembre de 1995. Para cerrar con la quinta generación, los P55C introdujeron al mercado la extensión MMX, un conjunto de instrucciones adicionales que aumentaban el rendimiento de los chips en determinados procesos multimedia. Las versiones de escritorio poseían velocidades de 166, 200 y 233 megahertz, utilizando al socket 7 que ya existía desde los P54C. Los procesadores MMX también tuvieron su versión OverDrive para zócalos anteriores, pero su baja popularidad se mantuvo sin cambios.

Intel elevó la apuesta con las nuevas instrucciones MMX

El siguiente en la línea fue el Pentium Pro. Desde su lanzamiento se lo conoce oficialmente como integrante de la sexta generación de procesadores, también llamado P6, o i686, un término que se utiliza incluso en estos días (puedes encontrarlo en los nombres de las imágenes de algunas distros Linux). El Pentium Pro rápidamente se presentó como un chip completamente diferente de la familia P5, a pesar de que compartían parte del nombre. No poseía instrucciones MMX, pero su rendimiento era masivo, gracias a velocidades de reloj aumentadas y diseños que contaban con una memoria caché L2 de hasta un megabyte. Uno de los puntos más destacables del Pentium Pro era su rendimiento con software de 32 bits. Como mínimo, su velocidad superaba a la de los Pentium en un 25 por ciento, pero al mismo tiempo esto fue una de las cosas que lo perjudicó. Con un excelente rendimiento en 32 bits, su velocidad en procesos de 16 bits era inferior, incluso a la que entregaban sus hermanos menores. Como si eso fuera poco, un alto precio (provocado por lo complejo de su diseño) y la necesidad de cambiar de zócalo una vez más (socket 8), hicieron del Pentium Pro un procesador muy poco popular entre los usuarios, aunque mantuvo cierta presencia entre servidores de alto rendimiento. Sus modelos eran de 150, 166, 180 y 200 megahertz, con variantes de 256 KB, 512 KB, y 1 MB de memoria caché L2.

El Pentium Pro fue un adelantado a su época en varios aspectos

A pesar de los problemas que debió enfrentar con el Pentium Pro, Intel tomó lo aprendido a la hora de diseñar este chip, creando la base para lo que serían los Pentium II, Pentium III, Celeron y Xeon. El primer Pentium II apareció en mayo de 1997, y contaba con un diseño radical: El "chip" se había convertido en "cartucho", presentando oficialmente al slot 1. También introdujo la extensión MMX, y corrigió los problemas de rendimiento en aplicaciones de 16 bits que habían plagado al Pentium Pro. Su memoria caché L2 era de 512 KB, aunque más lenta, utilizando la mitad del ancho de banda. Sin embargo, el hecho de que Intel integrara la memoria caché en el cartucho y no en el interior del núcleo permitió bajar los costos lo suficiente como para hacer del Pentium II una opción muy atractiva entre los consumidores, mucho más de lo que jamas fuera el Pentium Pro. Su primera versión fue conocida como Klamath, que utilizaba un bus de 66 megahertz, y contaba con velocidades de 233, 266 y 300 megahertz. Menos de un año después llegó la familia Deschutes, con modelos de 333, 350, 400, y 450 megahertz. El bus de los Deschutes fue elevado a cien megahertz (a excepción del modelo 333 que permaneció en 66), algo que se mantuvo en procesadores posteriores. Tres meses después de la aparición de los Deschutes, Intel lanzó al procesador Celeron, una versión económica y mucho menos poderosa del Pentium II. Su principal debilidad era la ausencia total de caché L2, algo que despertó muchos reclamos entre el público. Sin embargo, tanto este Celeron como su posterior versión con 128 KB de caché L2 demostraron un potencial sin precedentes para realizar overclocking. El Celeron 300A se convirtió en uno de los procesadores más codiciados, ya que con una configuración adecuada se lo podía llevar a unos impresionantes 450 megahertz, un rendimiento que poco tenía que envidiarle al Pentium II 450, mucho más caro. En cuanto al Xeon, desde el comienzo fue posicionado como un procesador para servidores. Una ranura diferente a la de los Pentium II y una mayor cantidad de caché fueron apenas dos de los tantos factores que determinaron esto.

El Pentium II cambió zócalo por ranura: El slot 1 estaba entre nosotros

Los Pentium III estuvieron claramente definidos en tres sub-generaciones. La primera fue Katmai, que ofreció un aumento en la velocidad de reloj, y la incorporación de las nuevas instrucciones SSE de aceleración multimedia. Sus modelos fueron de 450, 500, 533, 550 y 600 megahertz. Mientras que los Xeon también habían adquirido las características de los Pentium III a través de nuevas versiones, ocho meses después, en octubre de 1999, llegaron los modelos Coppermine. Los Coppermine marcaron la reintroducción de los zócalos entre los chips de Intel, con la llegada del socket 370. Muchos usuarios han cruzado en su camino a los famosos "adaptadores" de socket 370 a slot 1 para utilizar los nuevos chips en placas madre con ranura slot 1, y de los problemas de compatibilidad que podían surgir con ello. Los Coppermine estuvieron entre los primeros en ofrecer a los usuarios "regulares" la posibilidad de contar con un procesador de 1 Ghz, barrera que no se esperaba alcanzar hasta dentro de varios años. Algunos detalles adicionales se encontraron en la inclusión del bus de 133 megahertz, el uso completo del bus en la memoria caché L2 y la actualización de la línea Celeron, incorporando las mejoras de los Coppermine. Finalmente, llegaron los Tualatin. Por sí mismos, estos Pentium III eran muy poderosos, ya que los modelos superiores contaban con un reloj de 1.4 Ghz, y 512 KB de caché L2. Pero resultaron extremadamente difíciles de conseguir, sin mencionar su alto costo, y el detalle de que muchas placas madre resultaron incompatibles con estos procesadores, debido a limitaciones de diseño en sus chipsets. Quien contara con una placa madre compatible y un Tualatin cerca, tenía a un verdadero monstruo como ordenador.

El Pentium III rápidamente volvió al zócalo, y se mantuvo así hasta el último modelo Tualatin

Hasta aquí llegamos a lo que se puede considerar como "historia antigua", porque ahora entramos en la época de los primeros Pentium 4, que a falta de otras palabras, fueron demasiados para el gusto y la comprensión de los usuarios. Los primeros P4 correspondían a la familia Willamette, comenzando con una velocidad de reloj de 1.3 Ghz, nuevo zócalo (423), y la introducción de las instrucciones SSE2. Luego vinieron los Northwood, los Gallatin (más conocidos como Extreme Edition), los Prescott, los Prescott 2M, y finalmente los Cedar Mill. Todas estas familias presentaron múltiples cambios: El abandono del socket 423 en favor del 478, la introducción del Hyper-Threading, buses de 533 megahertz, instrucciones SSE3, buses de 800 megahertz, virtualización, el socket 775, y fundamentalmente, la llegada de la microarquitectura NetBurst. La velocidad máxima de los Pentium 4 alcanzó unos impresionantes 3.8 Ghz, pero esto resultó ser más una limitación que un logro. Intel no podía ir más allá de esta velocidad sin seguir aumentando el voltaje y el diseño térmico, algo que además de ser problemático, también resultaría excesivamente caro. Intel necesitaba hacer las cosas más simples, en varios sentidos.

El socket 423 fue abandonado en un tiempo bastante breve
Aún es posible encontrar ordenadores con un Pentium 4 como este en su interior
El último y más moderno de la estirpe: Pentium G6950

La solución llegó a través de algo ya cotidiano para nosotros: Los núcleos múltiples. Aunque el primer Pentium de dos núcleos apareció en mayo de 2005 (el llamado Pentium D), todavía se los puede encontrar funcionando como si fuera el primer día. Los primeros intentos de Intel fueron algo toscos, ya que los Pentium D resultaron ser muy ineficientes, especialmente en el aspecto de temperatura. Smithfield y Presler, junto con sus variaciones XE, fueron las que le dieron forma a esta serie D de procesadores Pentium. La arquitectura NetBurst necesitaba un reemplazo, y este llegó con algo que ya es muy familiar para todos nosotros: Los procesadores Core 2 Duo. Mientras que los modelos Core pasaron a la vanguardia, representando a los modelos de media y alta gama, los Pentium fueron relegados a un rol mucho más humilde, identificando procesadores con lo que hoy consideramos como "capacidades básicas". Sin embargo, eso no quiere decir que el nombre Pentium en sí mismo esté destinado a desaparecer. Hoy en día, Intel mantiene activos tres zócalos: El 775, el 1156 y el 1366. El primero está prácticamente desplazado, mientras que los otros dos concentran todos los nuevos modelos de procesadores, incluyendo al Pentium G6950, lanzado en enero pasado. Por lo tanto, que no te preocupe si el presupuesto te alcanza sólo para este nuevo Pentium. En cualquier momento podrás dar el salto a un CPU más completo, pero tampoco debes dejar de recordar que el nombre Pentium ha sabido dejar su huella en el mundo de la informática, con novedades, intentos, fracasos, y éxitos rotundos. Si no fuera por el nombre Pentium, probablemente Intel no estaría donde se encuentra ahora.

Las 100 marcas más importantes del mundo

Esta es la era de las multinacionales, de eso no hay duda. Una gran compañía que triunfa se expande a distintos países del mundo y prácticamente no hay manera de detenerla si lo que provee es consumido. Y hablando de multinacionales, nos ha llegado un estudio hecho por Millward Brown, que tiene como objetivo ordenar las 100 marcas más importantes del mundo. No llega como ninguna sorpresa que la lista ha sido dominada claramente por marcas relacionadas a la tecnología.

Milward Brown ha estado confeccionando este ranking anual desde 2006, en donde ordena las marcas más importantes del mundo en vitud de su valor. Por eso no es coincidencia que en todas sus ediciones, la marca más importante haya sido la misma: Google. Y en verdad no sorprende que haya logrado mantenerse tantos años en la cima, debido a la calidad de sus productos y la buena y abierta relación que mantiene con sus clientes. Hoy en día, vale más de 114.000 millones de dólares. En comparación a 2009, ha crecido un 14%. Las empresas que le siguen son tres marcas pertenecientes al mismo rubro, como: IBM, Apple y Microsoft.

Las 10 marcas más importantes del mundo.

Seguramente te preguntarás cuál es el gigante capaz de aparecer en quinto puesto, en una era tan dependiente de la tecnología. Nada más y nada menos que Coca-Cola, el lider del mercado de gaseosas. Lo curioso es que mientras que Microsoft no ha aumentado su valor respecto a 2009, las dos marcas que le siguen, tanto IBM como Apple, han lo han aumentado en un 30%, aún más que el lider, Google. Pero a pesar del crecimiento de estas empresas, el gigante de Mountain View tiene suficiente resto para mantener el liderazgo, con un valor de 20.000 millones de dólares de diferencia.

El resto del Top 10 es completado por otras marcas como McDonald’s, Malboro, China Mobile, GE y Vodafone. También vale la pena mencionar que Facebook ratificó su éxito mundial entrando por primera vez en este tipo de ranking, con un valor de 5.524 millones de dólares. Y lo que no es coincidencia, muchas de las marcas que ocupan los primeros puestos, también juegan un rol clave en las redes sociales. Finalmente, las marcas españolas que aparecen en el ranking son Santander (18.012 millones), BBVA (12.977 millones) y Movistar (12.434 millones). Quedará por ver si Google puede mantenerse en la cima del ranking con una compañía como Apple, que parece tener más proyectos bajo la manga para mantener su poderosa ascendencia. Descarga el reporte con la lista completa (PDF).

Las marcas más poderosas del mundo

Historia de los procesadores Athlon

Durante el mes de agosto de 1999, AMD se encontraba en plena batalla con Intel por una posición de privilegio en el mercado. Los productos disponibles de ambas empresas eran varios, y tenían una gran fortaleza en cuanto a rendimiento. Los procesadores K6 se habían convertido en la piedra dentro del zapato de los Pentium MMX. Ante la salida del Pentium II, que obligaba a un cambio de plataforma debido a su slot 1, AMD había contestado con los procesadores K6-2, incorporando la tecnología 3DNow! y utilizando al nuevo Super Socket 7, que era retrocompatible con el socket 7 estándar. Los bajos precios de los chips de AMD y su gran rendimiento estaban colocando a Intel en un aprieto, pero la gente de Santa Clara contraatacó con el Pentium III. Mayores velocidades de reloj y la introducción de las instrucciones SSE volvían a colocar el balón en el campo de AMD. En Sunnyvale prepararon un ataque preliminar con la aparición de los procesadores K6-3, un rediseño de los K6-2 que introdujo el concepto de caché L3. Su rendimiento, siempre y cuando fuera colocado en un motherboard compatible, hacía que un K6-3 pudiera enfrentar sin problemas a un Pentium III en múltiples tareas. Ciertamente fue una época de incertidumbre, ya que era muy difícil determinar qué empresa contaba con el procesador más rápido. Sin embargo, los costos de producción del K6-3 eran muy altos, y su disponibilidad resultó ser muy baja. De hecho, AMD dejó de fabricar al K6-3 original cuando Intel presentó los Pentium III Coppermine, por lo que nunca fueron muy abundantes (si tienes uno, atesóralo, consigue algún motherboard compatible y hazlo funcionar). Las ediciones Plus de los K6-2 y K6-3 hicieron acto de presencia en abril del año 2000, pero AMD ya estaba decidido en redirigir sus recursos hacia un procesador más veloz y moderno: El Athlon, lanzado de forma oficial en junio de 1999, pero con una disponibilidad general a partir del mes de agosto de ese año.

El primer Athlon utilizaba un formato de cartucho, al igual que el Pentium II

De acuerdo a su estructura interna, el Athlon podía ser considerado como un procesador de séptima generación, de allí surge el otro término con el que fue conocido, K7. En este punto, AMD también decidió abandonar el formato de chip, presentando su propia versión de "cartucho", con un conector denominado slot A. Algunos pensaron en su momento que podría llegar a existir una forma de conectar procesadores de ambas empresas en un solo motherboard, tal y como sucedió con placas de generaciones anteriores, pero esto no fue así. De hecho, la verdadera "intercompatibilidad" de un zócalo con múltiples tipos de procesadores murió con el abandono del socket 7. La gente de VIA creó procesadores C3 utilizando al socket 370 de Intel, y se conocen versiones del VIA C7 que usan el socket m479 para procesadores móviles, pero en general, cada zócalo se volvió exclusivo de su fabricante. Otras características del Athlon original fueron la ruptura de la barrera de los 600 megahertz en chips AMD, la inclusión de una versión revisada de la extensión 3DNow! llamada "Enhanced 3DNow!", y la utilización de 128 KB de caché L1, cuatro veces más de lo que ofrecían los Pentiums II y III. En cuanto a la memoria caché L2, el Athlon original poseía algunas similitudes con el diseño de Intel. Estaba fuera del procesador, y funcionaba a una velocidad reducida, que en algunos casos llegaba al 33 por ciento del reloj del CPU. Otro detalle del procesador Athlon estuvo en su multiplicador. Fue el primer CPU fabricado por AMD con un multiplicador bloqueado, en un intento para evitar casos de fraude y "remarcado", algo muy común en procesadores de generaciones anteriores. Sin embargo, el Athlon slot A contaba con un punto especial de acceso al PCB que podía alterar el multiplicador. Entusiastas del overclocking rápidamente aprovecharon esto, e incluso se crearon pequeños dispositivos conocidos como "Goldfinger", que facilitaban el proceso. Un excelente rendimiento sumado a múltiples problemas de diseño y disponibilidad que Intel estaba enfrentando con sus Pentium III hicieron del Athlon original un procesador muy popular. Sus velocidades fueron desde los 500 hasta los 1000 megahertz, en modelos separados por 50 megahertz (once modelos diferentes).

La serie Thunderbird marcó el regreso de los Athlon al formato de chip

Un año después del lanzamiento oficial de la versión en slot A, el Athlon cambió de forma y de diseño con la llegada del núcleo Thunderbird. En primer lugar, AMD tomó la misma decisión que Intel en relación con los Pentium III Coppermine: Era preferible instalar menos caché L2 dentro del procesador, pero que estuviera sincronizada con la velocidad del mismo. Así fue como el Athlon Thunderbird abandonó al slot A, y regresó al clásico formato de zócalo, que actualmente lo conocemos como Socket A o Socket 462. Existieron algunos modelos slot A que incorporaban al nuevo núcleo Thunderbird, pero estos tenían un reloj máximo de 1000 megahertz, cuando en realidad los Thunderbird lograron alcanzar velocidades de hasta 1.4 Ghz, con buses de 100 y 133 megahertz según el modelo. Además, la salida del Thunderbird trajo al juego una nueva versión de procesador, en un intento por pelear contra el Celeron de Intel. Ese fue nada menos que el Duron. Su memoria caché L2 había sido reducida a solamente 64 KB, en comparación con los 256 KB del Athlon Thunderbird, pero aún así contaba con un rendimiento impresionante, por lo que se convirtió en una excelente opción para aquellos usuarios con un presupuesto apretado. Tanto los Duron como los Athlon utilizaban el mismo zócalo, lo que dejaba una puerta abierta para que el usuario pudiera dar del salto de Duron a Athlon cuando lo creyera necesario. Además, el diseño cerámico de los procesadores permitieron a los entusiastas realizar pequeñas modificaciones, utilizando elementos tan sencillos como un lápiz (el llamado "pen modding"), para liberar el bloqueo del multiplicador, que también estaba presente en los Athlon Thunderbird.

Los Athlon XP, con su diseño orgánico, fueron muy populares ante las opciones más costosas de Intel

Debieron pasar más de dieciséis meses para que AMD lanzara al mercado una nueva revisión de sus procesadores Athlon. El núcleo fue conocido como Palomino, pero en realidad lo que más quedó presente entre sus usuarios fue el nombre "Athlon XP". El nombre del procesador no tenía absolutamente nada de casual: Su mes de lanzamiento, octubre de 2001, fue exactamente el mismo que el de Windows XP, separados por apenas dieciséis días. El Athlon XP fue el primer procesador de AMD en incorporar completamente las instrucciones SSE de Intel, y también adoptó por completo el nuevo diseño "orgánico", dejando atrás el formato de cerámica visto en los procesadores Thunderbird. Con la llegada del Athlon XP, los consumidores debieron navegar a través de cierta confusión, ya que su nomenclatura no utilizaba la velocidad de reloj real del procesador, sino que se basaba en una "clasificación de rendimiento", o simplemente "PR". El PR fue utilizado por AMD en las viejas épocas de los procesadores 586, algo que despertó mucho enfado entre los usuarios, ya que era un sistema de descripción bastante engañoso. AMD decidió traer de regreso a la clasificación por PR, pero no causó las molestias del pasado. La variaciones del Athlon XP llegaron a través de los núcleos Thoroughbred (una pesadilla para escribir), Barton y Thorton. Aumento en la velocidad del bus, la cantidad de caché L2, y mejoras en la eficiencia energética fueron piezas claves de estas versiones avanzadas del Athlon XP. Pero la familia XP había llegado a un límite. Aún con velocidades que alcanzaron los 2.33 Ghz (Athlon XP 3200+, núcleo Barton), y un excelente rendimiento de escritorio, poco podían hacer contra los nuevos y revisados Pentium 4 que incluían la tecnología Hyper-Threading.

Los Athlon 64 trajeron nuevas mejoras, al igual que tres zócalos diferentes

La solución llegó con la introducción del Athlon 64. Presentado en septiembre de 2003, el nuevo Athlon 64 hizo acto de presencia en múltiples versiones. En primer lugar, los Athlon 64 podían obtenerse en socket 754 o 939, las dos nuevas plataformas que reemplazaban al socket A. Luego, surgió la edición FX, orientada como producto "premium", que contaba con compatibilidad dual-channel y un multiplicador liberado, sin mencionar un precio exorbitante. Mientras que el socket 754 fue siendo cada vez más desplazado hacia el rango de procesadores que ofrecía la familia Sempron (que reemplazó a los Duron), los Athlon 64 parecían concentrarse en el zócalo 939, pero fue entonces que apareció el nuevo zócalo AM2. Básicamente, el zócalo AM2 incorporó soporte para las nuevas memorias DDR2, pero también trajo un problema. Los procesadores 939 eran incompatibles con el zócalo AM2, y viceversa, por lo tanto AMD debió defender el fuerte con tres zócalos diferentes en el mercado, algo que fastidió de forma considerable a los consumidores interesados en actualizar el procesador y mantener la plataforma por algún tiempo. El procesador más rápido para el socket 754 fue el Athlon 64 3700+ (2.4 Ghz), mientras que el socket 939 contaba con el Athlon 64 4000+ (también de 2.4 Ghz). La línea FX siguió apenas un poco más allá del socket 939. El último ejemplar para este zócalo fue el FX-60, un verdadero monstruo de dos núcleos, y uno de los más raros de la familia Athlon 64 FX original, a un extremo tal que para obtener uno hoy se deberían pagar más de doscientos dólares por un chip usado.

La desesperación por aumentar la velocidad de reloj perdió sentido con la llegada de procesadores como el Athlon 64 X2

La carrera de los megahertz estaba llegando lentamente a su fin, algo que quedó patentado con la aparición de los primeros procesadores de núcleos múltiples. El Athlon 64 X2 apareció en el mercado durante el mes de mayo de 2005. Hubo varios modelos compatibles con el socket 939, pero el mayor punto de actividad se registró sobre el zócalo AM2, debido a la compatibilidad de este con las memorias DDR2. La cantidad de modelos disponibles es sencillamente enorme, desde el modelo 3400+ hasta el 6400+, sin mencionar las variaciones en cuanto a tamaño de caché y tipo de núcleo. El resto, ya se ubica dentro de nuestros parámetros de tiempo. El Athlon 64 X2 abandonó el "64", conservando solamente el nombre "Athlon X2", con la introducción de modelos revisados como el 7550. La llegada de los procesadores Phenom aumentó la cantidad de núcleos en los procesadores, pero el nombre Athlon permaneció dentro del grupo de los dos núcleos, hasta que los procesadores derivados de los nuevos Phenom II fueron creados. Así es como salieron al mercado los Athlon II X2, X3 y X4, de los que ya hemos hablado aquí en NeoTeo.

El Athlon hoy, con ediciones de dos, tres y cuatro núcleos, basados en los chips Phenom II

La situación actual de los procesadores Athlon es la siguiente: El modelo mayor de cuatro núcleos es el X4 635, con un reloj de 2.9 Ghz. El X3 440 de 3.2 Ghz es el más veloz con tres núcleos, mientras que el X2 255 de 3.1 Ghz también tiene lo suyo con dos núcleos. Se esperan nuevos modelos de aquí a fin de año, lo que nos indica una sola cosa: La historia del Athlon aún no termina. El Athlon II aún no tiene un ejemplar de un solo núcleo (el 160u próximo a salir) y es casi seguro que aparecerán nuevos modelos basados en las mejoras que han aportado los procesadores Thuban de seis núcleos. Tal y como ha sucedido con los procesadores Pentium, los Athlon se han vuelto un sinónimo de procesadores más baratos, pero no por eso son menos interesantes. Diseñados con el sólo propósito de enfrentar a Intel, los procesadores Athlon siguen cumpliendo con su objetivo después de todos estos años, y aunque el factor de rendimiento puro sigue estando a favor de Intel, la relación entre precio y rendimiento es algo en lo que los Athlon, siguen siendo reyes.

Halo: Reach - Birth of a Spartan (Trailer)

La guerra terminó, el Jefe Maestro terminó en un planeta oscuro ubicado en el medio de la nada, y los fans de Halo perdieron la cordura. ¿Por qué? Porque querían más, por supuesto. Mientras que algunos entregarían su propia sangre para conocer alguna novedad sobre un teórico Halo 4, a Microsoft no se le ocurrió nada mejor para mantener los ánimos en estado de efervescencia, que crear una precuela como Halo: Reach. Y en Redmond se están tomando su tiempo, de eso no cabe duda. Si observamos con cuidado, el flujo de información se ha parecido mucho a un cuentagotas desde su primera presentación en diciembre pasado. Un rumor aquí, una imagen allá, algún que otro vídeo colgado en YouTube, y muchísimas especulaciones fueron la receta para elevar la expectativa sobre Halo: Reach. Y como si eso fuera poco, ahora ha aparecido en línea la versión extendida del nuevo trailer, Birth of a Spartan. Cualquier duda que alguien pueda tener sobre el "procedimiento" a través del cual se crean estos supersoldados, ha quedado completamente disipada.




Probablemente nos encontremos frente a un resurgimiento de los trailers "live action" en los videojuegos. Tal vez recuerden que la tercera parte del F.E.A.R. también mostró un trailer de este tipo, pero el efecto logrado en Birth of a Spartan es notable, aún sin hacer ni un solo disparo. Evidentemente, un Spartan pasa por un entrenamiento al igual que cualquier otro soldado. Al mismo tiempo, se puede apreciar la característica secreta del proyecto SPARTAN-III (una alternativa más barata al exitoso SPARTAN-II), con algo tan sencillo como el retrato digital que sostiene el soldado. El camino del Spartan es un boleto de ida, y no parece haber lugar para el arrepentimiento. Sin embargo, no queda claro si el soldado en cuestión ha sido voluntario para el proyecto, o si simplemente fue una víctima más de las circunstancias.

La calidad del trailer es excelente, y muchos ya se han preguntado por qué no hay ningún proyecto viable para llevar a cabo la película. Después de todo, la trama de Halo está lo suficientemente cerrada. Ya lo sé, ya lo sé: No se sabe nada del destino del Jefe Maestro, especialmente desde los canales oficiales, y por lo que sabemos podría estar surfeando en ese misterioso planeta con el holograma de Cortana en bikini, así que la trama de Halo puede estar en cualquier condición, menos cerrada. Halo: Reach ha dejado a muchos con los pelos de punta, pero al fin y al cabo, se sabe cómo va a terminar eso. Y el nuevo trailer, bueno, es todo lo que hay a menos que alguien, sea quien sea, aparezca de la nada con un proyecto viable para llevar al Jefe Maestro a la pantalla grande. Hasta entonces, y hasta que Halo: Reach salga de una vez, es todo.

Maido-Kun: Robot a la Luna

Ya lo dijo Armstrong: “Es un pequeño paso para el hombre y un gran paso para la humanidad”. En el año 2015, se pretende que Maido-Kun diga lo mismo pero sustituyendo la palabra “hombre” por “robot”. Esta hazaña pretende llevarla a cabo SOHLA (Space Oriented Higashiosaka Leading Association), una asociación formada por seis empresas privadas ligadas al desarrollo e investigación espacial. Y tienen previsto gastarse la nada despreciable cifra de 10.5 millones de dólares para conseguir que su robot sea el primero en pisar la Luna. Esto que puede parecer una muestra de excesivo egocentrismo empresarial, tiene su contrapartida en la notoriedad que conseguirán con semejante evento, por no hablar de los siguientes proyectos que le podrán ser adjudicados por los gobiernos, una vez demostrado su poderío tecnológico.

La comunidad robótica lunar puede ser un hecho dentro de pocos años

De todos modos, no las tienen todas consigo. Se muestran muy optimistas con la idea, pero a nadie escapa la dificultad que entraña enviar un robot bípedo a la Luna, tanto por los desarrollos tecnológicos necesarios para ponerlo en órbita como por la complejidad de desplazar por la superficie lunar un humanoide con piernas en vez de con ruedas. Esto lo sabe SOHLA pero priman la estética del robot para que sea lo más parecida a un ser humano, logrando así que nos sintamos identificados con sus conquistas y establezcamos cierta empatía con el robot.

El gobierno japonés se une a la iniciativa y pretende llevar otro robot en el año 2020, pero en esta ocasión los prefieren con ruedas. El glamour cuesta dinero, así que la Agencia de Exploración Aeroespacial Japonesa (JAXA) no tiene mucho interés en que su robot se parezca a un humano. El caso es que en menos de 10 años nos podemos encontrar con una nutrida población de robots japoneses haciendo de las suyas por la polvorienta superficie lunar.

Dead Space 2 (Trailer)

www.refuelingtanktrailer.com

El primer Dead Space estaba lejos de ser un juego innovador o revolucionario, pero definitivamente perfeccionó muchos aspectos y mecánicas de otros juegos. Además, presentaba un mundo bastante fresco, con primicias muy interesantes. Eso produjo que la secuela se espere con bastante expectativa. Ahora, Electronics Arts presentó el primer trailer y las cosas se ven muy prometedoras.

Ahora bien, si tenemos que hablar de la trama, es pura especulación. Si no has terminado el primero te recomendaríamos que dejes de leer ahora mismo. ¿Listo? Bien. Como seguramente recordarás, al final del juego original, Isaac es atacado por su novia infectada por los Necromorphs. Hasta el momento no estábamos seguros si era otra alucinación de su débil mente o algo que pasó en verdad. Ahora, por lo que nos dice el trailer de Dead Space 2, podría haber ocurrido en serio, ya que una voz en off dice: “Isaac, we’re all going to burn for what we did to you.” (Isaac, todos nosotros vamos a arder por lo que te hicimos). Esto se conecta con el rumor de que el juego comienza en un hospital de una estación espacial.





www.refuelingtanktrailer.com

El primer Dead Space estaba lejos de ser un juego innovador o revolucionario, pero definitivamente perfeccionó muchos aspectos y mecánicas de otros juegos. Además, presentaba un mundo bastante fresco, con primicias muy interesantes. Eso produjo que la secuela se espere con bastante expectativa. Ahora, Electronics Arts presentó el primer trailer y las cosas se ven muy prometedoras.

Ahora bien, si tenemos que hablar de la trama, es pura especulación. Si no has terminado el primero te recomendaríamos que dejes de leer ahora mismo. ¿Listo? Bien. Como seguramente recordarás, al final del juego original, Isaac es atacado por su novia infectada por los Necromorphs. Hasta el momento no estábamos seguros si era otra alucinación de su débil mente o algo que pasó en verdad. Ahora, por lo que nos dice el trailer de Dead Space 2, podría haber ocurrido en serio, ya que una voz en off dice: “Isaac, we’re all going to burn for what we did to you.” (Isaac, todos nosotros vamos a arder por lo que te hicimos). Esto se conecta con el rumor de que el juego comienza en un hospital de una estación espacial.

Además, por lo menos en el trailer, Isaac parece verse mucho más poderoso que antes. Claro que no podemos decir que esto se deba a algún implante raro que le han hecho o que simplemente tiene más experiencia descuartizando Necromorphs, algo en lo que ya es un experto. Al parecer, la historia ocurrirá tres años después, en una estación espacial muy populada, que nuevamente se verá atacada e infectada por aliens, con Isaac entre los muy pocos sobrevivientes.

Lo poco que han dicho sobre el combate es que no tendrá un aspecto tan improvisado, como el primero. Es decir que Isaac estará un poco mejor armado para lidiar con los Necromorph, en vez de tener herramientas de minería. Además, estrenará un nuevo traje que además de brindarle más protección, incluye pequeños propulsores en la base para tener más control y dirección a la hora de estar flotando en gravedad cero. Todavía es muy temprano para decir algo sobre el proyecto, pero podemos garantizar que hay gente muy talentosa detrás del proyecto, ya que se trata del equipo original. Dead Space 2 estará saliendo a principios de 2011 para PC, Xbox 360 y PlayStation 3.