Ciencia, tecnología, informática, entretenimiento, curiosidades; todos estos y muchos más temas los encontraras en GEEK NOT FOUND, un estupendo blog recopilatorio e informativo, de este gran mundo... El Mundo G33K.

HUBO 2, el primer robot con aspiraciones reales de Terminator.

Publicado por Immersion lunes, 16 de noviembre de 2009 0 comentarios


Los de Plastic Pals han elegido con tino un plano semi nadir a lo Welles para mostrar el momento Tai Chi del robot HUBO 2. No bromeo con lo de Terminator: el amigo de los niños HUBO 2 no sólo practica Tai Chi (que sí, que sirve para la paz del espíritu pero también para soltar galletazos), sino que es capaz de darle a la espada, lo que sólo sirve para cortar cabezas a menos que seas un Jedi. Y no es el caso. Si te cruzas con él, cámbiate de acera. O de barrio. O de planeta. Podéis verlo en un vídeo después del salto.


Fuente: Gizmodo

TechCrunch adelanta que Google publicaría la semana próxima una versión previa de su sistema operativo de código abierto con kernel Linux y centrado en servicios web y aplicaciones “en nube”, un apartado que la compañía domina y que pretende fomentar.

Después de meses de rumores, el proyecto Chrome OS fue anunciado oficialmente en el mes de julio, con la promesa de ofrecer una versión preliminar en otoño, algo que sucedería la semana próxima según el editor de TechCrunch, habitualmente muy bien informado.

Sería la entrada del gigante de Internet en el sector de sistemas operativos para PCs tras el Android para el segmento móvil. “Velocidad, simplicidad y seguridad serían los aspectos clave del sistema” según sus responsables.

Chrome OS bajo kernel Linux tendría una interfaz minimalista para acceder a cualquier aplicación web, las Apps/Docs del mismo Google o cualquier otra que corra sobre un navegador. Funcionaría en plataformas x86 y ARM y la compañía dice estar en conversaciones con varios de sus socios para presentar una serie de netbooks en el mercado a mediados del próximo año.

Acer, Adobe, ASUS, Freescale, Hewlett-Packard, Lenovo, Qualcomm, Texas Instruments, y Toshiba serían algunos de los fabricantes que trabajarían en el proyecto. La creación de controladores sería una de las tareas fundamentales y según la información, de momento su punto débil.

Chrome OS, al contrario que Android, no sería un sistema “para masas” ni para “cualquier ordenador”, destinado seguramente al uso en miniportátiles por su diseño y enfoque. Esperaremos a la versión preliminar para sacar conclusiones.

Fuente: The Inquirer


Microsoft no lleva un buen ritmo en cuanto a cuota de mercado se refiere ni en el campo de navegadores ni tampoco en el de smartphones.


Windows Mobile ha perdido un 28% de cuota de mercado entre el tercer trimestre del año pasado y el tercer trimestre de este según Gartner.

Las cifras muestran que Windows Mobile disponía de un 11% en el tercer trimestre de 2008. Un año después, esa cifra ha bajado hasta un 7,9% mientrs que iPhone OS ha crecido desde un 12,9% hasta un 17,1% y el sistema operativo de RIM ha subido desde el 16% hasta el 20,8%.

Symbian ha caído ligeramente desde un 49,7% hasta un 44,6% en el mismo periodo. Android por su parte ha crecido de la nada hasta un meritorio 3,9% y tiene una tendencia de crecimiento muy interesante.

En palabras de Roberta Cozza, analista de Gartner:

Por una parte, el mercado se está haciendo open source. Por otra, hay más alternativas cerradas como Appl y RIM. Microsoft está justo en medio. Tiene que pensar seriamente qué pueden hacer“.

Fuente: The Inquirer


Científicos de la Universidad de Adelaida han conseguido rebajar el límite del tamaño de fibras ópticas posibilitando herramientas más eficientes para el procesamiento de datos en las redes de comunicaciones y computación óptica.

Nuevos avances en la comprensión teórica del comportamiento de la luz a escala nanométrica y la utilización de una nueva generación de fibra óptica desarrollada en la universidad australiana permitirán nuevos adelantos tecnológicos en el sector, según los investigadores.

Además, los científicos apuestan por utilizar su modelo de fibra óptica como sensores y no sólo como trasmisores de luz, permitiendo el desarrollo de herramientas que podrían con facilidad detectar virus en un aeropuerto, evaluar la seguridad del agua potable, ayudar a elegir los especímenes más adecuados para la fecundación in-vitro o alertar de fallos en la estructura de un avión.

Fuente: The Inquirer


Google Docs es uno de los servicios de Google que, junto a Gmail y Google Reader, más utilizo. Es cierto que al trabajar todo el tiempo con gente de otros lugares del mundo es una de los motivos por los que lo uso y tengo clarísimo que le faltan muchas cosas para ser un servicio perfecto.

Pero Dave Girouard el responsable de la división corporativa de Google reveló que para el próximo año Docs tendrá al menos 50 actualizaciones que harán que las empresas puedan prescindir de Microsoft Office.

Docs alcanzará una capacidad el próximo año que permitirá a la mayoría de empresas deshacerse de Office si así lo desean.

Considero que grandes empresas terminarán pasándose a Docs no sólo por sus beneficios (alojar los archivos en la nube es uno de los más grandes) sino también por el gran ahorro que esto significará.

¿Tiembla Microsoft? Considerando que Microsoft Office es uno de sus productos más importantes y que más ganancias le da a la empresa, sí, se podría decir que Microsoft comienza a temblar.

Fuente: Alt1040



Es lo que se preguntan en JKOnTheRun, donde señalan que estos dispositivos que acaban de hacer su aparición de la mano de Lenovo podrían tenerlo muy complicado antes siquiera de haber empezado su andadura.

Lenovo se ha unido a Qualcomm para desarrollar este primer dispositivo que por el momento podría ser solo un prototipo pero que marcaría la evolución de un nuevo segmento cuyos productos según JKOTR no son más que “netbooks con menor potencia y que no ganan en portabilidad”.


Por el momento las impresiones pueden ser precipitadas, pero hasta que no veamos el dispositivo real en el CES de enero no se sabrá si estos productos -que tendrán pantallas con resolución de 1280×720, una mejora interesante- realmente tienen posibilidades o no.

Fuente: The Inquirer


La aparición de un teléfono como el Motorola Droid por parte de un fabricante para el que este modelo ha significado el primer paso en este tipo de dispositivos es destacable, pero su calidad solo puede deberse a un factor: la implicación de Google en su desarrollo.

Por lo que se sabe gracias a una fuente cercana a la empresa Motorola, el equipo de Android estuvo en contacto directo y permanente con Motorola y Verizon para poder desarrollar el software del Droid desde cero.

De hecho ya se habla de que otro fabricante de Corea del Sur está creando otra combinación de hardware y software que se basará en Android y que también está siendo muy supervisada por Google. Parece que la empresa está ayudando mucho a aquellos que ponen a la venta terminales basados en Android, pero para ayudarles también se implica mucho (quizás demasiado) en el propio proceso de diseño de los terminales.

Fuente: The Inquirer

Dell entra en el mundo de los smartphones con Dell Mini3.

Publicado por Immersion sábado, 14 de noviembre de 2009 0 comentarios

La compañía estadounidense Dell presentó oficialmente su terminal Dell Mini 3, con Android, y llegará de manera inicial a las operadoras Claro y China Mobile aunque ya han anunciado acuerdos con un gran número de operadoras a lo largo y ancho de planeta.

Ron Garriques, presidente de Dell Global Consumer Group, ha comentado: “Nuestra entrada en la categoría de los smartphones es una extensión lógica en la evolución de Dell en cuanto a productos de consumo. Estamos desarrollando productos móviles más inteligentes y más pequeños que permitan a nuestros clientes llevar su experiencia de Internet fuera de casa, permitiéndo hacer las cosas cuando y donde quieran hacerlo“. De lo que se puede concluir que Dell Mini 3 no será un producto aislado, sino que será el primero de una línea de smartphones.

No hay datos sobre las características técnicas, pero parece que no será un terminal de gama alta, debido a la carencia de 3G y conectividad Wi-Fi, entre otros. Android es el sistema operativo elegido y ello ofrece un gran nivel de personalización y opciones para el usuario final.

China y Latinoamérica recibirán el terminal este mes y el siguiente país será Brasil, América Móvil, que lo recibirá antes de que finalice al año. En Europa tendran que esperar un poco más y el acuerdo ha sido cerrado con la operadora Vodafone.


Fuente: The Inquirer


UIS, referente nacional y mundial en investigación

Publicado por Silver viernes, 13 de noviembre de 2009 0 comentarios

Siete universidades del país figuran dentro de las bases de datos más consultadas en el mundo en materia de investigación. La Universidad Industrial de Santander, UIS, entra en este listado en la posición número uno en el ámbito académico nacional, gracias al impacto que tienen su quehacer científico.

Así lo reveló un estudio sobre la visibilidad de la produ-cción científica en el contexto internacional, encargado por el Ministerio de Educación, al investigador español Félix de Moya-Anegón, miembro del Consejo Superior de Investigaciones Científicas.

“La UIS es una institución que ha alcanzado un nivel de producción que la ubica en el ranking de las 2 mil mejores instituciones del mundo, cuya tasa de impacto es la más alta de las universidades públicas”, aseguró Moya-Anegón.

En ese listado también aparecen las universidades públicas Nacional, del Valle y de Antioquia, y las privadas, Los Andes y la Pontificia Bolivariana de Medellín.

El cálculo entregado por el miembro del Consejo Superior de Investigaciones Científica responde a la medición que se hace en cuanto al uso por parte de los investigadores de las publicaciones indexadas y las citas que de éstas figuran en trabajos para un centro de educación superior en el mundo.

Pero los análisis de este experto no terminan allí. Hace falta establecer cuáles son las áreas que fundamentan el impacto alcanzado por la UIS.

Sin embargo, en el alma máter se destacan investigaciones en áreas de la salud, la energía, la biotecnología, ingeniería química y las ciencias básicas.

“La investigación que se hace en la UIS y que revierte en los programas académicos, es de alta calidad. Esto amerita que investigadores de todo el mundo las tome como referencia”, destacó Jaime Alberto Camacho, rector de la universidad.


La Nacional, líder en artículos científicos

Colombia se ubica en un nivel medio, por debajo de países como Brasil y México, en la producción escrita de textos científicos en Latinoamérica.

El impacto es pequeño comparado con el que tienen las revistas indexadas en Estados Unidos, país líder en el mundo.

Y es allí donde el reconocimiento se lo lleva la Universidad Nacional, institución que cuenta con más de 60 publicaciones científicas indexadas por Colciencias, que se destacan en Colombia y el mundo.

“Publicaciones se pueden hacer muchas, pero uno no sabe qué tan buenas son”, comentó la ministra de Educación, Cecilia María Vélez White.

“Hay unas que pueden acabar en patentes y esa es una forma de medir efectividad, pero otra forma es medir si estamos integrados a la corriente del conocimiento y es cuando nos citan internacionalmente. Los resultados del estudio son importantes y más que la UIS se haya situado tan bien”, concluyó Vélez White.

Fuente: Vanguardia

NVIDIA hará demostración de Fermi (real) en SuperComputing 09.

Publicado por Immersion jueves, 12 de noviembre de 2009 0 comentarios



Tal y como se filtró, en la presentación de Fermi, no había gráfica ni prototipo funcional, la tarjeta mostrada era una maqueta. Según parece NVIDIA mostrará la próxima semana en la conferencia SuperComputing 09 un modelo de prueba sobre el que correrán varias demos tecnológicas.

En palabras de NVIDIA, mostrarán durante los días 17 y 19 de noviembre el potencial de la gráfica Tesla basada en Fermi, comparando el rendimiento con un HPC. En resumen, rinde lo mismo que un sistema de cálculo distribuido con múltiples procesadores de cuatro núcleos, pero consumiendo 1/20 y costando una décima parte.

Teniendo en cuenta que la versión no profesional basada en esa tecnología no llegará hasta mediados de 2010, podríamos decir que NVIDIA llega algo tarde a la última generación de gráficas.


Fuente: The Inquirer

Brasil es sin duda una de las potencias más importantes de América y la más grande de América del Sur sin duda y sabemos que, como toda potencia, la inclusión de la tecnología en todos los ámbitos es algo completamente fundamental. Por ese motivo el país está mejorando la seguridad de su voto electrónico para realizar las elecciones presidenciales del 2010.

Como es lógico, esta tecnología debe ser de lo más segura para que no haya dudas en los resultados y por esta razón el gobierno hizo un llamado a todos los hackers de la nación para que trataran de romper la seguridad de este sistema.

Desde ayer y hasta el viernes organismos oficiales, privados, internacionales y particulares están realizando un cyberataque masivo para tratar de ingresar al sistema y llevarse los US$2.900 que hay de premio.

Un experto en informática que se especializa en el e-voto, llamado Alejandro Prince, comentó que si bien el sistema no es completamente seguro, es mucho más que el viejo sistema en papel y lo comparó con las transferencias de dinero a través de la red, utilizada en todo el mundo por centenas de bancos.

Para darnos cuenta de la seguridad que tienen hace falta simplemente remitirnos a las elecciones anteriores de Venezuela, Estados Unidos y el mismo Brasil (únicos países americanos que implementaron el voto electrónico) donde en ninguna de ellas se detectó fraude.

No estaría nada mal que en Argentina se comenzara a implementar este tipo de tecnología, aunque con el impuestazo tecnológico probablemente ni siquiera el Estado podría pagar los dispositivos necesarios.

Fuente: Alt1040

Las NVidia GT300 sufren otro retraso más: abril de 2010

Publicado por Silver martes, 10 de noviembre de 2009 0 comentarios


Malas, malísimas noticias para todos aquellos que estéis esperando a las gráficas de NVidia de nueva generación, pues me temo que se confirma extraoficialmente que van a sufrir un nuevo retraso. Y bien largo: hasta abril de 2010.


Según DigiTimes, fuentes de la empresa en Taiwan han confirmado el retraso en el lanzamiento de todas las familias que incluyan la nueva GPU NVidia GT300, esperadas desde hace mucho y con la principal novedad del uso del proceso de fabricación en 40 nanómetros.En verano se comentó que podríamos haberlas tenido de cara a noviembre o diciembre, y ahora que estamos en esas fechas NVidia lo retrasa casi medio año más. De verdad, creo que los seguidores del fabricante tienen que estar mordiéndose las uñas… o lo que es peor: pensando en alternativas de la competencia.

El problema es aún más grave si tenemos en cuenta que ATi ya tiene desde hace varios meses las5000 Series en el mercado, con la 5870 a la cabeza y, por supuesto, con nuevos modelos que vendrán en los próximos meses. De hecho, yo diría que antes de abril lanzarán un buen número de nuevos modelos, cubriendo ya todas las gamas del mercado. Y lo que es más importante: por entonces ya habrán tenido tiempo para que las actuales 5870, 5850, 5770 y 5750 hayan bajado notablemente de precio, siendo muchísimo más asequibles y competitivas.

Así que ahora a esperar aún más. Me temo que, o las NVidia GT300 denominadas ‘Fermi’ son extremadamente buenas y nos dan una sorpresa mayúscula, o en la actual generación de tarjetas gráficas NVidia tendrá mucho que perder y poco que ganar. Y por ahora, desde nuestro punto de vista de usuarios, las cosas no pintan nada bien para ellos.

Actualización: como comenta eastrider1006 en el comentario #3, la fecha prevista de lanzamiento esentre enero y abril del 2010, con lo que no tiene por qué ser obligatoriamente de cara al mes de abril.

Fuente: Xataka

Bastante tiempo han tenido que esperar aquellos que reservaron su Nokia N900 a principios de septiembre, cuando el fabricante finlandés abrió la página de reservas, en la cual puede adquirirse por 600 euros, incluyendo IVA. Por suerte, esa espera se va a terminar.

Nokia ha anunciado que los envíos del terminal salen hoy mismo de fábrica, por lo que pronto llegarán a sus afortunados poseedores y también a las tiendas. Lo que significa que no deberíamos tardar demasiado en conocer cuál será la operadora que disponga de él en su catálogo.

De momento serán Europa, Medio Oriente, Rusia y Estados Unidos los territorios en los que se distribuirá y todo apunta que a partir del día 16 de noviembre deberían llegar ya las primeras unidades a sus propietarios.

Fuente: Xataka

Dell Adamo XPS ha llegado al mercado.

Publicado por Immersion domingo, 8 de noviembre de 2009 0 comentarios


Tras un retraso de última hora, el equipo portátil más delgado acaba de llegar al mercado. Con un grosor de 9,99 mm, Dell Adamo XPS se postula como una opción de gama alta para usuarios que quieren un gran equilibrio entre portabilidad y prestaciones sin dejar la calidad de lado.

El equipo tiene un coste elevado, desde 1.799 dólares, pero también integra múltiples y novedosas características hasta ahora nunca vistas en el terreno portátil. Hablamos de, por ejemplo, un sistema de apertura táctil y un sistema de bisagra bastante innovador que no está situado en la parte final del portátil y permite que el teclado quede con un grado de inclinación.

En cuanto a las características técnicas, integra un procesador Core 2 Duo Ultra Low Voltage a 1,4 GHz, 4 Gbytes de RAM y un SSD de 128 Gbytes. Wi-Fi, touchpad con reconocimiento de gestos, 2 USB, audio y ethernet.





Fuente: The Inquirer

NVIDIA bloqueará Hydra en sus drivers.

Publicado por Immersion sábado, 7 de noviembre de 2009 0 comentarios



El fabricante de chips gráficos NVIDIA parece no estar muy contento con el desarrollo de Hydra, un nuevo chip que promete hacer posibles configuraciones multiGPU tanto homogéneas como heterogéneas.


Debido a la cantidad que cobra a cada fabricante de placa por integrar la posibilidad SLI (multiGPU NVIDIA), la compañía ve como grave amenaza a ese tipo de ingresos la nueva tecnología Hydra.


Desde Expreview comentan que probablemente bloqueen dicha posibilidad a través de sus drivers, tal y como realizaron con PhysX cuando la gráfica principal no es NVIDIA.


MSI Big Bang Fuzion será la primera placa que haga uso del chip Hydra. Según parece el hardware está listo, ahora están puliendo los drivers para Windows 7, Están buscando estabilidad en los dos posibles modos de funcionamiento (Mix & Match) sobre la última plataforma de Microsoft.


Según parece llegará al mercado para el primer trimestre de 2010, convirtiéndose en la primera placa del mercado en ofrecer configuraciones multiGPU heterogéneas, es decir no sólo gráficas de modelo distinto, sino también una gráfica ATI con una NVIDIA. Al menos si NVIDIA no acaba cumpliendo dichos rumores.


Fuente: The Inquirer



Amediados de octubre, la NASA anunció que el satélite espacial IBEX, lanzado en 2008, había generado los primeros mapas completos de nuestro Sistema Solar, con un resultado sorprendente.

En dichos mapas, apareció por vez primera una estructura brillante con forma de franja compuesta por átomos densamente unidos, que rodea a todo el Sistema Solar.

Hace tiempo que se sabía que el Sistema Solar está rodeado por una extensa burbuja de magnetismo, a la que se denomina heliosfera.

Esta burbuja lo protege de la radiación cósmica perniciosa y marca el límite entre nuestro Sistema Solar y el espacio exterior, y está compuesta por iones procedentes de la atmósfera solar. A pesar de conocer su existencia, sin embargo, hasta ahora no había podido observarse la heliosfera, porque no emite luz.

Huella magnética

El objetivo inicial del satélite IBEX (Interstellar Boundary Explorer) de la NASA era explorar y observar durante dos años la frontera entre nuestro Sistema Solar y el espacio exterior, concretamente las interacciones entre el Sol y la heliosfera.

Por otro lado, con IBEX se pretendía obtener la primera imagen completa de la situación en el borde de la heliosfera, mediante la captación de imágenes de átomos neutros energéticos (ENA) que rodean esta región.

Finalmente, en el borde del Sistema Solar, cuya longitud es de más de quince mil millones de kilómetros, se ha encontrado una franja brillante y densa formada por los ENA, explican los científicos. Dicha franja encierra prácticamente el Sistema Solar en un círculo.

Según declaraciones de David McComas, investigador principal del Southwest Research Institute de Texas (Estados Unidos), publicadas por la agencia de noticias Cordis, en total se han detectado cerca de un millón de átomos neutros, durante los seis meses que ha llevado completar el mapa del cielo.

La franja de átomos ENA detectada se encuentra justo donde el campo magnético de la galaxia envuelve más al límite exterior de la heliosfera, y podría ser la huella dejada por un campo magnético externo al borde de ésta, mediante un proceso que los científicos aún desconocen.

Según McComas, también sería plausible que esta franja hubiese cambiado de forma o evolucionado durante los seis meses en los que se han desarrollado los mapas.

Aspecto de la franja

En los mapas obtenidos por el IBEX, el cinturón de partículas parece brillante, pero en realidad la franja no es una fuente de luz, sino de ENA, que los sensores del satélite han podido detectar, explican los investigadores.

Por otro lado, la franja consiste en una fina estructura, en pequeños filamentos de emisiones atómicas, y se extiende en perpendicular a la dirección del campo magnético galáctico situado más allá de la heliosfera.

Los átomos neutros se han producido justo en el borde exterior de ésta, allí donde los vientos solares reducen su velocidad y se mezclan con materia interestelar procedente de regiones ajenas al Sistema Solar.

Burbuja protectora

Los científicos señalan en la página web de la NASA que el hallazgo de la franja que marcaría el borde externo de la heliosfera obligará a revisar las ideas previas que se tenían sobre el borde exterior de esta burbuja.

Lo cierto es que para los investigadores, de momento, la franja resulta todo un misterio, y pone de manifiesto que existe algún aspecto fundamental de la interacción entre la heliosfera y el resto de la galaxia que se les escapa.

Según ellos, comprender la física de la heliosfera exterior es importante para saber el papel que juega esta burbuja en la protección del Sistema Solar contra los rayos cósmicos.

Conocer la forma y el tamaño de la heliosfera serían factores clave para determinar la potencia protectora de dicha burbuja y, en consecuencia, la cantidad de rayos cósmicos que alcanzan la Tierra. Asimismo, los resultados recogidos por IBEX podrían ayudar a conocer cómo responde la heliosfera al colisionar con nubes interestelares (acumulaciones de gases y polvo) o con campos magnéticos galácticos.

Los resultados de esta investigación, en la que han participado científicos de diversas universidades europeas, han aparecido publicados en la revista Science.

Fuente: Tendencias21

Quizás estés viendo esta motocicleta y te parezca una más del montón de esas que lanzan todo el tiempo en todo el mundo. Bueno, nuevamente, estás equivocado porque además de ser eléctrica e ir a la elevada velocidad de 130Mph también tiene un ordenador en su interior.

La Mavizen TTX02 posee un ordenador que tiene Linux, un web-server y WiFi. Sí, básicamente el medio de transporte más cool que existe en el mundo para un geek como nosotos.

El nombre no podría haber sido mejor elegido. Sus desarrolladores le pusieron “laptop con ruedas”. Azhar Hussain, el fundador de TTXGP, habló al respecto y lo que dijo me pareció asombrosamente coherente y entendible. Comentó que actualmente estamos viviendo una época donde la cultura hizo un click y ahora tanto la conectividad como el medioambiente son la clave.

Lamentablemente, y como sucede en la mayoría de estos casos, solamente se fabricarán 50 unidades que costarán US$41.300.

Fuente: Alt1040

Otro capítulo más en esta larga telenovela entre eBay, Skype y sus fundadores. Para quienes reciénsintonizan, un poco de contexto:

En octubre de 2005 eBay compra Skype por 2.600 milones de dólares, un precio que muchos consideron demasiado elevado (y después bajó a 1.200 millones). Años más tarde salieron de la empresa. En 2009 decidieron demandar a eBay por tratar de vender Skype durante una disputa por el uso no autorizado de una tecnología llamada Global Index que permite que el servicio funcione usando conexiones P2P.

Resulta que cuando Skype fue comprado, eBay decidió no comprar Global Index, sino licenciarla, pero en 2007 Niklas Zennstrom y Janus Friis decidieron revocar la licencia de uso desembocando en una serie de problemas legales.

Ahora y después de un arreglo fuera de corte, Zennstrom y Friis están de vuelta en Skype con un14% de la empresa para compensar el uso no autorizado de Global Index. Esto despeja el camino para que Silver Lake Partners, Andreessen Horowitz y la Junta de Inversionistas del Plan de Pensiones de Canada puedan comprarle parte de la empresa a eBay.

De completarse Skype quedaría así:

  • 30% seguirá siendo de eBay.
  • 56% para Lake Partners, Andreessen Horowitz y la junta de inversionistas del plan de pensiones de Canada.
  • 14% para los fundadores originales, Niklas Zennstrom y Janus Friis.

La nueva valuación ronda los 2,750 millones de dólares. Según TechCrunch, eBay obtendrá 1.900 millons de dólares por la venta.

Fuente: Alt1040

Seguramente muchos de los lectores conocerán los vídeos de Did you know? (alguno hemos traído por aqui), los cuales se centran en dar datos relacionados con los medios sociales, todo aderezado por buena música e imágenes.

Pues bien, el otro día rebuscando en YouTube me topé con el vídeo que acompaña el post, similar a los Did you know? solo que en vez de dar datos sobre medios sociales el protagonista es el universo. Lamentablemente parece ser que no existe versión en español (o por lo menos yo no la encontré). Si no entiendes nada de inglés igualmente merece la pena verlo por las imágenes, sobre todo desde el minuto 3:41 hasta el final.

El vídeo es obra del webmaster de League Of Reason, las imágenes se tomaron de Millennium Simulation e IYA2009 Trailer y finalmente la música es autoría de Röyksopp. Espero lo disfruten tanto como lo hice yo.

Fuente: Alt1040

AMD Phenom II X6, antes Thuban, con seis núcleos y para 2010.

Publicado por Immersion jueves, 5 de noviembre de 2009 0 comentarios


Interesantes noticias para todos los que nos gusta ver y disfrutar de la evolución del mercado del hardware. Ya hace un tiempo que conocíamos la existencia de Thuban, una nueva gama de procesadores de ámbito doméstico de AMD cuya principal novedad la encontraremos en los seis núcleos de proceso.

Ahora se barajan nuevos detalles sobre AMD Thuban, como por ejemplo el nombre: AMD Phenom II X6. Es decir, será una nueva familia sobre los Phenom, con multitud de características heredadas de ellos entre ellas el socket, AM3, y los 45 nanómetros.


The Beatles en memoria USB

Ayer les contábamos acerca del acuerdo entre Paramount y Kingston para distribuirTransformers 2: Revenge of The Fallen en un formato físico alternativo al DVD o Blu-Ray: memorias USB o memorias SD, no me pareció mala idea aunque la implementación inicial no es la mejor.

Apple Corps y EMI Music se han asociado para distribuir todo el catálogo musical de los Beatles en una memoria USB de 16GB. Estarán los 14 discos en stereo en formato FLAC 441 Khz y MP3 a 320 Kbps, es decir sin DRM.

También incluirán material adicional como notas, portadas y documentales. Todo esto por$279,99 dólares. Es edición limitada de 30 mil unidades que seguramente será uno de los objetos más deseados por fanáticos de los Beatles.

Fuente: Alt1040

Super Talent ha sido uno de los primeros en lanzar productos bajo la nueva versión USB 3.0. Ya habíamos hablado en otras ocasiones sobre unos discos duros de un par de fabricantes, aunque en el caso del producto que os traemos hoy se trata de una memoria USB.

Y es que hay que reconocer que, actualmente, las memorias USB (o pinchos, como las denominan muchos), son de los accesorios que más utilizamos en nuestra vida cotidiana. La Super Talent USB 3.0 RAIDDrive no tiene nada de RAID, pero sí es un dispositivo de almacenamiento con 32, 64 o 128 GB de capacidad, dependiendo del modelo. Por ahora no las habrá ni con capacidades más pequeñas ni mayores, sólo esas tres y bajo el modelo y el diseño que veis en la imagen.


Planon
ya actualizado sus lápices inteligentes con una nueva serie, la Docupen Xtreme, que incluye los modelos X05, X10 y X50. Estos dispositivos son lápices que se encargan de escanear documentos e información en general y la envían a donde la necesitemos.

Los modelos Docupen Xtreme X05 y X10 vienen con procesador a 200 MHz y memoria RAM de 64 MB, con resolución de 600 ppp en estos modelos y de 1.200 ppp en el X50, el más avanzado. Los documentos se pueden escanear en blanco y negro o a color con profundidad de 24 bits en los dos primeros modelos, siendo el X50 de nuevo el más avanzado con la posibilidad de hacerlo también en escala de grises.



Investigadores e ingenieros de la Universidad de Washington, la Universidad de Brown y la Universidad de Carolina del Norte en Chapel Hill han dado un paso importante en la posibilidad de convertir el gas metano en un líquido, una aplicación que tendría grandes beneficios para la producción de combustibles más ecológicos y que podría servir como materia prima para distintos productos químicos.

El metano es el componente principal del gas natural, y su gran abundancia en el planeta lo transforma en un combustible atractivo que puede emplearse con distintos fines, incluso como materia prima para productos químicos, ya que es más eficiente que el petróleo y produce menos contaminación. De esta manera, podría ser utilizado como sustituto práctico de los combustibles derivados del petróleo hasta que las energías renovables se encuentren disponibles para todo el mundo y amplíen sus aplicaciones.

Sin embargo, el metano cuenta hasta hoy con una importante desventaja: es difícil y costoso de transportar, porque sigue siendo un gas a temperaturas y presiones típicas sobre la superficie de la Tierra. En consecuencia, resulta vital para su mayor difusión la posibilidad de alterar su estructura gaseosa y transformarlo en un líquido.

Los responsables del equipo de investigación conformado por especialistas norteamericanos se han acercado en gran medida a la elaboración de una forma de convertir el metano en metanol u otros líquidos que pueden ser fácilmente transportados, sobretodo teniendo en cuenta los sitios remotos e inhóspitos donde se encuentra a menudo el metano.
Las ventajas de este avance

El importante hallazgo fue publicado en la edición del 23 de octubre de la revista Science, además de ser difundido mediante una nota de prensa de la Universidad de Washington. El especialista a cargo del equipo de ingenieros e investigadores que logró este avance es Wesley Bernskoetter, de la Universidad de Brown. Sin embargo, contó con la colaboración de un equipo de expertos de la Universidad de Washington y la Universidad de Carolina del Norte en Chapel Hill.

Vale destacar que la conversión de metano en productos químicos útiles, incluidos los líquidos que pueden transportarse fácilmente, requiere en la actualidad altas temperaturas y una gran cantidad de energía. Los catalizadores para trabajar el metano y aplicarlo al desarrollo de diferentes productos químicos a temperaturas más bajas que se han descubierto hasta el momento han demostrado ser demasiado lentos, ineficientes o caros para aplicaciones industriales.

El trabajo de este grupo de especialistas apunta a estimular nuevos avances en el desarrollo de catalizadores para transformar el metano en metanol u otros líquidos. De esta forma, la creación de un proceso para poder convertir el gas en un líquido químico a temperaturas razonables es bastante probable en un futuro cercano, más aún luego de los avances conseguidos en esta investigación.

De acuerdo a Bernskoetter y sus colegas, la idea es convertir el metano en un líquido que pueda conservar la mayor parte de los enlaces carbono-hidrógeno, de modo que pueda mantener toda la energía que confiere esa conformación química al metano convencional. Es así que resulta imprescindible la conservación de las interacciones químicas que caracterizan al metano.

Más precisiones

Aunque no se trata de un trabajo fácil, los investigadores e ingenieros creen haber hallado la clave para lograr ese cambio en las condiciones físicas del metano, pero sin alterar las características químicas que permiten su uso como combustible o materia prima para productos químicos.

Asimismo, el siguiente paso sería utilizar los conocimientos adquiridos en este descubrimiento para diseñar otros complejos químicos y crear las condiciones que permitirían sustituir catalíticamente un átomo de hidrógeno en el metano por otros átomos, creando así productos químicos líquidos como el metanol, entre otros.

Esta investigación fue financiada por la National Science Foundation, y contó además con la colaboración económica del Center for Enabling New Technologies Through Catalysis de la Universidad de Washington, conformado por 13 universidades y centros de investigación de los Estados Unidos y Canadá, incluyendo la UNC. Los National Institutes of Health aportaron el resto del dinero.

El Center for Enabling New Technologies Through Catalysis es dirigido por Karen Goldberg, profesor de química de la UW y uno de los participantes en la investigación. Este instituto conduce sus esfuerzos a encontrar formas eficientes, económicas y respetuosas del medio ambiente para producir productos químicos y combustibles.

Fuente: Tendencias21


La teoría del multiverso, de la qu tanto se ha hablado, propone la existencia de un grupo de universos posibles (y no sólo el cosmos que conocemos), paralelos, y que, por tanto, nuestro universo sería sólo una parte de la realidad física generada a partir del Big Bang.

Es decir, que esta teoría sostiene que cuando se produjo la gran explosión primigenia, no se desarrolló un universo único y uniforme, sino muchos universos diferentes. La pregunta lógica subsiguiente sería, ¿cuántos?

La revista Technology Review ha publicado estos días un comentario sobre un artículo aparecido en Arxiv bajo el título How many universes are in the multiverse? (¿Cuántos universos hay en el multiverso?), en el que dos físicos de la Universidad de Stanford (California), llamados Andrei Linde y Vitaly Vanchurin, proponen una respuesta cuanto menos sorprendente para esta pregunta.

Originados por fluctuaciones cuánticas

Según nos dice la física, el Big Bang fue un proceso cuántico que, en el comienzo del universo, generó las llamadas fluctuaciones cuánticas, un fenómeno físico que se produce a nivel atómico y que consiste en el movimiento de las partículas cuánticas (subatómicas).

Durante la expansión o inflación del cosmos, estas fluctuaciones quedaron “congeladas”, lo que propició la aparición de una serie de condiciones físicas iniciales distintas, en diversas partes del universo.

Por tanto, puesto que cada una de estas partes o regiones presentaría un conjunto distinto de leyes de la física de baja energía, podrían ser consideradas como universos diferentes.

Lo que Linde y Vanchurin han calculado es cuántos de estos universos podrían haber surgido. En concreto, los científicos afirman que el número de ellos sería proporcional al de los efectos causados por las perturbaciones iniciales, durante un proceso denominado de inflación de rotación lenta.

El modelo de inflación de rotación lenta o de nueva inflación fue ideado, anteriormente, por el propio Linde y otros colaboradores (Andreas Albrecth y Paul Steindhardt), y con él se mostró ya que la inflación del cosmos no habría producido un universo perfectamente simétrico, sino que en el inicio se habrían generado débiles fluctuaciones cuánticas, que a su vez habrían producido las semillas de todas las estructuras de la realidad física posterior.



Un número inmenso de universos

El número de universos que el cerebro humano puede distinguir. Imagen: Linde y Vanchurin

Aplicando algunas reglas lógicas de cálculo, los científicos han establecido que, al menos, se debieron generar 10^10^10^7 universos en el multiverso, un número extremadamente grande.

A pesar de dar esta cifra, Linde y Vanchurin aseguran que la determinación del número de universos en el multiverso está sometida a dos importantes limitaciones.

En primer lugar, hay que tener en cuenta la llamada Frontera Bekenstein, que establece que la cantidad de información (entropía y, en consecuencia, masa) de un determinado volumen del espacio es limitada. Esto es, que por más universos que se puedan encontrar siempre existiría un límite marcado por dicha frontera.

En segundo lugar, se deben tener en consideración las limitaciones del observador que realiza las mediciones, puesto que éste está condicionado por los límites de su propio cerebro.

El cerebro como límite del multiverso

Linde y Vanchurin afirman que la cantidad total de información que puede absorber un individuo durante toda su vida es de unos 10^16 bits y que un cerebro humano típico “sólo” puede alcanzar 10^10^16 configuraciones y, por lo tanto, nunca será capaz de distinguir más que esa cantidad de universos diferentes.

Esta cifra, aunque sorprendente, resulta pequeña al lado de la hipotética cifra propuesta por los físicos para definir la cantidad de universos presentes en el multiverso.

Teniendo en cuenta esta condición humana, los científicos aseguran que el principal límite para el establecimiento de la cantidad de geometrías diversas apreciables radicaría en nuestra propia capacidad para distinguir entre diferentes universos, y para recordar los resultados.

Las propiedades del multiverso dependerían, en cierta medida, del observador, lo que inevitablemente nos recuerda la controversia que, a principios del siglo pasado, dividió a los físicos en idealistas y materialistas, según su forma de interpretar los hallazgos de la física de partículas.

Linde y Vanchurin afirman que: “el número total de posibilidades accesibles (universos cognoscibles) a cualquier observador está limitado no sólo por la entropía de las perturbaciones producidas por la inflación o por el tamaño del horizonte cosmológico sino, también, por el número de grados de libertad de dicho observador”.

¿Podremos conocer, por tanto, algún día, lo que pasa “ahí fuera”, de manera objetiva?

El concepto de multiverso, aunque muy utilizado en la ciencia ficción, en realidad es fruto de elaboradas teorías físicas, como la teoría de cuerdas. Con ellas, se está intentando llegar a una Teoría del todo, que unifique la mecánica cuántica y la relatividad general, y que permita explicar un universo que resulta cada vez más misterioso.

Fuente: Tendencias21



Siguiendo la controversia generada por el anuncio de que Modern Warfare 2 para PC no tendrá servidores dedicados, Infinity Ward ha desvelado un nuevo detalle sobre esta versión que probablemente no sea bien acogido por parte de sus fans. Según informa 1Up, aunque las sesiones multijugador del Modern Warfare original permitían 32 jugadores en PC, Modern Warfare 2 ha reducido en esta versión el número de usuarios a 18, con partidos 9 vs 9, igual que en las versiones para consolas.

Infinity Ward ha explicado una razón para esta decisión en una sesión de chat en Best Buy liderada por el desarrollador Mackey McCandlish: "El máximo número de jugadores en todas las plataformas será de 9 vs 9. Este es el número de jugadores en que nos hemos centrado para equilibrar los tamaños de los mapas, clases, retos, recompensas, etc".

Fuente: Vandal

Busqueda