viernes, 28 de octubre de 2011

Microsoft: el futuro de la productividad en un vídeo asombroso


Desde las oficinas de los creadores de Microsoft Office nos llega ese vídeo asombroso. Sí que lo es porque a su manera, con una producción estupenda, muestra cómo podría influir la tecnología en la productividad de una sociedad como la nuestra en los próximos 10 años.
Son cavilaciones tecnológicas, imaginaciones que inspiran proyectos para el día de hoy. Bueno, de hecho así es, como una vez revisamos en varios proyectos de Microsoft Research. El vídeo es la continuación de este otro producido en 2009 conocido como “Microsoft 2019”:
En resumen, lo que vemos es una mezcla intensa de tecnologías móviles, computación en la nube, pantallas OLED, redes sociales, inteligencia artificial, realidad aumentada, y una dosis interesante de diseño de interfaces, es decir de dispositivos de hardware y software con una UX (experiencia de usuario) orgánica, interactiva, en tiempo-real, de Internet de las cosas y computación ubicua como desde hace tres décadas gente como Alan Kay y Mark Weiser ya habían teorizado. La idea de Microsoft es que tengamos un futuro que responda a la pregunta
¿Cómo ayudará la tecnología a que las personas hagan mejor uso de su tiempo, concentren su atención y fortalezcan sus relaciones?
Suena estupendo.
Alguna vez aquí mismo reseñamos el Anime Denno Coil de 2007, que es una profunda exploración de ese tipo de tecnologías a través de un grupo de niños inmersos en redes de realidad aumentada. Allí encontramos básicamente los mismos conceptos.
Sin embargo, visto desde otra perspectiva, a pesar de lo asombroso y optimista que pueda parecer el vídeo, no puedo dejar de mencionar el tema de la brecha digital, que no toca profundizar aquí, pero me remito a William Gibson para resumirlo:
El futuro ya está aquí, el problema es que no está uniformemente distribuido.
Bien por quienes desarrollen, fabriquen, compren, disfruten, esas tecnologías. Pero no olvidemos que existe un rezago inmenso que sinceramente parece irremediable… Ah, ¿en qué estábamos? Sí, pero qué vídeo asombroso hemos visto.

martes, 18 de octubre de 2011

Cómo buscar comandos que habías utilizado en la consola


Suele ocurrir que al usar la consola/terminal, utilizaste un comando de sintaxis extraña e infinitamente interminable, para el cual pasaste horas averiguando como introducirlo, o quizá lo encontraste buscando en Internet. Pasan los días, y vuelves a necesitarlo, pero oh sorpresa, ya no lo recuerdas, ni viene a tu mente donde lo habías encontrado. ¿Qué hacer?

Para casos como este, en el que ha pasado mucho tiempo y presionar la tecla “Up” no es solución, existe en comando “history“, cuya misión es proporcionarnos el historial de los comandos que hemos utilizado en la terminal. Pero aún así no es una solución viable, pues posiblemente nos devolverá cientos de comandos. Para ello basta con refinar la búsqueda añadiendo “grep”, y como argumento la palabra que nos recuerde al comando que estamos tratando de encontrar. Por ejemplo, si es algo relacionado con el editor gedit, tendríamos que utilizar una línea como esta:

history | grep gedit

La terminal nos devolverá la lista de los comandos que han sido utilizados y que incluyen a “gedit”. Fácil, ¿No?

Integrar Analytics en Blogger ahora es mas facil


Desde hace un buen tiempo en Blogger.com contamos con un sistema de estadísticas algo precario, pero útil de cierto modo para un publico no muy exigente, pero con la gran ventaja de ser en tiempo real algo que recién ahora se esta implementando en Analytics.
Ahora los bloggers de blogger.com podrán integrar fácilmente un sistema más completo de estadísticas como Analytics y sin la necesidad de incrustar el codigo que brinda en el html del template, para ello tendran que ir a su panel de blogger y en el menu configuración usar la ultima opción ”Otros”, al final encontraran un campo como el de la imagen donde deben introducir el codigo asignado para el blog en Analytics.
Algunas aclaraciones:
No esta disponible en los templates clásicos de blogger.com y como utilizan distintos sistema de medición aclaran que puede haber diferencias entre uno y otro sistema de estadísticas.

Google Labs también recorta


Google Labs se trata de un conjunto de proyectos, todos ellos en fase de pruebas, que se desarrollan bajo el paraguas de Google básicamente, para ver qué sale de ahí. Y claro, eso en tiempos de bonanza está muy bien pero cuando las cosas aprietan…
El cierra más sonado será el de Google Buzz y su API de manera inmediata, el anterior intento de red social de Google con el objetivo de centrarse en Google+.
Y aún hay más.
Además del mencionado proyecto social de Google también serán cerrados los siguientes proyectos. Code Search, aunque su API seguirá hasta el 15 de enero de 2012Jaiku, comprado por Google en 2007 también cerrrará el próximo 15 de enero.
Y con todo esto también ha cerrado la web del propio Google Labs así como los portalesBoutiques.com y Like.com que pasarán a formar parte de Google Product Search. Vamos, que han sacado la guadaña y el que no se ha agachado, ops…
Por último Bradley Horowitz, vicepresidente de producto de Google, destaca que han aprendido mucho de productos como Google Buzz y espera que con los anuncios realizados en el día de hoy esperan poder darle a los usuarios productos verdaderamente impresionantes. Desde mi punto de vista me parece muy correcta la eliminación de servicios y productos que fueron malos o que simplemente ya no son usados, si para mejorar los actuales o crear nuevos productos me parece bueno que los descontinúen, es algo propio de la evolución y es un paso natural, aunque quizá con Buzz han tardado demasiado tiempo.

viernes, 14 de octubre de 2011

Memoria FeTRAM, posible sucesora de la memoria flash


appenzeller-memory
La reducción del tamaño de los dispositivos electrónicos y el aumento de su capacidad, son dos de los requisitos de diseño que maneja cualquier compañía a la hora de plantear el diseño de un nuevo dispositivo y que, al final, suelen guardar alguna relación de equilibrio que lleve a un compromiso entre ambos factores. No hace mucho hablamos de una investigación de la UCLA y Samsung en la que estaban utilizando el grafeno, combinado con el Silicio, para disminuir el tamaño de las memorias flash, sin embargo, un equipo de la Universidad de Purdue (en Indiana, Estados Unidos) ha propuesto un esquema distinto para las memorias del futuro, las memorias FeTRAM, las cuales serían mucho más rápidas y consumirían mucho menos.
Esta nueva tecnología combinaría nanocables de Silicio con un polímero ferroeléctrico, un material que cambia la polaridad de los campos electromagnéticos cuando éstos se aplican, formándose así un nuevo tipo de transistor ferroeléctrico.
Esta investigación está aún en una fase muy primaria
El cambio de polaridad del transistor ferroeléctrico, denominado FeTRAM, puede interpretarse como un “0” o un “1” binarios, por tanto, cada uno de estos transistores podrían almacenar un bit de información y podrían aplicarse en la fabricación de memorias de acceso aleatorio, eso sí, ferroeléctricas en las que se podría escribir, leer y mantener la información durante un largo período de tiempo.
Hemos desarrollado la teoría y además hemos podido comprobar su funcionamiento en pruebas reales
De hecho, los resultados de esta investigación se han publicado en la edición de este mes de la revista Nano Letters, publicada por la American Chemical Society. FeTRAM permitiría a los fabricantes el desarrollo de memorias de almacenamiento no volátil además de consumir un 1% de la energía necesaria actualmente por las memorias flash, lo cual abre las puertas de una nueva generación de memorias que puedan ser utilizadas por dispositivos móviles sin penalizar el consumo de sus baterías.
Aún así, nuestro prototipo actual consume más energía que la prevista puesto que la escala no es la más adecuada pero las generaciones futuras de las memorias FeTRAM sí que tendrán como objetivo principal la reducción del consumo además de ser mucho más rápidas que las memorias SRAM de los ordenadores actuales. La gente quiere mantener sus datos en una memoria el mayor tiempo posible, 10 o 20 años, por tanto, deberíamos ser capaces de ofrecer dispositivos que puedan leerse y escribirse tantas veces como sea posible.
Además, también debe ser de baja potencia para que los dispositivos no se calienten mucho algo que nos obliga a reducir la escala e integrar muchos más en un área pequeña.
Una de las grandes ventajas de FeTRAM, precisamente, es su compatibilidad con los procesos de fabricación actuales de la industria de los componentes electrónicos basados en CMOS por lo que su introducción no sería traumática y podría reemplazar las tecnologías actuales sin necesidad de mantener una transición muy alargada en el tiempo.
Por ahora, mientras la investigación sigue su curso, se ha presentado una solicitud para patentar esta tecnología.

jueves, 13 de octubre de 2011

El futuro del proyecto MySQL: Open-Core



mysql nosql
Recientemente Oracle anuncio algo que ya muchos veníamos temiendo, el proyecto MySQL deja de ser un proyecto totalmente de software libre, una noticia que se oficializa y que ya venia haciendo ruido entre los desarrolladores desde la compra realizada por Sun.
Este sutil, pero fundamental cambio impuesto por Sun, cambia por completo el modelo de negocio original que eligió el creador de MySQL, en donde el código fuente estaba liberado totalmente y disponible para que la comunidad pudiera realizar modificaciones, e inclusive mejoras. Ahora muchas de las extensiones más avanzadas y útiles de MySQL Enterprise Edition van a ser comerciales, recientemente se incorporaron tres nuevas,  pueden leer las características de las mismas en el blog oficial de Oracle.
El nuevo modelo de negocios de MySQL pasa a ser Open-Core. Este modelo consiste en brindar un núcleo abierto y vender extensiones que son 100% privativas.
El modelo en sí no es del todo malo, salvo por un detalle, en general este tipo de licenciamientos terminan provocando un núcleo muy poco útil y que requiere prácticamente de forma obligatoriamente extensiones, que por lógica pura, son de acceso privado y por medio de un pago.
Este tipo de extensiones privativas tienen una serie de desventajas enormes, comocomenta Michael Widenius (creador de MySQL, ahora trabajando en María DB):
  • El licenciamiento Open Core no tiene nada que ver con un proyecto de código abierto.
  • No se pueden corregir errores, y no se puede contratar a nadie para hacerlo, salvo al proveedor original.
  • No se puede examinar y mejorar el producto.
  • No se puede utilizar cualquier extensión abierta o comercial de cualquier otra persona.
  • Uno se encuentra limitado a las plataformas que los vendedores originales ponen a nuestra disposición.
El panorama para MySQL no es bueno, a medida que pasan los meses las teorías de que el proyecto no esta bien encaminado se vuelven realidad. No obstante no hay que preocuparse demasiado, MariaDB esta cobrando más y más fuerza, por lo que creo que será el reemplazo obligatorio y lógico.

Fuente

Se estrena un impactante procesador de 64 núcleos para smartphones


Ya hemos visto mucho más de lo que esperábamos en el área de los móviles de nueva generación, donde cada vez se hace más importante el rendimiento del aparato dependiendo tanto del procesador central (CPU) como del procesador gráfico (GPU). Pero la compañía Adapteva propone una nueva solución que no tiene que ver con ninguno de estos dos componentes, tratándose de un co-procesador que acompañará a los dos principales, aumentando dramáticamente las facultades del dispositivo.
Así, se ha presentado al Epiphany IV, un chip de nada menos que 64 núcleos físicos que entrega 70 gigaflops de rendimiento, suficientes como para mover… lo que sea, desde una aplicación simple hasta software de reconocimiento facial, todo consumiendo no más de 1W de energía por sí solo. Y aunque esta cantidad parece algo excesiva para un teléfono de bolsillo, hay que destacar que el procesador puede disminuirse en uso para no gastar tanto, lo que permitirá ahorrar batería cuando no sea necesario utilizar al Epiphany IV.
¿Te parece poco? Faltó decir que este modelo es capaz de seguir escalando, es decir, de querer, la gente de Adapteva podría hacer un Epiphany IV con hasta 4096 núcleos, consumiendo 25mW por cada núcleo y utilizando procesos de manufactura a 28nm, resultando un chip pequeño después de todo.
Llama la atención además lo grande del logro y lo pequeña que es la empresa; tiene sólo 5 trabajadores, por lo que saben que competir contra Intel o la arquitectura ARM es inútil, así que optaron por diseñar algo que pueda complementar a dichas tecnologías. Es por esto mismo que el interés por llevar este chip al área de los servidores es bajo, ya que no se quiere romper el dominio actual de otras compañías, por lo que piensan que el área de los dispositivos móviles es lo suficientemente grande como para hacerse de ella. Ya veremos si en un futuro los co-procesadores se vuelven populares, porque 70 gigaflops es bastante.

Se concede el Nobel de Física a los descubridores de la expansión acelerada del universo


La Real Academia de Ciencias de Suecia ha concedido hoy el Nobel de Física a los astrónomos estadounidenses Saul PerlmutterBrian P. Schmidt y Adam G. Riess por sus estudios sobre el descubrimiento de la expansión acelerada del universo a través de la observación de supernovas lejanas.
Las observaciones llevadas a cabo por estos astrónomos de la explosión de un tipo concreto de estrellas al final de su vida (supernova) y el análisis de la luz emitida en esos momentos les permitió demostrar que el universo crece de forma acelerada y no cada vez más despacio, como se creía.
Los investigadores estudiaron 50 supernovas cuya luminosidad era más débil de la esperadasegún los modelos teóricos, y por alguna razón parecía que estaban más lejos de lo esperado. La explicación más razonable era que la expansión del universo se estaba acelerando.
Perlmutter, nacido en 1959 en Estados Unidos, dirige el Proyecto Cosmológico Supernova, en la Universidad de Berkeley. Su colega Schmidt, nacido asimismo en Estados Unidos en 1967 y con nacionalidad además australiana, es profesor de la Universidad Nacional de Australia. El tercer galardonado, Riess, nació en Washington en 1969, es profesor de astronomía y física en Baltimore.
Mañana se anunciará el Nobel de Química.
La entrega de los Nobel se realizará, de acuerdo a la tradición, en dos ceremonias paralelas, en Oslo para el de la Paz y en Estocolmo los restantes, el día 10 de diciembre, aniversario de la muerte de Alfred Nobel.

El telescopio Alma arranca su estudio del origen del universo


alma_images_624_1
En el desierto de Atacama, en Chile, se encuentra el que, hasta ahora, es uno de los más grandes y complejos telescopios que el hombre haya jamás construido, el Telescopio Alma(Atacama large milllimetre/submillimetre array) (Alma), cuyo propósito es el estudio del origen del universo y los procesos que se siguieron hace cientos de millones de años que dieron origen a las estrellas y éstas brillaron por primera vez.
El Alma, además de ser uno de los telescopios más grandes que se conocen, es el fruto de una intensa labor de ingeniería (que arrancó en el año 2003) puesto que se ha construido en un lugar bastante recóndito y a una gran altura. El sistema está compuesto por un sistema que sería capaz de acoger hasta 60 antenas dispuestas en la parte superior de la meseta más alta del desierto de Atacama (en la frontera de Chile con Bolivia), a 3.000 metros de altura sobre el nivel del mar. Gracias a la adición de más antenas, el telescopio es capaz de ampliar su capacidad (y resolución), ofreciendo mayor detalle a los investigadores.
Alma antena
Según el responsable de la instalación, el Dr. Diego García, con la puesta en marcha de la instalación la humanidad está a punto de entrar en la edad de oro de la astronomía. Y puede que no le falte razón porque con este sistema se pretende identificar cómo se formaron las primeras galaxias:
Vamos a ser capaces de ver el origen del Universo y cómo se formaron las primeras galaxias. Vamos a aprender mucho más sobre cómo funciona el universo
Alma acaba de poner en marcha su antena número 20, lo cual ha permitido registrar eventos que, hasta ahora, nunca se habían podido visualizar. El Observatorio Europeo Austral, uno de los socios del proyecto, ha publicado las primeras imágenes tomadas por Alma que muestran la colisión de dos galaxias (conocidas como las Galaxias Antennae). Si bien este tipo de fenómenos pueden ser vistos mediante telescopios como el Hubble, Alma es capaz de recoger luz no visible para el ojo humano y enfocar nubles densas de gas frío que dan origen a nuevas estrellas. Estas primeras imágenes se tomaron con tan solo 12 antenas, si bien la resolución y nitidez irá aumentando conforme se vayan añadiendo más antenas al conjunto (que podría llegar a tener 66 en el año 2013).
Uno de los primeros proyectos a llevar a cabo con Alma es la observación de una estrella muy joven, AU Microscopii (que tiene un 1% de la edad de nuestro sol) y que se cree tiene un anillo a su alrededor en el que se está dando el proceso de coalescencia que podría formar nuevos planetas. De hecho, también están observando a otra estrella joven (HD 142527, situada a 400 años luz de distancia) que podría formar una docena de planetas del tamaño de Júpiter.
El proyecto, bajo mi punto de vista, es doblemente bello. Por un lado, las investigaciones a desarrollar sobre el origen del universo me parecen fascinantes pero, por otra parte, la construcción de este sistema es toda una maravilla de la ingeniería moderna.
La magnitud del proyecto de ingeniería, su complejidad técnica y lo que este equipo va a lograr en términos de nuestra comprensión del universo va a ser todo un homenaje a la humanidad
Fuente

Internet Explorer 10: ¿El navegador más avanzado?


ie10-wide
Con el aún novedoso HTML5, los distintos navegadores de escritorio y móviles se comportan de maneras diversas, pero ninguno brinda una performance tan elogiable como la que supo alcanzar Internet Explorer 10, el nuevo navegador de Microsoft que aún no ha salido al mercado y ya da que hablar.
Durante la reciente Windows Build conference, Microsoft reveló al público este navegador que acompañará su nuevo sistema operativo, el esperado Windows 8 para tablets. La diferencia esencial de este Windows con respecto a otros, es que aquí las aplicaciones desarrolladas en JavaScript/HTML/CSS podrán ser desarrolladas y distribuidas como aplicaciones nativas. Es por eso la importancia del desempeño de HTML5, y en eso IE10 supera con creces el desempeño de otros navegadores rivales, soportando cada herramienta visual que HTML5 y CSS3 hayan presentado en los últimos tres años, incluyendo:
  • Transformaciones y transiciones CSS
  • Animaciones CSS
  • Sombras CSS3
  • Gradientes CSS3
Internet Explorer 10 hará su debut ¿triunfal? el año que viene, acompañando el lanzamiento de una nueva linea de tablets a u$s299, con 1GB de memoria y procesador ARM. ¿Nos sorprenderá?

Fuente

Oracle ya es una empresa de Hardware


Larry Ellison
OpenWorldCon algo de retraso sobre el horario previsto, Larry Ellison hizo su aparición en el impresionante escenario del Moscone Exhibition Center de San Francisco para presentar lo que la gran mayoría del público esperaba que sería la visión de Oracle. No ha sido así y en los pasillos del enorme centro de exposiciones ya se comparte la opinión de que será mañana, con Mark Hurd, Presidente, cuando se sepa algo más del futuro de la Compañía.
Detrás de las palabras del CEO de Oracle se puede intuir que su Compañía, tras la compra de Sun Microsystems, ya es un player muy a tener en cuenta dentro del mercado de hardware. El discurso de Ellison, muy centrado en la comparación con su gran competidor IBM, ha girado en torno a su nueva estrategia de desarrollo de hardware y software de forma conjunta en lo que ha dado en llamar Parallel Architecture o lo que es lo mismo, el uso de Exadata y Exalogic para ofrecer soluciones más rápidas y más eficientes en coste muy por delante de los IBM P795.

Oracle quiere mover los datos con velocidad

En concreto, la arquitectura paralela de Oracle, gracias a Exadata es “hasta 10 veces más rápida” gracias a las mejoras de proceso de datos y a la enorme compresión de los mismos. Exalogic por su parte permitirá la ejecución del middleware de Oracle sobre Java con una velocidad hasta 10 veces mayor y con un volumen de usuarios hasta cinco veces superior.
Hasta el momento, según comentó Ellison, Oracle ya cuenta con 1.000 unidades de Exadata instaladas. El objetivo es ver a otros 3.000 instalados este año. Entre los clientes mencionados, por cuyos casos de éxito paseó brevemente, se incluyen Starbucks, Sears, Virgin Mobile, Samsung, GE, y Procter and Gamble, entre otros. Como ejemplo de velocidad, reducción de uso de memoria y eficiencia en costes, Ellison mencionó con orgullo su proyecto favorito, el de la japonesa Softbank que pasó de 36 racks de Teradata a 3 de Exadata de Oracle.
También ha habido lugar para presentar Exalytics, una solución de BI (Business Intelligence) instantánea para competir aparentemente contra la solución HANA de SAP. La nueva incorporación de la suite de productos de Oracle sirve los datos de forma instantátea. La mejora del rendimiento se debe a que las bases de datos se almacenan en la memoria RAM en lugar de en discos y una pequeña adaptación en la memoria caché decide qué información debe ser almacenada en la memoria sobre la base de la carga de trabajo en curso. En palabras de Ellison: “si los usuarios hacen las mismas preguntas una y otra vez, mantenemos las respuestas en la memoria para no tener que realizar nuevas queries y servirlas de nuevo.”
Por otra parte, y aunque se esperaba, Ellison no entro a valorar otras de las novedades más esperadas: su solución de Big Data. Aunque se exhibió fuera de la sala principal del OpenWorld e incluso contó con guardias que impedían que la gente tomara fotos antes de la salida a escena del carismático CEO, no tuvo su estelar aparición. La solución, que se espera vea la luz en el keynote de Marc Hurd de mañana a las 17 horas de España (8:00 AM de San Francisco), implicará a buen seguro y de acuerdo con una ficha descriptiva, Hadoop para el proceso de datos y base de datos NoSQL de Oracle.

Datos curiosos del Oracle OpenWorld

Estos son algunos de los datos que más llaman la atención del evento mundial de Oracle:
- 45.000 registrados
- Asistentes de 117 países
- 450 compañías presentes en la zona de exposición
- 300.000 metros cuadrados de exposición
- 74.ooo noches de hotel vendidas, lo que supone que todos los hoteles principales de San Francisco han agotado sus habitaciones
- 3.200 ponentes
- 2.000 seminarios y workshops
- 42.000 litros de agua previstos
- 60.000 cajas de comida
- 115.000 servilletas de cocktail
- 163.000 vasos reciclables
- 3.285 metros de truss para iluminación y sonido
Cifras que dan a entender el tamaño de un evento.