martes, 6 de noviembre de 2012

Científicos logran restaurar la visión en ratones con ceguera

Aunque de manera temporal, los investigadores de las Universidades de Berkeley, Munich y Washington han logrado restaurar la visión en un grupo de ratones con ceguera. La clave se llama AAQ, una sustancia química que consiguió que las células “ciegas” de la retina se volvieran sensibles a la luz. Una nueva esperanza para que aquellas personas con ceguera degenerativa puedan restaurar la visión.


Un hallazgo cuyo estudio podría traer la solución a la retinitis pigmentosa o la degeneración macular, enfermedades ambas que afectan a la capacidad para sentir la luz.
En el estudio llevado a cabo por los investigadores, se inyectó a un grupo de ratones ciegos de laboratorio la sustancia conocida como AAQ, conocida por ser un activo en las células nerviosas. La inyección directamente en los ojos permitió que los animales pudieran detectar la luz.
¿Cómo? Lo que hace la sustancia es funcionar a modo de fotointerruptor, uniéndose a los canales iónicos de proteínas en la superficie de las células de la retina, una vez activada por la luz, la sustancia modifica y altera el flujo de iones a través de los canales activando las neuronas.
Tras la inyección, la investigación confirmó que los ratones habían vuelto a recuperar la sensibilidad a la luz observando que las pupilas de los animales se contraían a la luz directa.
Ahora bien, los investigadores son cautos a la hora de evaluar los resultados ya que es muy difícil medir exactamente la cantidad de visión conseguida tras la inyección. Además, la duración y efecto del “fármaco” es de 24 horas, momento en el que se debe inyectar una nueva dosis para continuar con la “restauración”.
Hasta el momento AAQ sólo ha sido probado en ratones, se espera que las próximas pruebas con primates muestren a los científicos si la sustancia es una solución válida para el tratamiento de la retinitis pigmentosa o la degeneración macular en los seres humanos.

Hotmail se convierte en Outlook.com



Si yo publicaba un artículo aquí en ALT1040 asegurando que en un año Microsoft haría de Hotmail algorealmente bueno estoy seguro que ustedes, queridos y amables lectores, me hubieran organizado una crucifixión virtual. Pero es justamente lo que sucedió hoy.



Conforme vaya aumentando la necesidad de las empresas por exprimir los datos que manejan y, por tanto, profundizar mucho más en el conocimiento de su sector, sus clientes o las oportunidades de negocio, supongo que irán surgiendo más iniciativas vinculadas a extender el uso del Big Data en más y más sectores productivos. Empresas como Google llevan haciendo esto desde hace bastantes años aunque lo hacían de manera interna, por tanto, creo que aquí tienen un nicho de mercado bastante suculento en el que podrían hacerse un hueco y ofrecer un servicio llave en mano (infraestructura en la nube y software) con el que podría ser complejo competir.

Historia de la Tecnología: eMule



El cierre de Megaupload, las batallas judiciales orquestadas por las entidades gestoras de derechos de autor y la industria musical contra portales que ofrecían enlaces de descarga o legislaciones como la Ley Sinde, han provocado que el usuario haya vuelto a mirar al P2P como recurso para compartir y consumir contenidos digitales. Uno de los motivos que ha popularizado el uso de Internet y la proliferación de ordenadores y conexiones en los hogares, precisamente, ha sido el acceso a contenidos digitales a través de redes P2P como eDonkey2000 y aplicaciones como eMule (que algún que otro quebradero de cabeza han provocado a los administradores de red de algunas redes corporativas). Esta semana, eMule ha cumplido diez años en los que ha contribuido mucho a construir el Internet que conocemos hoy en día y que, tras el cierre de Megaupload, parece que el P2P va a vivir una segunda juventud.
Para conocer la historia de eMule tenemos que remontarnos unos años antes del 2002, concretamente al año 1999, época en la que Napster, creada por Shawn Fanning, se había convertido en uno de los servicios de moda y una fuente de acceso a gran cantidad de contenidos digitales (música en formato MP3). Napster fue la primera gran red P2P para compartir música con otros usuarios y se hizo muy popular entre los usuarios, todo lo contrario que ocurrió con las discográficas. Si bien el servicio llegó a alcanzar una cota máxima de 26,4 millones de usuarios en febrero de 2001, en julio de ese mismo año un juez sentenciaba a favor de la RIAA y obligaba a Fanning a desconectar los servidores de Napster.
Napster era un servicio que dependía de una infraestructura centralizada y, por tanto, cortar de raíz este servicio centralizado desarmaba por completo la posibilidad de compartir archivos entre los usuarios. Lógicamente, el siguiente paso era buscar redes descentralizadas y así fue como nació Gnutella, que utilizaba la “inundación” de consultas para buscar otros clientes y cursar las solicitudes pero el protocolo no estaba optimizado y los resultados ofrecidos eran muy pobres o insuficientes porque se intentaba buscar en toda la red.
Buscar una infraestructura descentralizada pero sin tener que realizar búsquedas en toda la redfueron los dos puntos de partida de la red eDonkey2000 (que nació el 6 de septiembre de año 2000) y estableció un esquema de múltiples servidores (red descentralizada) con la particularidad de que los usuarios únicamente tenían visibilidad con los usuarios conectados a su mismo servidor (evitándose así tener que realizar búsquedas muy grandes que podían dar timeouts en su respuesta). Además, si alguno de los servidores era retirado (por avería o por cierre), los usuarios tenían la oportunidad de cambiar de servidor y seguir conectados al servicio.
La red eDonkey2000 comenzó a evolucionar en el año 2002 hacia una red escalable y totalmente descentralizada que permitiese a los usuarios alcanzar toda la red y, por tanto, a todos los usuarios independientemente del servidor al que se habían conectado. El 13 de mayo de 2002 fue cuando nació eMule, un cliente de código abierto desarrollado en C++ por Hendrik Breitkreuz (Merkur) al que no le convencía el cliente original de eDonkey2000 y que, junto a otros desarrolladores que se unieron al proyecto, publicó la primera versión de la aplicación (la 0.02) el 6 de julio del mismo año en SourceForge.


A la vez que evolucionaba la red eDonkey2000 para adoptar un esquema totalmente descentralizado, eMule evolucionaba también para ofrecer esta funcionalidad. En el año 2004, se implementó el protocolo Kademlia que introdujo un punto de inflexión que acercó la red al esquema descentralizado al introducir las tablas de hashdistribuido (DHT) que permitían, precisamente, conocer si un archivo estaba disponible en toda la red y, por este tiempo, eMule ya era utilizado por más de dos millones de usuarios y junto a BitTorrent se coronaba como uno de los pesos pesados en el campo del P2P.
Con el paso de los años y algunos cierres de servidores derivados de alguna que otra denuncia, eMule ha ido perdiendo algo de peso aunque aún sigue siendo un proyecto activo con un buen número de usuarios que lo utilizan de manera activa (aunque no al nivel de antes). Aún así, quizás el cierre de Megaupload y la actitud conservadora de algunos cyberlockers vuelve a colocar el P2P dentro del foco de la mayoría de usuarios como fuente en la que encontrar y compartir contenidos digitales y, tras 10 años de vida, eMule sigue estando presente para abrirnos la puerta y acceder a ellos.

Científicos insertan gen de hace 500 millones de años en una bacteria actual

Los que recuerden la película Jurassic Park, de Steven Spielberg, quizás tengan en la memoria una escena en la que los protagonistas de la película acuden a una proyección en la que se les explica que los dinosaurios del parque provienen de ADN encontrado en insectos prehistóricos combinados con el ADN de una rana. Si bien estamos aún lejos de Jurassic Park, un equipo de investigadores del centro de la NASA en el Instituto Tecnológico de Georgia ha anunciado un hito bastante importantehan combinado genes de una bacteriade hace 500 millones de años con un organismo vivo de nuestros días.




El equipo de investigación del Georgia Tech ha sido capaz de reactivar un gen de una bacteria de hace más de 500 millones de años y lo ha insertado en la evolución de dicha bacteria que está presente en nuestros días, la bacteria Escherichia coli (E. coli):
Este es un hito que nos permite ir hacia atrás y hacia delante en la “cinta” de la vida molecular. […] La posibilidad de observar un gen antiguo en un organismo moderno y su efecto en “células modernas” nos permite ver la trayectoria de la evolución y observar cómo la vida se adapta siguiendo diferentes caminos
En el año 2008, una investigación previa de este centro tecnológico pudo determinar la antigua secuencia genética de una de las proteínas más abundantes de la E. Coli y que, además, está presente en todos los organismos celulares conocidos y es esencial para que la bacteria sobreviva. Teniendo en cuenta que es una proteína clave, el equipo de investigación pensó que era una candidata ideal para realizar observaciones y aplicar modificaciones.
Lógicamente, realizar este cambio en las proteínas no fue sencillo puesto que tuvieron que insertar el gen antiguo en el cromosoma adecuado para sustituir la versión actual presente en la bacteria E. coli y, una vez conseguido, la bacteria resultante se mantuvo con vida.
El organismo resultante no era tan sano como la bacteria actual, al menos inicialmente y, por tanto, estamos ante un escenario perfecto que nos permitirá observar la adaptación de esta nueva bacteria y las distintas mutaciones que surjan conforme pasen los días
Las “proteínas modernas” que tienen que interactuar con las modificadas están comenzando a presentarmutaciones que hacen que la bacteria sobreviva y, por tanto, se adapte al medio en el que está presente; un hecho bastante significativo que permitirá a los investigadores conocer mucho mejor la evolución de la biología molecular con un demostrador “vivo”.

Crean el semiconductor láser más pequeño del mundo

Así lo atestiguan un grupo de investigadores de China, Taiwán y Estados Unidos. Los físicos han logradodesarrollar el semiconductor láser más pequeño del mundo. Un importantísimo avance en la tecnología fotónica que podrá tener aplicaciones potenciales de la informática a la medicina.



Y es que según los investigadores de la Universidad de Texas, en colaboración con colegas de Taíwán y China, explican que el láser, un dispositivo nanoláser, es tan pequeño que no se puede ver a simple vista.
La importancia en su desarrollo habría que entenderla en sus implicaciones futuras de las diferentes materias. Según los físicos:
La miniaturización de los semiconductores de láser es clave para el desarrollo de la tecnología basada en fotones, para que sea más rápida, pequeña y de menor consumo de energía. De esta manera tendremos chips de computadoras ultrarrápidas, biosensores de alta sensibilidad para la detección, tratamiento y estudio de enfermedades o incluso para la próxima generación de tecnologías de comunicación.
Los dispositivos fotónicos podrían utilizar el nanoláser para generar señales ópticas y transmitir información llegando a tener elpotencial para reemplazar los circuitos electrónicos.

Aún así, el tamaño y rendimiento de los dispositivos fotónicos tienen un problema o barrera conocido como el límite de difracción óptica en 3D. Esta se describe como:
La limitación en la capacidad de los instrumentos ópticos para distinguir entre dos objetos separados por una distancia de menos de aproximadamente la mitad de la longitud de una onda de luz utilizada en la imagen de una muestra.
Y es aquí donde el equipo de investigadores afirma haber descubierto una forma de evitar esa barrera. Según los mismos:
Hemos desarrollado un dispositivo nanoláser que opera muy por debajo del límite de difracción en 3D. Creemos que nuestra investigación podría tener un gran impacto en las tecnologías de nanoescala. El siglo XXI es el siglo de la luz.
Una tecnología tan pequeña que es imperceptible a la vista y cuyas aplicaciones prácticas podrían estar aún muy lejos. Los investigadores han señalado que podrían pasar muchos años antes de que la tecnología pueda ser aplicada a los productos electrónicos.

Fuente 

USC desarrolla sistema de transmisión óptica de datos a 2,36 Tbps

Hoy en día, hablar de fibra óptica es algo que no nos suena extraño y, de hecho, el 95% del tráfico de Internet viaja a través de fibras ópticas que forman parte de la infraestructura de cables submarinos que reposa sobre el fondo de mares y océanos. Cables submarinos como el SEA-ME-WE 4 tienen capacidades cercanas a 1,25 Tbps gracias al uso de múltiples fibras sobre las que se pueden enviar múltiples haces de luz en distintas longitudes de onda (gracias al DWDMDense wavelength Division Multiplexing), pero estas capacidades tan grandes hoy pueden ser insuficientes en unos años si tenemos en cuenta la gran cantidad de información que se genera cada día. Con la idea de explorar nuevos sistemas de comunicación y aumentar la capacidad de transmisión, la Universidad del Sur de California (USC) ha liderado el desarrollo de un singular sistema de multiplexación de haces de luz capaz de transmitir a 2,56 Tbps.




La investigación ha sido financiada por DARPA y liderada por la Universidad del Sur de California con la participación de un equipo internacional con representantes de otros centros de investigación de Estados Unidos (como la NASA), China, Pakistán e Israel; un equipo que ha trabajado en un sistema de transmisión de datos mediante haces de luz (comunicaciones ópticas) que se entrelazan entre sí y cuya combinación permite aumentar considerablemente la capacidad de transmisión.
Los resultados de la investigación se han publicado en la revista Nature Photonics y, teniendo en cuenta que se han financiado con fondos públicos, es una pena que para poder acceder al artículo haya que suscribirse a la revista y pagar por el acceso al contenido si se desea profundizar más en la materia (debería ser algo de libre acceso) y ver las posibilidades de una transmisión a tan alta velocidad (que podría revolucionar las redes de comunicación actuales o permitir la sustitución de radio-enlaces por comunicaciones ópticas en espacio libre, es decir, sin necesidad de usar fibra óptica).
Con la luz podemos hacer cosas que no podemos hacer con la electricidad. […] Esta es la belleza de la luz, es un conjunto de fotones que se pueden manipular de múltiples formas a gran velocidad
¿Y cómo han conseguido una tasa de transmisión tan alta? El equipo de investigación ha conseguido algo bastante sorprendente puesto que lograron entrelazar 8 haces de luz y formar con ellos una especie de“estructura” helicoidal (la forma que tiene el ADN) que hicieron propagar a través de un espacio controlado en el laboratorio, haciendo que cada uno de estos haces de luz transmitiera datos digitales.
La combinación de estos haces de luz dio como resultado una gran tasa de velocidad de transmisión en espacio libre que, por ejemplo, podría trasladarse a las comunicaciones por satélite y aumentar sensiblemente la velocidad de transmisión de datos de este tipo de comunicaciones.

Adolescente resuelve un problema propuesto por Newton hace 300 años



Newton fue el más grande genio que ha existido y también el más afortunado dado que sólo se puede encontrar una vez un sistema que rija el mundo
Así se refería a Newton el matemático y físico Joseph-Louis de Lagrange y, la verdad, es que nadie puede negar que Sir Isaac Newton es uno de los pilares fundamentales de las Ciencias Físicas. El trabajo de Newton es enorme y dentro de éste aún se podían encontrar algunos problemas que han ocasionado algún que otro dolor de cabeza a la comunidad científica casi 300 años después de la muerte del científico por la dificultad de su solución. Un adolescente de Dresde (Alemania) acaba de ser galardonado con un premio de investigación por resolver, dentro de un trabajo para su escuela, un problema matemático planteado por Newton hace 350 años que, hasta ahora, traía de cabeza a los científicos al no haber podido ser resuelto.
Shouryya Ray, un chico de 16 años originario de India y afincado en Dresde, ha sido capaz de resolver correctamente un problema planteado por el gran Isaac Newton hace 300 años: calcular la trayectoria exacta de un proyectil afectado por la gravedad y por la resistencia del aire, algo que ha conseguido mientras realizaba un trabajo que le habían mandado en la escuela.
Cuando nos explicaron en el colegio que este problema no tenía solución pensé que intentarlo no hacía daño. […] Creo que fue solamente la ingenuidad escolar. No creía que fuese capaz de encontrar una solución al problema
¿Y hasta ahora no se había resuelto este problema de balística? Por muy sorprendente que parezca, hasta la fecha este problema de balística no se había podido resolver de manera completa puesto que se había dividido en dos problemas separados aplicando ciertas simplificaciones y suposiciones. Concretamente, el movimiento del proyectil en el aire se había resuelto en el siglo XVII y la colisión del proyectil se planteó en el siglo XIX, pero con la formulación propuesta por Shouryya Ray los científicos podrán abordar el problema completo con un nuevo enfoque.
Este estudiante se introdujo en el mundo del cálculo a la edad de 6 años gracias a su padre, ingeniero de formación que trabaja en Alemania como profesor en una escuela técnica desde que se trasladaron a este país hace 4 años. Como es lógico, la prensa alemana está dando una gran repercusión a este hecho y elogian la capacidad de Shouryya Ray que, según su padre, supera sus propias capacidades.
Desde luego nadie puede negar el talento de este chico.

Passing Through, emocionante pieza visual en honor a Nikola Tesla




El artista Olafur Haraldsson lanza la siguiente pieza visual como medio para recuperar las palabras del científico e inventor Nikola Tesla. Una pieza vibrante narrada por Frank Stubbs ante los espectaculares paisajes de Islandia.
Haraldsson cuenta en su página de Vimeo la razón de su último trabajo:
El texto utilizado para la narración de “Passing Through” es parte del texto que el científico e inventor Nicola Tesla entregó en 1893 al Instituto Franklin de Filadelfia. Aunque hoy en día es menos conocido que figuras como Edison y Einstein, Tesla era más o menos el padre de gran parte de nuestra tecnología moderna, ya que entre otras cosas, desarrolló las bases del sistema eléctrico europeo basado en la alternancia de corrientes y los principios de la comunicación inalámbrica de radio.
En el momento en que fue profundamente influenciado por el físico y filósofo austriaco Ernst Mach, en la creencia de que el mundo debe ser concebida como un todo, donde todo está interconectado e influye en cada uno de nosotros. Y esa energía es una fuerza que se ejecuta a través de todo, ya sea la materia inorgánica, organismos o la conciencia humano. De acuerdo con esta línea de pensamiento, cada acción tiene consecuencias universales, no muy diferentes
de la moderna teoría del caos llamada ‘efecto mariposa’.
Para la construcción de la pieza Haraldsson utilizó una Canon 5D Mark II con varios tipos de lentes. El tema musical que acompaña al trabajo es de Moby, Division.

Open Data e investigación: acceso público y gratuito a los artículos científicos



Hace algunas semanas dedicamos unos minutos a hablar de Open Data como una iniciativa a seguir de cerca y que debería ser adoptada por las instituciones públicas para optimizar esfuerzos y, sobre todo, como modelo de transparencia. El Open Data consiste en reutilizar y compartir datos, por ejemplo, del sector público para que terceros puedan utilizarlos en sus aplicaciones o servicios o, incluso, que otras administraciones públicas pudieran utilizarlos con la idea de no duplicar esfuerzos y aplicando el concepto de que algo que ha sido recopilado gracias a los impuestos del ciudadano debe revertir en la ciudadanía. Precisamente, siguiendo este hilo conductor, en We the People, la plataforma de participación ciudada de la Casa Blanca, se ha publicado una propuesta muy interesante en la que se solicita que los artículos de investigación derivados de investigaciones sufragadas con fondos públicos deberían estar accesibles de manera libre y gratuita a través de Internet.
Muchas veces cuando hablamos de Open Data solemos mirar a datos estadísticos o cartográficos, sin embargo, el concepto es mucho más amplio y debería llegar a todo tipo de datos, incluyendo las investigaciones científicas. Por norma general, y salvo contadas excepciones, las investigaciones científicas materializan sus resultados y datos en artículos de investigación de revistas a las que se accede mediante suscripción o pagando por el acceso al artículo. De hecho, suele ser habitual que las bibliotecas de las universidades estén suscritas a estas revistas mediante inscripciones especiales que permiten a los usuarios de una red determinada acceder a estos recursos.


Este sistema, realmente, no tiene mucho sentido si hablamos de investigaciones que se han sufragado con fondos públicos ya que si han sido subvencionadas con el dinero de los ciudadanos, los resultados deberían estar accesibles al público de manera libre, sin necesidad de tener que pagar a una editorial por el acceso a éstos. Precisamente, esa es la propuesta que llegó la semana pasada a la plataforma de participación ciudadana de la Casa Blanca y que ya cuenta con más de 2.400 firmas de apoyo (aunque deben llegar a 25.000 para que sea tenida en cuenta, lo cual tampoco garantiza que se materialice en una iniciativa legislativa).
La petición solicita que los resultados de las investigaciones sufragadas con dinero público deberán estaraccesibles a través de Internet en formatos que puedan ser tratados por humanos y por máquinaspara que todo ese conocimiento revierta en estudiantes, docentes, emprendedores u otros investigadores, algo que, bajo mi punto de vista, tiene toda la lógica del mundo.
Me encantaría que esta iniciativa llegue a buen puerto aunque seguramente implique algunas cláusulas legales a la hora de otorgar una subvención para I+D para garantizar que los resultados pertenecen a la Administración (que podrá liberarlos) o bien, directamente, que son del dominio público porque podría sentar un interesante precedente que, quizás, sirva para que otras Administraciones Públicas rompan este hermetismo que tradicionalmente ha tenido la investigación científica y que deja el conocimiento científico en manos de terceros provocando que, por ejemplo, las Administraciones Públicas paguen 2 veces por los datos de las investigaciones (para generarlos y para consultarlos).
Eficiencia y transparencia, dos pilares sobre los que deberían sustentarse las Administraciones Públicas del siglo XXI.

El Tribunal de la Unión Europea dice que el lenguaje de programación no está protegido por derechos de autor



El litigio entre las compañías SAS Institute y World Programming Limited ha acabado con el dictamen en el día de ayer del Tribunal de Justicia de la Unión Europea. Según el TUE, tanto las funciones de un programa informático como su lenguaje de programación no se encuentran amparadas bajo la protección de los derechos de autor.
La razón esgrimida por el tribunal concluye que:
La protección de derechos de autor en estos casos supondría ofrecer la posibilidad de monopolizar las ideas, en perjuicio del progreso técnico y del desarrollo industrial.
El caso abierto entre ambas compañías comenzó cuando SAS desarrolló un software que permitía a los usuarios llevar a cabo una serie de tareas de procesamiento y análisis de datos estadísticos, todos escritos en el lenguaje de programación SAS que permitía la manipulación de datos.
World Programming Limited desarrolló una alternativa al programa en cuestión donde se podía ejecutar programas de aplicación de escritos en lenguaje SAS. Según WPL es imposible poder afirmar que ellos hubieran copiado el código fuente de los componentes SAS. En cambio, la respuestas de SAS Institute fue una demanda a la justicia británica argumentando que existía una infracción de derechos de autor sobre sus programas ya que habían copiado los manuales y los componentes del sistema SAS.
Demanda que ha acabado con el dictamen del TUE en el día de ayer. El Tribunal de Justicia de la Unión Europea acaba argumentando que no sólo los programas y su lenguaje de programación no pueden estar protegidos, sino que en ningún caso pueden constituir una forma de expresión. Les dejó con la resolución de la sentencia:
La reproducción, en un programa de ordenador o en un manual de utilización, de elementos descritos en el manual de otro programa, puede infringir los derechos de autor. Pero sólo en el caso de que esa reproducción exprese la creación intelectual del creador del manual. Sin embargo, corresponde al órgano nacional verificar si esa reproducción es la expresión de la creación intelectual del autor del manual de uso del programa de ordenador.
Ni la funcionalidad de un programa de ordenador ni el lenguaje de programación o el formato de los archivos de datos utilizados en un programa de ordenador para explotar algunas de sus funciones constituyen una forma de expresión. Por ello no disfrutan de la protección de los derechos de autor.
Fuente 

Astrónomos anuncian una nueva clase de agujeros negros

Así lo han reflejado los científicos que trabajan con el telescopio Array Compacto de CSIRO al haber encontrado un nuevo tipo de agujero negro, una nueva clase que entraría dentro del término de agujeros “intermedios”. Un descubrimiento que indicaría que los agujeros negros pueden adquirir una mayor variedad de tamaños de lo que se pensaba.


Y es que hasta ahora se creía que los agujeros negros solamente tenían tres tipos de variedades. Po un lado, los agujeros negros supermasivos que se encontraban en el centro de las galaxias, agujeros que tenían entre un millón y mil millones de veces la masa de nuestro Sol. Luego estarían los agujeros negros de masa estelar, de entre tres y 30 veces la masa de nuestro Sol. Por último estaban los Micro agujeros negros, teorizados dentro de la gravedad cuántica.

La nueva “clase” ha llegado a través de la observación de las explosiones distantes de gas, los astrónomos creen haber encontrado un agujero negro que se encontraría en cualquier espacio de 20.000 a 90.000 veces la masa de nuestro Sol, una nueva clase intermedia de agujeros negros.
Denominado como HLX-1, el agujero negro se encontraría a 300 millones de años luz de distancia. Un “objeto” que fue descubierto por Natalie Webb de la Universidad de Tolouse junto a un grupo de investigadores de Francia, Estados Unidos, Reino Unido y Australia.
Un agujero descrito como “hiper-luminoso” ya que emite una gran cantidad de rayos-X. Los astrónomos especulan que el agujero se encuentra “consumiendo” una nube de gas o una estrella entera, momento en el que un agujero negro absorbe toda la energía brillando en rayos-X.
De ser cierto, esta nueva clase de agujero negro podría explicar de donde vienen los agujeros supermasivos. La teoría que tratan de refutar es que esta nueva clase intermedia finalmente pasa a supermasivo si se dan las circunstancias adecuadas. A partir de aquí la investigación se centrará en encontrar más que puedan contrastar la nueva teoría.

Científicos consiguen el primer trasplante de fotorreceptores que restaura la visión en ratones



Ha sido a través del proyecto llevado a cabo por científicos financiados por el Medical Research Council y sus consecuencias constituyen la base de un nuevo tratamiento para restaurar la vista en personas con enfermedades oculares degenerativas. Los científicos han demostrado por primera vez que el trasplante de fotorreceptores sensibles a la luz (células nerviosas que bordean la parte posterior del ojo) en ratones con deficiencias visuales podía restaurar su visión.
Para ello los investigadores inyectaron células de ratones sanos y jóvenes directamente en las retinas de ratones adultos que carecían de fotorreceptores de varilla funcionales. La razón es que la pérdida de fotorreceptores es la causa de la ceguera en muchas enfermedades de los ojos humanos tales como la degeneración relacionada con la edad, retinitis pigmentosa o la ceguera relacionada con la diabetes.
Tras un período de 4 a 6 semanas, los investigadores observaron que las células trasplantadas funcionaban de la misma forma que los fotorreceptores de varilla normales y que habían formado las conexiones necesarias para transmitir información visual al cerebro.
No sólo eso, los científicos también probaron la visión de los ratones tratados en un laberinto con poca luz. Los ratones con células recién trasplantadas fueron capaces de utilizar una señal visual para encontrar rápidamente una plataforma escondida en el laberinto. Por contra, los ratones no tratados fueron también capaces de encontrar la plataforma oculta aunque en este caso por casualidad después de una extensa exploración del laberinto.
Así lo contaba el profesor Robin Ali, director de la investigación:
Hemos demostrado por primera vez que las células fotorreceptoras trasplantadas pueden integrarse con éxito en el circuito de la retina existente y realmente mejorar la visión. Tenemos la esperanza de que pronto seremos capaces de replicar este éxito con los fotorreceptores derivadas de células madre embrionarias y con el tiempo en el desarrollo de los ensayos en humanos.
Aunque hay muchos pasos más antes de que este enfoque esté disponible para los pacientes, podría conducir a tratamientos para miles de personas que han perdido la vista a través de trastornos oculares degenerativos. Los resultados también allanan el camino para las técnicas para reparar el sistema nervioso central que demuestran la capacidad asombrosa del cerebro para conectarse con las neuronas recién trasplantadas
Un resultado asombroso que nos indica que las células fotorreceptoras trasplantadas pueden integrarse con éxito en los circuitos de la retina y mejorar la visión. El sueño de recuperar la vista en humanos podría haber encontrado una posible solución.

Científicos desarrollan algoritmo que detecta la presencia de botnets bloqueando sus actividades



En un artículo publicado en la International Journal of Wireless, varios científicos en computación de la India explican el desarrollo de un algoritmo que podría ser la solución a las redes de bots. Un algoritmo con la capacidad de detectar la presencia de botnets y bloquear sus actividades maliciosas antes de que continúe causando estragos sobre un sistema.
Botnet hace referencia al conjunto de robots informáticos o bots que se ejecutan de manera autónoma y automática. El artífice de la botnet puede controlar todos los ordenadores o servidores infectados de forma remota, normalmente a través del IRC. Las nuevas versiones de botnets se están enfocando hacia entornos de control mediante HTTP, con lo que el control de las máquinas sería mucho más simple.
El problema radica en que el propietario no tiene conocimiento del programa, por lo que la ejecución de cualquier tarea puede derivar en todo tipo de actividades ilícitas en la red desde el equipo.
El desarrollo de este algoritmo ha sido llevado a cabo por Manoj Thakur, del Veermata Jijabai Technological Institute. El hombre y sus colegas hablan de una doble técnica (un algoritmo independiente y un algoritmo de red) donde el algoritmo independiente se ejecuta de manera independiente en cada nodo de la red que monitores los procesos de activación. Si detecta alguna actividad sospechosa, se activa.
En ese momento el algoritmo de red analiza la información que se transfiere para determinar si la actividad se debe a un bot o a un programa legítimo en el sistema. Las dos técnicas trabajarían juntas de manera que pueden detectar la actividad “conocida” de la “desconocida”. Un desarrollo que promete paliar este tipo de ataques sobre equipos o servidores.

Big Data (I): Historia del dato



Big Data se ha convertido en el nuevo mantra de las Tecnologías de la Información IT. El 90% de los datos de todo el mundo se han creado en los últimos dos años. El 80% de los datos mundiales son no estructurados, es decir, no están en bases de datos al uso. Solo el 20% de todos los datos está disponible para sistemas tradicionales. Las empresas se enfrentan a enormes desafíos en la gestión del aumento de la información ya que las tecnologías tradicionales de IT se quedan cortas. ¿Cómo hemos llegado a esto? Es Big Data.

Historia del dato

En el principio era el batch o proceso por lotes. El primer proceso de datos ocurrió haciendo estadísticas del censo. Unos operadores creaban fichas perforadas (primera y última vez en que se vieron los datos con los ojos) y el ordenador realizaba los cálculos. Poco después aparecieron los terminales y las cintas, que aún hoy se usan.
A continuación vino el online o proceso transaccional o interactivo. Los usuarios empezaron a interaccionar directamente con las máquinas. Esto supuso una revolución ya que no eran operadores los que introducían los datos sino los mismos usuarios. Estos usuarios eran empleados de la empresa y en seguida los mismísimos clientes. De pronto el interactivo pasó a ser prioritario relegando al batch a la noche. Nada era más importante que atender al usuario y darle el mejor tiempo de respuesta, idealmente por debajo de 1s. Todos los recursos de computación debían estar al servicio del online. Durante el día ningún proceso estaba permitido en una instalación de IT ya que podía perturbar el sacrosanto online.
Pero los procesos nocturnos seguían existiendo. En el catalogo de procesos batch estaba copiar ficheros, consolidar datos, realizar copias de seguridad y crear informes. Así como una transacción online movía algunos registros de algunas bases de datos, los procesos batch movían cantidades ingentes de registrospertenecientes a todas las bases de datos de la empresa. El batch seguía creciendo.
Pronto resultó que los ejecutivos primero y el resto de los usuarios después demandaban más informes. En efecto, teniendo todos los datos a su alcance, se preguntaban ¿vendemos más en el norte? ¿vendemos más por la mañana? ¿quién hace las compras más baratas? Los programadores de IT escribían programas que generaban los informes que les pedían. El tiempo medio variaba de días a semanas. Para cuando el informe estaba listo, las necesidades habían cambiado.
Y los ordenadores fueron creciendo. Al principio, cada nueva generación de un producto suponía un alivio para los clientes ya que podían hacer más con menos. Pero, con el tiempo, el crecimiento fue tal que con cada nuevo ordenador, la empresa necesitaba un modelo más bajo de la gama. Empezaba a sobrar capacidad de proceso.
El online seguía creciendo y seguía siendo sagrado. Un banco podía procesar muchos millones de transacciones online. Pero el batch crecía más deprisa. Aparecieron nuevas herramientas de consulta oqueries. Un usuario podía crear sus propios informes sin contar con los programadores de IT. Con el problema de que un query mal diseñado cruza millones de registros de varias tablas sin un control de rendimiento. Los usuarios submitían consultas que colapsaban los ordenadores. El jefe de IT se plantaba y bloqueaba las consultas durante el día porque perjudicaban el online.
La necesidad de consultas se hacía más imperiosa y los ejecutivos necesitaban más y mejor información para tomar decisiones. De modo que se empezaron a crear bases de datos de consultas. Por la noche, como parte del batch, se copiaban tablas a otras bases de datos, se generaban índices y se cocinaban para que las consultas pudieran ser ágiles. Había comenzado el datawarehouse, los datamars o la analítica de negocio.
El mundo transaccional llamado OLTP (On-Line Transactional Processing) había dado paso al OLAP (On-Line Analytical Processing). El análisis de grandes bases de datos dejaba de ser nocturno y se hacía diurno.
Mientras, los ordenadores seguían creciendo. Los fabricantes comenzaron a pensar en nuevos mercados ya que el tradicional OLTP apenas consumía máquina. Nuevos players se fueron añadiendo, empresas de software que creaban programas para analizar mejor los datos. Los clientes empezaron a pensar en usar aún mayores cantidades de datos, un objetivo antes impensable. El mercado de las consultas de grandes bases de datos comenzaba a estar maduro.
Había nacido Big Data.

Inteligencia Artificial: 10 sorprendentes avances de 2011



La Inteligencia Artificial, dijo John McCarthy cuando acuñó el término en las conferencias de Darmouth de 1956, es:
“…la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.”
Ese sentido no ha cambiado desde entonces. En cambio, las técnicas y aplicaciones de la Inteligencia Artificial son cada más variadas, profundas y sorprendentes. A pasos exponenciales inundarán nuestras vidas y pronto serán tan omnipresentes que apenas las percibiremos, como hoy con sucede con la televisión y el Internet.
En este artículo presento un recopilación de algunos de los muchos avances ocurridos durante 2011. Y si el año que está por terminar nos trajo esto, no puedo esperar a ver los del 2012-año-del-fin-del-mundo-y-skynet.

1 Supercomputadora Watson

La construyó IBM luego de años de investigación en los que confluyeron muchas áreas de la ciencias de la computación. Ganó un Jeopardy! y va por más.




2 Futuros comentaristas deportivos

El sistema creado por investigadores de la Ecole Polytechnique Federale de Lausanne en Suiza ya sabe identificar y rastrear jugadores de baloncesto. Por ahora es estupendo para telemetría, pero lo que sigue es comentar las peripecias del juego, y otros como la Formula 1.



3 SmartBird

Creado por Festo, este robot vuela como un ave y nada más.



4 Chatbot

El laboratorio Creative Machines de Cornell en los EE. UU. diseñó este experimento en el que dos IA conversaron de forma fluida (recordemos que también lo hicieron Siri y ELIZA). Alan Turing se hubiera desmayado de la impresión.



Por cierto, aprovecho para presentarles a Rosette, ganadora del premio Loebner 2011 al mejor chatbot, en la búsqueda de pasar el Test de Turing.

5 Adept Quattro

Adept construye los robots industriales más veloces del planeta. Para demostrar su hegemonía, este año usó su Adept Quattro para batir un récord al terminar el juego 1to50 para iPhone en tan solo 6,67 segundos. Ver para creer…





6 El vehículo autónomo de Google

Google es un imperio fundado gracias a la inteligencia artificial y sus aplicaciones. Por eso no es sorprendente que un gurú en el tema, Sebastian Thrun lidere el proyecto de vehículos autónomos de Google, que han viajado miles de kilómetro apenas con intervención humana.



7 ASIMO

El robot de Honda no ha dejado de dejarnos con la boca abierta cada vez que son presentados sus avances. Este año presenciamos cómo el robot ya es capaz de reconocer voces en una conversación:


Correr y saltar




Y jugar un poco al fútbol, por qué no





8 AISight

Combina vigilancia extrema, masiva con inteligencia artificial. ¿Escalofríos? Se llama AISight, de la empresa BRS Labs. No hay vídeo, pero te invito a estar al tanto de esa empresa repleta de doctores en ciencias y este tipo de tecnologías.

9 Robot flexible

Científicos de Harvard mostraron el prototipo de un robot flexible, hecho de materiales blandos. El vídeo es francamente inquietante.



10 Swarmanoid

Cuando un robot no es suficiente, ¿qué tal un grupo de ellos actuando de forma colectiva? En este caso, llamen al A-Team de los robots, ¡los Swarmanoid!



Bonus: el JediBot

Más allá de que sea o no un gran avance, este robot va dedicado a los fans de la saga Star Wars.



Fuente