martes, 30 de octubre de 2012

Una celda solar “negra” que absorbe 99.7% de la luz que recibe



Día con día, la energía solar cobra mayor protagonismo. Después de todo, se trata de una fuente prácticamente inagotable de energía limpia, lista para ser aprovechada. Sin embargo, la tecnología con la que contamos aún no es capaz de aprovechar de manera óptima sus beneficios. Uno de los grandes problemas es la reflexión de la luz, ya que los rayos que rebotan en la superficie del panel no son aprovechados. Por esta razón, la creación de la celda solar más “negra” es una gran noticia, capaz de absorber hasta 99.7% de la energía recibida.
Esta celda es un logro de la firma Natcore Technology. Los fabricantes aseguran que estos paneles podrían convertirse pronto en el estándar de la industria, en detrimento de las celdas antirreflejantes que se emplean en la actualidad. Otro de sus beneficios es que, además de producir más energía, tiene un mejor desempeño en la mañana y en la tarde -cuando los rayos no golpean directamente en la celda-. Igualmente, no existe diferencia entre la energía recibida en días despejados y días nublados, ya que la luz difusa se aprovecha al máximo.
Para poner en contexto el logro de Natcore, cabe destacar que el promedio mínimo de reflexión de una celda convencional es de 4 por ciento; mientras que el panel de silicio negro más avanzado hasta el momento tenía un índice de 2%. Los fabricantes iniciaron con una celda solar con un promedio de 8%, pero tras darle un tratamiento químico especial, consiguieron reducir este porcentaje a prácticamente cero.
De acuerdo a la firma, ya tienen compradores potenciales en China, Italia e India. Si bien este avance representa un desarrollo significativo a favor de la energía solar, aún existe el problema de los precios elevados. Empero, siempre será alentador encontrarse con inventos que busquen la explotación de energías limpias y renovables, como las hojas artificiales o la obtención de combustible a través de luz solar. El futuro es verde -y en el caso de las celdas solares, negro-.

Científicos de Stanford encuentran fármaco que inhibe el crecimiento de los tumores



A través de la investigación iniciada hace una década, el equipo del biólogo Irving Weissman, de la Universidad de Stanford, ha anunciado un sólo fármaco capaz de reducir o curar todo tipo de tumores tales como el de ovario, mama, colon, cerebro, vejiga, hígado y próstata. Un hallazgo que los investigadores encontraron tras la implantación en ratones. Un tratamiento a través de un anticuerpo capaz de bloquear la señal de “no comer” que suele aparecer en las células tumorales, engañando al sistema inmune y evitando que destruyan a las células cancerosas.
Como decía al comienzo, la investigación partió del propio Weissman quién halló hace 10 años que las células de leucemia producían niveles más altos de la proteína CD47 que las células sanas.
Los investigadores encontraron que el CD47 se mostraba en células sanguíneas sanas, una forma de salvoconducto que avisa al sistema inmunológico mientras se mueven por el sistema circulatorio, dando la “alerta” de que no deben ser “comidas”. Los tipos de cáncer toman ventaja de este indicador para engañar al sistema inmunológico, produciendo que este haga caso omiso de ellos.
Weissman y su equipo habían demostrado estos años que el bloqueo de CD47 con un anticuerpo era capaz de curar algunos linfomas y leucemia en ratones. La razón era que la estimulación del sistema inmunológico volvía a reconocer las células cancerosas como invasoras.
El descubrimiento publicado hace unas horas demuestra que el bloqueo de CD47 con un anticuerpo tiene un impacto mucho más amplio que en leucemia y linfomas. Según el científico:
Lo que hemos demostrado es que el CD47 es importante no sólo en las leucemia o linfomas. Está en todos y cada uno de los tumores humanos primarios que hemos probado.
Para determinar si el bloqueo de CD47 era beneficioso, los científicos trasplantaron tumores humanos en ratones de manera que pudieran ser controlados fácilmente. Cuando se trataron a los roedores con los anticuerpos de CD47, los tumores se redujeron y no se extendieron al resto del cuerpo. Pruebas llevadas a cabo con éxito en hasta siete tipo de tumores.
Según Weissman:
Hemos demostrado que incluso después de que el tumor se apoderara, el anticuerpo puede curar la enfermedad o retrasar su crecimiento y evitar la metástasis.
A partir de aquí la investigación abre una nueva puerta a la esperanza. Investigadores como Tyler Jacks, del MIT, indican que el estudio no puede ser más prometedor, aunque avisa que se necesitan más investigaciones para ver si los resultados son válidos en los seres humanos. Según Jacks:
El microambiente de un tumor real es bastante más complicado que el microambiente de un tumor trasplantado y es posible que un tumor real tenga otros efectos inmunosupresores.
Weissman anuncia que ha recibido una donación de 20 millones del California Institute con el que se espera sacar conclusiones de los estudios con test de seguridad en personas:
Ya tenemos datos suficientes. Nos dirigimos hacia la primera fase para los ensayos en humanos.

miércoles, 17 de octubre de 2012

Un soporte robótico que mejora la movilidad de personas parapléjicas


Técnicas de mecánica y robótica se están metiendo de lleno en la asistencia a personas con movilidad reducida. Recientemente la empresa AMS Mekatronic ha dado a conocer el dispositivo Tek Robotic Mobilization Device que busca ayudar a personas que sufren de parapléjia dándole herramientas para desenvolverse sin asistencia en una posición erguida que mejora la salud de todo el cuerpo y facilita la interacción en situaciones cotidianas.

Tek RMD a primera vista parace un atril mecánico, la posición en la que los usuarios lo utilizan no permite creer que se trate de un paciente que no puede usar sus piernas. El dispositivo tiene un sistema de correas y soporte que enganchan al usuario desde la parte baja de la espalda y lo aferran al brazo móvil. Para conseguir sujetarse no requiere hacer fuerza de ningún tipo, puede acercar el dispositivo usando un control remoto y cuando está en la posición exacta ajusta las correas mientras sigue sentado, una vez firme pasa a controlar la elevación mediante el motor del aparato.
Por el lado estrictamente físico la sujeción frontal permite un acceso mucho más fácil que evita los bruscos esfuerzos de sentarse en una silla de ruedas, requiere menos fuerza y baja el riesgo de generar nuevas lesiones. Además, la posición vertical hace que el cuerpo no sufra tanto el sedentarismo, facilitando al mismo tiempo la ejecución de ejercicios terapéuticos para cuidar las extremidades inmóviles.
Según lo que expresan el desarrollo también apunta a mejorar la condición anímica del usuario, contrario a otros dispositivos similares, este no requiere asistencia para utilizarlo y permite enfrentar tareas diarias como si no existiera la dificultad motriz.





Esta avance robótico y terapéutico mide apenas la mitad que una silla de ruedas tradicional, está construida en acero inoxidable, pesa 80 kilos y se alimenta con dos baterías de gel. Tiene autonomía de 14,4 kilómetros y llega a una velocidad máxima de 3,2 kilómetros por hora, puede llevar usuarios de hasta 90 kilogramos.
Tek Robotic Mobilization Device no es un nuevo tipo de silla de ruedas, sino una nueva plataforma de movilidad, estará a la venta en Turquia y Europa antes de fin de mes y tendrá un costo de 15.000 dólares.

Lego bots asisten la producción de huesos artificiales



Un grupo de científicos de la Universidad de Cambridge enfocados a la investigación en torno a la producción artificial de huesos, han creado unos singulares asistentes para poder llevar a cabo los procesos que se requieren para crear una muestra de hueso.
Para crear un hueso es necesario remojar la base, como puede ser un pedazo de metal, en calcio, proteína y agua múltiples veces; por lo que el estudiante de doctorado Daniel Strange armó dos grúas con legos para automatizar el proceso. El resultado:




Los científicos admiten que la mayoría de sus herramientas son de uso cotidiano, instrumentos simples que se pueden encontrar en una tienda de artículos caseros, por lo que a pesar de tener la posibilidad de comprar un kit pre-ensamblado (y costoso) que resolviera su necesidad, lo hicieron por medio de Lego bots en una forma que tenía más sentido con el modo en el que opera su laboratorio.
Los científicos conducen esta investigación no solo para crear implantes de huesos, sino que ven el hueso como una sustancia que puede ser utilizada eventualmente como material de construcción.
Actualmente la fabricación de huesos con impresoras en 3D y su implante son una realidad, pero existen otras investigaciones en torno a la producción artificial de huesos de forma más orgánica. Uno de los más interesantes, utiliza madera para convertirla en carbón al ser quemada y rociarla con calcio, produciendo asícarburo de calcio. Los investigadores italianos al frente de este experimento solo lo han experimentado en ovejas, pero creen que el material puede ser utilizado eventualmente en la fabricación de turbinas y vehículos espaciales entre otros.
Las técnicas sin duda son importantes pero en realidad lo que importa en la ciencia, según Michelle Oyen del grupo de investigación de Cambridge, es:
…que la creatividad avance y no exactamente las herramientas que se utilizaron para llegar ahí.

Fuente 

Suiza trabaja en una red de satélites que limpien la basura espacial



Se denomina basura espacial a cualquier objeto artificial sin utilidad que orbita alrededor de la Tierra y entre los que encontramos restos de cohetes, viejos satélites, restos de explosiones, polvo o, incluso, restos de pintura de algún cohete. La presencia de estos restos cada vez preocupa más a las agencias espaciales y los operadores de satélites puesto que el impacto de estos objetos puede averiar algún que otro satélite y, según se define en el Síndrome de Kessler, generar aún más basura al desprenderse algún fragmento por el golpe. Pensando en mitigar este problema, el Centro Espacial de Suiza y la École Polytechnique Fédérale de Lausanne (EPFL) del país han decidido trabajar en una red de satélites cuya misión sea la limpieza de la basura espacial.
Es fundamental estar al tanto de la existencia de esta basura espacial y los riesgos que entraña su proliferación
He de reconocer que el proyecto me hizo recordar una serie de TV de finales de los años 70 llamada Quark en la que el protagonista pilotaba una nave que recogía la basura que había esparcida por el espacio pero, dejando la ficción a un lado, el proyecto es totalmente realista y el primero de los satélites, de nombre CleanSpace One (el prototipo de la familia), se está construyendo ya en la EPFL con un presupuesto de 10 millones de francos suizos, es decir, 11 millones de dólares o 8,4 millones de euros.




¿Y cómo funcionarán estos “basureros espaciales”? Teniendo en cuenta que se estiman unas 500.000 piezas orbitando alrededor de la Tierra, según los datos de la NASA, moviéndose a velocidades cercanas a los 28.000 kilómetros por hora, el CleanSpace One se enfrentará al reto de interceptar estos fragmentos de basura espacial, atraparlos y, posteriormente, forzar la trayectoria hacia una reentrada en la atmósfera para su desintegración. Lógicamente, el proceso no es nada trivial puesto que el CleanSpace One debe agarrar el fragmento de basura espacial mientras éste viaja a gran velocidad, ajustando su ruta para hacerla coincidir con la de su objetivo.



La EPFL estima que el CleanSpace One podría estar listo para su lanzamiento en un plazo que oscilaría entre los 3 y 5 años pero, a día de hoy, ya tienen clara cual será su primera misión: atrapar un par de satélites suizos lanzados en los años 2009 y 2010 y, tras el agarre, hacer que el CleanSpace One se desintegre (junto a la carga) al entrar en la atmósfera.
Voker Gass, director del Centro Espacial de Suiza, espera que el CleanSpace One abra la puerta a una familia de satélites comerciales que puedan comercializarse para retirar viejos satélites que, tras llegar al final de su vida útil, siguen orbitando alrededor de la Tierra. La idea es que los responsables de poner en órbita dichos satélites se han responsables de su retirada y la familia CleanSpace podría ser un método para hacerlo.
Un proyecto bastante interesante que, si se lleva a la práctica, podría ser un gran paso para eliminar gran parte de la basura espacial circundante, al menos la de mayor tamaño.

La LRO fotografía los surcos dejados en la Luna por el Rover del Apolo 15



La misión Apolo 15 (AS-510) arrancó el 26 de julio de 1971 con el lanzamiento de un cohete Saturno 5 en dirección a la Luna llevando en su interior al comandante de la misión, David R. Scott y los tripulantes Alfred M. Worden y James B. Irwin. Esta misión fue bastante especial porque se empleó por primera vez un Vehículo Explorador Lunar (LRV o Lunar Roving Vehicle y popularmente conocido como “rover lunar”), es decir, todoterreno fabricado por Boeing y la Delco Electronics (una filial de General Motors) con el que los astronautas recorrieron 27,9 kilómetros de la superficie lunar en coche. Habiendo transcurrido ya casi 41 años de esta misión, la sonda Lunar Reconnaissance Orbiter (LRO) destinada a la exploración de la Luna ha fotografiado, en alta resolución, alguno de los lugares en los que se han paseado los miembros de las misiones Apolo y, en esta ocasión, la NASA ha publicado unas imágenes en alta resolución de los surcos dejados en la superifice lunar por el primer LRV en las que podemos ver, incluso, el propio vehículo que allí quedó “aparcado”.
Las imágenes han sido tomadas por la LRO desde una altura de 25 kilómetros de altura y en ellas podemos ver el lugar de aterrizaje del módulo lunar (LM) del Apolo 15 que estaba situado a 2 kilómetros del cañón lunar Hadley. En aquella misión, los astronautas tenían como objetivo recoger muestras de los basaltos de la superficie lunar, explorar por primera vez un cañón lunar y realizar una serie de experimentos dentro del tercer lote ALSEP (Apollo Lunar Surface Experiments Package) en el que, por ejemplo, dejaron instalado un generador de radioisótopos termoeléctricos (RTG) que enviaron datos, durante 6 años, a las instalaciones de la NASA. Al otro extremo de la zona de descenso, es decir, al extremo contrario al ALSEP podemos encontrar “aparcado” el LRV que se estrenó, precisamente, en esta misión.

El LRV era un vehículo todoterreno que era capaz de circular a una velocidad máxima de 16 kilómetros por hora, si bien se utilizaba en una velocidad media de 8 kilómetros por ahora. Estaba compuesto por un armazón de aluminio y cuatro ruedas compuestas por una malla de acero y dos asientos para los astronautas para que pudieran ampliar el radio de exploración a zonas algo más alejadas de la zona de aterrizaje y permitir el transporte de instrumentación avanzada y equipos de radio (disminuyendo el esfuerzo de los astronautas y contribuyendo al ahorro de oxígeno). Las ruedas del LRV, que eran de malla de acero, medían 82 centímetros de diámetro y tenían una anchura de 23 centímetros, unas dimensiones que dejaron marcada la superficie de la Luna y, gracias a las cámaras de alta resolución de la sonda LRO, hoy podemos ver como una intacta reliquia de lo que fue el programa Apolo.
¿Y qué calidad tienen las imágenes? Para hacernos una idea, un píxel de cada una de las imágenes captadas por la LRO es equivalente a 25 centímetros, una hazaña que ha sido posible gracias a la órbita tan baja que mantuvo la sonda durante las pasadas que realizó sobre la zona (entre 25 y 30 kilómetros de altura frente a los 50 kilómetros de altura habituales).
Mirar a la Luna y pensar que los surcos dejados por el LRV y el propio LRV siguen allí es algo que me parece fascinante. Vale la pena echarle un ojo detenidamente a las imágenes captadas por la LRO y las rutas seguidas por el LRV durante su primera misión.




Google Chrome: primer navegador hackeado en la Pwn2Own, se acabó el mito



Como os comentábamos la semana pasada, Google había elevado los premios hasta el millón de dólares para todos aquellos que lograrán un exploit sobre su navegador Chrome, único “a salvo” en las seis ediciones del concurso. El logro ha sido superado a través del equipo Vupen, quienesconsiguieron tomar el control al poco de comenzar la prueba en un equipo con Windows 7.
Y es que este año y tras el anuncio de Google, todas las miradas parecían dirigirse al navegador del gigante. Ha sido el primer en caer, en apenas 5 minutos, aunque como explicaron más tarde desde Vupen, había existido un largo trabajo detrás del exploit.
Pwn2Own es un concurso de hacking que se lleva a cabo en las conferencias anuales de seguridadCanSecWest en Vancouver. Se trata de una prueba donde el objetivo es conseguir un exploit en navegadores y dispositivos móviles para tomar el control completo de los sistemas.
Vupen, la misma empresa de seguridad francesa que el año pasado fue el primero en descifrar las grietas detrás de Safari, ha sido el equipo que logró la “proeza” de tomar el control del sistema de Chrome en un equipo con Windows 7.
Para ello y según cuentan, desarrollaron un plan de ataque durante seis semanas.Un método que se aprovechaba de un sitio web creado como cebo durante el hack. Una vez que el equipo visitaba el lugar, conseguían hacerse con las extensiones del navegador fuera del sandbox.
Aún así, desde Vupen indican que Chrome sigue siendo el navegador más seguro:
El sandbox de Chrome es el más seguro que hay. No es una tarea fácil crear un exploit completo que pase todas las protecciones. Aún así, queríamos mostrar que Chrome no es irrompible. El año pasado vimos una gran cantidad de titulares indicando que Chrome no se podía hackear. Queríamos asegurarnos de que Chrome sería el primero en caer este año.
Tras varios años intentado detectar un fallo en Chrome, el mito se rompe en el 2012. Un beneficio mutuo. Mientras que Vupen obtiene la recompensa y recocimiento, Google puede por fin perfeccionar la seguridad en su navegador una vez que se ha conseguido el primer exploit público.

Kojima adelanta su nuevo motor gráfico con un desafío a la vista




El hecho más sorprendente… el hecho más sorprendente es el conocimiento.
Neil deGrasse Tyson.
Lo que vemos sobre estas imágenes ocurrió en el 2008. Se trataba de la respuesta del astrofísico Neil deGrasse a la pregunta que le hizo la revista TIME: ¿cual es el hecho más asombroso que pueda compartir con nosotros sobre el Universo? Al igual que otros hicieron con Richard Feynmann o el mismo Carl Sagan, el reciente vídeo es una pieza única e inspiradora que vale la pena repetir una y mil veces.
Posiblemente Neil deGrasse Tyson pase por ser actualmente el astrofísico y divulgador científico más popular de nuestra época. Recoge el legado que nos dejó Sagan e incluso está en marcha una segunda vida de Cosmos conducida por él mismo,
La entrevista que hoy recopilamos se ha leído cientos de veces. No es casual que de cada palabra que sale del hombre nos golpee de la misma forma que lo hiciera Sagan. Ambos tienen en su locución la misma facilidad para hacerse entender y para que el gran público acceda al conocimiento y a la ciencia, a que sea accesible para todos.
Si en el 2010 se creó en YouTube The Sagan Series y en el 2011 The Feymann Series, no sería de extrañar que tras la segunda parte de Cosmos, Neil deGrasse tuviera su espacio en el “olimpo”.
El vídeo fue construido por el fotógrafo Max Schlickenmeyer utilizando la voz en off de la entrevista junto a la edición de imágenes tomadas de Hubble y otra serie de recopilaciones. El tema musical que acompaña es To Build a Home de Cinematic Orchestra.
Les dejo con un estracto de sus palabras (podéis subtitular el vídeo desde YouTube). Una locución brutal…
… Los átomos construyeron la vida en la Tierra… Cuando miro hacia el cielo, sé que sí, que formamos parte de este Universo, que estamos en este Universo… pero quizás aún más importante que este hecho es que el Universo está en nosotros. Cuando reflexiono sobre ello, miro hacia arriba… muchas personas se sienten pequeñas, simplemente porque ellos son pequeños y el Universo grande, pero yo me siento grande… porque mis átomos vinieron de las estrellas…

Fuente 

Laboratorio desarrolla sensor que muestra la composición de un material en segundos



Hace unos días hablábamos de la Universidad Técnica de Viena y sus esfuerzos para desarrollar un sistema que, apoyándose en la dispersión sufrida por un láser al atravesar un material, podría caracterizar compuestos químicos y, por tanto, detectar sustancias peligrosas como los explosivos. Caracterizar materiales es una necesidad de muchas áreas productivas, los que sean aficionados a la serie CSI recordarán que algún que otro capítulo analizan la composición de materiales encontrados en la escena de un crimen, así que, para facilitar esta labor, un equipo del Laboratorio de Microtecnología y Nanotecnología de Gaustadbekkdalen de Oslo (Noruega) ha desarrollado un sensor de rayos X capaz de mostrar la composición de un material en una fracción de segundo y con una alta precisión.
El proyecto ha sido llevado a cabo por SINTEF para dar respuesta a una demanda de la industria de instrumentación para realizar el análisis de materiales y, con tal fin, abordaron este proyecto en el que trabajaron en el desarrollo de un sensor basado en un diodo de derivación (que es la pieza clave en muchos sistemas destinados al análisis de materiales en múltiples campos):
El sensor consiste en una microestructura de doble cara que está fabricada sobre obleas de silicio. Estas estructuras son complejas y no son fáciles de producir. Hoy en día, solamente dos o tres empresas somos capaces de fabricar sensores así
El sensor, que mide 8x8 milímetros, requiere un tiempo de producción alrededor de las 8 semanas en un ambiente superlimpio, es decir, el de una sala blanca en el que se controlan las condiciones de pureza del aire y se evita que exista cualquier mota de polvo que pueda echar al traste un lote de producción al introducir defectos de fabricación de los dispositivos:
Incluso una mota de polvo puede provocar un cortocircuito o dañar la microestructura
El resultado del proceso es un sensor muy sensible a la luz y, gracias a estas propiedades, puede utilizarse para caracterizar materiales basándose en la espectroscopía, es decir, enviar la luz a través de un objeto y medir los cambios en las características del haz de luz para poder caracterizar el material. En este caso, se lanza un haz de rayos X y se hace pasar por el sensor que tiene dos caras (una orientada a la fuente del haz y, lógicamente, la cara posterior). El lado orientado a la fuente absorbe el haz de rayos X directamente y éste atraviesa el material pasando por la microestructura del sensor que forma una especie de anillos concéntricos con mismo centro pero radio creciente que eliminan cualquier ruido que pueda tener la señal y ofreciendo una característica del material prácticamente inmediata, incluso para materiales como el plomo, el cadmio o el mercurio.
Sumando estos factores su funcionamiento con un bajo consumo energético y su gran precisión, los responsables del proyecto estiman que tendrán una gran demanda de este componente para su integración en futuros equipos de media.

Harvard crea nanorobot de ADN capaz de producir el “suicidio” en las células cancerosas



Aunque el titular parezca más digno de la ciencia ficción que de la realidad, así lo han confirmado hace escasas horas un equipo de investigadores de la Universidad de Harvard. Un desarrollo revolucionario probado en dos tipos diferentes de células cancerosas. Un nanorobot construido de material genético con capacidad de cargar moléculas y dirigirse a células específicas, al depositar las sustancias, a modo de fármaco, son capaces de modificar su comportamiento y producir la autodestrucción de las mismas.
Estos nanorobots, auto-denominados así por los investigadores, funcionarían de forma similar a las células del sistema inmune para colaborar con los receptores en el exterior de las células. Según Ido Bachelet, autor del estudio en Harvard:
Lo llamamos un nanorobot, ya que es capaz de realizar algunas de las tareas robóticas. Una vez que el dispositivo reconoce una célula, automáticamente cambia su forma y entrega su carga letal.

Cuentan los investigadores que diseñaron la estructura de estos pequeños dispositivos utilizando elsoftware de código abierto Cadnano, un programa creado por Shawn Douglas, biofísico de la universidad. Luego construyeron los robots utilizando la técnica de origami de ADN, una técnica capaz de fabricar estructuras de ADN.
Douglas y el resto del equipo realizaron un primer prototipo ensayando en cultivos celulares con éxito. Se centraron en dos tipos diferentes de células cancerígenas, linfoma y leucemia, enviando las coordenadas para el “suicidio” de las células. También indican que cada coordenada era diferente dependiendo del tipo de célula.
Una mezcla de biotecnología y nanotecnología que como ellos mismos indican, abre un nuevo camino en la medicina:
Esta obra nos lleva un paso más allá en el camino por construir fármacos más inteligentes con nanorobots médicos, más de lo que podríamos imaginar. Realmente hemos aprovechado la programación de la nanotecnología de ADN.
A partir de aquí los investigadores intentarán demostrar su funcionamiento eficiente en un organismo vivo. Un camino largo y seguramente complicado que ya ha obtenido su primer gran éxito. Una estructura de nanorobot que se ha abierto para insertar moléculas y posteriormente llevarlas a un destino:
Si logramos resolver todos los problemas que están por llegar, los nanorobots tienen la oportunidad de convertirse en una realidad terapéutica.
Fuente

viernes, 5 de octubre de 2012

Científicos logran por primera vez cultivar células madre en córneas humanas dañadas



Uno de los grandes problemas a los que se enfrenta la medicina en casos de ceguera es la capacidad de obtener un donante de córnea para el transplante, única forma hasta ahora de lograr resultados con éxito. Una publicación hace unas horas abre una nueva ventana. Científicos de la Sahlgrenska Academy han logrado con éxito y por primera vez el cultivo de células madre en corneas humanas dañadas, un avance que podría eliminar la necesidad de donantes en el futuro.
Actualmente se llevan a cabo cerca de 100.000 trasplantes de córnea en el mundo. La operación sustituye la córnea dañada por una sana y transparente. Una operación que requiere de un donante, el principal problema por la escasez existente.
Lo conseguido en la Universidad de Gotemburgo desde la Sahlgrenska Academy podría considerarse un hito si los próximos estudios lo verifican. Un trabajo realizado por los científicos Charles Hanson y Ulf Stenevi, quienes utilizaron córneas defectuosas obtenidas de una clínica de oftalmología.
Los resultados mostraron cómo las células madre humanas podían ser causantes de las células epiteliales después de 16 días de cultivo en el laboratorio y 6 días de cultivo en una córnea. Las células epiteliales mantenían la transparencia de la córnea. Según el propio Hanson:
Experimentos similares se habían llevado a cabo en animales, pero esta es la primera vez que las células madre se han cultivado en las córneas humanas dañadas. Esto significa que hemos dado el primer paso hacia la posibilidad de utilizar células madre para el tratamiento de córneas dañadas.
Finalmente, para su colega Steveni, el futuro se presenta más que prometedor tras el hallazgo. Un futuro que podría paliar la necesidad de donantes:
Si somos capaces de establecer un método de rutina para esto, la disponibilidad de material para los pacientes que necesitan una nueva córnea será esencialmente ilimitada. Tanto los procedimientos quirúrgicos como la atención posterior serán mucho más sencillos.

Fuente

Historia de la Tecnología: ENIAC



Esta fin de semana, la NASA apagó el último mainframe que tenía activo, un hecho que supone un cambio de paradigma en la agencia espacial estadounidense y el abandono de los sistemas transaccionales. El IBM 701, una de las primeras computadoras comerciales, estaba orientada a la realización de cálculos en el ámbito de la defensa y la aeronaútica (aviones, misiles, etc), aplicaciones militares que, unos años antes, habían impulsado el desarrollo de uno de los primeros computadores de la historia: el ENIAC, que fue presentado en sociedad el 15 de febrero de 1946.
En 1941, librándose la Segunda Guerra Mundial en Europa y con Estados Unidos manteniéndose neutral (elataque a Pearl Harbor se produjo el 7 de diciembre de 1941), el doctor en ciencias físicas John William Mauchly realizó un curso de electrónica militar en la Moore School of Engineering de la Universidad de Pennsylvania donde conoció a John Presper Eckert, un joven ingeniero recién graduado con el que comenzó a trabajar en el desarrollo de tubos de vacío fiables para que pudiesen utilizarse como base de máquinas de cálculo. La Moore School, por aquel entonces, era un centro de cálculo para crear tablas de tiro para las nuevas armas y proyectiles que desarrollaba el Ejército de Estados Unidos, un caldo de cultivo en el el que Mauchly desarrolló un estudio denominado “Utilización de Tubos al Vacío de Alta Velocidad par realizar Cálculos”.
En septiembre de 1942, y tomando como base su estudio, Mauchly postuló que era posible la construcción de un computador electrónico de propósito general y, a través del enlace con el Ejército, cursó la petición para recibir fondos. La idea gustó en el Cuerpo de Artillería del Ejército y vieron las posibilidades que podría tener un sistema capaz de realizar cálculos sobre disparos de proyectiles y accedió a financiar el proyecto. El 5 de junio de 1943 se suscribió el acuerdo entre la Universidad de Pennsylvania y el Ejército de Estaos Unidos que fijabaun plazo inicial de 6 meses para “la investigación y el desarrollo de un integrador numérico electrónico y un computador que entregase como resultados informes” para lo cual asignó una dotación presupuestaria de 61.700 dólares a los que se sumarían, hasta 1946, nueve adendas al acuerdo y una dotación presupuestaria extra de 486.804,22 dólares de la época para obtener un modelo experimental totalmente funcional que pudiese instalarse en los Laboratorios de Investigación Balística del campo de pruebas Aberdeen.
Así fue como arrancó el desarrollo del ENIAC (Electronic Numerical Integrator And Computer) con Mauchly como responsable del diseño conceptual del computador, Eckert como responsable de ingeniería para la construcción del hardware de la máquina y el Capitán Goldstine que, además de actuar como supervisor residente del Departamento de Artillería, contribuyó en la programación matemática de la computadora. Tras varios meses de trabajo, en 1944 se decidió congelar el diseño del ENIAC para poder iniciar su construcción, una decisión que supuso la introducción de algunas limitaciones en el diseño
El desarrollo del ENIAC se realizó, componente a componente, en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pennsylvania, comenzando con el primer acumulador en 1944 y desarrollando el resto de módulos hasta el ensamblado final que tuvo lugar en otoño de 1945. El ENIAC estaba dividido en 30 unidades autónomas de las que 20 eran acumuladores. Cada uno de estos acumuladores era capaz de sumar 10 dígitos a gran velocidad y almacenar los resultados que, además, podían visualizarse a través de unas lámparas que se encendían. Para acelerar las operaciones, los acumuladores contaban con un multiplicador y un divisor y la lectura de datos se realizaba mediante tarjetas perforadas.




La computadora ocupaba una superficie de 167 metros cuadrados y estaba formada por 17.468 válvulas de vacío que permitían realizar 5.000 sumas y 300 multiplicaciones por segundo. Además, utilizaba 7.200 diodos de cristal, 1.500 relés, 70.000 resistencias y 10.000 condensadores gracias a 5 millones de soldaduras que dotaban de conexión a todos estos componentes. ¿El resultado? Un computador de 27 toneladas de peso que era capaz de aumentar la temperatura de una habitación hasta alcanzar los 50 grados y consumir 160 KW de electricidad (una cantidad que, según la leyenda que rodea al ENIAC, llegaba a provocar cortes de luz en la ciudad de Filadelfia).





La programación del ENIAC se realizaba mediante el interconexionado de cables, igual que las antiguas centrales de conmutación de telefonía, y requería la operación manual de unas 6.000 conexiones; por tanto, cualquier cambio en la programación requería días o, incluso semanas. A este hándicap había que sumar la poca tolerancia a fallos puesto que, hasta que se perfeccionó el desarrollo de los tubos de vacío en 1948, varias válvulas se fundían cada día (provocando paradas de 30 minutos para su sustitución) y, para evitar errores, cada cálculo se realizaba 2 veces para comprobar que éstos fuesen correctos.
Dado que la programación era manual, las primeras personas que aprendieron a programar el ENIAC fueron un grupo de mujeres como Jean Jennings Bartik, que murió el año pasado, o Betty Snyder Holberton, Kathleen McNulty Mauchly Antonelli, Marlyn Wescoff Meltzer, Ruth Lichterman Teitelbaum y Frances Bilas Spence que, en 1997, entraron a formar parte del Women in Technology International Hall of Fame:
No teníamos manuales para la ENIAC. Aprendimos a programarla estudiando los diagramas lógicos. Qué bendición. Hicimos todo desde el principio. Aprendimos cómo funcionaban las computadoras. Nos ganamos el respeto de los ingenieros desde el comienzo porque realmente entendimos lo que estábamos haciendo y pudimos corregir mejor que ellos los errores porque teníamos nuestros programas de pruebas así como el conocimiento sobre la computadora.



El 15 de febrero de 1946, se finalizó la construcción del ENIAC y se realizó la entrega al Cuerpo de Artillería del Ejército de Estados Unidos tras 4 años de trabajo. Durante 1946, el ENIAC permaneció en la Escuela Moore prestando servicio al Ejército en la resolución de problemas numéricos en el campo de la energía atómica y en trayectorias balísticas. En diciembre de 1946 se comenzó a desmontar el ENIAC para su traslado al campo de pruebas de Aberdeen y las primeras piezas llegaron a la base en enero de 1947 en un proceso que se prolongaría hasta agosto de 1947 en el que el ENIAC volvió a entrar en servicio. Para el equipo de mantenimiento de Aberdeen, el ENIAC era un entramado de circuitos y conexiones excesivamente complejo que impulsó el desarrollo de tubos de vacío más resistentes y de mayor vida útil.
Desde 1947 a 1952 el ENIAC fue pieza clave para las investigaciones realizadas por Ejército y la Fuerza Aérea donde intervino en cálculos de proyectiles, predicción del tiempo, estudio de números aleatorios, diseño de túneles de viento, estudio de rayos cósmicos, ignición térmica, energía atómica, etc; campos en los que no tuvo rival hasta la llegada de los primeros computadores comerciales en 1951.
El ENIAC comenzó a quedarse obsoleto y también aumentó el índice de averías (y el tiempo de indisponibilidad del sistema) por lo que se empezó a barajar su retirada que fue efectiva el 2 de octubre de 1955 a las 23:45. Gracias al Doctor John von Neumann, gran parte del ENIAC se conservó y hay partes expuestas en la Academia Militar de West Point o en el Instituto Smithsonian de Washington D.C.


Una historia fascinante para una computadora de leyenda.

Google, Netflix y Microsoft proponen DRM para HTML5



nuevas, por ejemplo una llamada Encrypted Media Extensions, recién enviada por empleados de Google, Netflix y Microsoft al World Wide Web Consortium y de particular importancia para la distribución de contenidos sobre la web. Una propuesta en borrador que, básicamente, implica la inclusión de mecanismos de protección de tipo DRM (Digital Rights Management) en el centro mismo de las tecnologías web.
Recordemos que la tecnologías DRM tienen como objetivo limitar el acceso a contenidos digitales de formas no permitidas por los dueños de la obra, normalmente evitando la copia. En palabras de Richard Stallman, a propósito de la campaña Defective by Design:
El DRM ataca tu libertad en dos niveles. Su propósito es dañar tu libertad al restringir el uso de copias de tu propio trabajo. Significa el uso de forzado de software propietario, lo que significa que tu no controlas lo que hace. Cuando las compañías se organizan para diseñar productos que nos restringen, nos tenemos que organizar para defendernos.
Debe quedarnos claro que el documento Encrypted Media Extensions es una propuesta no oficial, que bien puede quedar en el olvido, aunque a juzgar por la influencia de quienes la proponen, puede ser incluida en la especificación final de HTML5. Nada está dicho aún. Técnicamente hablando, la propuesta es que el motorJavaScript en el navegador
  • Seleccione el mecanismo de protección de contenido (DRM)
  • Use los algoritmos de cifrado adecuados para abrir el contenido protegido
  • Use los algoritmos de gestión de licencias de contenido necesarios para implementar las restricciones del caso
Con esto, los proveedores de contenido tendrán la posibilidad de proteger su capital intelectual/artístico, qué sé yo, con ayuda del navegador. ¿Qué navegadores implementarán esto? Obvio, Chrome e Internet Explorer. No me parece que Mozilla quiera incluir una implementación de esta especificación. Probablemente Apple lo quiera para su Safari. Por fortuna el usuario podrá sopesar las diferentes opciones. Yo me quedo con Firefox, si me permiten opinar.

jueves, 4 de octubre de 2012

Encuentran bacteria del espacio que ofrece una nueva fuente de energía en la Tierra



A través del aislamiento de 75 especies diferentes de bacterias, un equipo de investigadores de la universidad de Newcastle en el Reino Unido ha encontrado que el microbio Bacillus Stratosphericus, una bacteria que se encuentra en la estratosfera, podría ser uno de los mayores generadores de energía eficiente en el planeta.
Este tipo de bacterias se encuentran normalmente a más de 30 kilómetros por encima de la Tierra, un microbio común en altas concentraciones de la estratosfera, orbitando la Tierra con los satélites.
Para ello y tras el aislamiento, los científicos evaluaron la generación de energía de cada una con una célula de combustible microbiana (MFC). Al seleccionar las mejores especies de bacterias, un tipo de microbio fue capaz de crear una biopelícula artificial duplicando la producción eléctrica del MFC de 105 vatios por metro cúbico a 200.
Para que nos hagamos una idea, si bien no es demasiada alta, esta energía sería suficiente para hacer funcionar una luz eléctrica y podría llegar a proporcionar una fuente de luz necesaria en partes del mundo sin electricidad.
La Bacillus Stratosphericus es un microbio que normalmente se encuentra en la atmósfera y fue atraída a la Tierra como resultado de los procesos de reciclaje y aislamiento atmosféricos por el equipo de investigadores.
Según cuenta Grant Burguess, profesor de la Universidad de Newcastle y jefe de la investigación:
El hallazgo demuestra el poder potencial de la técnica. Lo que hemos hecho es manipular deliberadamente la mezcla microbiana para diseñar una biopelícula que es más eficiente en la generación de electricidad.
Esta es la primera vez que los microbios han sido estudiados individualmente y seleccionados de esta manera. Encontrar el microbio fue toda una sorpresa, pero demuestra el potencial de esta técnica para el futuro. Hay miles de millones de microbios por ahí con el potencial de generar energía.
No es la primera vez que se trata de conducir una investigación sobre el uso de microbio para generar energía. De hecho es un concepto utilizado en el tratamiento de aguas residuales. Las células microbianas de combustible funcionan de manera similar a una bacteria y utilizan las mismas para convertir compuestos orgánicos en electricidad a través de la técnica conocida como bio-oxidación catalítica.
Ahora, el hallazgo de los investigadores sugiere por primera vez que mediante la manipulación de la biopelícula se puede aumentar significativamente la potencia eléctrica de las células de combustible. Una investigación que como los mismos investigadores reconocen, puede llevar al desarrollo de la MFC a un nuevo nivel.