jueves, 6 de septiembre de 2012

Evolucion historica de la computadora y las nuevas tendencias tecnologicas.


EVOLUCIÓN HISTORICA DE LA COMPUTADORA


Uno de los elementos más importantes de nuestra vida moderna es sin duda la computadora. Esta ha venido a simplificar nuestra existencia de muchas maneras. Las agencias gubernamentales, la empresa privada, las instituciones educativas y otras entidades utilizan las computadoras para llevar a cabo transacciones, automatizar procesos, enseñar o sencillamente con fines de entretenimiento. Esta es también una herramienta que ha venido a acortar distancias por medio de la comunicación. El uso de la computadora ha mejorado y agilizado muchas de nuestras labores diarias que realizamos tanto en el hogar como en el trabajo.

Este artefacto no es reciente, tiene una larga e interesante trayectoria. La historia de la evolución de las computadoras es una sorprendente y llena de controversias. Es increíble como de un sencillo dispositivo mecánico para contabilizar haya surgido tan poderosa e imprescindible herramienta que ha llegado a obtener tan grande importancia a nivel mundial.

A través del tiempo los ordenadores han cambiado de forma, tamaño, capacidad, composición y han adquirido nuevas funciones para resolver diferentes tipos de problemas o facilitar tareas específicas.

 

A continuación analizaremos de manera sencilla la evolución de

 

 la computadora.



Primera Generación (1945-1956)

·     La computadora fue utilizada para fines militares durante la Segunda Guerra Mundial.

·    IBM creó la primera calculadora electrónica en 1944.

·    Se desarrolló la computadora ENIAC (Electronic Numerical Integrator and Computer),      EDVAC (Electronic Discrete Variable Automatic Computer) en 1945 y la UNIVAC (Universal   Automatic Computer) en 1951.

·   Lo más significativo de esta generación fue el uso de los tubos al vacío.

Segunda Generación (1956-1963)









      Se remplazaron los tubos al vacío por los transistores. 

·     Se reemplazó el lenguaje de máquina por el lenguaje ensamblador.

·    Se crearon los lenguajes de alto nivel como COBOL (Common Business-Oriented Language) y FORTRAN (Formula Translator).

·   Se diseñaron computadoras más pequeñas, rápidas y eficientes.

Tercera Generación (1964-1971)




· Uso de chips de silicón.

· Sistemas operativos.

Cuarta Generación (1971-presente)

·                     Se desarrollaron nuevos chips con mayor capacidad de almacenamiento.

·   Se comenzaron a utilizar las computadoras personales y las Macintosh.

·  Se desarrolló el diseño de redes.

·   Internet.


Nuevas Tendencias Tecnológicas 2012-2013


La nueva era tecnológica nos trae nuevos dispositivos y nuevas interfaces que simplificarán las tareas  que hasta hace poco parecían imposibles de realizar.

No se trata de dispositivos experimentales o promesas que nunca llegaran a concretarse. Son tecnologías que ya dejaron la etapa de prueba para convertirse en una realidad que se multiplica.





Monitores Táctiles




Apple fue el disparador del modelo toqueton y ahora todo el mundo quiere utilizar los deditos para controlar su LCD. Incluso Microsoft anuncia la compatibilidad del nuevo Windows 7 con lo manipulable. De a poco, las computadoras de escritorio empiezan a incorporar esta jerarquía. HP es una de las marcas que hizo punta con la Touchsmart 600 y la 300, dos PCs táctiles que vienen con el hardware escondido en el monitor. Otro de los que se suma a esta movida es Sony, quien mostro su generación de computadoras Sony VAIO L, que llegan con marcos multitactiles, ideales para la reproducción de contenido en alta resolucion sin tener que apelar al teclado o al mouse. 





 Papel Electrónico



 con el lector electrónico de libros Kindle (de Amazon) a la cabeza, la guerra de las tintas digitales no ha hecho más que empezar. Uno de los contendientes que dirige su munición a este blanco es Apple, con su tableta grafica de pronta aparición y que -se espera- permita leer libros. En la lista de fututos fabricantes de estos dispositivos figuran el gigante japonés Fujitsu, el desarrollador taiwanesa de computadoras Asus y la cadena de librerías estadounidense Barnes & Noble.

Además de cargar una biblioteca de e-books, en estos aparatitos también se podrán consultar diarios, revistas y tener acceso a diccionarios y enciclopedias. Eso si, hay que desembolsar de entrada unos $ 1.500 por el chiche.






Cloud Computing






El concepto motorizado por Google es almacenar la información en Internet y no depender de los discos rigidos que están en las PCs. La intención es que la Web no sea un lugar exclusivo de búsquedas y convertirlo en una plataforma donde se manejan documentos, música y fotos. Para llevar adelante este proyecto, Google primero deberá quitarle mercado  a Windows, quien basa su poderío en las aplicaciones de escritorio.

La estrategia principal de Google se hamaca en la velocidad de acceso. Al no existir un sistema operativo tradicional que regula el tráfico de archivos, el inicio será mucho más rápido. El nuevo sistema operativo para notebooks Chrome, presentado por Google hace unos días, contempla esta idea. El problema que se debe resolver es que ocurre cuando falla la conexión. El éxito de esta iniciativa está ligado a la consolidación del HTML 5.0, que es la evolución natural del lenguaje actual, el XHTML y se anuncia como una nueva dimensión de lo que es la Web hoy en día
.






USB 3.0











El conector más popular de la PC aumenta su potencia y multiplica por diez la velocidad de los anteriores. Así, para mover 15 GB habrá que esperar menos de un minuto. Mientras que con el USB 2.0 no baja de los 10 minutos y con el primero cerca de 5 horas.

La tercera versión del Universal Serial Bus seré compatible con los anteriores y muchos fabricantes de hard comenzaron a sacar sus dispositivos con esta conexión. Entre sus facultades está el poder enviar y recibir datos simultáneamente. Y trae un aumento en la cantidad de energía que puede transmitir, lo que permitira cargar un celular o un MP3 en menos tiempo.



Television 3D


Hasta ahora era posible ver imágenes en tres dimensiones con la ayuda de unas gafas con filtros de color. La television doméstica en tres dimensiones será la nueva revolución de la imagen. El espectador sentado a una cierta distancia del LCD advertirá que los objetos saltan a unos 50 centímetros de la pantalla. Tanto Sony como Panasonic oficializaron en la feria IFA de Berlín su proyecto de lanzar este tipo de receptores. Mientras que Philips presento un prototipo en el país.

Uno de los adelantos que impulsa la television en tres planos (o 3D-TV) es que al cambiar el punto de vista también se modifica la perspectiva de la escena, porque una variación en la posición afecta a la imagen que percibe el observador. La sensación es que el cuadro gira con sus movimientos. Esto se logra mediante un sistema de filmación con varias cámaras que apuntan a un mismo punto.


 





Sistema Android 4.0 Icecream Sandwich.





Ice Cream Sandwich ya es una realidad en los jardines de Google. La versión 4.0 del Sistema Operativo de Android llegó para hacer más fácil el manejo e interfaz de sus equipos. Pero ¿qué es realmente esta nueva actualización?

La primera explicación que te podemos entregar es que Ice Cream supondrá la unificación de versiones del sistema para 'smartphones' y 'tablets'. Se trata de una novedad importante que puede afectar significativamente al desarrollo del sistema operativo de Google.

Los usuarios de 'smartphones' Android, podrán disfrutar de aspectos como nuevo y mejores widgets, un mejor control de notificaciones o un rediseño de algunas de las aplicaciones propias del sistema entre otras novedades.

En realidad, el nuevo Sistema Operativo toma lo mejor de Android 2.3 y Android 3.0, combinándolo con una nueva tipografía exclusiva denominada Roboto, diseñada para una cómoda lectura en pantallas de alta resolución.

Otro de los aspectos novedosos es la inclusión de botones virtuales en la barra del sistema, permitiendo realizar las típicas opciones de navegación Android (atrás, inicio, aplicaciones recientes). Tanto la barra de sistema como los botones virtuales están presentes a lo largo de las aplicaciones que usemos.



Microsoft Windows 8.




Es el nombre oficial de la próxima versión de Microsoft Windows, familia de sistemas operativos producidos por Microsoft para su uso en computadoras personales, incluidas computadoras de escritorio en casa y de negocios, computadoras portátiles, notebooks, tablets, servidores y centros multimedia. Añade soporte para microprocesadores ARM, además de los microprocesadores tradicionales x86 de Intel y AMD. Su interfaz de usuario ha sido modificada para hacerla más adecuada para su uso con pantallas táctiles, además de los tradicionales ratón y teclado. Microsoft también anunció que Aero Glass no estará presente en la versión final de Windows 8. Microsoft anunció que el lanzamiento de la versión final de Windows 8 se efectuará el 26 de octubre de 2012, 3 años después del lanzamiento de su predecesor Windows 7. Se lanzó al público general una versión de desarrollo ("Consumer Preview") el 29 de febrero de 2012. Microsoft finalmente anunció una versión casi completa de Windows 8, la Release Preview, que fue lanzada el 31 de mayo de 2012 y es la última versión preliminar de Windows 8 antes de su lanzamiento oficial. El desarrollo de Windows 8 concluyó con el anuncio de la versión RTM el 1 de agosto de 2012.




Características nuevas en el sistema:






Windows To Go USB.

·Compatibilidad con USB 3.0.

· Interfaz Ribbon en el Explorador de Windows.

· Nueva tienda de Aplicaciones.

·Sistema de ficheros Protogon.

·  Windows To Go.

Requisitos del hardware

Los requisitos del sistema de Windows 8 son similares a los de Windows 7:


· Arquitectura x86 (32 bits) y x86-64 (64 bits).

·  Procesador: 1 GHz en las arquitecturas de 32 bits y 64 bits.

·   Memoria RAM: 1 Gb (32 bits) y 2 Gb (64 bits).

·  Gráficos: GPU DirectX 9 con Windows Display Driver Model (WDDM) 1.0 (No es necesario, solo se requiere para Windows Aero)

·Disco duro: 16 Gb (32 bits) y 20 Gb (64 bits) de espacio libre.

·Una pantalla capacitiva (opcional) para aprovechar la entrada táctil.







El Blu-ray crece hasta los 128 GB:






Representación artístico de varios discos Blu-ray.

Se espera que estos nuevos discos estén disponibles en los próximos meses para profesionales y, más tarde, para el mercado de consumo.
Se ha conseguido incrementando la potencia del láser para aumentar hasta cuatro las dos capas actuales.

La Blu-ray Disc Association (BDA) ha presentado dos nuevas especificaciones; una de ellas, la BDXL, permite a un disco de Blu-ray almacenar hasta 128 GB de lectura; 100GB para rescribir. Se espera que ambas estén disponibles en los próximos meses para profesionales y, más tarde, para el mercado de consumo.

Los BDXL ('High Capacity Recordable and Rewritable Discs') están dirigidos en especial a segmentos como radiodifusión, almacenamiento de imágenes y documentos médicos, y a todas las empresas con necesidades de archivo importantes.

La tecnología empleada para lograr este aumento de la capacidad ha sido incrementar la potencia del láser

"Las industrias profesionales han expresado su deseo de encontrar soluciones ópticas de disco que les permitan prescindir de los medios magnéticos para sus necesidades de archivo", aseguró el presidente del Comité de Promociones de la BDA, Victor Matsuda.

En relación a la mejora del Blu-ray Dics, aseguró que "para satisfacer esta necesidad, éste proporciona a las empresas profesionales una solución a largo plazo compacta y estable para archivar grandes cantidades de datos sensibles, vídeo e imágenes gráficas con una probada y ampliamente aceptada tecnología óptica".

La tecnología empleada para lograr este aumento de la capacidad ha sido incrementar la potencia del láser para aumentar a cuatro las dos capas actuales.

Respecto a la segunda especificación, la 'Intra-Hybrid Blu-ray Disc' (IH-BD), ésta incorpora un BD-ROM de una sola capa y un solo BD-RE a fin de permitir al usuario ver, pero no sobrescribir, datos críticos publicados mientas permite incorporar datos privados relevantes en el mismo disco.


 

Bluetooth 4.0 con menor consumo de energía :











La tecnología detrás de Bluetooth ha sido una creación muy práctica para todos los que tenemos muchos dispositivos en el hogar y/o la oficina interconectados. También se ha impuesto en los teléfonos móviles para poder compartir información de forma rápida y segura.

Hasta ahora, lo que se criticaba a este servicio es su consumo de energía en los dispositivos que lo utilizan. Por ello se ha estado trabajando para lograr que Bluetooth 4.0 solucione este inconveniente. El 17 de diciembre el SIG lanzó un comunicado de prensa en el que informa aprobar el Bluetooth Core Specification 4.0 como nueva
tecnología que se utilizará en los futuros dispositivos inalámbricos.


 

AMD presenta su tecnología Turbo CORE:





Mientras que el mercado y los entusiastas del hardware aguardan con ansias los procesadores Thuban de seis núcleos, AMD ha revelado algunos detalles técnicos que estarán disponibles en su futura línea de CPUs. Uno de estos detalles es el Turbo CORE, un sistema a través del cual un procesador puede reducir automáticamente el reloj de los núcleos que no está utilizando, y aumentar el reloj de los que sí. Reducir la velocidad de los núcleos no solo sirve para mantener en línea dos puntos importantes como el umbral térmico y el consumo de energía, sino que también es útil para aumentar el rendimiento de aquellas aplicaciones que por diseño propio utilizan una cantidad de núcleos menor a la disponible en el procesador.

El mercado de los microprocesadores ya cuenta con ejemplares de seis núcleos. A mediados del mes de marzo, Intel lanzó a su procesador de escritorio más poderoso, el i7-980X. Debido a lo reciente de su lanzamiento y a lo complejo de su diseño, el i7-980X posee un precio poco accesible para la mayoría (U$S 1000), pero a cambio Intel entrega lo mejor de su armada de procesadores con un masivo rendimiento.

Turbo CORE podrá cambiar de forma dinámica el reloj de los núcleos, de acuerdo a la carga colocada sobre el procesador.
Turbo CORE es la implementación de AMD de un sistema similar al Turbo Boost que Intel utiliza en sus Core i5 e i7. De acuerdo a la cantidad de procesamiento solicitada por el usuario, el Turbo Boost de Intel puede desactivar núcleos que no están en uso, y aumentar el reloj de los que sí son necesarios en incrementos de 133 Mhz, lo que provee a los procesadores Intel con un aumento significativo en su rendimiento aún utilizando un solo núcleo, sin afectar su umbral térmico. El Turbo CORE de AMD funciona de manera más simple: Cuando tres o más núcleos (sobre un CPU con seis núcleos) no están siendo utilizados, Turbo CORE reduce la velocidad de éstos a 800 Mhz, mientras que los otros tres reciben un aumento en su velocidad de reloj que puede trepar a 500 Mhz adicionales, según el modelo. La temperatura no es un factor para la activación de Turbo CORE, sino la carga sobre el procesador. Turbo CORE es controlado automáticamente a través del hardware sin intervención del usuario.

viernes, 31 de agosto de 2012

Las nuevas tendencias tecnológicas.


Hace referencia a los últimos desarrollos tecnológicos y sus aplicaciones (programas, procesos y aplicaciones).

Las nuevas tecnologías se centran en los procesos de comunicación y las agrupamos en tres áreas: la informática, el vídeo y la telecomunicación, con interrelaciones y desarrollos a más de un área.

Existe una confusión en identificar las nuevas tecnologías con la informática por la presencia de microprocesadores en casi todos los nuevos aparatos y por la función que tiene ésta en la sociedad actual. Hacen referencia también al desarrollo tecnológico en el diseño de procesos, programas y aplicaciones.

DESARROLLO BASE EN INFORMÁTICA.

El gran salto de la informática lo supuso el desarrollo de microchips. El primer ordenador (1946) ocupaba una gran sala, hoy una calculadora científica de bolsillo es más potente que ese ordenador.

La memoria de un ordenador se mide en bytes. Cada vez se pueden fabricar ordenadores más pequeños, más potentes y que consumen menos. Un cambio espectacular se produce con los sistemas ópticos de almacenamiento de información ( CD-ROM) y se investigan otros nuevos.

Los avances en los diseños de sistemas operativos y la programación correspondiente ( software) también adquieren gran importancia. El sistema operativo de un ordenador consiste en las instrucciones que hace funcionar los circuitos que lo forman de acuerdo al usuario.

El desarrollo de sistemas de inteligencia artificial y lenguajes de antes permitirán un importante cambio en el planteamiento y diseño de programas educativos. Un aspecto relevante es la comunicación con el ordenador mediante el lenguaje natural.

DESARROLLO BASE VÍDEO.

En el campo de la imagen electrónica se han producido los avances más espectaculares.

El vídeo ha irrumpido en la sociedad actual a través de la mejora de procesos: la grabación de la imagen en una cinta magnética a través de unos cabezales se ha modificado la velocidad, los materiales... también se han mejorado los circuítos que tratan la señal y otros aspectos. La miniaturización ha supuesto el gran cambio que ha permitido introducir el vídeo en las familias y en el centro escolar.

Hay tres cambios importantes:

sustitución de tubos de vacío T.V. por pantallas planas.

tratamiento digital de la imagen.

formato de imagen electrónica de alta definición.

Los dos primera ya son casi una realidad. En un futuro próximo se integrará en todos los medios audiovisuales en lo que podríamos llamar la imagen electrónica.

Un desarrollo más a tener en cuenta son los cambios en los sistemas de registros. Es previsible un futuro basado en el disco óptico digital.

1.1.3. DESARROLLO BASE EN TELECOMUNICACIÓN.

Los dos grandes desarrollos en el campo de la comunicación son los satélites y el cable de fibra óptica.

Los satélites están siendo utilizados desde hace tiempo. Los cables ópticos sustituyen a los metálicos que transmitían señales eléctricas. Transmiten impulsos luminosos, aumenta la cantidad de información por transmitir y disminuyen las pérdidas.

El cable ha permitido desarrollos educativos a través del vídeotexto, su desarrollo posibilitará los sistemas de enseñanza abierta.

Los sistemas de T.V. clásica se aplican educativamente al teletexto.

El gran cambio educativo en el s. XXI se verá más influenciado por el desarrollo de los sistemas de telecomunicaciones.



LOS MEDIOS COMO RECURSOS DIDÁCTICOS.

Un uso correcto de los medios para trabajar los contenidos del currículo tiene que tener en cuenta las formas de aprender del alumno y las formas de organizar la información de los medios (planteamiento multimedia).

El profesorado al diseñar las v.d. buscará los medios y los documentos más adecuados y los integrará en sus estrategias de enseñanza. Es muy importante la forma que tiene un documento de estructura y presentar la información porque facilita su uso. Todos los documentos son útiles, pero unos más que otros. Con un mismo medio se conseguirá rendimientos diferentes según el modo de empleo.

Durante un tiempo se creía que los documentales de TV eran muy útiles para enseñar, pero un análisis ha permitido cuestionar esta idea debido a la excesiva información que contienen. La estructura narrativa y las características de éstos resultan eficaces para el entretenimiento, pero no para la enseñanza. Para ello es importante tener claro qué le podemos pedir a un documento para que sea didáctico.

REQUISITOS PARA QUE UN MEDIO SEA DIDÁCTICO.

Los documentos audiovisuales los clasificamos en dos grupos: los dedicados a contenidos conceptuales y procedimentales y los dirigidos a contenidos actitudinales.

El tratamiento del lenguaje es diferente: en el primer caso se dirige al intelecto y en el segundo a la emotividad.

Los documentos que trabajan contenidos actitudinales encuentran en la imagen y sonido sus bases que conectan fácilmente con el sentimiento y la emotividad. Ejemplo la publicidad televisiva.

En ambos casos se emplean la sucesión rápida de imágenes y sonidos lo más impactantes posibles ya que facilita la formación de compradores natos aunque puede potenciar actitudes contrarias.

Los documentos dirigidos a conceptos y procedimientos deberán de tener una información estructurada lógicamente porque han de comprenderse. Deberían tener en cuenta las teorías sobre el procesamiento de la información y cuidar la selección y dosificación de la misma.

Requisitos para que el documento audiovisual sea didáctico:

-La información sea relevante con los contenidos del currículo que trate de forma directa y en profundidad los temas que se trabajen en clase.

-La estructura y presentación de la informática sea adecuada al propio contenido y a la forma de aprender de los destinatarios, es decir:

-que éstos estén claros y estructurados, que no salten de un tema a otro.

-que se vea lo que se tiene que ver en el tiempo necesario.

-que las voces sean comprensibles.

-Presentación de temas con recapitulaciones que incluya mecanismos y recursos que faciliten el aprendizaje.

-Actividades, bibliografía, videografía... (que incorpore sugerencias)

Sabremos si un documento audiovisual es didáctico tras someterlo a un análisis.


¿POR QUÉ RETICENCIAS?

Hay dos actitudes: cuantitativa y cualitativa.

En el ámbito escolar las actitudes ante lo audiovisual oscilan entre dos polos opuestos, la de los que afirman y la de los que niegan, la de los defensores a ultranza y la de los detractores. La mayor parte de los posicionamientos tienden a situarse más cerca que nunca de las posiciones extremas.

Por una parte la postura: confianza extrema en los medios audiovisuales aplicados al proceso de enseñanza- aprendizaje (consideran la panacea de los males que aquejan a la enseñanza).

Por otra parte la postura: actitud de reticencia total ante los medios aplicados a la enseñanza. Ésta es la más generalizada en el ámbito educativo.

En el ámbito de lo audiovisual no se parte nunca de cero. No ocurre lo que sucede con la informática. De audiovisuales todo el mundo entiende.

El problema es que cuando las cosa no se han hecho bien desde un primer momento, es imprescindible destruir antes de construir.

Chips que se autorreparan solos:



Investigadores de la Universidad de Illinois (USA) han desarrollado un circuito capaz de devolver automáticamente la conductividad eléctrica a partes de él que la hayan perdido por alguna rotura. En la actualidad, un fallo de esta naturaleza obliga a cambiar elchip, y son errores cada vez más comunes debido al aumento de densidad con que se fabrican estos dispositivos.
El invento consiste en colocar unas microcápsulas de metal líquido, de unos 10 micrones de diámetro, encima de las zonas del chip que realizan la conducción eléctrica. Si se produce una rotura en el material conductor el metal líquido se desliza en la brecha en microsegundos. En las pruebas un 90 por ciento de los chips dotados de este mecanismo se autorrepararon recuperando un 99 por ciento de la conductividad original.
La principal aplicación podría estar en vehículos o 
instrumentos militares
 o espaciales, donde los circuitos electrónicos no pueden ser reemplazados o reparados.
Una gran ventaja de este sistema es que es localizado y autónomo. O sea, las microcápsulas solamente se rompen en aquellos lugares donde 
hay un problema y lo hacen sin necesidad de supervisión humana.


vendas inteligentes




Una científica australiana anda trabajando en una 'venda inteligente' para el tratamiento de lesiones crónicas en base a un material que pueda cambiar decolor según el estado de las lesiones. Lo que está desarrollando es algo que reacciona en respuesta a los cambios de temperatura; si uno tiene una infección o inflamación es probable que aumente la temperatura respecto a la normal, pero si se registra un descenso de temperatura es posible que exista otro tipo de problema como por ejemplo en el abastecimiento de sangre al tejido de la herida.
Se espera que este curioso invento mejore la calidad de vida de estos enfermos, sobre todo ancianos, diabéticos y 
personas obesas con heridas crónicas como úlceras. En muchos casos, las heridas de algunos pacientes tardan seis meses en curarse porque no se identifican a tiempo las infecciones recurrentes.
Para producir esta venda, la 
científico busca incorporar en la fibra del material una molécula que cambia de color, entre el rojo, verde y azul.
La investigadora espera producir en el 
futuro cercano un prototipo en el que las modificaciones cromáticas estén calibradas en respuesta a un determinado rango de temperatura. "Queremos afinarla para que uno vea a través del color una diferencia, en menos de medio grado, en la temperatura (de la herida)", precisa.
La venda "camaleón" podría reducir en miles y miles de millones de dólares los costes del tratamiento de heridas crónicas en todo el mundo porque facilitaría el diagnóstico y supervisión del estado de las lesiones.



Paperphone:






En Ontario, Canadá, un grupo de investigadores de la Universidad de Queen ha creado un prototipo de smartphone con una pantalla flexible que permite seleccionar las opciones del sistema operativo doblando la propia pantalla. La pantalla del Paperphone -como ha sido bautizado- se compone de 9,5 cm de una película que forma una pantalla fina y flexible de tintaelectrónica.
La forma flexible de la pantalla hace que sea mucho más portátil que cualquier equipo móvil actual ya que se adapta a la forma del bolsillo de un pantalón. Ser capaz de almacenar e interactuar con documentos en este tipo de "equipos flexibles" significa que en un futuro las oficinas no tendrán que utilizar 
papel ni impresoras.
Este prototipo 
anuncia una nueva generación de equipos súper ligeros, delgados y flexibles. Además, este tipo de dispositivos no consumen energía mientras que el usuario no lo está usando. Cuando los usuarios están leyendo, sienten como si estuvieran sosteniendo una hoja de vidrio o de metal.


Material autorreparable:





Científicos suizos han desarrollado polímeros que tienen la capacidad intrínseca de autorrepararse mediante la exposición a la luz ultravioleta y que podrían ser de enorme utilidad en áreas como el empaquetado, la construcción, los transportes o... ya que prolongan la vida de materiales que se emplean en numerosas aplicaciones.
La mayoría de los materiales a base de polímeros se reparan mediante el calentamiento directo de la zona afectada, sin embargo, aquí han desarrollado un material gomoso que contiene compuestos metálicos que absorben la luz ultravioleta y la convierten en calor localizado, lo que permite la autorreparación. Al exponer el polímero metalosupramolecular a la luz ultravioleta, se produce una estimulación del ligante metálico y la energía así absorbida se transforma en calor.
Este método tiene ventajas sobre el calentamiento directo como el hecho de poder acotar la zona dañada e incluso proceder a la autorreparación mientras está sometida a alguna carga.

Reproducen una retina con células madre:



La revista Nature se ha hecho eco de la noticia de que científicos nipones han conseguido que células madre embrionarias deratón se conviertan espontáneamente en el laboratorio en una retina, la estructura a partir de la cual se desarrolla el ojo. (En la imagen, la retina creada por los científicos del Japón en un tubo de ensayo).
Hasta ahora nunca se había logrado crear in vitro un tejido tan complejo como es una retina. Los investigadores sumergieron las células madre embrionarias en una mezcla de nutrientes. Luego, sin más ayuda, las propias células se especializaron y se organizaron de forma espontánea hasta alcanzar formas tridimensionales. Se abren así caminos a 
nuevostratamientos contra enfermedades de la vista. Según los expertos, incluso se plantea la posibilidad de restaurar la vista con retinas transplantadas, generadas a partir de las propias células madre de un paciente.
Hasta la fecha, se creía que las células madre solamente servían para reemplazar tejidos, de un músculo o de un hígado, compuestos de un único tipo de células. Los 
científicos venían aceptando que la generación de un conjunto más complejo de células solamente era posible mediante interacciones químicas con otros tejidos durante la gestación. La novedad de este estudio radica en que se ha logrado transformar células madre embriónicas de un ratón en lo que llaman una copa óptica, una estructura tridimensional que da lugar a la retina de un ojo. Estamos, pues, en el buen camino para generar no sólo distintos tipos de células, sino tejidos organizados que puedan emplearse en la medicina regenerativa.
Los científicos japoneses describen cómo las células madre pueden diferenciarse y ensamblarse sin la influencia química y física de otros tejidos en una copa óptica capaz de formar la estructura característica de la retina. Para ello, utilizaron un novedoso sistema de cultivo de tejidos tridimensional. También se afirma que un sistema tridimensional equivalente para el ser humano podría servir para reproducir
enfermedades y probar medicamentos mediante el uso de células madre pluripotentes inducidas generadas a partir de los tejidos de los pacientes.

Alimentos más duraderos:


Publicado un estudio en Langmuir, la revista de la Sociedad Química Americana, científicos pertenecientes al Instituto de Nanotecnología y Materiales Avanzados de la Universidad de Bar-Ián (Tel Aviv, Israel) han desarrollado un proceso muy sencillo para recubrir papel, cartón, plástico o cualquier material que envuelvaalimentos con el fin de evitar el crecimiento microbiano.
La técnica consiste en utilizar ultrasonidos para lanzar nanopartículas a base de plata coloidal, cada una de ellas 50.000 veces más finas que un
cabello humano, de modo que queden fijadas en el materialbombardeado. El resultado es un material con propiedades biocidas y fungicidas que conserva los alimentos hasta tres veces más del tiempo habitual.
Uno de los responsables de la investigación ha asegurado que aún queda por desarrollar comercialmente un papel aplicable a la 
industria alimentaria pero cuando se logre será una alternativa a los actuales métodos de conservación de alimentos que utilizan radiaciones, tratamientos térmicos, refrigeración o el uso de aditivos antimicrobianos.En el futuro, la gente podrá tratar cualquier material de embalaje, como bolsas de plastico, papel o cartón, para mantener la comida en buen estado durante más tiempo.


Las moscas permitirán mejorar el diseño de las redes inalámbricas:



según apunta una investigación llevada a cabo por la Universidad estadounidense de Carnegie Mellon en Pittsburgh, el sistema nervioso de la mosca podría ayudar a mejorar el diseño de las redes inalámbricas. Los investigadores se han inspirado en la forma en la que la mosca de la fruta organiza sus diminutas estructuras similares a los pelos para sentir y escuchar el mundo para mejorar el diseño de aplicaciones de computación distribuidas.

Las células del sistema nervioso de la mosca se organizan de modo que un pequeño número de ellas funcionen como líderes para proporcionar conexiones directas con distintas células nerviosas. Los investigadores han desarrollado la misma clase de esquema para redes informáticas distribuidas que desarrollan tareas cotidianas como las búsquedas en internet o el control de un avión en vuelo. Pero el método que la evolución ha brindado al sistema nervioso de la mosca para organizarse es mucho más simple y más contundente que cualquiera de los elaborados por los humanos.

Los investigadores utilizaron la información sobre las moscas de la fruta para diseñar un algoritmo informático distribuido y descubrieron que tiene cualidades que lo hacen particularmente adaptable a las redes en las que el número y posición de los nodos no está completamente establecido. Entre estas redes se incluyen los sensores sin cables, como los del control ambiental, en las que los sensores están dispersos en un lago o una vía de agua, o en sistemas para el control de grupos de robots.

En el mundo de la computación, un paso hacia la creación de sistemas distribuidos es encontrar un pequeño grupo de procesadores que puedan utilizarse para comunicarse rápidamente con el resto de procesadores de la red, lo que los teóricos denominan un conjunto independiente máximo (CIM). Cada procesador en la red es un líder, miembro del CIM, o está conectado a él, pero los líderes no están interconectados.

Una organización similar se produce en la mosca de la fruta, que utiliza diminutos bigotes para detectar el mundo exterior. Cada bigote se desarrolla a partir de una célula nerviosa, llamada precursor del órgano sensorial (POS), que conecta con células nerviosas cercanas, pero que no con otros POS.

Durante tres décadas los científicos se han preguntado sobre cómo los procesadores en una red pueden elegir los miembros del CIM. Durante las fases de larva y crisálida del desarrollo de la mosca, el sistema nervioso utiliza un método probabilístico para seleccionar las células que se convierten en POS.

En la mosca, sin embargo, las células no tienen información sobre cómo están conectadas entre sí. A medida que varias células se autoseleccionan como POS, mandan señales químicas a las células cercanas que inhiben a estas células de convertirse también en POS. Este proceso continúa hasta que todas las células son o POS o vecinas a una POS y la mosca emerge del estado de crisálida.

Según los investigadores, en la mosca la probabilidad de que cualquier célula se autoseleccione aumenta no como una función de conexiones, como en el algoritmo típico de CIM para las redes informáticas, sino como una función de tiempo. El método no requiere un conocimiento avanzado sobre cómo se organizan las células. La comunicación entre las células es tan simple como puede ser.

Los científicos crearon un algoritmo informático basado en el sistema de la mosca y probaron que proporciona una solución rápida al problema del CIM. En este sentido, los autores señalan que el tiempo de actuación era ligeramente superior al de los métodos actuales pero que el método biológico es eficiente y más robusto porque no requiere muchas asunciones, lo que convierte a la solución aplicable en muchas más aplicaciones.

Metaflex:





Diseñado por científicos de la Universidad británica de St Andrews, Metaflex es el nombre de un material que nos acerca un paso más a la fabricación de tejidos que permitirán crear el efecto de la invisibilidad de los objetos.

El Metaflex es un meta-material, o lo que es lo mismo, un material artificial que presenta propiedades electromagnéticas inusuales, propiedades que proceden de la estructura diseñada y no de su composición.

En el pasado ya se han desarrollado meta-materiales que curvan y canalizan la luz para convertir en invisibles los objetos en largas longitudes de onda, pero la luz visible supone un desafío mayor. La pequeña longitud de onda de la luz del día supone que los átomos del meta-material tengan que ser muy pequeños, y hasta ahora estos átomos menores solamente se han podido producir sobre superficies planas y duras, incompatibles con los tejidos de la ropa.

La novedad que aporta este trabajo es que el Metaflex consta de unas membranas flexibles de meta-material, creadas gracias al empleo de una nueva técnica que ha permitido liberar los meta-átomos de la superficie dura sobre la que fueron construidos. De esta forma, el Metaflex puede operar en longitudes de onda de unos 620 nanómetros dentro de la región de la luz visible.

La unión de estas membranas podría producir un "tejido inteligente", que sería el primer paso para fabricar una capa o cualquier otra prenda para "hacer desaparecer" a la persona que la porte. Los meta-materiales, pues, nos dan el impulso último para poder manipular el comportamiento de la luz.

Un teléfono que identifica las emociones humanas:






Un grupo de investigadores de la Universidad de Cambrige ha creado un novedoso sistema llamado ‘EmotionSense’ donde a través de un software de reconocimiento de voz y sensores de los teléfonos inteligentes evalúa hasta qué punto las emociones de las personas se pueden ver influidas por factores como el entorno, la hora del día, o sus relaciones con las demás personas. Y es que los teléfonos móviles representan una plataforma de computación ideal para monitorear el comportamiento y el movimiento, ya que forman parte de la vida cotidiana de miles de millones de seres humanos. Un posible uso de estas tecnologías es el apoyo a la experimentación con la sociología que implica el estudio de la vida cotidiana de las personas y las interacciones.

EmotionSense utiliza los dispositivos de grabación que ya existen en muchos de los teléfonos móviles existentes en el mercado para analizar las muestras de audio de la lengua del usuario. Éstas se comparan con una biblioteca de expresión (conocida como la prosodia del habla emocional y la Biblioteca transcripciones) que es ampliamente utilizada en la investigación sobre el procesamiento del habla. La biblioteca se compone de actores de lectura con una serie de fechas y números en los tonos que representan catorce categorías emocionales diferentes. A partir de aquí, las muestras se agrupan en cinco categorías más amplias como ‘Feliz’ (con emociones como la euforia, o el interés), ‘Tristeza’,’ ‘Miedo’, ‘Ira’ (que incluye emociones como la repugnancia) y las emociones ‘Neutrales’ (como el aburrimiento o la pasividad). Los datos pueden ser comparados con cualquier otra información que también sea recogida por el teléfono. Una vez incorporados estos datos en el software del GPS, los investigadores pueden llevar a cabo una referencia cruzada de las muestras de audio con la ubicación del usuario, utilizando tecnología Bluetooth para identificar con quiénes están los usuarios y el teléfono puede también grabar los datos acerca de quién estaba hablando y en qué momento se llevó a cabo la conversación.

Los primeros resultados de la investigación demuestran que la tecnología podría proporcionar a los psicólogos, con una visión mucho más profunda de cómo los altos y bajos emocionales de las personas (como los períodos de la felicidad, la ira o el estrés) están relacionados con el lugar en el que están, lo que están haciendo o con quién están.

Hoy en día todo el mundo tiene un teléfono móvil, por lo que potencialmente es una herramienta perfecta si se desea realizar un seguimiento del comportamiento o estado emocional de un gran número de personas. Lo que se está tratando, pues, de producir, es un medio que no resulte intrusivo y logre respetar también la privacidad. Con el tiempo, podría tener un enorme impacto en la manera en que se estudia el comportamiento humano y psicólogos darían una visión más profunda del comportamiento. El software también está configurado para que el análisis se lleve a cabo en el propio teléfono. Esto significa que los datos no tienen por qué ser transmitidos a otros lugares y pueden ser descartados después de un análisis para mantener la privacidad del usuario.

El equipo de investigación ya ha probado la eficacia del sistema con un grupo de dieciocho voluntarios. Para ello, cada sujeto recibió una modificación del navegador de Nokia 6210 durante un período de diez días. También se les pidió que llevaran un diario en el que grabaron su estado emocional de acuerdo con un conjunto estándar de preguntas ya utilizadas por los psicólogos sociales y del comportamiento, a modo de encuesta. Los resultados mostraron que en alrededor del 70 por ciento de los casos coincidía el análisis emocional que ofrecía el sistema de teléfono con los resultados de la encuesta, lo que les demostró que con la nueva modificación de este tipo de tecnología de telefonía móvil podría convertirse en un medio muy preciso de seguimiento de los factores que influyen en las emociones de las personas.

Este estudio piloto también arrojó algunas sugerencias interesantes sobre cómo las circunstancias pueden afectar a nuestro estado emocional. La ubicación tuvo un efecto pronunciado en el estado de la mente de los usuarios. En la categoría ‘Feliz’ los datos se pronunciaban cuando se encontraban en zonas residenciales (en concreto el 45 por ciento de todas las emociones registradas), pero en los lugares de trabajo los datos de la categoría ‘Triste’ eran muy pronunciados (54 por ciento de los casos). Los investigadores también descubrieron que los usuarios muestran unas emociones más intensas por la tarde que por la mañana y que las personas tienden a expresar mucho más sus emociones en grupos pequeños que en las grandes multitudes.

Ahora se está llevando a cabo una nueva fase en la investigación y están trabajando para perfeccionar todavía más el sistema, mejorando las clasificaciones de las emociones y su respuesta al ruido de fondo.

Comunicándonos con personas en estado vegetativo:



Dirigidos por el neurocientífico Adrian Owen, un equipo de investigadores de la británica Universidad de Cambridge han desarrollado un sistema que permite la comunicación con pacientes con graves lesionescerebrales, condenados a lo que se denomina un estado vegetativo persistente (EPV). Gracias a ello, estas personas podrán comunicarse con el mundo que les rodea e incluso podrían llegar a movilizarse en sillas de ruedas motorizadas y dirigidas por sus propiasmentes.

Los investigadores utilizaron monitores de electroencefalografía (EEG) (técnica de exploración de la actividad bioeléctrica del cerebro en condiciones basales de reposo) que conectaron a 128 electrodos situados en un gorro, a su vez colocado en la cabeza de pacientes con daño cerebral severo. Este sistema les permitió comprender las respuestas que los pacientes les dieron a una serie de preguntas realizadas.

S cree que conectando un sistema similar a un ordenador se podrán decodificar los mensajes del cerebro de personas en estado vegetativo. De esta forma, éstas podrían comunicarse con el mundo exterior a través de un sintetizador de voz e, incluso, controlar una silla de ruedas motorizada. El dispositivo, que podría estar disponible para su comercialización y aplicación en una década, tiene su origen en un experimento anterior realizado también por Owen y sus colaboradores. En dicho experimento, consiguieron comunicarse con un paciente de 29 años que llevaba un lustro en estado vegetativo, como consecuencia de las lesiones cerebrales que sufrió en un accidente de coche.

Utilizaron entonces una técnica de escaneo cerebral denominada exploración por resonancia magnética funcional (fMRI) que les permitió registrar la actividad cerebral del joven mientras éste contestaba 'sí' o 'no' a preguntas como "¿tú padre se llama Thomas?".

Anteriormente, la fMRI había sido empleada en un estudio de tres años de duración para averiguar si existían o no signos de conciencia en 23 pacientes en estado vegetativo. En cuatro de los casos estudiados (el 17 por ciento de ellos) se descubrió que dichos pacientes sí mantenían ciertos niveles de conciencia a pesar de no poder moverse ni hablar. En el caso del joven de 29 años, los resultados fueron aún más sorprendentes, dado que los científicos consiguieron, además de constatar su consciencia, comunicarse con él. Para ello, el paciente tan sólo tuvo que modular sus pensamientos.

Dado que las señales cerebrales asociadas al “sí” o al “no” son complejas y muy similares, los científicos pidieron al joven que imaginara que jugaba al tenis cuando quería decir “sí” y que paseaba por algún lugar cuando quería decir “no”. Pensar en los movimientos del tenis pone en marcha regiones del cerebro relacionadas con las actividades espaciales, mientras que pensar que se está dando un paseo por cualquier sitio activa regiones cerebrales vinculadas con la orientación. Gracias a este cambio en sus pensamientos, y a su reflejo diverso en la actividad neuronal consecuente, los científicos pudieron interpretar las respuestas del paciente a las preguntas que se le realizaron.

Más recientemente, los investigadores han utilizado monitores de EEG, en lugar de la técnica de fMRI, para hablar con pacientes en estado vegetativo. La tecnología EEG presenta algunas ventajas con respecto a la exploración por resonancia magnética funcional. Por un lado, es más barata, pequeña y portátil que la fMRI, que utiliza campos magnéticos y ondas de radio para detectar las pulsaciones eléctricas del cerebro. Por otro lado, la EEG genera resultados más rápidamente que la fMRI, lo que hace posible mantener una conversación con un paciente en este estado.

Los resultados obtenidos son algo extraordinario. La comunicación con pacientes en estado vegetativo es una obligación ética y moral, ya que un simple “sí” o “no” en estos casos podría servir, por ejemplo, para tratar de manera ajustada el dolor que puedan estar sufriendo los pacientes.

El estado vegetativo es una condición neurológica compleja que actualmente se diagnostica mal en un 40 por ciento de los casos (se determina que no tienen conciencia pacientes que sí la tienen). Las causas principales de estos diagnósticos erróneos están relacionadas con la incapacidad de los pacientes para hacer saber que están conscientes. Los métodos de registro de actividad cerebral serían, por tanto, la única vía de detección de la cognición y la conciencia que puedan tener, e incluso de establecer un medio de comunicación con ellos.


XWave:






El último intento por llevar el control "cerebral" al mundo de la tecnología es XWave, ¿cómo?, pues leyendo las señales eléctricas del cerebro. La compañía PLX Devices ha desarrollado un aparato para manejar los dispositivos de Apple iPad, iPhone e iPod Touch sin tener que tocar su pantalla, haciendo uso de la tecnología NeuroSky.

El dispositivo cuenta con sensores que miden la actividad cerebral y uno para el pulso en el lóbulo de la oreja. Gracias a él es posible controlar aplicaciones o juegos en los dispositivos de Apple (la compañía ofrece el SDK en su página web). El XWave se conecta a la entrada para auriculares y enlaza con nuestro dispositivo de Apple mediante una aplicación diseñada por PLX. Utiliza pilas AAA para funcionar.

Entre las utilidades diseñadas por la compañía, han creado una aplicación para hacer levitar una pelota virtual o un medidor que establece los niveles de atención o relajación del usuario.

El XWave ya se puede comprar en la web de PLX por cien dólares, aunque las unidades no empezarán a ser enviadas hasta el próximo octubre.

Novedoso sistema 3D para TV:




Investigadores e ingenieros japoneses han logrado avanzar en una nueva tecnología detelevisión en 3D que logra superar varias de las limitaciones históricas de este sistema, por ejemplo, el nuevo enfoque libera al televidente del uso de gafas, brinda una mayor flexibilidad en la visualización e incrementa la calidad de las imágenes. Esto podría marcar el inicio de una nueva etapa en cuanto al uso de la tecnología 3D en el ámbito televisivo. Muchos críticos de las visualizaciones en 3D han indicado que esta tecnología solamente sería una moda pasajera. Sin embargo, si los ingenieros lograran superar los escollos que presentan actualmente los sistemas 3D, esta tecnología podría convertirse en un producto habitual en todos los hogares.

En ese camino han avanzado los ingenieros japoneses de las empresas NHK y JVC, desarrollando un sistema integral de TV en 3D basado en una técnica que utiliza a la fotografía como basamento. Empleando una gran cantidad de lentes y un elevado número de píxeles, el método logra transformar simples fotografías en vídeo en 3D.

Existe una amplia variedad de tecnologías para crear imágenes 3D en una pantalla, y cada una de ellas tiene sus propias ventajas y desventajas. Pero este enfoque de los especialistas japoneses es uno de los más avanzados hasta la fecha en varias cuestiones.

Este sistema integral de TV en 3D se ha desarrollado y mejorado en los últimos años. Uno de sus principales avances es que al basarse en un conjunto de lentes grandes (400 en dirección horizontal y 250 en dirección vertical), no requiere que los espectadores utilicen gafas, además de ofrecer una mayor flexibilidad de visualización.

Según los responsables de este nuevo enfoque, su mayor ventaja es que está especialmente pensado para sistemas de difusión masiva, permitiendo a los espectadores disfrutar de imágenes en 3D en movimiento, desde cualquier posición y en tiempo real. Para lograr esto es necesario un complejo mecanismo de lentes, cámaras y proyectores.

De esta manera, una gran variedad de lentes convexas se coloca delante de una cámara Super Hi-Vision, que registra la dirección e intensidad de la luz desde diferentes posiciones, para así lograr el efecto 3D. En tanto, para poder mostrar las imágenes al espectador, un proyector Super Hi-Vision emite las mismas en una pantalla de difusión, frente a la cual se ubican otras lentes convexas similares a las empleadas para tomar la luz.

En cuanto a las características de las imágenes 3D obtenidas, el sistema utiliza un total de 7.680 píxeles en dirección horizontal y 4.320 píxeles en dirección vertical. Con estos ajustes, los investigadores pueden garantizar un ángulo de visión de 24 grados y una frecuencia espacial que es 2,4 veces superior a la obtenida en sistemas previos.

A pesar del incremento logrado en la resolución de las imágenes creadas en 3D, los ingenieros creen que aún es posible optimizar este punto en mayor medida, avanzando en un futuro hacia una calidad de imagen mucho mayor. Para ello, se intentarán aplicar nuevas tecnologías que mejoren el ángulo de visión y la resolución de las imágenes. Es así que uno de los mayores desafíos en la mejora de este sistema tiene que ver con la captura y visualización de una cantidad de información cada vez mayor. Para esto es necesario acortar la distancia entre el conjunto de lentes y la pantalla, y también reducir la inclinación de las lentes. Todo esto implica el uso de un gran número de píxeles, algo básico para poder aspirar a la maximización del ángulo de visión y la resolución de la imagen. Asimismo, el mejoramiento de estas cuestiones estará directamente relacionado con el éxito social y masivo de la tecnología, teniendo en cuenta la calidad exigida por los consumidores actuales en estas cuestiones. Por otro lado, el gran número de píxeles y lentes requeridos incrementa la complejidad de este sistema, como así también el presupuesto necesario para su desarrollo. Es así que resulta imprescindible optimizar estas dos condiciones para lograr que la nueva tecnología se pueda producir en masa y se convierta en un producto de consumo.

Predicciones tecnológicas casi inminentes:






El inventor y científiconorteamericano Raymond Kurzweil ha dado a conocer su particular visión del futuro de la sociedad, invadida por las nuevastecnologías. Así, ha comentado que la tecnología se está volviendo más pequeña y "está desapareciendo" a nivel físico. En este sentido, avanza que probablemente los ordenadores comenzarán a desaparecer a partir de finales de este año y en el año 2029 se producirá "una fusión" de la tecnología con el cuerpo. Entre otras predicciones, asegura que habrá glóbulos rojos robóticos que nos permitirán esprintar durante quince minutos o sentarnos en el fondo de una piscina durante cuatro horas.

Predice también que incluso se podrán introducir ordenadores en los cerebros para curar enfermedades como el Parkinson, de forma que ya no se tratará de un experimento, sino de una terapia. "De aquí a veinte años esos equipos que ahora tienen el tamaño de un guisante y que requieren cirugía, tendrán el de una célula y no necesitarán de intervención quirúrgica".

Por otra parte, el científico afirma que gracias a las TIC (Tecnologías de la información y la comunicación) y su "efecto democratizador" se produjo la caída de la Unión Soviética. "Precisamente, cuando el Gobierno soviético ya no tuvo el control de los canales de información, mi predicción en la década de los 80 fue que unas cuantas máquinas de fax iban a acabar con la Unión Soviética y así fue", comenta respecto a una conversación que mantuvo con Mijaíl Gorbachov.

El proyecto del genoma humano se anunció en la década de los años 90 y fue acogido con gran escepticismo entre los científicos: a mitad del proyecto tan sólo se había descifrado el 1 por ciento del genoma, pero luego se experimentó un crecimiento exponencial, multiplicándose por dos los hallazgos cada año. Esto supuso "una progresión espectacular" y los costes se redujeron a la mitad cada vez. Así, en la actualidad disponemos de 23.000 programas de software sobre el genoma "que nos ayudan a discernir los genes que no necesitamos de los realmente útiles e incluso aquellos que podemos cambiar a través de la terapia génica in vitro".

Por último, avanza que las TIC también van a transformar la energía y el abuso de los combustibles fósiles, ya que utilizan muy pocos recursos y son beneficiosas para el medio ambiente, como las células solares. "La energía solar va camino de convertirse en el cien por cien del suministrador de energía de todo el mundo".

Las tecnologías de la información y el estiércol tienen una relación simbiótica
Adiós a la hipermetropía sin cirugía:






Para todos aquellos que no quieren usar ni lentillas, ni gafas, y tampoco recurrir a la cirugía, ya se han diseñado las primeras lentes de contacto que eliminan lahipermetropía sin necesidad de operarse.

La lente modifica la córnea mientras duermes cada noche y al día siguiente el paciente puede ver perfectamente sin ellas.

Al menos de momento, las nuevas lentes son efectivas para aquellos con bajas dioptrías, por lo que no pueden superar las 3,5.

Se estima que un treinta por ciento de la población de más de veinte años sufre más de un 1 por ciento de hipermetropía.

La nueva lente es fruto del trabajo final de un alumno español ganador del premio nacional del Colegio de Ópticos y Optometristas de España.

El invento, que ya se comercializa desde hace tres semanas y tiene un coste inicial de 1.400 euros más cuatrocientos euros anuales de renovación, trabaja por compresión, y además de eliminar la hipermetropía de los pacientes durante el día también puede llegar a corregir la vista cansada.


El ojo biónico:





El invento se implanta parcialmente en el globo ocular y está diseñado para pacientes que sufren una pérdida de visióndegenerativa o hereditaria. No devuelve la vista de forma perfecta, pero se espera que las personas ciegas sean ahoracapaces de distinguir puntos de luz que el cerebro podrá reconstruir en imágenes. ¿De qué manera? Elojo biónico dispone de una minicámara colocada sobre una lente. El dispositivo transmite una señal dentro de la retina, que estimula las neuronas vivas dentro de ésta y que a su vez mandan las imágenes al cerebro.

Los responsables del ojo biónico creen que estaríamos ante el mayor hito desde el desarrollo del alfabeto Braille después de haber invertido cuarenta millones de euros y opinan que este proyecto bandera permitirá a Australia, país de origen del invento, mantenerse a la vanguardia en la línea de investigación y comercialización en este campo. Sus creadores esperan además que el ojo biónico sea capaz de devolver la vista a miles de ciegos.


Skinput, tu propia piel como pantalla táctil:




Un equipo de la Universidad Carnegie Mellon junto a Microsoft son los autores de una nueva técnica que podrá convertir la pielhumana en una pantalla táctil desde la cual poder manejar cualquier tipo de aparato electrónico.

Llamado 'Skinput', el sistema utiliza sensores acústicos capaces de detectar sonidos de baja frecuencia y, por medio de un brazalete con un pequeño proyector, refleja sobre la piel una especie deteclado.

Gracias a esta técnica podremos manejar equipos de sonido, teléfonos móviles o agendas electrónicas tocando el menú proyectado en el antebrazo u otra parte del cuerpo.

Declaran sus desarrolladores que "la piel humana es el más novedosodispositivo para ingresar datos. (...) Lo extraordinario del cuerpo humano es lo familiarizados que estamos con él. Esto nos da una posibilidad de tener una exactitud que nunca conseguiríamos utilizando un ratón".

Todavía no hay una fecha prevista para su lanzamiento, aunque se afirma que en un futuro cercano, tu mano podrá ser tu iPhone.


Bicicleta 2.0:






Científicos del Instituto tecnológico de Massachusetts (Estados Unidos) han diseñado una bicicleta capaz de moversepor sí sola utilizando la energía cinética sobrante de la propia rueda. Bautizada por sus diseñadores como 'The Copenhagen Wheel', está equipada con conexión Bluetooth y soporte para el iPhone. Este invento ha sido calificado por los responsables del proyecto como la bicicleta 2.0.

The Copenhagen Wheel es capaz de almacenar la energía cada vez que el ciclista usa los frenos y luego utilizar esa energía proporcionando impulso al ir cuesta arriba o añadiendo una "explosión de velocidad" en las situaciones de tráfico intenso. Esta rueda no sólo incrementa la potencia utilizando tecnología inspirada en la Fórmula 1, sino que también puede hacer un seguimiento de la velocidad, cadencia de pedaleo, niebla o humo y tráfico.

La rueda utiliza una tecnología similar al KERS (Kinetic Energy Recovery System), que ha cambiado radicalmente el mundo de la Fórmula 1 en los últimos dos años. Cuando frena, su energía cinética es recuperada por un motor eléctrico y se almacena en baterías dentro de la rueda, de modo que se puede utilizar de nuevo cuando se lo necesite. En cierto sentido, la bicicleta funciona como lo hace una persona al andar. Al pedalear hacia delante el motor hace por sí solo el mismo movimiento que su par, mientras que cuando mandamos el pedal hacia atrás para frenar, el motor arranca la regeneración de energía eléctrica, mientras se reduce la velocidad.
A partir de ahora, la experiencia de conducción será más suave, hasta el punto que, por ejemplo, una cuesta empinada en las colinas ya no será jamás un obstáculo. Y mediante el uso de una serie de sensores y una conexión Bluetooth para el iPhone, que puede ser montado en el manillar, la 
rueda puede controlar la velocidad de la bicicleta, la dirección y la distancia recorrida, así como también, recopilar datos sobre lacontaminación del aire e incluso la proximidad de amigos cercanos que utilicen el mismo sistema.