IBM crea prototipo de receptor de radio de grafeno 10,000 veces más eficiente

Circuito de IBM que usa grafeno

IBM no deja de impresionarme con sus avances; esta vez es respecto al grafeno, ese material que dicen podría ser el reemplazo del silicón en un futuro; por ahora aún quedan varios problemas a sortear, como por ejemplo la producción y el costo de la misma. Entre tanto, IBM mostró hoy un chip que contiene un prototipo de receptor de radio basado en grafeno que es unas 10,000 veces más eficiente que los actuales; hicieron esto insertando los transistores de grafeno sobre un diseño ya completado en silicón, evitando así el daño que ocasionalmente sufre el grafeno si se le integra al proceso en etapas más tempranas. Ya con el circuito terminado, lo usaron para transmitir un mensaje, cuyo contenido era un simple “IBM” cuyos dígitos en binario “01001001,” “01000010,” y “01001101” fueron los recibidos por el integrado de grafeno, y todo esto a su vez extraído de una transmisión de 4.3 Ghz. Según los científicos de IBM, esta es la primera vez que se muestra un integrado con grafeno haciendo funciones de comunicación inalámbrica comparables con contrapartes de silicón. Así que básicamente este es uno de los circuitos (sino “el”) más avanzados que hay, y como pueden ver aún estamos quizás algo lejos de ver esto implementado en nuestros teléfonos; pero el día de mañana que esta tecnología esté disponible significará, entre muchas otras cosas, dispositivos más potentes y que a la vez consuman menos energía; este circuito por ejemplo tiene una velocidad de datos de 20 megabits por segundo, y eso porque la medición está limitada por el equipo usado, no por el receptor de grafeno. ¡Imagínense cuando se pueda usar a mayor escala! :D

Criptografía homomórfica : un avance revolucionario de seguridad (en potencia)

Candados con un fondo de números hexadecimales

La Criptografía Homomórfica es algo así como un sueño para muchos científicos, algo así como buscar el Santo Grial de la criptografía; la idea detrás de la Criptografía Homomórfica es sencillo en principio, pero en la práctica no lo es tanto: consiste en permitir que se pueda procesar o manipular datos encriptados, sin tener que desencriptarlos antes. Como menciona el texto del artículo fuente, en todos los esquemas de criptografía actuales primero hay que desencriptar los datos para poder procesarlos, pero en la criptografía homomórfica (CH) se pueden aplicar procesos sobre dichos datos sin tener que desencriptarlos, y de paso volverlos vulnerables. Otro ejemplo que puede ayudarnos a comprender mejor que es la CH es el propuesto por Paul Ducklin del blog “Naked Security” de Sophos: “imagina si pudieras tomar tus términos de búsqueda encriptados, dejarlos así encriptados, y hacer búsquedas con ellos en la base de datos también encriptada, y obtener los mismos resultados que una búsqueda de texto plano.” Pues bien, al parecer dos científicos del Centro de Investigación T. J. Watson de IBM han dado con este Santo Grial, pues dicen haber progresado de manera práctica sobre los conceptos originales de la CH, que por cierto no son nuevos, e incluso han llegado al punto de liberar unas librerías de fuente abierta con licencia GPL para C++ para llevar a cabo experimentos con CH, aunque advierten que estas librerías son de muy bajo nivel, pero que a la vez esperan ofrecer algo de más alto nivel en el futuro cercano.

Por ahora, como en todo inicio de algoritmo criptográfico, se mantiene el escepticismo sobre este mientras se prueban sus características. Por ahora se mantiene el hecho de que una buena parte de cualquier tecnología criptográfica es tan buena como su implementación. Y para el que tenga el cerebro necesario para esto, IBM está ofreciendo retos públicos para sus esquemas de criptografía homomórfica, de modo que puedan probar los ataques exitosos y puedan mejorar su implementación.

IBM trabaja en arquitectura computacional parecida al cerebro humano

Cerebro con conexiones digitales

IBM ha anunciado una de esas cosas que hacen que tu cerebro explote por lo complejo que suenan: un ecosistema de software diseñado para trabajar con un chip de silicón basado en características del cerebro humano como funciones, bajo consumo de energía y volúmen compacto a través de una serie de núcleos neurosinápticos. Y es que las características del cerebro humano son impresionantes, desde el punto de vista computacional: procesa diario aproximadamente un terabyte de información visual y lo puede interpretar casi instantáneamente en relación a cosas como relaciones espaciales, rostros familiares, y más; y todo eso lo hace un órgano del tamaño de un puño grande, y consumiendo menos energía que un bulbo de luz de 20 watts. IBM dice que esta nueva tecnología podría permitir nuevas redes de sensores inteligentes que imiten las habilidades del cerebro tales como percepción, acción y cognición, y para tal caso hay que desviarse del modelo lineal que usan las computadoras de hoy en día, para pasar a un modelo donde se postulen varias situaciones, se analicen y se generen soluciones a las mismas.

El logro de IBM en este campo es el haber logrado simular 500 mil millones de neuronas usando la supercomputadora Blue Gene/Sequoia, usando un modelo de neuronas mucho más simple; para complementar la simulación, los investigadores de IBM crearon un lenguaje orientado a objetos llamado Corelet; a su vez, un corelet puede ser construido con un CPU neuromórfico de 256 “neuronas”, y al cual se le asigna una función en específico, y ya cuentan con unos 150 corelets prediseñados para cubrir cosas como detección de movimiento o características de imágenes, e incluso para aprender ciertos juegos, como Pong. Así que básicamente lo que quiere decir toda esta palabrería es que IBM busca construir una tecnología que cuente con inteligencia que derive de pensar, al contrario de digamos la supercomputadora Watson, que sólo búsca en montañas de datos.

Una posibilidad interesante es el poder construir un cerebro con dos hemisferios, en el izquierdo Watson, con sus capacidades analíticas y de lenguaje, y en el derecho esta nueva arquitectura, usada para los sentidos y reconocimiento de patrones. Suena interesante, ¿no te parece? ciertamente suena complejo – y lo es-, pero sin necesidad de ser científicos para entender todo esto lo que sí podemos vislumbrar es que tecnologías como estas tendrán un profundo impacto en nuestras vidas.

IBM RoadRunner: la primera supercomputadora en romper la barrera del petaflop, obsoleta cinco años después

IBM RoadRunner

Esto nos debe dar una lección sobre la velocidad a la que avanza la informática en general: de vuelta en 2008 se puso en línea por IBM una supercomputadora llamada RoadRunner, compuesta de 256 racks de servidor que cubrían unos 6,000 pies cuadrados; tenía unos 130,404 núcleos en procesadores Opteron; cada procesador estaba ligado a un procesador PowerXCell 8i, versión mejorada del procesador usado en el PlayStation 3; tenía 104 terabytes de memoria, así como 2 petabytes de almacenamiento. Todo eso se perderá dentro de poco, pues a pesar de que la RoadRunner sigue siendo una supercomputadora rápida: su desempeño máximo es de 1.456 petaflops, y es la 20a. en general en la lista de las más rápidas, ya no es tan eficiente. ¿Cuál es el problema? en pocas palabras, el consumo de energía: la RoadRunner requiere 2,435 kilowatts para generar 1.042 petaflops o lo que es lo mismo, 444 megaflops por watt; la siguiente en el ranking, la Oakleaf-FX de Tokyo, requiere 1,117 kilowatts para llegar a 1.043 petaflops – la mitad de la energía por el mismo desempeño. Y si llegamos hasta la cima, la Titan, la supercomputadora más rápida del mundo, llega a 17.6 petaflops consumiendo 8,209 kilowatts, es decir, 2,143 megaflops por watt, casi 5 veces más eficiente que una RoadRunner. Haciendo más cálculos y de acuerdo con las tarifas de los E.U., operar una RoadRunner cuesta unos USD $300 por hora, contra USD $60 de una Titan, lo que llevado a un costo anual es USD $2,600,000 contra USD $525,000…simple y sencillamente no hay comparación.

Vale la pena mencionar que, puesto que la RoadRunner se la pasó trabajando en cálculos de cosas clasificadas, será destruída haciéndola pedacitos, excepto ciertas partes que se conservarán por motivos históricos: quizás uno de ellos es que fue de las primeras supercomputadoras híbridas, debido al uso de los Opteron para procesamiento y de los Cells para aceleramiento.

Nuevo descubrimiento de IBM permitirá componentes que consuman menos energía

IBM y su proceso de líquido iónico

Quietecito y en la sombra, IBM ha estado produciendo avances muy significativos y sobre los cuales me atrevo a decir estarán apoyados muchos de los aparatos de consumo que usamos a diario en un futuro cercano; esta vez IBM logró un avance importante, al producir una forma de fabricar memoria compuertas lógicas que cambian de estado entre conductor y aislante sin consumir energía constantemente, usando un proceso en el que “bañan” con una microscópica gota de “líquido iónico” al componente en cuestión. Cabe aclarar que no es la primera vez que se intenta algo así, pero si es la primera en que se logra estabilidad en el dispositivo resultante. Las aplicaciones de esta técnica son muchas, como por ejemplo (a muy bajo nivel) transportar datos de manera más eficiente al reducir el gasto de energía en cambiar los estados internos de la memoria, y a mayor escala se traduciría en gadgets más eficientes en cuanto a consumo, y aún más allá, a los gigantes centros de datos de hoy en día que son verdaderos succionadores de energía.

Los que lo deseen pueden consultar la publicación de IBM al respecto de este avance en este enlace.

Avances en nano-óptica de IBM permitirán velocidades de transferencia monstruosas

Nano-fotónica de IBM

Ya de vuelta en 2010 IBM había dicho que tenía una prueba de concepto de una tecnología llamada nano-óptica, que básicamente significa que se usa luz en vez de electricidad para transmitir información. Bien, estamos en el 2012, y el gigante IBM ya hizo oficial el anuncio de la tecnología, así como que es la primera vez que se usarán semiconductores por debajo de 100 nm (específicamente 90 nm) para lograr este proceso. Algo extremadamente importante es que esta tecnología se puede integrar con procesadores ordinarios, y se pueden fabricar en fábricas convencionales, lo que significa que quizás el producto final no sea tan caro. ¿Que tan veloz es esta tecnología? bueno, a pesar de que en el envío y recepción de información se convierten los impulsos eléctricos a luz y viceversa, se pueden llegar a un flujo de datos de 25 Gbps por canal, y gracias a que puede paralelizarse escala excelentemente bien, pudiendo llegar en un futuro a transmitir terabytes. Si tomamos en cuenta que una estadística (inútil pero oportuna para este artículo) dice que para el 2020 habrán 5,200 GB de datos por persona, es bastante obvio que tendremos que solucionar los cuellos de botella que existen en nuestras cajas binarias de modo que el almacenamiento de tal volumen de información transcurra sin problemas, y es precisamente lo que pretende IBM con este avance: usarlo en centros de datos, de modo que se vea la mejora sustancial a gran escala.

Los que lo deseen pueden leer el comunicado de IBM aquí, y también consultar su sitio dedicado a la nano óptica.

Nuevo chip óptico de IBM transfiere datos a 1 terabit por segundo (Tbps)

Holey Optochip de IBM

Investigadores de IBM lograron crear un chip óptico que puede transferir datos a una impresionante velocidad de 1 Tbps (terabit por segundo), velocidad con la cual se podrían bajar 500 películas de alta definición…cada segundo; o que tal descargar toda la Biblioteca del Congreso de los Estados Unidos, en tan sólo una hora. Este impresionante avance es posible gracias a un chip al que IBM llama Holey Optochip, que es un integrado basado en el chip de semiconductor CMOS como los que se usan hoy en día. El proceso más o menos es así: los ingenieros de IBM perforan 48 agujeros (de ahí el nombre; holey = agujereado) en el chip, en los cuales colocan módulos ópticos que reciben o envían información a través de luz, creando un módulo que funciona ocho veces más rápido que cualquier componente óptico existente.

Hay otros datos importantes de este avance: la velocidad que podrá alcanzar se deberá a las interconexiones que use y también el software que controle tal módulo. Otra valor que tiene esta tecnología es que consume muy poca energía: sólo 5 watts, para ser exactos, así que es una tecnología eficiente tanto para transmitir datos como para consumo de energía, es decir, el ideal para estas tecnologías. Claro, sería el nirvana para los piratas, y una pesadilla para la industria de música y películas. :D

Y no está de más mencionar que IBM, sin hacer ruido y sin alardear de su trabajo – a diferencia de una empresa que anunció un notorio juguete – ha estado sacando tecnología verdaderamente impresionante, inovación en toda la extensión de la palabra.

Usando nanotecnología IBM logra almacenar 1 bit en 12 átomos

Para aquellos que se pregunten “¿y esto para que me sirve?” bueno, pues como referencia les diré que de acuerdo a IBM, en la actualidad y hablando de los dispositivos de almacenamiento que usamos, para almacenar un bit son necesarios un millón de átomos; es decir, este nuevo descubrimiento de IBM permitiría discos duros con una densidad de 100 veces la actual, y memoria flash NAND con 150x la densidad actual. Cuando esta tecnología esté lista para usarse, no será extraño un disco duro de 100 TB en vez de uno de 1 TB, sólo para ponerlo en perspectiva. IBM logró este maravilloso hito usando las propiedades del antiferromagnetismo, y un microscopio de escaneo de túnel (también llamado STM). El equipo de IBM logró este impresionante truco super congelando 12 átomos a unos -270 grados celcius, y acomodándolos mediante el microscopio de modo que la memoria no volátil se hiciera posible.

Para las pruebas de IBM, cabe mencionar que estos fueron agrupando clusters de átomos, primero de 96 átomos (1 byte = 8 bits, entonces 8 * 12 = 96) para formar un byte y poder representar una letra, y luego juntaron 5 bytes (480 átomos) para almacenar la palabra “THINK” (piensa) en los mismos.

Palabra THINK almacenada en 480 átomos

Cabe mencionar que esto es una prueba de concepto, y que la tecnología ya implementada estaría a entre 5 y 10 años de distancia. Sin embargo, es un avance tremendamente importante en el campo del almacenamiento magnético que seguramente veremos en el futuro reemplazando a las tecnologías actuales.