martes, 14 de diciembre de 2010

Vistazo al Futuro


Al hacer un vistazo al futuro del mundo de la computación, podría vislumbrar que el futuro se encuentra en las leyes y teoría de la Física Cuántica. Pero de qué se trata esto, primero vamos a definir el concepto de la Computación Cuántica.

La computación cuántica es producto de la combinación de la mecánica cuántica y la teoría de la computación, que se enfoca a estudiar si un problema puede ser resuelto utilizando un procedimiento programado en una computadora, así como la cantidad de recursos como energía y tiempo que se deben aplicar en caso de existir solución. En consecuencia, la computación cuántica tiene como propósito la utilización de las teorías de las que surge para incrementar la capacidad de las computadoras para procesar información y solucionar problemas.

En la computación cuántica también convergen otras disciplinas como la microelectrónica, la nanotecnología, las matemáticas, la criptografía, entre otras.

Actualmente científicos están realizando investigaciones sobre el tema, sin embargo aún hay muchas factores que hay que madurar, pero considero que cuando se logren superar todas esas limitaciones, el avance tecnológico experimentará un salto cuántico exponencial.

Aquí les dejo unos videos que hablan sobre el tema y en internet se puede encontrar mucha información. Asímismo me permito recomendar una película documental titulado “Y tú que sabes?” muy bueno que explica de manera amena la teoría de la Física Cuántica.






miércoles, 1 de diciembre de 2010

Procesadores de 64 bits

La Evolución del Microprocesador

La evolución del microprocesador se inició el año 1971 cuando la empresa Intel logró fabricar su primer microprocesador como un circuito integrado, iniciándose así una revolución en la tecnología de las computadoras.

En aquella época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones. Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador.
Las ventajas son evidentes. Estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. Esta disposición de un circuito integrado de bajo costo al alcance de muchos, hizo que los ingenieros y técnicos cambiaran su proceso de diseño, en el cual ya tenían un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño debían concentrar en el diseño del programa que controlaría el microprocesador (el software).

El primer microprocesador de Intel fue el 4004. Este fue un microprocesador de 4 bits y 16 registros. Tenía 46 comandos y podía accesar 4096 Bytes (4 Kbytes) de memoria. Un año después, Intel sacó al mercado el 8008 (de 8 bits). Este microprocesador era más potente que se predecesor, el 4004.

Para esta época Intel ya tenía competencia: Motorola y Texas Instruments que también sacaron sus propios microprocesadores al mercado. Poco después apareció un microprocesador digno de mencionar: el popular Z80 de Zilog.

Como estándar en la industria Intel introdujo el 8080 y Motorola el 68000. El éxito que Intel obtuvo se debió no solamente a su gran cantidad de comandos (200 en el 8080) y a su gran capacidad de direccionamiento de memoria (64 KBytes en el 8080), si no a su clara estructura, amplia documentación para sus clientes y gran número de periféricos desarrollados simultáneamente con el microprocesador.

Hoy en día existen microprocesadores de 32 bits y 64 bits que logran accesar una gran cantidad de memoria, así como con tecnología multi-núcleos que permiten procesar una gran cantidad de datos y procesamiento paralelo. Por otro lado los microprocesadores actuales incluyen muchas otras características tales como el controlador de la memoria del sistema, y la tendencia en los próximos años es que incluya también el GPU (Unidad de Procesamiento Gráfico) prescindiendo de esta manera de una tarjeta gráfica ya sea onboard o de expansión. Además hay otras empresas que compiten con Intel en la fabricación de Microprocesadores, un ejemplo muy evidente: AMD (Advanced Micro Devices).

La Ley de Moore

En 1965 Gordon Moore, uno de los fundadores de Intel, escribió un artículo para la revista Electronics Magazine, en el que predijo que: "La complejidad de los componentes se ha multiplicado aproximadamente por 2 cada año. A corto plazo, se puede esperar que esta tasa se mantenga, o incluso que aumente. A largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no permanecerá constante por lo menos durante 10 años. Esto significa que para 1975, el número de componentes en cada circuito integrado de mínimo coste será de 65000. Creo que un circuito tan grande puede construirse en una sola oblea." En aquél entonces el circuito integrado más complejo tenía 64 componentes, así que estaba aventurando que en el 75 tendría que haber un mínimo de 64.000. Todo el mérito de Moore consistió en decir que en 10 años la evolución de la industria de circuitos integrados se comportaría más o menos como estaba ocurriendo en ese momento. Y en acertar.

El concepto de la Ley de Moore ha cambiado con el tiempo. El artículo original decía que el número de componentes por chip que se podían colocar se duplicaría cada año. En 1975, en una reunión del IEEE (Institue of Electrical and Electronic Engineering), justo despues de comprobar el resultado de su predicción, Moore pensó que el ritmo se ralentizaría, y decidió modificar el tiempo de duplicación, fijándolo en 2 años.

En los años 80, las resistencias se dejaron de contabilizar en el número de componentes, y la Ley de Moore se comenzó a conocer como la duplicación del número de transistores en un chip cada 18 meses. Lo curioso del caso es que Moore nunca dijo 18 meses. Fueron sus compañeros en Intel quienes introdujeron esa cifra, al tener en cuenta que además del número de transistores, se aumentaba la frecuencia de reloj.

Al inicio de los 90, se entendía por Ley de Moore el duplicar la potencia de un microprocesador cada 18 meses. A finales de los 90, la interpretación económica tomó más fuerza, es decir el coste de una computadora disminuye a la mitad cada año y medio.

Según el propio Moore, su predicción seguirá teniendo validez en el año 2011. Eso significa que manejaremos chips de 10 gigahertzios, con tecnología de 0.07 micras, y mil millones de transistores. Sin embargo existe el problema del suministro de potencia eléctrica, ya que mil millones de transistores requieren un buen número de kilowatios/hora para funcionar y genera calentamiento, por lo que la refrigeración es otro aspecto muy importante a considerar.

Hoy en día podemos observar otra modificación en la Ley de Moore. Debido al cambio de paradigma en el diseño de procesadores, que ahora se centra en el número de núcleos que se pueden colocar en un sólo chip, dejando en segundo término a los GHz, la Ley de Moore ahora se basa en el rendimiento del procesador, específicamente en millones de instrucciones que se ejecuta en un segundo (MIPS).

Los Procesadores ARM

Advanced Risc Machines (ARM), es una empresa británica dedicada al desarrollo de microprocesadores ARM de arquitectura RISC (Reduced Instruction Set Computer, Computadoras con Conjunto de Instrucciones Reducido). Entre sus características de esta arquitectura se mencionan las siguientes:

  • Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
  • Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
  • Posibilita la segmentación y el paralelismo en la ejecución de instrucciones.
  • Reduce los accesos a memoria.
  • Al ser instrucciones pequeñas y simples, el procesador la ejecuta en menor tiempo.
  • Bajo consumo de energía.
Hoy en día los microprocesadores ARM se encuentran presentes en aproximadamente 80% de los celulares actuales. Su exponente más conocido es el iPhone 3G de Apple, que utiliza el ARM 11, sin embargo este procesador salió en el 2003 y ésto se refleja en el perfomance del dispositivo, sobre todo en tareas multimedia y navegación por internet. Pero ARM ha lanzado una nueva generación de procesadores para celulares y dispositivos móviles: la serie Cortex, que adopta la nueva tendencia de los actuales procesadores x86, el “multicore”. La gran ventaja de contar con un procesador de varios núcleos, es que se puede realizar cierta tarea, con un consumo menor de energía. En vez de tener un chip corriendo a su máxima velocidad, se tiene dos que trabajan a la mitad de su capacidad. Al correr a una velocidad menor, se pierde menos energía, ya que el chip trabaja más frío. Estos procesadores, al trabajar con varios núcleos en paralelo, son más potentes y por lo tanto ofrecen una mejor respuesta a las aplicaciones multimedia y de Internet.

Además, ya se está hablando de que los procesadores Cortex A9 podrían ser usados exitosamente, más allá de los teléfonos inteligentes (smartphones), en el segmento de las netbooks. Esto pondría a estos procesadores a competir con la serie Atom de Intel. Sin embargo la mayoría de los sistemas operativos o sw en general estan destinadas para arquitectura x86, lo que implicaría volver a escribir todos los programas para que sean compatibles con los procesadores ARM.

En conclusión los procesadores ARM tienen un futuro muy prometedor para ser utilizados en dispositivos móviles que corverge diversos servicios tales como reproductor de audio y video, cónsola de videojuegos, centro de entretenimiento, comunicación inalámbrica y telefonía celular.