
martes, 7 de diciembre de 2010
miércoles, 1 de diciembre de 2010
La Evolución del Microprocesador
La evolución del microprocesador se inició el año 1971 cuando la empresa Intel logró fabricar su primer microprocesador como un circuito integrado, iniciándose así una revolución en la tecnología de las computadoras.
En aquella época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones. Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador.
Las ventajas son evidentes. Estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. Esta disposición de un circuito integrado de bajo costo al alcance de muchos, hizo que los ingenieros y técnicos cambiaran su proceso de diseño, en el cual ya tenían un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño debían concentrar en el diseño del programa que controlaría el microprocesador (el software).
El primer microprocesador de Intel fue el 4004. Este fue un microprocesador de 4 bits y 16 registros. Tenía 46 comandos y podía accesar 4096 Bytes (4 Kbytes) de memoria. Un año después, Intel sacó al mercado el 8008 (de 8 bits). Este microprocesador era más potente que se predecesor, el 4004.
Para esta época Intel ya tenía competencia: Motorola y Texas Instruments que también sacaron sus propios microprocesadores al mercado. Poco después apareció un microprocesador digno de mencionar: el popular Z80 de Zilog.
Como estándar en la industria Intel introdujo el 8080 y Motorola el 68000. El éxito que Intel obtuvo se debió no solamente a su gran cantidad de comandos (200 en el 8080) y a su gran capacidad de direccionamiento de memoria (64 KBytes en el 8080), si no a su clara estructura, amplia documentación para sus clientes y gran número de periféricos desarrollados simultáneamente con el microprocesador.
Hoy en día existen microprocesadores de 32 bits y 64 bits que logran accesar una gran cantidad de memoria, así como con tecnología multi-núcleos que permiten procesar una gran cantidad de datos y procesamiento paralelo. Por otro lado los microprocesadores actuales incluyen muchas otras características tales como el controlador de la memoria del sistema, y la tendencia en los próximos años es que incluya también el GPU (Unidad de Procesamiento Gráfico) prescindiendo de esta manera de una tarjeta gráfica ya sea onboard o de expansión. Además hay otras empresas que compiten con Intel en la fabricación de Microprocesadores, un ejemplo muy evidente: AMD (Advanced Micro Devices).
En aquella época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones. Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador.
Las ventajas son evidentes. Estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. Esta disposición de un circuito integrado de bajo costo al alcance de muchos, hizo que los ingenieros y técnicos cambiaran su proceso de diseño, en el cual ya tenían un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño debían concentrar en el diseño del programa que controlaría el microprocesador (el software).
El primer microprocesador de Intel fue el 4004. Este fue un microprocesador de 4 bits y 16 registros. Tenía 46 comandos y podía accesar 4096 Bytes (4 Kbytes) de memoria. Un año después, Intel sacó al mercado el 8008 (de 8 bits). Este microprocesador era más potente que se predecesor, el 4004.
Para esta época Intel ya tenía competencia: Motorola y Texas Instruments que también sacaron sus propios microprocesadores al mercado. Poco después apareció un microprocesador digno de mencionar: el popular Z80 de Zilog.
Como estándar en la industria Intel introdujo el 8080 y Motorola el 68000. El éxito que Intel obtuvo se debió no solamente a su gran cantidad de comandos (200 en el 8080) y a su gran capacidad de direccionamiento de memoria (64 KBytes en el 8080), si no a su clara estructura, amplia documentación para sus clientes y gran número de periféricos desarrollados simultáneamente con el microprocesador.
Hoy en día existen microprocesadores de 32 bits y 64 bits que logran accesar una gran cantidad de memoria, así como con tecnología multi-núcleos que permiten procesar una gran cantidad de datos y procesamiento paralelo. Por otro lado los microprocesadores actuales incluyen muchas otras características tales como el controlador de la memoria del sistema, y la tendencia en los próximos años es que incluya también el GPU (Unidad de Procesamiento Gráfico) prescindiendo de esta manera de una tarjeta gráfica ya sea onboard o de expansión. Además hay otras empresas que compiten con Intel en la fabricación de Microprocesadores, un ejemplo muy evidente: AMD (Advanced Micro Devices).
La Ley de Moore
En 1965 Gordon Moore, uno de los fundadores de Intel, escribió un artículo para la revista Electronics Magazine, en el que predijo que: "La complejidad de los componentes se ha multiplicado aproximadamente por 2 cada año. A corto plazo, se puede esperar que esta tasa se mantenga, o incluso que aumente. A largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no permanecerá constante por lo menos durante 10 años. Esto significa que para 1975, el número de componentes en cada circuito integrado de mínimo coste será de 65000. Creo que un circuito tan grande puede construirse en una sola oblea." En aquél entonces el circuito integrado más complejo tenía 64 componentes, así que estaba aventurando que en el 75 tendría que haber un mínimo de 64.000. Todo el mérito de Moore consistió en decir que en 10 años la evolución de la industria de circuitos integrados se comportaría más o menos como estaba ocurriendo en ese momento. Y en acertar.
El concepto de la Ley de Moore ha cambiado con el tiempo. El artículo original decía que el número de componentes por chip que se podían colocar se duplicaría cada año. En 1975, en una reunión del IEEE (Institue of Electrical and Electronic Engineering), justo despues de comprobar el resultado de su predicción, Moore pensó que el ritmo se ralentizaría, y decidió modificar el tiempo de duplicación, fijándolo en 2 años.
En los años 80, las resistencias se dejaron de contabilizar en el número de componentes, y la Ley de Moore se comenzó a conocer como la duplicación del número de transistores en un chip cada 18 meses. Lo curioso del caso es que Moore nunca dijo 18 meses. Fueron sus compañeros en Intel quienes introdujeron esa cifra, al tener en cuenta que además del número de transistores, se aumentaba la frecuencia de reloj.
Al inicio de los 90, se entendía por Ley de Moore el duplicar la potencia de un microprocesador cada 18 meses. A finales de los 90, la interpretación económica tomó más fuerza, es decir el coste de una computadora disminuye a la mitad cada año y medio.
Según el propio Moore, su predicción seguirá teniendo validez en el año 2011. Eso significa que manejaremos chips de 10 gigahertzios, con tecnología de 0.07 micras, y mil millones de transistores. Sin embargo existe el problema del suministro de potencia eléctrica, ya que mil millones de transistores requieren un buen número de kilowatios/hora para funcionar y genera calentamiento, por lo que la refrigeración es otro aspecto muy importante a considerar.
Hoy en día podemos observar otra modificación en la Ley de Moore. Debido al cambio de paradigma en el diseño de procesadores, que ahora se centra en el número de núcleos que se pueden colocar en un sólo chip, dejando en segundo término a los GHz, la Ley de Moore ahora se basa en el rendimiento del procesador, específicamente en millones de instrucciones que se ejecuta en un segundo (MIPS).
El concepto de la Ley de Moore ha cambiado con el tiempo. El artículo original decía que el número de componentes por chip que se podían colocar se duplicaría cada año. En 1975, en una reunión del IEEE (Institue of Electrical and Electronic Engineering), justo despues de comprobar el resultado de su predicción, Moore pensó que el ritmo se ralentizaría, y decidió modificar el tiempo de duplicación, fijándolo en 2 años.
En los años 80, las resistencias se dejaron de contabilizar en el número de componentes, y la Ley de Moore se comenzó a conocer como la duplicación del número de transistores en un chip cada 18 meses. Lo curioso del caso es que Moore nunca dijo 18 meses. Fueron sus compañeros en Intel quienes introdujeron esa cifra, al tener en cuenta que además del número de transistores, se aumentaba la frecuencia de reloj.
Al inicio de los 90, se entendía por Ley de Moore el duplicar la potencia de un microprocesador cada 18 meses. A finales de los 90, la interpretación económica tomó más fuerza, es decir el coste de una computadora disminuye a la mitad cada año y medio.
Según el propio Moore, su predicción seguirá teniendo validez en el año 2011. Eso significa que manejaremos chips de 10 gigahertzios, con tecnología de 0.07 micras, y mil millones de transistores. Sin embargo existe el problema del suministro de potencia eléctrica, ya que mil millones de transistores requieren un buen número de kilowatios/hora para funcionar y genera calentamiento, por lo que la refrigeración es otro aspecto muy importante a considerar.
Hoy en día podemos observar otra modificación en la Ley de Moore. Debido al cambio de paradigma en el diseño de procesadores, que ahora se centra en el número de núcleos que se pueden colocar en un sólo chip, dejando en segundo término a los GHz, la Ley de Moore ahora se basa en el rendimiento del procesador, específicamente en millones de instrucciones que se ejecuta en un segundo (MIPS).
Los Procesadores ARM
Advanced Risc Machines (ARM), es una empresa británica dedicada al desarrollo de microprocesadores ARM de arquitectura RISC (Reduced Instruction Set Computer, Computadoras con Conjunto de Instrucciones Reducido). Entre sus características de esta arquitectura se mencionan las siguientes:
Además, ya se está hablando de que los procesadores Cortex A9 podrían ser usados exitosamente, más allá de los teléfonos inteligentes (smartphones), en el segmento de las netbooks. Esto pondría a estos procesadores a competir con la serie Atom de Intel. Sin embargo la mayoría de los sistemas operativos o sw en general estan destinadas para arquitectura x86, lo que implicaría volver a escribir todos los programas para que sean compatibles con los procesadores ARM.
En conclusión los procesadores ARM tienen un futuro muy prometedor para ser utilizados en dispositivos móviles que corverge diversos servicios tales como reproductor de audio y video, cónsola de videojuegos, centro de entretenimiento, comunicación inalámbrica y telefonía celular.
- Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
- Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
- Posibilita la segmentación y el paralelismo en la ejecución de instrucciones.
- Reduce los accesos a memoria.
- Al ser instrucciones pequeñas y simples, el procesador la ejecuta en menor tiempo.
- Bajo consumo de energía.
Además, ya se está hablando de que los procesadores Cortex A9 podrían ser usados exitosamente, más allá de los teléfonos inteligentes (smartphones), en el segmento de las netbooks. Esto pondría a estos procesadores a competir con la serie Atom de Intel. Sin embargo la mayoría de los sistemas operativos o sw en general estan destinadas para arquitectura x86, lo que implicaría volver a escribir todos los programas para que sean compatibles con los procesadores ARM.
En conclusión los procesadores ARM tienen un futuro muy prometedor para ser utilizados en dispositivos móviles que corverge diversos servicios tales como reproductor de audio y video, cónsola de videojuegos, centro de entretenimiento, comunicación inalámbrica y telefonía celular.
Suscribirse a:
Entradas (Atom)