martes, 14 de diciembre de 2010
Vistazo al Futuro
martes, 7 de diciembre de 2010
miércoles, 1 de diciembre de 2010
La Evolución del Microprocesador
En aquella época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones. Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador.
Las ventajas son evidentes. Estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. Esta disposición de un circuito integrado de bajo costo al alcance de muchos, hizo que los ingenieros y técnicos cambiaran su proceso de diseño, en el cual ya tenían un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño debían concentrar en el diseño del programa que controlaría el microprocesador (el software).
El primer microprocesador de Intel fue el 4004. Este fue un microprocesador de 4 bits y 16 registros. Tenía 46 comandos y podía accesar 4096 Bytes (4 Kbytes) de memoria. Un año después, Intel sacó al mercado el 8008 (de 8 bits). Este microprocesador era más potente que se predecesor, el 4004.
Para esta época Intel ya tenía competencia: Motorola y Texas Instruments que también sacaron sus propios microprocesadores al mercado. Poco después apareció un microprocesador digno de mencionar: el popular Z80 de Zilog.
Como estándar en la industria Intel introdujo el 8080 y Motorola el 68000. El éxito que Intel obtuvo se debió no solamente a su gran cantidad de comandos (200 en el 8080) y a su gran capacidad de direccionamiento de memoria (64 KBytes en el 8080), si no a su clara estructura, amplia documentación para sus clientes y gran número de periféricos desarrollados simultáneamente con el microprocesador.
Hoy en día existen microprocesadores de 32 bits y 64 bits que logran accesar una gran cantidad de memoria, así como con tecnología multi-núcleos que permiten procesar una gran cantidad de datos y procesamiento paralelo. Por otro lado los microprocesadores actuales incluyen muchas otras características tales como el controlador de la memoria del sistema, y la tendencia en los próximos años es que incluya también el GPU (Unidad de Procesamiento Gráfico) prescindiendo de esta manera de una tarjeta gráfica ya sea onboard o de expansión. Además hay otras empresas que compiten con Intel en la fabricación de Microprocesadores, un ejemplo muy evidente: AMD (Advanced Micro Devices).
La Ley de Moore
El concepto de la Ley de Moore ha cambiado con el tiempo. El artículo original decía que el número de componentes por chip que se podían colocar se duplicaría cada año. En 1975, en una reunión del IEEE (Institue of Electrical and Electronic Engineering), justo despues de comprobar el resultado de su predicción, Moore pensó que el ritmo se ralentizaría, y decidió modificar el tiempo de duplicación, fijándolo en 2 años.
En los años 80, las resistencias se dejaron de contabilizar en el número de componentes, y la Ley de Moore se comenzó a conocer como la duplicación del número de transistores en un chip cada 18 meses. Lo curioso del caso es que Moore nunca dijo 18 meses. Fueron sus compañeros en Intel quienes introdujeron esa cifra, al tener en cuenta que además del número de transistores, se aumentaba la frecuencia de reloj.
Al inicio de los 90, se entendía por Ley de Moore el duplicar la potencia de un microprocesador cada 18 meses. A finales de los 90, la interpretación económica tomó más fuerza, es decir el coste de una computadora disminuye a la mitad cada año y medio.
Según el propio Moore, su predicción seguirá teniendo validez en el año 2011. Eso significa que manejaremos chips de 10 gigahertzios, con tecnología de 0.07 micras, y mil millones de transistores. Sin embargo existe el problema del suministro de potencia eléctrica, ya que mil millones de transistores requieren un buen número de kilowatios/hora para funcionar y genera calentamiento, por lo que la refrigeración es otro aspecto muy importante a considerar.
Hoy en día podemos observar otra modificación en la Ley de Moore. Debido al cambio de paradigma en el diseño de procesadores, que ahora se centra en el número de núcleos que se pueden colocar en un sólo chip, dejando en segundo término a los GHz, la Ley de Moore ahora se basa en el rendimiento del procesador, específicamente en millones de instrucciones que se ejecuta en un segundo (MIPS).
Los Procesadores ARM
- Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
- Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
- Posibilita la segmentación y el paralelismo en la ejecución de instrucciones.
- Reduce los accesos a memoria.
- Al ser instrucciones pequeñas y simples, el procesador la ejecuta en menor tiempo.
- Bajo consumo de energía.
Además, ya se está hablando de que los procesadores Cortex A9 podrían ser usados exitosamente, más allá de los teléfonos inteligentes (smartphones), en el segmento de las netbooks. Esto pondría a estos procesadores a competir con la serie Atom de Intel. Sin embargo la mayoría de los sistemas operativos o sw en general estan destinadas para arquitectura x86, lo que implicaría volver a escribir todos los programas para que sean compatibles con los procesadores ARM.
En conclusión los procesadores ARM tienen un futuro muy prometedor para ser utilizados en dispositivos móviles que corverge diversos servicios tales como reproductor de audio y video, cónsola de videojuegos, centro de entretenimiento, comunicación inalámbrica y telefonía celular.
viernes, 26 de noviembre de 2010
Propuesta Configuración Computadora
- Procesador Celeron E3300 Dual Core a 2.5GHz, 65w de consumo y socket LGA775
- Motherboard Gigabyte, chipset Nvidia GeForce 9400, DDR2 16GB max, Bus 1.33GHz, LGA 775
- Memoria RAM HP 1GB DDR2 667MHz con ECC
- Disco Duro Samsung SpinPoint F1, 320GB sATA, 7200 RPM, 300 Mbps
Esta configuración nos ofrece un equipo de rendimiento estándar de bajo consumo con una buena relación costo-beneficio. Excelente para actividades cotidianas como manejo de paquetería office, navegación por internet, correo electrónico, visualización de archivos multimedia, entre otras tareas básicas.
Alto Rendimiento
- Procesador Core i7 860 Quad Core a 2.8GHz, 95w de consumo y socket LGA1156
- Motherboard Gigabyte, chipset Intel P55 Express, DDR3 16GB max, Bus 2.2GHz, LGA 1156
- Memoria RAM Kingston 2GB DDR3 1333MHz sin ECC
- Disco Duro Western Digital Caviar Green, 640GB sATA, 7200 RPM, 600 Mbps
Esta configuración nos ofrece un equipo de altas prestaciones con tecnología de punta, pero con un alto consumo y un precio un poco elevado. Sin embargo es un equipo ideal para tareas que requieran un alto poder de procesamiento, como edición de audio y video, procesamiento de gráficos y Videojuegos de Alta Definición, así como el procesamiento multitarea gracias a sus múltiples núcleos, lo que optimiza el rendimiento del procesador.
lunes, 22 de noviembre de 2010
lunes, 15 de noviembre de 2010
10 ideas principales sobre los Chipsets
- El Chipset usualmente consiste en un par de chips en la motherboard que se encargan de enlazar funciones vitales para toda computadora.
- El chipset, además del procesador, es el componente más importante de la tarjeta madre.
- Una Motherboard será tan bueno como su chipset.
- Si el procesador es el cerebro de una computadora, el chipset es su sistema nervioso.
- El chipset administra muchas de las características de la computadora, tales como la memoria, discos duros, etc.
- El chipset suele incluir la funcionalidad tipo RAID en los discos.
- Es recomendable adoptar una plataforma del mismo fabricante que provea chipset y drivers para obtener mayor estabilidad y rendimiento.
- La inestabilidad en un PC origina pérdidas de productividad para el usuario final y eleva los costos de soporte de TI.
- Nunca comprar PC’s o Portatiles sin antes haber escogido el chipset para la computadora, dependiendo del uso que se le vaya a dar.
- Las Pantallas azules tambien pueden ser originadas por incompatibilidad de los dispositivos con el Chipset.
Los Piratas de Silicon Valley y el inicio de la PC
La película Piratas de Silicon Valley nos muestra los inicios de la computadora personal, así como el inicio de dos empresas que se llegarían a convertir en gigantes de la tecnología, y de cómo sus fundadores con ideas revolucionarias vinieron a cambiar los paradigmas del mundo de la computación.
La trama del filme se desarrolla entre los años 70´s y 80’s, época en la que aparecieron los primeros microprocesadores, lo cual representó un gran avance en la microelectrónica, tales como el CPU Intel 8080A que fue empleado para el diseño del microordenador ALTAIR 8800 de MITS, cuyo lenguaje de programación fue escrito por Bill Gates y Paul Allen, fundadores de Microsoft.
Por su parte Steve Wozniak y Steve Jobs, fundadores de Apple, estaban desarrollando su propia computadora, el Apple I considerada como una de las primera computadoras personales, que a diferencia de otras computadoras de esos días que eran vendidas como kits para que los aficcionados de la electrónica las soldaran y ensamblaran, el Apple I era un tablero de circuitos completamente ensamblado que contenía alrededor de 60 chips y un microprocesador MOS Technology 6502, que eran muy populares en aquel entonces debido a su bajo costo.
Estos sucesos coinciden con la llamada Cuarta Generación de las Computadoras, comprendida entre 1971 y 1981, caracterizada por la aparición de los microprocesadores y los Circuitos Integrados a Gran Escala, fue en ésta época y gracias a la visión de los fundadores de Apple y Microsoft que el mundo empezó a vivir un gran cambio que revolucionó a la historia de la humanidad.
La Ola Verde
Con la moda de lo Ola Verde y haciendo conciencia sobre la contaminación ambiental que produce el mantenimiento de muchos servidores, y que a su vez dichos servidores no son aprovechados a su máximo potencial, las empresas están adoptando tecnologías de virtualización.
La virtualización es la abstracción de un dispositivo o recurso, para crear una versión virtual o simulada del mismo, dividiendo el recurso en uno o más entornos de ejecución, lo que permite un mejor aprovechamiento de los equipos.
La virtualización ofrece ventajas tales como el mejor aprovechamiento de los recursos, disminución de equipos en uso, reducción de costos, ahorro de energía, entre otros, que lo hace muy atractivo para las empresas.
Entre las herramientas que permiten virtualizar se encuentran el VMWare, el VirtualBox, el XEN, el Qemu, entre otros.
En conclusión, la virtualización es una tecnología que actualmente está teniendo auge gracias a los beneficios que ofrece tales como el mejor aprovechamiento de los equipos con los que cuenta actualmente la empresa y la reducción de los mismos con su correspondiente ahorro en costos de mantenimiento, de energía, alojamiento y refrigeración. Y aprovechando que hoy en día está de moda ser ecológico, muchas empresas adoptan la virtualización para decir que son ecológicas.