martes, 14 de diciembre de 2010

Vistazo al Futuro


Al hacer un vistazo al futuro del mundo de la computación, podría vislumbrar que el futuro se encuentra en las leyes y teoría de la Física Cuántica. Pero de qué se trata esto, primero vamos a definir el concepto de la Computación Cuántica.

La computación cuántica es producto de la combinación de la mecánica cuántica y la teoría de la computación, que se enfoca a estudiar si un problema puede ser resuelto utilizando un procedimiento programado en una computadora, así como la cantidad de recursos como energía y tiempo que se deben aplicar en caso de existir solución. En consecuencia, la computación cuántica tiene como propósito la utilización de las teorías de las que surge para incrementar la capacidad de las computadoras para procesar información y solucionar problemas.

En la computación cuántica también convergen otras disciplinas como la microelectrónica, la nanotecnología, las matemáticas, la criptografía, entre otras.

Actualmente científicos están realizando investigaciones sobre el tema, sin embargo aún hay muchas factores que hay que madurar, pero considero que cuando se logren superar todas esas limitaciones, el avance tecnológico experimentará un salto cuántico exponencial.

Aquí les dejo unos videos que hablan sobre el tema y en internet se puede encontrar mucha información. Asímismo me permito recomendar una película documental titulado “Y tú que sabes?” muy bueno que explica de manera amena la teoría de la Física Cuántica.






miércoles, 1 de diciembre de 2010

Procesadores de 64 bits

La Evolución del Microprocesador

La evolución del microprocesador se inició el año 1971 cuando la empresa Intel logró fabricar su primer microprocesador como un circuito integrado, iniciándose así una revolución en la tecnología de las computadoras.

En aquella época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones. Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador.
Las ventajas son evidentes. Estos circuitos integrados se pueden fabricar en cantidades enormes, logrando que sus costos sean muy bajos. Esta disposición de un circuito integrado de bajo costo al alcance de muchos, hizo que los ingenieros y técnicos cambiaran su proceso de diseño, en el cual ya tenían un elemento estandarizado: el hardware (el microprocesador). Ahora los esfuerzos de diseño debían concentrar en el diseño del programa que controlaría el microprocesador (el software).

El primer microprocesador de Intel fue el 4004. Este fue un microprocesador de 4 bits y 16 registros. Tenía 46 comandos y podía accesar 4096 Bytes (4 Kbytes) de memoria. Un año después, Intel sacó al mercado el 8008 (de 8 bits). Este microprocesador era más potente que se predecesor, el 4004.

Para esta época Intel ya tenía competencia: Motorola y Texas Instruments que también sacaron sus propios microprocesadores al mercado. Poco después apareció un microprocesador digno de mencionar: el popular Z80 de Zilog.

Como estándar en la industria Intel introdujo el 8080 y Motorola el 68000. El éxito que Intel obtuvo se debió no solamente a su gran cantidad de comandos (200 en el 8080) y a su gran capacidad de direccionamiento de memoria (64 KBytes en el 8080), si no a su clara estructura, amplia documentación para sus clientes y gran número de periféricos desarrollados simultáneamente con el microprocesador.

Hoy en día existen microprocesadores de 32 bits y 64 bits que logran accesar una gran cantidad de memoria, así como con tecnología multi-núcleos que permiten procesar una gran cantidad de datos y procesamiento paralelo. Por otro lado los microprocesadores actuales incluyen muchas otras características tales como el controlador de la memoria del sistema, y la tendencia en los próximos años es que incluya también el GPU (Unidad de Procesamiento Gráfico) prescindiendo de esta manera de una tarjeta gráfica ya sea onboard o de expansión. Además hay otras empresas que compiten con Intel en la fabricación de Microprocesadores, un ejemplo muy evidente: AMD (Advanced Micro Devices).

La Ley de Moore

En 1965 Gordon Moore, uno de los fundadores de Intel, escribió un artículo para la revista Electronics Magazine, en el que predijo que: "La complejidad de los componentes se ha multiplicado aproximadamente por 2 cada año. A corto plazo, se puede esperar que esta tasa se mantenga, o incluso que aumente. A largo plazo, la tasa de aumento es un poco más incierta, aunque no hay razón para creer que no permanecerá constante por lo menos durante 10 años. Esto significa que para 1975, el número de componentes en cada circuito integrado de mínimo coste será de 65000. Creo que un circuito tan grande puede construirse en una sola oblea." En aquél entonces el circuito integrado más complejo tenía 64 componentes, así que estaba aventurando que en el 75 tendría que haber un mínimo de 64.000. Todo el mérito de Moore consistió en decir que en 10 años la evolución de la industria de circuitos integrados se comportaría más o menos como estaba ocurriendo en ese momento. Y en acertar.

El concepto de la Ley de Moore ha cambiado con el tiempo. El artículo original decía que el número de componentes por chip que se podían colocar se duplicaría cada año. En 1975, en una reunión del IEEE (Institue of Electrical and Electronic Engineering), justo despues de comprobar el resultado de su predicción, Moore pensó que el ritmo se ralentizaría, y decidió modificar el tiempo de duplicación, fijándolo en 2 años.

En los años 80, las resistencias se dejaron de contabilizar en el número de componentes, y la Ley de Moore se comenzó a conocer como la duplicación del número de transistores en un chip cada 18 meses. Lo curioso del caso es que Moore nunca dijo 18 meses. Fueron sus compañeros en Intel quienes introdujeron esa cifra, al tener en cuenta que además del número de transistores, se aumentaba la frecuencia de reloj.

Al inicio de los 90, se entendía por Ley de Moore el duplicar la potencia de un microprocesador cada 18 meses. A finales de los 90, la interpretación económica tomó más fuerza, es decir el coste de una computadora disminuye a la mitad cada año y medio.

Según el propio Moore, su predicción seguirá teniendo validez en el año 2011. Eso significa que manejaremos chips de 10 gigahertzios, con tecnología de 0.07 micras, y mil millones de transistores. Sin embargo existe el problema del suministro de potencia eléctrica, ya que mil millones de transistores requieren un buen número de kilowatios/hora para funcionar y genera calentamiento, por lo que la refrigeración es otro aspecto muy importante a considerar.

Hoy en día podemos observar otra modificación en la Ley de Moore. Debido al cambio de paradigma en el diseño de procesadores, que ahora se centra en el número de núcleos que se pueden colocar en un sólo chip, dejando en segundo término a los GHz, la Ley de Moore ahora se basa en el rendimiento del procesador, específicamente en millones de instrucciones que se ejecuta en un segundo (MIPS).

Los Procesadores ARM

Advanced Risc Machines (ARM), es una empresa británica dedicada al desarrollo de microprocesadores ARM de arquitectura RISC (Reduced Instruction Set Computer, Computadoras con Conjunto de Instrucciones Reducido). Entre sus características de esta arquitectura se mencionan las siguientes:

  • Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
  • Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
  • Posibilita la segmentación y el paralelismo en la ejecución de instrucciones.
  • Reduce los accesos a memoria.
  • Al ser instrucciones pequeñas y simples, el procesador la ejecuta en menor tiempo.
  • Bajo consumo de energía.
Hoy en día los microprocesadores ARM se encuentran presentes en aproximadamente 80% de los celulares actuales. Su exponente más conocido es el iPhone 3G de Apple, que utiliza el ARM 11, sin embargo este procesador salió en el 2003 y ésto se refleja en el perfomance del dispositivo, sobre todo en tareas multimedia y navegación por internet. Pero ARM ha lanzado una nueva generación de procesadores para celulares y dispositivos móviles: la serie Cortex, que adopta la nueva tendencia de los actuales procesadores x86, el “multicore”. La gran ventaja de contar con un procesador de varios núcleos, es que se puede realizar cierta tarea, con un consumo menor de energía. En vez de tener un chip corriendo a su máxima velocidad, se tiene dos que trabajan a la mitad de su capacidad. Al correr a una velocidad menor, se pierde menos energía, ya que el chip trabaja más frío. Estos procesadores, al trabajar con varios núcleos en paralelo, son más potentes y por lo tanto ofrecen una mejor respuesta a las aplicaciones multimedia y de Internet.

Además, ya se está hablando de que los procesadores Cortex A9 podrían ser usados exitosamente, más allá de los teléfonos inteligentes (smartphones), en el segmento de las netbooks. Esto pondría a estos procesadores a competir con la serie Atom de Intel. Sin embargo la mayoría de los sistemas operativos o sw en general estan destinadas para arquitectura x86, lo que implicaría volver a escribir todos los programas para que sean compatibles con los procesadores ARM.

En conclusión los procesadores ARM tienen un futuro muy prometedor para ser utilizados en dispositivos móviles que corverge diversos servicios tales como reproductor de audio y video, cónsola de videojuegos, centro de entretenimiento, comunicación inalámbrica y telefonía celular.

viernes, 26 de noviembre de 2010

AMD Phenom II X6

Capacidad Multitarea AMD

Fabricación del Microprocesador

Historia de los Procesadores Intel

Anuncio del Intel Atom

El Procesador

Ley de Moore

Propuesta Configuración Computadora

Rendimiento Estándar

  • Procesador Celeron E3300 Dual Core a 2.5GHz, 65w de consumo y socket LGA775
  • Motherboard Gigabyte, chipset Nvidia GeForce 9400, DDR2 16GB max, Bus 1.33GHz, LGA 775
  • Memoria RAM HP 1GB DDR2 667MHz con ECC
  • Disco Duro Samsung SpinPoint F1, 320GB sATA, 7200 RPM, 300 Mbps

Esta configuración nos ofrece un equipo de rendimiento estándar de bajo consumo con una buena relación costo-beneficio. Excelente para actividades cotidianas como manejo de paquetería office, navegación por internet, correo electrónico, visualización de archivos multimedia, entre otras tareas básicas.

Alto Rendimiento


  • Procesador Core i7 860 Quad Core a 2.8GHz, 95w de consumo y socket LGA1156
  • Motherboard Gigabyte, chipset Intel P55 Express, DDR3 16GB max, Bus 2.2GHz, LGA 1156
  • Memoria RAM Kingston 2GB DDR3 1333MHz sin ECC
  • Disco Duro Western Digital Caviar Green, 640GB sATA, 7200 RPM, 600 Mbps

Esta configuración nos ofrece un equipo de altas prestaciones con tecnología de punta, pero con un alto consumo y un precio un poco elevado. Sin embargo es un equipo ideal para tareas que requieran un alto poder de procesamiento, como edición de audio y video, procesamiento de gráficos y Videojuegos de Alta Definición, así como el procesamiento multitarea gracias a sus múltiples núcleos, lo que optimiza el rendimiento del procesador.

lunes, 15 de noviembre de 2010

10 ideas principales sobre los Chipsets

  1. El Chipset usualmente consiste en un par de chips en la motherboard que se encargan de enlazar funciones vitales para toda computadora.
  2. El chipset, además del procesador, es el componente más importante de la tarjeta madre.
  3. Una Motherboard será tan bueno como su chipset.
  4. Si el procesador es el cerebro de una computadora, el chipset es su sistema nervioso.
  5. El chipset administra muchas de las características de la computadora, tales como la memoria, discos duros, etc.
  6. El chipset suele incluir la funcionalidad tipo RAID en los discos.
  7. Es recomendable adoptar una plataforma del mismo fabricante que provea chipset y drivers para obtener mayor estabilidad y rendimiento.
  8. La inestabilidad en un PC origina pérdidas de productividad para el usuario final y eleva los costos de soporte de TI.
  9. Nunca comprar PC’s o Portatiles sin antes haber escogido el chipset para la computadora, dependiendo del uso que se le vaya a dar.
  10. Las Pantallas azules tambien pueden ser originadas por incompatibilidad de los dispositivos con el Chipset.

Generaciones de las Computadoras

Los Piratas de Silicon Valley y el inicio de la PC

La película Piratas de Silicon Valley nos muestra los inicios de la computadora personal, así como el inicio de dos empresas que se llegarían a convertir en gigantes de la tecnología, y de cómo sus fundadores con ideas revolucionarias vinieron a cambiar los paradigmas del mundo de la computación.


La trama del filme se desarrolla entre los años 70´s y 80’s, época en la que aparecieron los primeros microprocesadores, lo cual representó un gran avance en la microelectrónica, tales como el CPU Intel 8080A que fue empleado para el diseño del microordenador ALTAIR 8800 de MITS, cuyo lenguaje de programación fue escrito por Bill Gates y Paul Allen, fundadores de Microsoft.


Por su parte Steve Wozniak y Steve Jobs, fundadores de Apple, estaban desarrollando su propia computadora, el Apple I considerada como una de las primera computadoras personales, que a diferencia de otras computadoras de esos días que eran vendidas como kits para que los aficcionados de la electrónica las soldaran y ensamblaran, el Apple I era un tablero de circuitos completamente ensamblado que contenía alrededor de 60 chips y un microprocesador MOS Technology 6502, que eran muy populares en aquel entonces debido a su bajo costo.


Estos sucesos coinciden con la llamada Cuarta Generación de las Computadoras, comprendida entre 1971 y 1981, caracterizada por la aparición de los microprocesadores y los Circuitos Integrados a Gran Escala, fue en ésta época y gracias a la visión de los fundadores de Apple y Microsoft que el mundo empezó a vivir un gran cambio que revolucionó a la historia de la humanidad.

La Ola Verde

Con la moda de lo Ola Verde y haciendo conciencia sobre la contaminación ambiental que produce el mantenimiento de muchos servidores, y que a su vez dichos servidores no son aprovechados a su máximo potencial, las empresas están adoptando tecnologías de virtualización.


La virtualización es la abstracción de un dispositivo o recurso, para crear una versión virtual o simulada del mismo, dividiendo el recurso en uno o más entornos de ejecución, lo que permite un mejor aprovechamiento de los equipos.


La virtualización ofrece ventajas tales como el mejor aprovechamiento de los recursos, disminución de equipos en uso, reducción de costos, ahorro de energía, entre otros, que lo hace muy atractivo para las empresas.


Entre las herramientas que permiten virtualizar se encuentran el VMWare, el VirtualBox, el XEN, el Qemu, entre otros.

En conclusión, la virtualización es una tecnología que actualmente está teniendo auge gracias a los beneficios que ofrece tales como el mejor aprovechamiento de los equipos con los que cuenta actualmente la empresa y la reducción de los mismos con su correspondiente ahorro en costos de mantenimiento, de energía, alojamiento y refrigeración. Y aprovechando que hoy en día está de moda ser ecológico, muchas empresas adoptan la virtualización para decir que son ecológicas.

Mis Expectativas sobre el curso de Infraestructura Tecnológica

Mis expectativas sobre el curso de Infraestructura Tecnológica, es recordar y refrescar varios conceptos de tecnologías de información, así como obtener nuevos conocimientos sobre las nuevas tendencias y tecnologías de hoy en día y su evolución y aplicación en las actividades del mundo tecnológico.