Procesadores Gráficos

PROCESADORES GRÁFICOS

Hablando acerca de las computadoras no podemos dejar pasar un componente de ella que, hoy en dia, es de los mas importantes para trabajar, como los son los procesadores graficos, tarjetas de video o mejor comonocidos como GPU.

Una tarjeta grafica o tarjeta de video es un componente de un PC el cual esta diseñado para mostrar imagenes en alguno de los distintos medios de visualizacion, normalmente un monitor, utilizando una gran variedad de estandars de visualizacion.

La mayoria de las tarjetas graficas son dispositivos independientes, conectado a la placa base a traves de los buses ISA, PCI, VESA o AGP y proximamente el PCI-Expess. Sin embargo, cada vez mas, se encuentran tarjetas graficas integradas en la placa base, las cuales realizan la misma funcion.

Las tarjetas graficas integradas producen un rendimiento inferior comparado con las tarjetas graficas normales (debido a que tienen

chipsets mas baratos y comparten la memoria del sistema con la dedicada), quien requiera alto rendimiento deberan elegir soluciones no integradas. Estas tarjetas graficas mas avanzadas, son usadas pa ra mostrar aplicaciones 3D y juegos. Sus motores de procesamiento son llamados GPU’s (unidad de procesamiento grafico). Por el contrario, algunas posibilidades de las graficas 3D no son relevantes para la eleccion de tarjetas graficas de alto rendimiento, los graficos 2D y una buena calidad visual son importantes en algunas areas, como la arquitectura.

Los monitores analogicos son son conectados a la tarjeta grafica a traves de los conectores VGA. Los monitores digitales a traves de conectores DVI.

HISTORIA

 La historia de las tarjetas de vídeo comienza a finales de los años ’60, durante esta época, las impresoras de línea utilizadas como elemento de visualización empezaron a sustituirse por primitivos monitores, con los que se consiguió dar una imagen electrónica del espacio de trabajo que el usuario hasta entonces había usado como un simple modelo conceptual de su relación con la máquina. Por supuesto el encargado de crear esas primeras imágenes electrónicas fueron las tarjetas de vídeo.

Generalmente la historia de las GPU se divide en 3 grandes etapas.

  • Primera Etapa: Aqui se abarcara desde las primeras tarjetas MDA hasta antes de la salida de las tarjetas VGA
  • Etapa VGA: En esta parte se ve el desarrollo tanto de las tarjetas VGA y las SVGA.
  • Etapa 3D: Este sera el apartado mas amplio, ya que ha sido desde la salida de las primeras tarjetas Voodoo cuando mas se han desarrollado estar tarjetas.

PRIMERA ETAPA

Esta primera etapa es la mas larga de todas, nos lleva desde finales de los 60 hasta antes de el año 1990, en este apartado he decidido meter hasta la salida de la tarjetas MCGA y VGA, ya que sobre todo estas ultimas producieron una autentica revolucion en el mundo grafico por ordenador.

Aqui distinguimos estas cuatro grandes subetapas:

  • Tarjetas gráficas MDA
  • Tarjetas gráficas Hercules
  • Tarjetas gráficas CGA
  • Tarjetas gráficas EGA

TARJETAS GRÁFICAS MDA

 Cuando se planteó el abandonar el sistema de visualización mediante modulador y televisión, se planteó el dotar a los primeros PC´s de una tarjeta de visualización.

Las tarjetas MDA (Monocrome Data Adapter)se caracterizaban por ser monocromas, así como no poder utilizarse para dibujos ni gráficos, puesto que eran solo texto. Aunque hoy nos parezca algo raro, téngase en cuenta que los primeros PC´s se utilizaban para procesar cifras y textos.

TARJETAS GRÁFICAS HÉRCULES

La que pegó el bombazo fue la prestigiosa casa Hércules, que desarrolló un tipo de tarjeta que marcó un estándar en la industria del PC. Las tarjetas Hércules eran totalmente compatibles con las MDA anteriores, puesto que tenían un modo texto; pero también tenían un modo gráfico monocromo que presentaba una resolución de 720 x 350 puntos, lo que la hace de calidad similar a las VGA´s actuales.

TARJETAS GRÀFICAS CGA

Las tarjetas CGA (Color Graphics Adapter) fueron un invento de IBM, preocupada por mantener sus ordenadores a una cierta altura de calidad.

Por supuesto, la CGA es compatible con todos los modos anteriores; incluso lleva el mismo chip que la Hércules, pero el tamaño de la matriz que almacena los caracteres ASCII se ha reducido hasta un tamaño de 8 x 8 pixels, lo que la hace inadecuada para el modo texto durante largos períodos de tiempo frente a la pantalla.

Pero en modo gráfico la cosa cambia, y también el monitor, ya que los anteriores no sirven. Es necesario un monitor que tenga las entradas RGB, no uno que tenga solo la entrada de información de vídeo.

Para la correcta visualización del color, se utilizan las entradas RGB, mandándoles señal o no. De esta manera, tenemos la cantidad de 8 colores (2 elevado a 3). Pero además, existe un pin adicional en el conector de señal, el denominado pin de intensidad, que da más señal a la rejilla de brillo, de manera que podemos tener 8 colores brillantes u 8 colores mates. En total, la CGA permite 16 colores, un récord para la época.

Respecto a la resolución, se permitían las siguientes:

160 x 100 puntos a 16 colores.

320 x 200 puntos a 4 colores.

640 x 200 puntos a 2 colores.

O sea, que los gráficos de “alta resolución” seguían siendo monocromos.

Pantalla mostrada con tarjeta CGA

Un detalle curioso es el hecho de reducir el número de colores al aumentar la resolución. Esto es debido a que el tamaño de la memoria RAM de vídeo seguía siendo 64KB, por lo que si hacemos las cuentas, puntos x puntos x colores, no podemos pasarnos del tamaño de la RAM.

TARJETAS GRÁFICAS EGA

En 1985, IBM dio de nuevo en el clavo cuando presentó la tarjeta EGA (Enhanced Graphics Adapter).

Esta tarjeta, totalmente compatible con las anteriores, también utilizaba el mecanismo RGB + intensidad, de manera que podía representar hasta 16 colores.

Para la compatibilidad con las anteriores, presentaba una serie de switches o microinterruptores que, mediante la adecuada combinación representada en el manual de la tarjeta, se podían emular los modos anteriores. Incluso en modo texto, se presentaba la matriz de 8 x 14 pixels de las MDA, de manera que la visualización de largos períodos de tiempo en modo texto no cansaba la vista.

ETAPA VGA

Esta etapa, produjo una gran revolucion, equiparando los sistemas PC a los MAC en el aspecto grafico. Este periodo se alarga desde el año 1990 hasta el 1997 aproximadamente, cuando comenzaron ha salir las primeras aceleadoras graficas.

Podemos separar estas tres etapas, aunque la primera y segunda, surgieron a la vez:

  • Tarjetas gráficas MCGA
  • Tarjetas gráficas VGA
  • Tarjetas gráficas SVGA

TARJETAS GRÁFICAS MCGA

 Acercándonos al año 1990, IBM desarrollo la tarjeta de vídeo MCGA,destinada a los ordenadores PS/2 de gama baja que montaba la compañía. La MCGA (Memory Controller Gate Array). En lo que se refiere a modo texto, estas tarjetas se comportan igual que una CGA con sus 25 x 80 caracteres en modo texto, donde se puede elegir el color de texto y fondo de una paleta de 16 colores. Al contrario que en la tarjeta CGA su resolución horizontal no es de 200 líneas, sino de 400 líneas, por lo que la definición de los caracteres es mucho mejor.Esta tarjeta no es realmente ninguna revolucion, pero se incluye en esta etapa al ser contemporanea con la VGA, su aspecto es muy similar a esta ultima.

TARJETAS GRÁFICAS VGA

 IBM volvió a dar en la diana cuando en su modelo de ordenador PS/2 incorporó el sistema VGA o Video Graphics Array. La
principal revolución fue el hecho de aprovechar señales analógicas en lugar de digitales. Me explicaré: en tarjetas gráficas anteriores se utilizaban las señales RGB, o no se utilizaban. En el VGA, se dispone de una especie de “reguladores” de la señal, de manera que podemos mandar toda o parte de las señales RGB. O sea, en lugar de dos valores (todo o nada) podemos utilizar una serie de valores intermedios.

Para ello, las VGA llevan 3 circuitos convertidores Digital/Analógico. Los DAC transforman una serie de bits en su entrada en un voltaje determinado, que será aplicado a través de los pines de salida a los cátodos del monitor (ver capítulo anterior).

Como cada DAC (Digital/Analogic Converter) tiene hasta 64 pasos o niveles, eso significa que tenemos 64 niveles distintos de Rojo, Verde o Azul. Combinando los tres colores, tenemos en total 64 elevado a 3 colores, 262.144 colores.

Sin embargo, no podemos tenerlos todos a la vez en pantalla, puesto que la VGA tenía solo 256KB de RAM, y ahora tenemos más información que procesar. La paleta máxima era de 256 colores simultáneos, lo cual era suficiente para las aplicaciones de la época.

TARJETAS GRÁFICAS SVGA

El éxito del VGA llevó, a principios de los ’90, a numerosas compañías como ATI, Cirrus Logic y S3 (empresa que dominó el sector de la época), a crear sus propias ampliaciones del mismo, siempre centrándose en aumentar la resolución y/o el número de colores disponibles, es entonces cuando nacería el estándar SVGA (Super VGA).

Durante este periodo la memoria de las tarjetas de vídeo se fueron incrementado rápidamente, de forma que a finales de ’93 ya se podía ver tarjetas con 2Mbytes de RAM.

Con las tarjetas SVGA se consiguen resoluciones de 1.024 x 768 puntos. El número de colores que puede representar depende de la cantidad de memoria RAM que se tenga instalada. Con 512 Kbytes se pueden conseguir 16 colores con resolución 1.024 x 768, mientras que con 1 Mbyte el número de colores es de 256 con esa misma resolución.

ETAPA 3D

La evolución de las tarjetas de vídeo dió un giro importante en 1995, hasta esta fecha las mejoras en los adaptadores gráficos se habían ceñido a un incremento de las resoluciones y colores soportados por estas, pero los juegos de la época exigían mucho más, es entonces cuando empezaron a aparecer las primeras tarjetas 2D/3D, fabricadas por compañías como: Matrox, Creative, S3, ATI etc, estas seguían cumpliendo con el estándar SVGA pero implementaban algunas funciones 3D que las hacían mucho más potentes, aunque su precio era muy elevado y no pudieron suplir claramente a las tarjetas SVGA tradicionales.

En este apartado vamos a mostrar varias partes para ver mas claramente el desarrollo de las mismas

  • Primeras 3D
  • 2D/3D
  • Actualidad

PRIMERAS 3D

Alguna gente dice que la era moderna de la aceleracion 3D comenzo con el lanzamiento de la primeras tarjetas Voodoo en Octbre de 1996, Esto no es del todo cierto, ya que a pesar de ser este ellanzamiento mas importante y mas avanzado tecnologicamente, existieron otras tarjetas antes que mostraron el camino a la de 3DFX, aqui tenemos algunas de ellas

  • La tarjeta Imagine 128 y el chip de Number Nine en 1995.
  • E l chip R3D/100 de Lockheed-Martin subsidiario de REAL3D en 1995.
  • La tarjeta Diamond Edge 3D en 1995 montando el primer chip de NVIDIA el NV1.
  • El chip Gigi de 3Dlabs encontrado en la tarjeta Creative 3D Blaster VLB en 1995.
  • La tarjeta Matrox Mystique en 1996.
  • La Hercules Terminator 3D en 1996 usando el chip ViRGE de S3.
  • La tarjeta ATi 3D XPRESSION en 1996 usando el chip Lair 3D RAGE.
  • La segunda tarjeta 3D Blaster de Creative in 1996 basadea en el chip Rendition’sVérité1000.
  • La Apocalypse 3D de Videologic en1996 usando el chip PCX de NEC/PowerVR

Como se puede ver, todas fueron lanzadas en 1996 y disponian de algun grado de funcionalidad 3D. De hecho el NV1 de NVIDIA un año antes fue extremadamente avanzada para 1995, Desafortunadamente NVIDIA adopto una estrategia de renderizacion de poligonos que era incomptible con la nueva API de Microsoft DirectX, Esto hizo que no tuviese mucho exito y abrio la puerta a la tarjeta de 3DFX.

Fue en 1997 cuando surgió la verdadera revolución del 3D, la compañía 3DFX sacó el chip gráfico Voodoo, la potencia de cálculo (450.000 triángulos por segundo) y la cantidad de nuevos efectos que aportaba esta tarjeta (Mip Mapping, Z-Buffering, Anti-aliasing, Bi-Linear…) la situaban en una posición privilegiada con respecto a las tarjetas 2D/3D de la competencia.

2D/3D

Hasta esta época parecía que los adaptadores de vídeo iban a separarse en dos ramas, las de 3D y las de 2D, ya que las tarjetas que hacían la doble función eran por lo general más lentas. Pero fue a finales de este mismo año cuando nació la primera tarjeta gráfica 2D/3D que realmente era potente, la NVIDIA TNT (conocida también como la “Vodoo2 Killer”, su procesador gráfico 3D no tenía nada que envidiar al de la Voodoo2, de hecho era capaz de mover 6 millones de triángulos por segundo por los tan solo 3 millones que movía la voodoo2, y además de esto tenía la ventaja añadida de no necesitar una tarjeta SVGA extra, por lo que rápidamente empezó a comerle terreno en el mercado.

El panorama en 1999 se dibujaba de la siguiente manera, existían dos grandes compañías fabricantes de gráficas que prácticamente acaparaban el mercado, estas eran NVIDIA y 3

DFX, la última aprendió de sus errores y el siguiente modelo de tarjeta, la Voodoo3, ya realizabalas dos funciones (2D/3D), aunque la compañía 3DFX estaba muy lejos de ser capaz de competir en potencia y prestaciones con la tarjeta rival de NVIDIA, la TNT2. La Voodoo3 era capaz de mover 8 millones de triángulos por segundo y la TNT2 9, por lo que la reina seguía siendo la tarjeta de NVIDIA, además esta contaba con más memoria, 32 Mbytes por los 16 con los que venían las Voodoo3 de gama alta.

ACTUALIDAD

A finales de 1999 hasta mediados del año 2002, la compañía dominante del mercado NVIDIA (3DFX fue adquirida por esta) empezó a sacar sus modelos Gforce, Gforce2, Gforce3, Gforce4. NVIDIA basó la mejora de sus tarjetas en el procesador gráfico, de forma que cada vez eran mas rápido y podían realizar más cálculos en menos tiempo. Atrás compañías como ATI se dedicaron a mejorar los algoritmos 3D que realizaban sus tarjetas para obtener mejores resultados con micros menos potentes.

Durante esta época las mejoras en las tarjetas de vídeo se ceñían a la cantidad de algoritmos 3D vía hardware que una tarjeta podía realizar, además de mejorar hasta niveles impensables los procesadores de las mismas. El campo de las memorias también se vio salpicado, ahora se necesitaban memorias muy rápidas, empezaron a aparecer las tarjetas gráficas con memoria DDR. En cuanto a la cantidad de memoria, las primeras Gforce salieron con 32 Mbytes, las Gforce2 y 3 solían llevar 64 Mbytes y ya las Gforce4 entre 64 y 128 Mbytes.

Actualmente el liderato está en manos de dos compañías, NVIDIA y ATI. Los modelos nuevos de estas son GTX y AMD R2xx, respectivamente.

Historia de las Computadoras

ANTECEDENTES DE LAS COMPUTADORAS

 Al principio el ábaco fue considerado como una de las herramientas mecánicas para la realización de cálculos aritméticos y como uno de lo avances mas notorios del hombre hacia la modernización, fue hasta que en 1642 Blaise Pascal diseño un aparato que se le nombro “La Pascalina” que estaba basado en mecanismos de relojería que permitía efectuar las operaciones básicas (Suma y Resta).

La pascalina abultaba algo menos que una caja de zapatos y era baja y alargada. En su interior, se disponían unas ruedas dentadas conectadas entre sí, formando una cadena

de transmisión, de modo que, cuando una rueda giraba completamente sobre su eje, hacía avanzar un grado a la siguiente.

Las ruedas representaban el «sistema decimal de numeración». Cada rueda constaba de diez pasos, para lo cual estaba convenientemente marcada con números del 9 al 0. El número total de ruedas era ocho (seis ruedas para representar los números enteros y dos ruedas más, en el extremo izquierdo, para los decimales). Con esta disposición «se podían obtener números entre 0’01 y 999.999’99».

PRIMERA GENERACION (1940-1957):

Las computadoras de la primera Generación ocupaban habitaciones enteras. Los datos se ingresaban mediante tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcasmagnéticas. Se programaban en lenguaje de máquina.

 En 1940 el alemán Konrad Zuse creó la primera computadora electromecánica: la Z2;

 1941 construyo la Z3, que la primera computadora digital, lo que significa que fue la  primera que empleaba números binarios para efectuar sus cálculos.

 En 1942 John Vincent Atanasoff y Clifford Edward Berry completaron una calculadora  de propósito especial pararesolver sistemas de ecuaciones lineales simultáneas l  lamada “ABC” (Atanasoff Berry Computer). La ABC usaba núcleos magnéticos para la  memoria, así como tubos al vacío y condensadores.

Luego apareció la computadora COLOSSUS, utilizada por la Real Armada Británica para descifrar los códigos secretos de los nazis. Esta máquina usaba miles de válvulas y 2400 tubos al vacío, así como un scanner que podía leer 5000 caracteres por cinta de papel.

En 1944 Howard H. Aiken conjuntamente con la Universidad de Harvard y la IBM fabricaron la MARK I, la primera computadora electromecánica capaz de ejecutar largas operaciones. La Mark I usaba relés electromecánicos para resolver problemas de suma en menos de un segundo, 6 segundos para multiplicación y el doble de tiempo para la división. Medía 15 metros de largo y pesaba cinco toneladas.

 En 1945 Konrad Zuse creó el “Plankalkül” (que se traduce como Plan de Cálculos) el primer lenguaje de programación de la historia.

 En 1946 Se crea la ENIAC (Electronic Numerical Integrator And Calculator o Integradora Numérica Electrónica y Calculadora) una computadora empleada por el Ejército Estadounidense en sus pruebas balísticas. Contaba con 17468 tubos de vidrio al vacío, pesaba 30 toneladas, medía 30 metros de largo y consumía 200 KW de energía eléctrica. Podía resolver 5000 sumas y 360 multiplicaciones por segundo

En 1947 los Laboratorios Bell inventan el transistor y en 1948 IBM lanza la primera calculadora electrónica denominándola simplemente IBM 604. La misma empresa construye la SSEC (Selective Sequence Electronic Calculator) con 12000 tubos de vidrio al vacío y 21000 relés electromecánicos, la cual es 250 veces más rápida que la Mark I.

En 1949 fue desarrollada la primera memoria, por Jay Forrester. Se fabricó la EDVAC (Electronic Discrete Variable Automatic Computer) que tuvo el primer programa diseñado para ser almacenado. Su memoria consistía en líneas de mercurio dentro de un tubo al vacío, de tal modo que un impulso electrónico podía ir y venir en dos posiciones para almacenar los números binarios, y la primera computadora comercial se crea en 1951 y lleva el nombre de UNIVAC (Universal Automatic Computer).

En 1952 IBM introduce el modelo 701, su primera computadora electrónica con cintas de almacenamiento. Los carriles de las cintas de almacenamiento soportaban 100 caracteres por pulgada, o el equivalente de 12,500 tarjetas perforadas, por cada carril. En 1953 la computadora IBM 726 introdujo la primera cinta magnética, con una densidad de 100 caracteres por pulgada a una velocidad de 75 pulgadas por segundo.

En1954: Gene Amdahl desarrolla el primer sistema operativo, usado en la IBM 704 y en 1956 IBM vendió su primer sistema de disco magnético: RAMAC, que podía almacenar 5 megabytes de datos.

SEGUNDA GENERACION (1958-1963):

 Los transistores reemplazaron a las válvulas. Las computadoras se hacen más pequeñas, rápidas y económicas. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones. Mejoró el software facilitando su programación y utilización.

La segunda generación de las computadoras nace en 1958 cuando Jack Kilby de Texas Instruments fabrica el primer circuito integrado.

En 1959 IBM creó la mainframe IBM 1401 basada en transistores, siendo la primera computadora digital de uso comercial fabricada en serie, vendiendo más de 10000 unidades. En 1960 Benjamin Curley construye la primera mini computadora, la PDP-1, en Digital Equipment Corporation. Aparece en el mercado el primer disco removible.

En 1961 Maurice Wilkes inventa la microprogramación y en 1962 aparecen los primeros programas gráficos que dejan que el usuario dibuje en una pantalla.

Siguiendo estos avances, en 1963 un grupo formado por la industria y el gobierno estadounidense define el código estándar de caracteres ASCII.

TERCERA GENERACION (1964-1970):

 Las computadoras de la tercera generación utilizaban circuitos integrados que permitían tener cientos de transistores en un pequeño espacio, lo cual les permitió ser más pequeñas, más rápidas, y más eficientes.

Esta generación surge en 1964 cuando IBM anuncia el lanzamiento de su Sistema 360, la primera familia de computadorascompatibles. Aparece el CDC 6600, la primera supercomputadora comercialmente disponible. Se desarrolla el lenguaje de programación BASIC.

En 1966 Texas Instruments lanza su primera calculadora de bolsillo de estado sólido y en 1967 es inventado el diskette en IBM por David Noble. El primer número de la revista ComputerWorld es publicado.

En 1968 Robert Noyce y Gordon Moore fundan la Integrated Electronics Corp. (mejor conocida comoIntel).

Para 1970 se desarrolla el primer cable de fibra óptica. Intel crea la primera memoria dinámica RAM, con una capacidad de 1024 bits. Ese mismo año IBM desarrolla e introduce los floppy disks (discos flexibles).

CUARTA GENERACION (1971-hasta la fecha):

Hace su aparición el microchip, permitiendo la creación de computadoras de menor tamaño, costo y consumo de energía. Se reemplazaron las memorias con núcleos magnéticos, por las de chips de silicio. En esta época nacieron las computadoras personales. Los microprocesadores se generalizan empleándose también en calculadoras, artefactos, equipos, robots, teléfonos móviles, aviones, automóviles, o incluso juguetes.

En 1971 Intel presenta el primer chip microprocesador: el 4004. Ray Tomlinson crea el primer programa para enviar correo electrónico. Texas Instruments vende la primera calculadoraelectrónica portátil. Kenbak Corporation desarrolló la Kenbak 1, la primera Computadora Personal ó PC (Personal Computer) de la historia. En 1972 se reconoce el primer virus informático -llamado Creeper- creado por Robert Thomas Morris. Intel desarrolla el procesador 8008.

En 1973 los discos duros Winchester son introducidos por IBM en los modelos 3340. Estos dispositivos de almacenamiento se convierten en el estándar de la industria. Está provisto de un pequeño cabezal de lectura/escritura con un sistema de aire que le permite movilizarse muy cerca de la superficie del disco de una película de 18 millonésimas de pulgada de ancho y en 1974 Intel lanza el microprocesador 8080 que contenía 4500 transistores. Se crea el sistema Ethernet para enlazar a través de un cable las computadoras de una red local (LAN).

 En 1975 se produce la Altair 8800 por la empresa MITS, que empleaba el micro Intel 8080 y fue la primera PC de uso comercial. William Henry Gates y Paul Allen fundan la Microsoft Corporation.

Como competencia, en 1976 Steven Wozniak y Steven Jobs fundan la empresa Apple, y producen la Apple I.

Commodore International construye la Pet 2001, que fue la primera computadora personal con una pantalla incorporada, y en 1977 Apple presenta su computadora Apple II. Es presentada la consola de videojuegos Atari 2600, llegando a vender 42 millones de unidades.

En 1978 se fabrica el microprocesador Intel 8086, que provocó una demanda masiva y motivó a la IBM a crear una División de Computadoras Personales. Un microprocesador de la misma familia el 8088, utilizaría la IBM en su primera PC. Aparece la primera disquetera con la Apple Disk II, seguido por la Atari 400/800 en 1979 la primera computadora con el chipset de encargo.

 En 1980 se lanza al mercado el IBM PC que marcaría los estándares de la computación. Commodore Inc. presenta la VIC-20, un modelo de computadora personal muy barata, cuyo sistema se conectaba al televisor.

 Luego, en 1981 Sony crea los disquetes de 3 1/2 pulgadas. La Commodore 64 reemplazó a la VIC-20 y se vendió al igual que su predecesora, a muy bajo precio.

 En 1982 se funda la compañía Compaq, por Rod Canion, Jim Harris y Bill Murto. Aparece la Atari 5200, primera videoconsola basada en una computadora personal. La videoconsola más popular de la segunda generación es Colecovision. Microsoft licencia el MS-DOS a 50 fabricantes de micro computadoras.

En 1983 Compaq fabrica el primer clon PC IBM compatible: el Compaq portable. La red militar ARPANET se empieza a usar para fines educativos, lo cual se puede considerar como el nacimiento de Internet.

Y en 1984 IBM introduce la PC AT (Advanced Technology). Apple presenta la Macintosh, que se caracteriza por su sistema operativo gráfico. Las compañías Philips y Sony crean los CD-Roms para computadores.

En 1985 Microsoft presenta el sistema operativo Windows 1.0. Nintendo Entertainment System (NES) crea la consola de videojuego Nintendo y en 1986 Compaq lanza el primer computador basado en el procesador de 32 bits Intel 80386 (386) adelantándose a IBM. Sega Master System saca al mercado su consola de bajo precio.

En 1987 IBM introduce la serie PS/2 y vende un millón de unidades el primer año. Apple presenta la Macintosh II y Macintosh SE y en 1988 anuncia su serie de rango medio llamada AS/400. En 1989 Intel anuncia el microprocesador 80486 (486).

Uno de los grandes inventos fue en 1990 cuando Tim Berners-Lee ideó el hipertexto para crear el World Wide Web (WWW) una nueva manera de interactuar con Internet. También creó las bases del protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de los URL.

En 1991 Microsoft lanza su DOS 5.0. Linus Torvalds decidió escribir su propio núcleo de sistema operativo compatible con Unix, y lo llamó Linux. Comienza a popularizarse la programación orientada a objetos. Aparece la consola de videojuego Súper Nintendo y un año mas tarde Microsoft lanza Windows 3.1. GNU se une con el núcleo Linux para crear GNU/Linux. En 1993 Microsoft lanza al mercado la primera versión del sistema operativo multiusuario de 32 bits (cliente-servidor) Windows NT. Intel pone a la venta el microprocesador Pentium (y decide no llamarlo 586).

En 1994 hace su aparición la consola de videojuegos PlayStation. Apple Computer desarrolla la Macintosh Power PC .

En el año 1995 ocurre el Lanzamiento de Windows 95 por parte de Microsoft. La implementación original y de referencia del compilador, la máquina virtual y las librerías de clases de Java fueron desarrollados por Sun Microsystems. Intel presenta su microprocesador Pentium Pro, y en 1996 Sabeer Bhatia y Jack Smith fundan HotMail.

 En 1997 Intel anuncia el lanzamiento del microprocesador Pentium con tecnología MMX, que incorpora mejoras en el rendimiento de los gráficos 3D, multimedia, y Realidad Virtual, y un año mas tarde, en 1998 Microsoft lanza al mercado el sistema operativo Windows 98. Intel pone a la venta su microprocesador Intel Celeron (una alternativa más barata que Pentium II).

 En 1999 aparece el microprocesador Intel Pentium III. Se publica la primera versión de MSN Messenger. Surge Mac OS 9.

En el 2000 Intel pone a la venta el microprocesador Pentium 4. Son lanzados los sistemas operativos Windows 2000 y Millennium (ME) por Microsoft. Lanzamiento de Mac OS X. Seguido por el lanzamiento de Windows XP en el 2001.

Unos años mas tarde, en el 2005 Aparece el procesador Pentium D. El programa Google Earth es lanzado. En el 2006 Intel desarrolla los microprocesadores Core Duo. Lanzamiento de Windows Vista. Aparecen las consolas de juegos Wii y PlayStation 3.

En el 2008 se pone a la venta en procesador Intel Core i7.

En el 2009 se lanza al mercado el Microsoft Windows 7.

En el 2010 se espera el lanzamiento de Google Chrome OS, un sistema operativo creado por la empresa Google y basado en Linux. 2. IBM crea un procesador de grafeno con una frecuencia efectiva de 100 GHz 3. Se espera el lanzamiento de USB versión 3.0, que representaría un avance en la velocidad de transmisión de datos entre el dispositivo conectado y la computadora. Qualcomm lanza el primer procesador móvil doble núcleo a 1,5 Ghz.

En el 2011 se crean:

  • Redes de sensores inalámbricos: son redes de computadoras en miniatura equipadas para una tarea común, autoconfigurables, de fácil instalación y capaces de concretar el proceso de emisión y recepción de datos en segundos. Servirían para detectar actividad sísmica, el estado del tránsito y movimientos militares.
  • Computación ubicua: Esta tecnología conocida también como Ubicomp, se refiere a la integración de la informática en el entorno humano o real, al punto que la computadora no sea percibida como un objeto diferenciado. Con ello el hombre podrá interactuar de forma natural con chips informáticos para que realicen cualquier tarea diaria mediante órdenes sólo con la voz.
  • Implantes cibernéticos: Los nuevos dispositivos médicos implantables se basarán en materiales ópticos y electrónicos capaces de almacenar datos sobre el estado de salud e historial del paciente, además de monitorear sus signos vitales.
  • Vehículos inteligentes con Internet: Actualmente ya existen varios fabricantes dedicados a la creación de vehículos con Internet. Este avance permitirá que los viajeros puedan conocer el estado de las vías,escoger rutas alternativas y tener acceso a contenido online como archivos de música y videos.
  • Celulares 3D: Mediante un software creado por Julien Flack, director de tecnología de Dynamic DigitalDepth será posible que las imágenes del celular cambien de 2D a 3D, ofreciendo una experiencia mucho más real sin necesidad de gafas.

El 19 de Febrero del 2014 es lanzado la ultima generacion de procesadores de Xeon de intel; con capacidades analíticas únicas dentro de la memoria (In-Memory, como conoce comúnmente en inglés), la nueva familia E7 v2 del Procesador Intel Xeon proporciona conocimientos procesables en tiempo real, con hasta un 80% más de aumento de rendimiento y hasta un 80% menos en el costo total de propiedad en un lapso de cuatro años que las alternativas de arquitecturas RISC (reduced instruction set computer / Computadoras con un conjunto de instrucciones reducido). La familia E7 v2 del Procesador Intel® Xeon® también ofrece varias mejoras en comparación a los procesadores de la generación anterior, incluyendo hasta dos veces el rendimiento