Diferencia entre revisiones de «Unidad central de procesamiento»

Contenido eliminado Contenido añadido
Diegusjaimes (discusión · contribs.)
m Revertidos los cambios de 201.144.204.51 a la última edición de 201.116.238.114
Línea 6:
 
Las primeras CPU fueron diseñadas a la medida como parte de una computadora más grande, generalmente una computadora única en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los [[transistor]]es discretos, [[Computadora central|computadoras centrales]], y [[microcomputadora]]s, y fue acelerada rápidamente con la popularización del [[circuito integrado]] (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de [[milímetro]]s). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde [[automóvil]]es, [[televisor]]es, [[nevera]]s, [[calculadora]]s, [[avión|aviones]], hasta [[Telefonía móvil|teléfonos móviles o celulares]], [[juguete]]s, entre otros.
 
== Historia ==
[[Archivo:Edvac.jpg|thumb|250px|left|El [[EDVAC]], uno de los primeros computadores de programas almacenados electrónicamente.]]
 
{{AP|Historia del hardware de computador}}
Casi todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del [[transistor]], los [[relé|relés eléctricos]] y los [[tubo de vacío|tubos de vacío]] (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de [[lógica secuencial]] de [[corriente directa]] requería hardware adicional para hacer frente al problema del [[rebote de contacto]]. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo.<ref>Vacuum tubes eventually stop functioning in the course of normal operation due to the slow contamination of their cathodes that occurs when the tubes are in use. Additionally, sometimes the tube's vacuum seal can form a leak, which accelerates the cathode contamination. See [[vacuum tube]].</ref> Generalmente, cuando un tubo ha fallado, el CPU tendría que ser diagnosticado para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidas pero menos confiables que las computadoras electromecánicas, (basadas en relés). Las computadoras de tubo, como el [[EDVAC]], tendieron en tener un promedio de ocho horas entre fallas, mientras que las computadoras de relés, (anteriores y más lentas), como el [[Harvard Mark I]], fallaban muy raramente <!--{{Ref harvard|weik1961|Weik 1961:238|b}}-->. Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estos tempranos CPU síncronos corrían en [[frecuencia de reloj|frecuencias de reloj]] bajas comparadas con los modernos diseños microelectrónicos, (ver más abajo para una exposición sobre la frecuencia de reloj). Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 [[kilohercio|kHz]] hasta 4 [[megahercio|MHz]], limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.
 
=== CPU de transistores y de circuitos integrados discretos ===
[[Archivo:PDP-8i_cpu.jpg|thumb|350px|CPU, [[memoria de núcleo magnético|memoria de núcleo]], e interfaz de [[bus de computador|bus externo]] de un MSI [[PDP-8]]/I.]]
 
La complejidad del diseño de los''' CPU''' se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del [[transistor]]. Los CPU transistorizados durante los [[años 1950]] y los [[años 1960]] no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPUs más complejos y más confiables sobre una o varias [[circuito impreso|tarjetas de circuito impreso]] que contenían componentes discretos (individuales).
 
Durante este período, ganó popularidad un '''método''' de fabricar muchos transistores en un espacio compacto. El [[circuito integrado]] ('''IC''') permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en [[semiconductor]] o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las [[puerta NOR|puertas NOR]] fueron miniaturizados en IC. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" ('''SSI'''). Los circuitos integrados SSI, como los usados en el [[computador guía del Apollo]] (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de IC individuales necesarios para un CPU completo. Los circuitos integrados '''MSI''' y el '''LSI''' (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles.
 
En 1964, [[IBM]] introdujo su arquitectura de computador [[System/360]], que fue usada en una serie de computadores que podían correr los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles una con la otra, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de [[microprograma]], a menudo llamado "[[microcódigo]]", que todavía ve un uso extenso en los CPU modernos <!--{{Ref harvard|Amdahl1964|Amdahl et al. 1964|a}}-->. La arquitectura System/360 era tan popular que dominó el mercado del [[mainframe]] por las siguientes décadas y dejó una herencia que todavía es continuada por computadores modernos similares como el [[IBM zSeries]]. En el mismo año de 1964, [[Digital Equipment Corporation]] (DEC) introdujo otro computador influyente dirigido a los mercados científicos y de investigación, el [[PDP-8]]. DEC introduciría más adelante la extremadamente popular línea del [[PDP-11]], que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando llegaron a ser prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contuvo un CPU integrado por solamente cuatro circuitos integrados LSI <!--{{Ref harvard|dec1975|Digital Equipment Corporation 1975|a}}-->.
 
Los computadores basados en transistores tenían varias ventajas distintas sobre sus predecesores. Aparte de facilitar una creciente confiabilidad y un más bajo consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a la creciente confiabilidad como a la dramáticamente incrementada velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, fueron obtenidas frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados estaban en fuerte uso, comenzaron a aparecer los nuevos diseños de alto rendimiento como [[procesador vectorial|procesadores vectoriales]] [[SIMD]] (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos tempranos diseños experimentales dieron lugar más adelante a la era de los [[Supercomputadora|supercomputadoras]] especializados, como los hechos por [[Cray Inc]].
 
=== Microprocesadores ===
[[Archivo:Intel_80486DX2_bottom.jpg|thumb|right|250px|[[Microprocesador]] [[Intel]] [[Intel 80486|80486DX2]] en un paquete [[Pin grid array|PGA]] de cerámica]]
{{AP|Microprocesador}}
 
Desde la introducción del primer microprocesador, el [[Intel 4004]], en 1970, y del primer microprocesador ampliamente usado, el [[Intel 8080]], en 1974, esta clase de CPUs ha desplazado casi totalmente el resto de los métodos de implementación de la Unidad Central de Proceso. Los fabricantes de mainframes y minicomputadores de ese tiempo lanzaron programas de desarrollo de IC propietarios para actualizar sus más viejas [[arquitectura de computador|arquitecturas de computador]], y eventualmente produjeron microprocesadores con conjuntos de instrucciones que eran compatibles hacia atrás con sus más viejos hardwares y softwares. Combinado con el advenimiento y el eventual vasto éxito del ahora ubicuo [[PC (informática)|computadora personal]], el término "CPU" es aplicado ahora casi exclusivamente a los microprocesadores.
 
Las generaciones previas de CPUs fueron implementadas como componentes discretos y numerosos circuitos integrados de pequeña escala de integración en una o más tarjetas de circuitos. Por otro lado, los microprocesadores son CPUs fabricados con un número muy pequeño de IC; usualmente solo uno. El tamaño más pequeño del CPU, como resultado de estar implementado en una simple pastilla, significa tiempos de conmutación más rápidos debido a factores físicos como el decrecimiento de la [[capacitancia]] parásita de las [[puerta lógica|puertas]]. Esto ha permitido que los microprocesadores síncronos tengan tiempos de reloj con un rango de decenas de megahercios a varios gigahercios. Adicionalmente, como ha aumentado la capacidad de construir transistores excesivamente pequeños en un IC, la complejidad y el número de transistores en un simple CPU también se ha incrementado dramáticamente. Esta tendencia ampliamente observada es descrita por la [[ley de Moore]], que ha demostrado hasta la fecha, ser una predicción bastante exacta del crecimiento de la complejidad de los CPUs y otros IC.
 
Mientras que, en los pasados sesenta años han cambiado drásticamente, la complejidad, el tamaño, la construcción, y la forma general del CPU, es notable que el diseño y el funcionamiento básico no ha cambiado demasiado. Casi todos los CPU comunes de hoy se pueden describir con precisión como máquinas de programa almacenado de von Neumann.
 
A medida que la ya mencionada ley del Moore continúa manteniéndose verdadera, se han presentado preocupaciones sobre los límites de la tecnología de transistor del circuito integrado. La miniaturización extrema de puertas electrónicas está causando los efectos de fenómenos que se vuelven mucho más significativos, como la [[electromigración]], y el [[subumbral de pérdida]]. Estas más nuevas preocupaciones están entre los muchos factores que hacen a investigadores estudiar nuevos métodos de computación como la [[computación cuántica|computadora cuántica]], así como ampliar el uso de [[computación paralela|paralelismo]], y otros métodos que extienden la utilidad del modelo clásico de von Neumann.
 
== Operación del CPU ==