EL COMPUTADOR Y SUS PARTES


HISTORIA DEL COMPUTADOR.






En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de calcular de Pascal e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.


También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.



Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.



Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde. 



El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador. 



A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.



A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.



HARDWARE.






La palabra hardware en informática se refiere a las partes físicas, tangibles, de un sistema informático; sus componentes eléctricos, electrónicos, electromecánicos y mecánicos.1​ Los cables, así como los gabinetes o cajas, los periféricos de todo tipo, y cualquier otro elemento físico involucrado, componen el hardware o soporte físico; contrariamente, el soporte lógico e intangible es el llamado software.
El término es propio del idioma inglés, y su traducción al español no tiene un significado acorde, por tal motivo se lo ha adoptado tal cual es y suena. La Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2​ El término, aunque sea lo más común, no solamente se aplica a las computadoras, también es a menudo utilizado en otras áreas de la vida diaria y la tecnología. Por ejemplo, hardware también se refiere a herramientas y máquinas, y en electrónica hardware se refiere a todos los componentes electrónicos, eléctricos, electromecánicos, mecánicos, cableados y tarjetas de circuitos impresos.
Otros ejemplos donde se aplica el término hardware son, en relación a los robots,34​ así como en relación a los teléfonos móviles, las cámaras fotográficas, los reproductores digitales, o cualquier otro dispositivo electrónico. Cuando dichos dispositivos también procesan datos, poseen firmware y/o software además de hardware.
La historia del hardware de computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Una primera delimitación podría hacerse entre hardware principal (véase figura), como el estrictamente necesario para el funcionamiento normal del equipo, y el «complementario», como el que realiza funciones específicas.
El hardware principal de un computador se compone de una unidad central de procesamiento(CPU); encargada de procesar los datos; una memoria rápida de trabajo para almacenamiento temporal; una unidad de almacenamiento fija para mantener software y datos así como extraerlos de ella; uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, que posibilitan dar salida (normalmente en forma visual, impresa o auditiva) a los datos procesados.


SOFTWARE.







Las prácticas y herramientas tradicionales de desarrollo de software no pueden ampliarse para soportar los ciclos de entrega acelerados y las iteraciones de productos diseñados para Internet de las cosas. Necesita herramientas y prácticas modernas diseñadas para que IoT tenga éxito.
En el pasado, las metodologías de desarrollo tradicionales eran una cascada y se dirigían en una dirección: desde el diseño hasta la implementación, con poca información que regresaba al equipo de desarrollo de los productos implementados. Sin embargo, en Internet de las cosas, el software y los sensores integrados en el hardware envían datos operativos para su análisis y acción a los desarrolladores. Los datos de uso del mundo real ahora están disponibles para que los desarrolladores mejoren la calidad y la usabilidad de sus productos rápidamente. Nos referimos al proceso de desarrollo de IoT como un ciclo de retroalimentación.
Los equipos que han aprovechado con éxito los métodos ágiles para mejorar la entrega de software ahora quieren llevar eso al hardware, para aplicar los mismos métodos ágiles a los procesos mecánicos, de diseño eléctrico y de fabricación. Se enfrentan al desafío de conectar componentes de software, hardware y servicios de dispositivos y vincular las disciplinas de ingeniería que entregan estos componentes del producto completo.
Las configuraciones de hardware y software evolucionan a diferentes velocidades, y realizan un seguimiento de qué software va con qué hardware requiere conexiones claras. A medida que aumenta la complejidad del producto, la configuración de cada componente y sus enlaces a través de la configuración general del producto pronto pueden volverse inmanejables sin un sistema que soporte el proceso.
LA TECNOLOGÍA EN LA HISTORIA.



La Evolución Tecnológica va mano a mano con la Ciencia, aunque ambas cosas son distintas:
  • Los descubrimientos científicos engloban el conocimiento en sí mismo.
  • La Tecnología aplica esos conocimientos para resolver una necesidad humana.
Se suele asociar tecnología con modernidad, pero realmente la actividad tecnológica, la curiosidad por modificar nuestro entorno para mejorar nuestras condiciones de vida, es algo tan viejo como la humanidad.
La Prehistoria.
Es el periodo de tiempo transcurrido desde la aparición del primer ser humano hasta la invención de la escritura, hace más de 5 000 años.
Los primeros hombres prehistóricos eran nómadas que se dedicaban a la caza y a la recolección de frutos. Sus avances tecnológicos estaban orientados a su supervivencia.
La prehistoria se divide en tres etapas; PaleolíticoMesolítico yNeolítico.

La primera revolución tecnológica se produjo hace unos 10.000 años, en el Neolítico, cuando los seres humanos pasaron de ser nómadas a sedentarios desarrollando las primeras técnicas agrícolas.
Descubrimiento clave:La agricultura.
En Mesopotamia, los sumerios inventaron la escritura cuneiforme (aproximadamente en el año 3 000 a.C.) y en EgiptoImhotep introduce la piedra natural en las construcciones.
En esta época aparecen las ciudades-estados en Grecia y los imperios  territoriales (Roma).
Las aportaciones griegas fueron más científicas y filosóficas, mientras que los romanos se dedicaron más a la ingeniería tanto civil como militar.
Al final de este periodo, el desarrollo tecnológico decae, los historiadores lo atribuyen al esclavismo. Los esclavos son mano de obra barata por lo que no es necesario producir innovaciones que faciliten las tareas manuales y repetitivas.
Descubrimiento clave: la rueda
La Edad Media  (siglo V d.C.-1492).
El Imperio Romano de Occidente cae definitivamente en el siglo V a causa de las invasiones bárbaras. Se pierde así gran parte del legado intelectual de la Antigüedad.
En Oriente, los árabes son los herederos de la cultura clásica, que se encargarán de reintroducir en Europa. Paralelamente, desde el 2 000 a.C.,  hasta el siglo XV en China construyeron una sociedad floreciente que produjo un sin fin de éxitos tecnológicos.
De esta época destacan los alquimistas San Alberto MagnoRamón LlulRoger Bacon y Yabir ibn Hayyan (Geber), los médicos Avicena y Averroes  y el matemático Al-Karayi.
En Europa a partir del siglo XI, se produce un resurgimiento intelectual al crearse las universidades y las escuelas catedralicias.
En esta época aparecen muchos inventos. Tres innovaciones tecnológicas destacan sobre las demás: el papel,  la imprenta y la pólvora.
Descubrimiento clave: La imprenta
La Edad Moderna (1492 - 1789).
Es el periodo comprendido entre el Descubrimiento de América y la Revolución Francesa.
En este periodo destacan los grandes descubrimientos geográficos como el descubrimiento de América, el Renacimiento, la Reforma Protestante y la Contrarreforma.
Con el crecimiento de las ciudades se produjo un cambio en el sistema económico: la economía feudal dio paso a los primeros indicios del sistema capitalista.
Toda esta actividad condujo a la necesidad de buscar nuevas tierras donde conseguir las materias primas, necesarias para fabricar los productos. Además, significó la apertura de nuevos mercados donde venderlos.
En esta época aparecen muchos inventos. Tres  innovaciones tecnológicas destacan sobre las demás: la brújula, la cartografía y las armas de fuego.
Descubrimiento clave: El galeón
La Revolución Industrial (1760 - 1840).
La primera revolución industrial nace en Inglaterra a finales del siglo XVIII con el invento de la máquina de vapor. Por primera vez, la Humanidad podía realizar tareas agrícolas o industriales prescindiendo  del esfuerzo de las personas o animales.
Este invento propició la agricultura a gran escala y el desarrollo de las industrias.
Al mejorar los medios de producción se produjo una migración masiva del campo a las ciudades, donde estaban las fábricas, cambiando la sociedad pues aparece la clase obrera. Los primeros trabajadores estaban obligados a cumplir largas jornadas de trabajo con apenas descansos y vacaciones. Esto da lugar a la aparición de los movimientos obreros que empiezan a luchar por los derechos de los trabajadores.
En esta época aparecen muchos inventos e   innovaciones tecnológicas como el teléfono, la bombilla, la siderurgia, el pararrayos, el telégrafo, la máquina de coser y los vehículos a motor.
Descubrimiento: La máquina de vapor
El siglo XX y XXI hasta hoy.
En el siglo XX se produce un desarrollo tecnológico extraordinario. Aparecen los primeros aviones, la electricidad llega a las ciudades y a las fábricas, nace la electrónica que propicia el surgimiento de los primeros ordenadores personales hacia 1980,  nace y se desarrolla la tecnología nuclear, la medicina experimenta grandes avances que  prolongan la calidad de vida y la edad del ser humano,   nace y se desarrolla la tecnología espacial que coloca satélites artificiales en órbita (1957), el Hombre llega a la Luna (1969) y se lanzan sondas interplanetarias, se desarrollan las grandes redes de comunicación telefónicas fijas y móviles, aparece Internet (1967) y el correo electrónico (1971) y las www.
En esta época aparecen muchos inventos e   innovaciones tecnológicas como por ejemplo, la radio, la televisión, el teléfono móvil,  las centrales nucleares, los robots, los CDs y DVDs, el cine, los microprocesadores, los ordenadores personales, los electro-domésticos...




















Comentarios