jueves, 24 de junio de 2021

¿QUE ES EL COMPUTADOR (HISTORIA)?

 

Historia


Lejos de ser un invento de una persona en particular, la computadora es el resultado evolutivo de ideas de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación. Fue creada por un bien mayor debido a que la elaboración de las tablas matemáticas era un proceso tedioso y muy propenso a errores Konrad Zuse fue el primero en construir una computadora que funcionase. Lo hizo en el salón de la casa de sus padres en Berlín. Este ordenador podía guardar 64 palabras. con el paso del tiempo se llego a mejorar más que ahora guarda 500 Millones de palabras con una capacidad de 30 GB

Cronología

Los principales hitos en la historia de la computación, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.

  • 500 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
  • Hacia 830: el matemático e ingeniero persa Musa al-Juarismi desarrolló la teoría del algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
  • 1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
  • 1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
  • 1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
  • 1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
  • 1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
  • 1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros computadores.
  • 1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la «máquina analítica». Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
  • 1841 : la matemática Ada Lovelace comienza a trabajar junto a Babbage en lo que sería el primer algoritmo destinado a ser procesado por una máquina, por lo que se la considera como la primera programadora de computadores.
  • 1890: el norteamericano Herman Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de Estados Unidos. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
  • 1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
  • 1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
  • 1938: el ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
  • 1944: en Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en Estados Unidos.
  • 1944: en Inglaterra se construyen los computadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
  • 1946: en la Universidad de Pensilvania se pone en funcionamiento la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
  • 1947: en los Laboratorios Bell, John BardeenWalter Houser Brattain y William Shockley inventan el transistor.
  • 1950: Kathleen Booth, crea el Lenguaje Ensamblador para hacer operaciones en la computadora sin necesidad de cambiar los cables de conexión, sino a través de tarjetas perforadoras (programa u operación guardada para usarla cuando sea necesario) las cuales eran propensas a dañarse por esta razón, a finales de este año se comienza a desarrollar el lenguaje de programación.
  • 1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
  • 1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Las computadoras con transistores reemplazan a las de válvulas, marcando el comienzo de la segunda generación de computadoras.
  • 1957: Jack S. Kilby construye el primer circuito integrado.
  • 1964: la aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
  • 1965: Olivetti lanza, Programma 101, la primera computadora de escritorio.
  • 1971: Nicolet Instruments Corp. lanza al mercado la Nicolet 1080, una computadora de uso científico basada en registros de 20 bits.
  • 1971: Intel presenta el primer microprocesador comercial, el primer chip: el microprocesador Intel 4004.
  • 1975: Bill Gates y Paul Allen fundan Microsoft.
  • 1976: Steve JobsSteve WozniakMike Markkula fundan Apple.
  • 1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak.
  • 1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
  • 1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
  • 1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
  • 1983: Richard Stallman anuncia públicamente el proyecto GNU.
  • 1985: Microsoft presenta el sistema operativo Windows 1.0.
  • 1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
  • 1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
  • 2000: aparecen a comienzos del siglo XXI los computadores de bolsillo, primeras PDA.
  • 2007: presentación del primer iPhone, por la empresa Apple, un teléfono inteligente o smartphone.


  • desde url y desde el ordenador.

¿QUE ES UN SOFTWARE?

 software

  1. nombre masculino
    Conjunto de programas y rutinas que permiten a la computadora realizar determinadas tareas.
  2. La primera teoría sobre el software fue propuesta por Alan Turing en su ensayo de 1935 sobre números computables, con una aplicación destinada a la toma de decisiones. El término "software" fue utilizado por primera vez de forma escrita por John W. Tukey en 1958. El estudio de los campos académicos sobre el software se dividend en informática y la ingeniería de software.

    Como los programas cada vez entraban más en el reino de firmware y el hardware por si sólo se hacía más pequeño, más barato y más rápido debido a la ley de Moore, los elementos de la computación que primero se consideraban software, pasan a ser hardware. La mayoría de las compañías de hardware hoy en día tienen más programadores de software en nómina que diseñadores de hardware, ya que las herramientas de software han automatizado muchas de las tareas de los ingenieros de circuitos. Al igual que la industria automotriz, la industria del software ha crecido de unos pocos visionarios que operaban en su garaje con sus prototipos. Steve Jobs y Bill Gates fueron los Henry Ford y Chevrolet Luis de sus tiempos. En el caso del desarrollo de software, el despegue final es generalmente aceptado que se produce con la publicación en la década de 1980 de las especificaciones para el IBM Personal Computer. Hoy su movimiento sería visto como un tipo de público-sourcing.






Hasta ese momento, el software se incluye con el hardware de los fabricantes de equipos originales (OEM), tales como Data General, Digital Equipment y de IBM. Cuando un cliente compra una minicomputadora, esta incluye el software que es instalado por los ingenieros empleados por el OEM. Las empresas de informática de hardware, no sólo incluyen sus paquetes de software, sino que también asesoren sobre la ubicación de los equipos normalmente en un espacio refrigerado llamo sala de ordenadores. La mayoría de las empresas tenían su software en su contabilidad valorados 0 ya que no podían venderlo. Cuando Data General introdujo su software Data General Nova, una compañía llamada Digidyne intentó instalar este software que ya había adquirido en un equipo distinto. Data Gerenal se negó a darle una licencia para poder hacerlo y fueron a los Tribunales. La Corte Suprema dijo que si Digidyne había pagado era propietaria de ese software debía poder instalarlo en el equipo que quisiese, lo que se llamó Digidyne v. Poco después IBM publicó los registros de DOS y nació Microsoft. La decisión de la Corte Suprema permitió valorar el software, patentarlo y comerciar con el. Es difícil imaginar hoy que una vez la gente sentía que el software no valía nada sin una máquina. Hay muchas empresas de éxito hoy en día que venden sólo productos de software, aunque todavía hay muchos problemas comunes de concesión de licencias de software debido a la complejidad de los diseños y documentación, lo que lleva a los trolls de patentes.

Con las especificaciones de software de código abierto y la posibilidad de concesión de licencias de software, nuevas oportunidades se levantaron de herramientas de software que luego se convirtieron en el estándar de facto, como DOS para los sistemas operativos, sino también diversos programas de procesamiento de texto y hojas de cálculo. En un patrón de crecimiento similar, los métodos de desarrollo de propiedad se convirtió en la metodología estándar de desarrollo de software.













¿QUE ES EL HARDWARE?

 hardware

  1. nombre masculino
    Conjunto de elementos físicos o materiales que constituyen una computadora o un sistema informático.
  2. La clasificación evolucionista del hardware del computador electrónico está dividida en generaciones, donde cada una supone un cambio tecnológico notable. El origen de las primeras es sencillo de establecer, ya que en ellas el hardware fue sufriendo cambios radicales.6​ Los componentes esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se pueden distinguir:

    • 1.ª generación (1945-1956): electrónica implementada con tubos de vacío. Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).
    • 2.ª generación (1957-1963): electrónica desarrollada con transistores. La lógica discreta era muy parecida a la anterior, pero la implementación resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño de un computador en notable escala.
    • 3.ª generación (1964-hoy): electrónica basada en circuitos integrados. Esta tecnología permitió integrar cientos de transistores y otros componentes electrónicos en un único circuito integrado impreso en una pastilla de silicio. Las computadoras redujeron así considerablemente su costo, consumo y tamaño, incrementándose su capacidad, velocidad y fiabilidad, hasta producir máquinas como las que existen en la actualidad.
    • 4.ª generación (futuro): probablemente se originará cuando los circuitos de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo de material o tecnología.78

    La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación.9​ A diferencia de los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo de la década de 1980 había computadores, como el PDP-11/44,10​ con lógica carente de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.

    Otro hito tecnológico usado con frecuencia para definir el inicio de la cuarta generación es la aparición de los circuitos integrados VLSI (very large scale integration), a principios de los ochenta. Al igual que el microprocesador, no supuso el cambio inmediato y la rápida desaparición de los computadores basados en circuitos integrados en más bajas escalas de integración. Muchos equipos implementados con tecnologías VLSI y MSI (medium scale integration) aún coexistían exitosamente hasta bien entrados la década de 1990.



¿QUE ES EL COMPUTADOR?

 La computadora​​, también denominada computador​​ u ordenador​, es una máquina digital programable que ejecuta una serie de comandos para procesar los datos de entrada, obteniendo convenientemente información que posteriormente se envía a las unidades de salida

video- que es el software