Como surge la informática y los computadores

Como surge la informática y los computadores

El nacimiento de la informática y la era de los ordenadores es el comienzo de como surge la informática y los computadores

La informática ha transitado un largo camino hasta el presente evolucionando a pasos agigantados y con ella las sociedades han circunscrito un crecimiento en el como surge la informática y los computadores. El uso masivo de esta disciplina en la cotidianidad ha hecho que se experimente y se invierta en tales labores para obtener tecnología cada vez más avanzada. Es una carrera contra el tiempo en círculo: la informática es parte del proceso de evolución tecnológica con el cual se obtienen procesos nuevos, pero en ese mismo afán, la tecnología debe reinventarse y desarrollarse a diario.

Es decir, que siempre habrán nuevos descubrimientos y avances qué hacer a partir de lo hallado, siempre quedará algo qué inventar y mejorar.

¿A que contribuye esto?

Esta necesidad es la que ha llevado al hombre en la carrera permanente de mejoramiento de los procesos de automatización, almacenamiento y transmisión de datos, sobre todo cuanto mayor es su aplicación a tareas cotidianas promoviendo un crecimiento en el como surge la informática y los computadores.

Hay que hacer la distinción entre Informática y Computación para entender de qué trata la importancia de esta en la vida del hombre.

La primera es la automatización mediante equipos electrónicos de información de toda clase, todo aquello que pueda ser cuantificado y procesado como dato, lo cual hace que un determinado sistema se encargue de llevar a cabo una tarea que debe ser hecha muchas veces y simplificar el conjunto de etapas que requiere llevarla a cabo, con lo cual se evita la repetición manual de tareas.

Hay que tomar en cuenta que…

En este aspecto, el mejor ejemplo son los cálculos matemáticos básicos: la calculadora le evita hacer manualmente una suma de varios factores, simplificando la tarea en uno o dos pasos a lo sumo. Eso es la informática en la vida del ser humano.

En tanto que la computación es más bien la aplicación del estudio científico al desarrollo de los sistemas automatizados que procesan datos, y de las herramientas diseñadas para tales fines. La Informática es una disciplina general relacionada directamente con todo cuanto atañe a la información, mientras que la computación es una de las herramientas al servicio de la Informática para que esta cumpla su función.

Por lo tanto, al estudiar los orígenes y evolución de la Informática, se debe tomar en cuenta el avance de los procesos de cálculo en la misma medida que de los intentos de automatización por medios electrónicos a que estos dieron lugar al como surge la informática y los computadores.

Orígenes de la Informática

El origen de la informática se pudiera situar en el nacimiento remoto del ábaco, instrumento más antiguo conocido por el hombre para realizar los primeros cálculos. Ahora, el origen del término corresponde a una época reciente, el cual se inventó en Francia en 1962  bajo la denominación “Informatique”, que procede de la contracción de las palabras INFORmation autoMATIQUE, siendo luego reconocida por el resto de los países.Orígenes de como surge la informática y los computadores

En la Edad Media, el matemático y astrónomo persa Al-Juarismi (780-850), creó el algoritmo, dando paso a la resolución de problemas de Álgebra y Cálculo Numérico mediante una serie de operaciones finitas. Así se dio el desarrollo del cálculo y sus múltiples usos.

El gran “Napier bones”

Posteriormente, ya en el siglo XVII, el matemático escocés John Napier (1550-1617), inventor de los logaritmos, desarrolló en 1617 un sistema para llevar a cabo operaciones aritméticas mediante la manipulación de barras en las cuales se estamparon dígitos, conocido como “Napier bones” por el material del cual estaban elaboradas.

Este es el inicio del ábaco neperiano y su influencia en el desarrollo de la regla deslizante en años posteriores fue determinante para el avance en las máquinas calculadoras que operaban con logaritmos.

El famoso Reloj Calculador y los Círculos de Proporción

En 1623 fue el turno del matemático alemán Wilhelm Schickard quien creó el “Reloj Calculador“, la primera calculadora mecánica que además incorporaba los logaritmos de Napier, Un año después, el matemático inglés William Oughtred inventa la primera regla deslizante denominada “Círculos de Proporción“, brindando secuencia al como surge la informática y los computadores, el cual trataba de discos giratorios cuyo calibre era dado proporcionalmente por los logaritmos de Napier. Fue uno de los primeros dispositivos de informática analógica reconocidos.

Este artilugio gozó de una época de auge bastante larga en la historia, casi 100 años, siendo solo derrocado por las calculadoras modernas de inicios de 1970.

El tiempo pasa y los nuevos inventos llega; “La pascalina”

Pasaron los años hasta que en 1645 el matemático francés Blaise Pascal inventa la Pascalina, máquina que representaba datos mediante el posicionamiento de engranajes o ruedas dentadas que daban un valor del 0 al 9, lo cual, al efectuar una suma, hacía avanzar las ruedas hasta el respectivo filo o diente que constituía el número del resultado.

En 1666, el académico y matemático inglés Samuel Moreland creó la primera máquina multiplicadora, la cual tenía un método de ruedas parecido al de Pascal, pero sin el avance automático de las columnas. Para el año de 1673, el matemático alemán Gottfried Leibniz inventó la primera calculadora general, es decir, no cumplía con un único tipo de operaciones sino que sumaba, multiplicaba, dividía. Fue un híbrido a medio camino entre el modelo de Pascal y el de Moreland.

Si bien fue un avance en el desarrollo de los dispositivos de cálculo, tuvo que ser desechado pronto porque no resultaba fiable en algunas de sus operaciones, sin embargo, este concepto permaneció en la mente de muchos que posteriormente se basarían en este prototipo para desarrollar mecanismos multifuncionales e impulsar como surge la informática y los computadores.

La informática en la época de la revolución industrial

En el siglo XVIII, fueron notables los esfuerzos del científico y estadista inglés Conde Charles Mahon Stanhope, quien en 1777 creó el demostrador lógico. No sólo era capaza de resolver silogismos tradicionales y problemas elementales de probabilidad, sino que además era de tamaño pequeño, siendo el pionero de los componentes lógicos en los ordenadores modernos.

Uno de los inventos más llamativos de esta época, es el mecanismo de tarjetas perforadas que inventó el comerciante francés Joseph Jacquard en 1801, aplicado a su telar para realizar de manera automática el dibujo del estampado de sus diseños sobre la tela. Las plantillas metálicas perforadas en lugares específicos programaban la puntada en el lugar exacto del tejido para obtener tramas específicas. Es uno de los inventos informáticos para el procesamiento de datos que se mantuvo vigente hasta hace muy poco tiempo en la historia reciente de la Informática. Nacía el idioma de la programación.

En el siglo XIX

A partir del siglo XIX, la industrialización ya avanzada, permitió masificar la producción y el uso de la máquina de calcular, siendo el encargado de este proyecto el inventor francés Charles Thomas de Colmar, quien en 1820 vendió su invento, el “Aritmómetro”, el cual operaba con un mecanismo variante del prototipo de Leibniz.

LA base para CÁLCULOS MATEMÁTICOS

Ya en 1822, el matemático británico Charles Babbage diseña el modelo de máquina capaz de calcular valores de funciones polinómicas mediante el método de las diferencias por lo cual la denominó la “máquina de las diferencias”. Creó además en 1837 un dispositivo mecánico llamado el “artefacto analítico“, que se encargaba de ejecutar todo tipo de cálculo matemático.

No se llegó a construir, pero sus apuntes al respecto fueron la base que conceptualizó el uso de un autómata para realizar los cálculos computacionales, eje vertical de la informática. Babbage dio un giro radical a la informática con este aporte. Babbage no contó con el apoyo de la comunidad científica en general quizás por celos profesionales, pues sus avances demostraron ser un gran paso en el desarrollo de las operaciones de cálculo y su masificación, lo que le valió que en 1878 Las principales asociaciones británicas de apoyo a la ciencia prohibieran la construcción de la máquina analítica, por lo que no pudo acceder a fondos estatales para ello.

En 1843, la que se considera la primera programadora de ordenadores, Augusta Ada Lovelace, llevó a cabo un trabajo acerca de la adaptación de las tarjetas perforadas a la máquina de Babbage para que esta pudiese repetir operaciones. En 1854 se revoluciona la teorización informática con la publicación del Álgebra de Boole, obra del lógico inglés George Boole, quien redujo a argumentos lógicos básicos las permutaciones de tres operadores básicos algebraicos: y, o, no. La primera máquina en hacer uso del Álgebra de Boole fue creada por el economista inglés William Jevons en 1869 llamada “piano lógico”.

Máquina Calculadora

En 1878, el inventor español Ramón Verea aportó la idea de una máquina calculadora con una tabla interna de multiplicación que evitaba el uso de métodos más engorrosos lo cual optimizaba el tiempo de las operaciones y simplificaba la tarea. No se interesó en producir su dispositivo, pues lo que lo motivó a crearla fue más una motivación de orgullo personal que las ansias de reconocimiento o progreso, sin embargo, esta precursora de las calculadoras actuales estuvo en la mente de otros inventores que retomaron su idea en épocas posteriores para llevar a cabo su propio prototipo.

Entre 1879 y 1900, se sucedieron varios ingenios del cálculo, cada una con sus variantes y ventajas que aportaron más conocimiento al desarrollo de la informática. El sistema tabulador de cómputo de Hollerith que  mediante tarjetas perforadas procesaban información admitiendo variedad de ítems representados por los agujeros en las plantillas (sexo, edad) automatizó y redujo el proceso de censo poblacional de la época; el  comptómetro de Felt, cuya novedad era la utilización de teclas en vez de ruedas; Steiger automatizó y construyó la obra de Leibniz de 1673.

En 1900 el matemático español Torres Quevedo presenta en Francia un trabajo que ha de cimentar las bases de la informática y, más específico, la computación: la memoria “Machines à calculer”, obra precursora de la teoría informática.Primer Apple Computer

La influencia de la informática en el siglo XX

Ya entrado el nuevo siglo y con la modernización que llevó la industrialización al mundo, surgieron inventos que mejoraron el procesamiento de datos, tanto en la parte física como en su pare lógica.

La creación del Audio, el tubo de vacío de De Forest en 1906, que se usó en las primeras computadoras del siglo XX, las bases de la automática y el planteamiento de la inteligencia artificial por Torres Quevedo, así como la aritmética en coma flotante y su creación del aritmómetro electromecánico; el primer circuito multivibrador o biestable de Eccles y Jordan, base del almacenamiento y proceso del bit binario; la puerta lógica AND de Bothe, que le valió un Nobel de Física muchos años después; la fundación de Laboratorios Bell; la máquina diferencial parcialmente electrónica de Bush, fueron algunos de los más famosos aportes que en los primeros 30 años del siglo XX revolucionaron la informática y sentaron las bases de la disciplina moderna como se conoce hoy día.

Luego de los 30

A partir de la década de los 30, la publicación de lenguajes formales basados en operaciones aritméticas de Gödel fundamentan las ciencias teóricas de la computación. Turing diseña la “máquina de Turing”, que engloba la formalización del concepto de algoritmo actual. Para 1936, Zuse  completa el primer prototipo de computadora electromecánica Z1, esto es la primera generación de computadoras (1938-1958).

En 1939, dos de los ingenieros más conocidos en el mundo de la informática, William Hewlett y David Packard fundan en Palo Alto, California la famosísima compañía HP: Hewlett-Packard, mientras que un año más tarde en Laboratorios Bell, Williams y Stibitz completan la calculadora electro-mecánica que manejaba números complejos.

Posicionándose el año 1941, Zuse vuelve nuevamente a la carga con la Z3, primera máquina programable y completamente automática, operativa al 100% a diferencia de su primer prototipo.

ABC “Atanasoff Berry Computer”

A partir de estos pioneros, otros decidieron hacer sus propios intentos, dando paso a la ABC “Atanasoff Berry Computer” de Atanasoff y Berry, en Harvard se desarrolló la Harvard Mark I por el equipo al mando de Aiken,  los Colossus Mark I y Colossus Mark 2 ingleses diseñados para descifrar comunicaciones alemanas durante la Segunda Guerra Mundial.

En 1956 se documentó el mal funcionamiento de un ordenador causado por un elemento físico y Von Neumann escribe el “First Draf of a report on the EDVAC“, descripción del diseño lógico de una computadora bajoconcepto de programa almacenado distinta a la Arquitectura Harvard, dio inicio a la Arquitectura de von Neumann. Esta se basó en los aportes de Turing. Bush desarrolla la teoría de Memex, dispositivo de hipertexto.

La era de ENIAC

En 1946, la Universidad de Pensilvania brinda un giro al como surge la informática y los computadores al construir ENIAC, “Electronic Numerical Integrator And Calculator”, primera computadora electrónica de propósito general, la cual inició la creación de máquinas de dimesiones monstruosas proporcionales a las tareas lógicas que desarrollaban.

Ocupó un sótano entero de la Universidad, contaba con más de 17.000 tubos de vacío, consumía 200 kW de energía eléctrica y requería un sistema propio e independiente de aire acondicionado, pero a cambio tenía la capacidad de realizar cinco mil operaciones aritméticas por segundo, todo un logro para la época.

Ese mismo año, los británicos lanzan EDSACElectronic Dilay Storage”, obra al mando del equipo de Wilkes en la Universidad de Cambridge, inspirada en las ideas de Von Neumann, en cuyo hardware correrá el primer programa tres años después.

Al año siguiente, Bardeen, Brattain y Shockley de Laboratorios Bell inventan el transistor y posteriormente Forrester desarrolla la primera memoria que reemplazaría los tubos al vacío.

La década de los 50…

En la década de los 50, la publicación de la prueba de Turing y la formación de los primeros grupos de usuarios SHARE de IBM, DECUS de DEC, CSRG de Berkeley, con la consecuente distribución de software en su código fuente sin restricciones, hacen diferencias en el campo informático. Comienza la etapa media de la modernización informática.

En 1951, comienza a operar  EDVAC, cuya diferencia de ENIAC, es que era binaria y no decimal. Ese mismo año Eckert y Mauchly disponen de UNIVAC I y Murray Hopper inventa el Sistema A-0.

  • La creación del primer ratón eléctrico de Elwood capaz de salir de un laberinto.
  • La primera computadora industrial de IBM.
  • La invención de memorias de núcleos magnéticos.
  • El desarrollo del lenguaje de programación Fortran.
  • Los primeros conceptos que manejan la teoría del concepto de inteligencia artificial.
  • El primer circuito integrado.
  • La invención de SAPO.
  • El primer ordenador con tolerancia a fallos, son los antecedentes de la segunda generación de computadoras que nacen a partir de 1958, cuya característica fundamental es el uso de circuitos transistorizados en vez de válvulas al vacío.

La década de los años 60 y la tercera generación de computadoras

En esta época, los logros más significativos proceden de la invención de lenguajes de programación, en 1960 se desarrolla COBOL, aparece ALGOL, orientado a procedimientos, Hoare desarrolla el algoritmo de ordenamiento o clasificación Quicksort, Iverson inventa el lenguaje de programación APL; en el MIT Sutherland desarrolla los primeros programas gráficos para que el usuario dibuje de manera libre en una pantalla y Hart y Levin inventan para Lisp el primer compilador auto-contenido.

La Universidad de Mánchester completa la computadora ATLAS, máquina novedosa que introdujo una nueva era de modernización informática. Russell escribe el primer juego de computadora, Spacewar!.

Muy notorio en los 60…

Otra de las más notorias innovaciones de los 60 fue los caracteres del código estándar ASCII imprimibles, del 32 al 126. En 1964 aparece IBM 360, la primera computadora de tercera generación. Usa circuitos integrados.

Surge CDC 6600, la primera supercomputadora comercialmente masiva y el Dartmouth College desarrolla el lenguaje BASIC de Kemeny y Kurtz.

La teoría informática muestra innovaciones futuristas con la Ley de Moore, la teoría sobre redes de documentos hiperenlazados, pioneros documentos web, la lógica difusa de Zadeh para procesar datos aproximados, Dennis introduce el concepto de segmentación de memoria, los documentos de Dijkstra se exponen para tratar por primera vez los algoritmos de exclusión mutua (sistemas operativos), se aplican las teorías existentes sobre Redes al concepto ARPANET primer prototipo del internet actual, una recién estrenada red militar, aparecen los primeros ensayos base de la programación estructurada, Greenblatt inventa los primeros programas exitosos de ajedrez,  Noble y Shugart de IBM inventan el disco flexible o diskette.

Por si fuese poco!!!

Así mismo, es creado el protocolo NCP para controlar ARPANET, Thompson y Ritchie desarrollan el lenguaje de programación B, y crean junto con otros emprendedores el SO UNICS, renombrado posteriormente Unix, se publica el RFC 1, documento que describe la primera red Internet, proponiendo la libre disposición de las RFC y haciendo énfasis en las especificaciones de protocolos usados en Internet, factor primordial de su desarrollo.

En 1969, Data General Corporation distribuye la primera minicomputadora de 16-bit.

Llegada de los 70,80 y 90 para marcar diferencia en la informática

Ya lo sucedido a partir de las décadas de los 70, 80 y 90 es historia conocida, de hecho, los acontecimientos recientes se remontan a los orígenes mismos de la informática, como se ha visto, desde la antigüedad hasta los albores del siglo XX.

La invención y uso de la fibra óptica, la primera memoria RAM, la invención del correo electrónico, los microprocesadores y la subsecuente tecnología nano, las redes de transmisión e interconexión, la masificación del uso de computadores personales, el diseño de interfaz de usuario mejoradas y la creación de programas para cada necesidad, el lanzamiento de impresoras de tecnología láser, el concepto WorldWideWeb.

Todo deriva de los acontecimientos descritos, que fueron los pioneros de lo que hoy es la Informática como se conoce.

La era moderna de la Informática es un período más popular, por lo que pocas personas conocen a ciencia cierta el comienzo de esta disciplina que es base fundamental de la sociedad, de allí que lo ideal sea dar paso a la adquisición de saberes en cuanto a las primeras simientes de la automatización de la información como un medio de obtener una mejor calidad de vida de los seres humanos y su entornoy propulsar el como surge la informática y los computadores.

Diferentes ordenadores al pasar de los tiempos

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *