NOTA PERIODÍSTICA/HISTORIA DE LA TECNOLOGÍA/MÁQUINAS/GRANDES INVENTOS.
Una de las máquinas más populares y de común uso, en especial para desarrollar todo tipo de trabajos es sin lugar a dudas el computador. Según su significado etimológico o más bien obvio, este viene de «computar» o «calcular». Un ejemplo más común y que deriva de este término, es el denominado «cómputo» que se usa regularmente en la Teletón chilena para calcular el monto aportado por la teleaudiencia en favor de los niños discapacitados, lo que ha hecho que la gente asocie el término a esta campaña solidaria.
Pero más allá de eso, lo crucial de esta nueva publicación se refiere al computador en sí, donde trataremos su historia y evolución a lo largo de los años. Enseguida, presentamos el siguiente dato:
Los primeros computadores tuvieron como referente la creación del ábaco durante el 3.000 a.C en China y el 500 a.C. en Babilonia, cuyos tableros eran usados para conteo, pues en sí no era un computador para guardar información, pero con este instrumento se realizaban transacciones en varias ciudades de la antigüedad. Hoy en día, los ábacos se usan para multiplicar y dividir siendo a la vez muy usados en el país asiático.
En Francia, la evolución continuó con el desarrollo de la Calculadora de Pascal que fue diseñada por Blaise Pascal como una manera de ayudar a su padre quien tenía dificultades para realizar correctamente la cuenta de los impuestos que éste solía cobrar y cuya máquina trabajaba a base de engranajes, la cual el inventor llamó Pascalina.
Luego de eso, se sumó la máquina multiplicadora creada por el alemán Gottfried Wilhelm Leibniz quien agregó a la Calculadora de Pascal las funciones de multiplicación y división. Además, el invento se perfeccionó con nuevos elementos incorporados por Charles-Xavier Thomas de Colmar, quien inventó una calculadora que incluía y podía llevar a cabo las cuatro operaciones básicas: sumar, restar, multiplicar y dividir, que es muy característica y de uso común en las calculadoras actuales.
A partir de 1801, el francés Joseph-Marie Jacquard crea una máquina de telar, cuya función era realizar diferentes patrones en telas -lo que se relaciona con el estampado- mediante tarjetas perforadas. Dichas tarjetas, tenían orificios que la máquina permitía leer y efectuar el patrón indicado. De allí se inventó el almacenamiento por medio de estas, conocidas además como discos. Por ende, las tarjetas perforadas podían almacenar información en los orificios incluidos.
El año 1822, surgió la Máquina Diferencia y Analítica, cuyo invento estuvo a cargo de Charles Babbage, considerado el «Padre de la Informática» por su habilidad de crear este formato computarizado que incluía tarjetas se cartón perforado donde se podían hacer todas las operaciones matemáticas, así como también guardar una gran cantidad de cifras.Cabe destacar además que previo a eso, Babbage desarrolló una máquina que desarrollara polinomios, la cual fracasó, pero la creación de la misma máquina analítica lo llevó a consagrarse.
Durante el contexto censal de Estados Unidos entre 1889 y 1890, Herman Hollerith creó una máquina tabuladora, que registraba a las personas censadas. A sólo 6 meses de haberse efectuado aquel conteo, se obtuvo el resultado de este en sólo dos años, siendo que se había contemplado que el censo norteamericano estaría listo de 10 a 12 años, gracias al éxito de esta máquina. Así, Hollerith enumeraba y ordenaba las tarjetas perforadas, las que contenía el registro de ciudadanos censados. Con ello, finalmente se contó con una automatización de los datos de personas encuestadas. Gracias a esta idea, Hollerith al ver que todo había sido un éxito, creó la International Bussiness Machine, lo que sería conocido como IBM.
De esta manera y con dichos adelantos, el computador pasó por un total de seis generaciones, conformando su uso actual a partir de 1944, lo que daría comienzo a la primera de estas, con la aparición del modelo MARK I, desarrollado por Howard Aiken durante la Segunda Guerra Mundial, lo que a la vez creó el computador ENIAC, cuya máquina ocupaba casi toda una habitación, pesando más de 30 toneladas y trabajando a su vez con tubos de vacío que tenían un total de 18.000 unidades. Lo curioso, es que ENIAC utilizaba el sistema binario en vez del decimal, dando paso además al computador EDVAC que alternaba las operaciones dependiendo de cada resultado, finalizando dicha etapa en 1956.
En tanto, la segunda generación comprende los años 1959 a 1964 donde los tubos de vacío se cambiaron por transistores, haciendo que dichos computadores fueran más pequeños y rápidos. De allí nacieron además, lenguajes de programación como el FORTRAN y el COBOL, siendo este último usado en el ámbito contable. Desde esa época, comenzaron a usarse cintas magnéticas para guardar la información obtenida. Sin embargo, pese a la disminución de tamaño de cada máquina y el aumento de velocidad de estas, aún generaba numerosos costos a las empresas que las administraban.
La tercera generación del computador por su parte, comprende los años 1964-1971, donde comenzaron a usarse circuitos integrados (chips de silicio), que consumían menos electricidad y generaban menos calor durante su uso. Esto favoreció además el almacenamiento de información en unidades más pequeñas, lo que garantizaba su eficiencia. Gracias a este cambio, los computadores hicieron varias tareas simultáneas, como cálculo matemático y proceso de información. Incluso, comenzaron a desarrollarse los primeros softwares, a cargo de IBM que también creó los modelos 360 y 370 de minicomputadores.
Cuarta generación: esta se desarrolló entre los años 1971-1981, ocasión en que se inventó el microprocesador, que unía los circuitos integrados en un solo bloque. Con ello se desarrollaron los primeros computadores personales (PC) y que hasta hoy cambiaría la forma de trabajo y de vida, creando una verdadera revolución tecnológica en sólo diez años. Además, aquí aparecieron los primeros microcomputadores fabricados por Apple e IBM, ocasión en que se crearon programas para niños y adultos, dando comienzo al MS-DOS, lo que se traduciría en un disco de sistema operativo, el nacimiento del hardware y el chip de 4 bits creado por INTEL, con una amplia cantidad de transistores para almacenamiento a partir de 1971.
Durante la quinta generación, existe una ambigüedad en la información debido al rápido avance en la tecnología, por lo que no se sabe cuándo parte la quinta o sexta generación computacional, una cosa muy distinta a las primeras etapas por cierto. Sin embargo, el nuevo cambio favoreció la aparición del CD como estándar de almacenamiento para música y video. Paralelamente, se desarrollaron los primeros diskete con ese mismo fin.
La sexta generación del computador arrancó en 1990, continuando hasta el día de hoy. Cabe señalar que las unidades computacionales actualmente son más chicas y versátiles, incluido el celular. A ello se suma además el uso de Internet, presente en cada hogar y recinto laboral, donde un 90% de la población dispone de un computador así como de este sistema de conectividad. Cabe señalar además que la robótica está en pleno apogeo y desarrollando tareas similares a los humanos y traspasando buena parte de las áreas laborales y en el hogar. Todo ello se conjuga con la informática y la computación, que facilita las labores desarrolladas, sobre todo de oficina y sistemas tecnológicos. A ello se suman nuevos sistemas informáticos como los satélites, fibra óptica e Inteligencia Artificial (IA), lo que genera un gran avance en el campo de la tecnología y que a la fecha se hace imparable. Sin embargo lo más sorprendente, es que cuesta creer que todo partió con un simple ábaco desde tiempos remotos y que todo daría paso a la creación del computador tal como lo conocemos hoy, generando una revolución tecnológica a lo largo de los años y trascendiendo cada siglo.