Buscar
Síguenos
Buscar
Síguenos
La informática: la forma científica de procesar la información
La informática

La informática: la forma científica de procesar la información

La informática o computación es la ciencia que estudia los métodos y técnicas para almacenar, procesar y transmitir información de manera automatizada, y más específicamente, en formato digital empleando sistemas computarizados. Como disciplina tiene que ver con el procesamiento automático de la información a través de dispositivos electrónicos y sistemas computacionales, dotados estos últimos de tres funciones básicas: el ingreso de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).

El término informática es un neologismo acuñado por el francés Philippe Dreyfus en 1962 (INFORmación + autoMÁTICA) bajo la denominación INFORMATIQUE y procede de la contracción de las palabras Información autentique. Hunde sus raíces en lo más profundo de las abstracciones creadas por la mente del hombre, y su evolución corre paralela a descubrimientos propios de otras muchas disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la Metafísica. Incluso la Religión también ha tenido su influencia.

Charles Babbage (26 diciembre 1791 – 18 octubre 1871) está considerado por muchos el padre de la informática por aquella visión, que en realidad nunca llegó a hacer realidad. Su primer intento fue la máquina diferencial, que empezó a construir en 1822 y que se basaba en el principio de las diferencias finitas para realizar complejos cálculos matemáticos mediante una serie simples sumas y restas, evitando multiplicaciones y divisiones. Llegó a crear una pequeña calculadora que demostraba que su método funcionaba, pero no fue capaz de fabricar una máquina diferencial para rellenar con datos precisos esas ansiadas tablas logarítmicas y trigonométricas.

Sinopsis histórica

Al contrario de lo que se cree, la informática es anterior a la invención de las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a. C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las máquinas programables del siglo XIX. A día de hoy podemos distinguir hasta cinco generaciones en la evolución de la informática:

La Primera generación; Que va de 1940-1952 y que se basa en la tecnología de tubos al vacío. Se trata de un periodo en el que se construyeron muchas máquinas de cálculo que, debido a su gran tamaño, necesitaban un sofisticado sistema de enfriamiento y funcionaban muy lentamente.

La segunda generación (1952-1964) tiene como protagonistas los transistores, los cuales solucionaron el problema del tamaño y el calentamiento de las computadoras, ya que es un semiconductor de electricidad capaz de imitar y reproducir un proceso lógico.

La tercera generación en la evolución de la informática (1964-1971) se centra en la tecnología de microcircuitos integrados, a partir de los cuales surgen los teleprocesos.

En la cuarta generación (1971-1981) aparecen los microprocesadores y las computadoras personales, las redes, los procesos compartidos e interactivos y también se diversifica su uso.

En la quinta generación (1981-actualidad) Se comienza a utilizar la inteligencia artificial, tanto en lo que se refiere al hardware como al software, para resolver problemas complejos como puede ser la traducción automática de una lengua a otra. Esta quinta generación, que vivimos actualmente, está consiguiendo cambios realmente espectaculares en la evolución de la informática, mediante una mayor rapidez en el procesamiento, desarrollo de programas, desarrollo multimedia y avances en inteligencia artificial y en realidad virtual, entre otras muchas sorpresas que vendrán.

Características de la informática

La informática, a grandes rasgos, puede caracterizarse de la siguiente manera:

  • Su objeto de estudio puede resumirse en el tratamiento automatizado de la información mediante sistemas digitales computarizados.
  • Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos, aunque no se trata de una ciencia experimental.
  • Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las relaciones entre los sistemas de datos y las operaciones que estos ejecutan.

Es una de las disciplinas científicas más jóvenes, surgida formalmente en la segunda mitad del siglo XX.

Fuentes:

  • www. apen.es
  • www. concepto.de
Únete a la discusión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Menu