Buscar
Síguenos
Buscar
Síguenos
La informática: la forma científica de procesar la información
La informática

La informática: la forma científica de procesar la información

La informática o computación es la ciencia que estudia los métodos y técnicas para almacenar, procesar y transmitir información de manera automatizada, y más específicamente, en formato digital empleando sistemas computarizados. Como disciplina tiene que ver con el procesamiento automático de la información a través de dispositivos electrónicos y sistemas computacionales, dotados estos últimos de tres funciones básicas: el ingreso de datos (entrada), el procesamiento de datos y la transmisión de resultados (salida).

El término informática es un neologismo acuñado por el francés Philippe Dreyfus en 1962 (INFORmación + autoMÁTICA) bajo la denominación INFORMATIQUE y procede de la contracción de las palabras Información autentique.

Hunde sus raíces en lo más profundo de las abstracciones creadas por la mente del hombre, y su evolución corre paralela a descubrimientos propios de otras muchas disciplinas, como el Álgebra, el Cálculo, la Lógica, la Biología, la Física y la Metafísica. Incluso la Religión también ha tenido su influencia.

La informática es esencial en la sociedad contemporánea ya que facilita el procesamiento, almacenamiento y transmisión de información de forma automatizada mediante sistemas informáticos.

Su relevancia se basa en la eficacia y automatización de labores, la mejora de procedimientos, la toma de decisiones fundamentada en datos, y el incremento de la productividad en varios sectores, que incluyen la comunicación, el ocio y el entorno de trabajo.

Charles Babbage (26 de diciembre de 1791 – 18 de octubre de 1871) es visto por muchos como el precursor de la informática, debido a su visión, que, en realidad, nunca se concretó. Su primer esfuerzo fue la máquina diferencial, que se inició en 1822 y que se fundamentaba en el principio de las diferencias finitas para llevar a cabo cálculos matemáticos complejos a través de una serie sencilla de sumas y restas, evitando multiplicaciones y divisiones. Finalmente logró desarrollar una pequeña calculadora que evidenciaba el éxito de su método, pero no logró construir una máquina diferencial que llenara con datos exactos esas ansiadas tablas de cálculo y trigonometría.

Sinopsis histórica

Al contrario de lo que se cree, la informática es anterior a la invención de las computadoras. Posee muy antiguos antecedentes en las máquinas de cálculo mentales de los filósofos de la Antigüedad Griega, como Euclides (c. 325-265 a. C.) y su famoso algoritmo, o bien en las calculadoras mecánicas del siglo XVII y las máquinas programables del siglo XIX. A día de hoy podemos distinguir hasta cinco generaciones en la evolución de la informática:

La Primera generación; Que va de 1940-1952 y que se basa en la tecnología de tubos al vacío. Se trata de un periodo en el que se construyeron muchas máquinas de cálculo que, debido a su gran tamaño, necesitaban un sofisticado sistema de enfriamiento y funcionaban muy lentamente.

  • La segunda generación (1952-1964) tiene como protagonistas los transistores, los cuales solucionaron el problema del tamaño y el calentamiento de las computadoras, ya que es un semiconductor de electricidad capaz de imitar y reproducir un proceso lógico.
  • La tercera generación en la evolución de la informática (1964-1971) se centra en la tecnología de microcircuitos integrados, a partir de los cuales surgen los teleprocesos.
  • En la cuarta generación (1971-1981) aparecen los microprocesadores y las computadoras personales, las redes, los procesos compartidos e interactivos y también se diversifica su uso.
  • En la quinta generación (1981-actualidad) Se comienza a utilizar la inteligencia artificial, tanto en lo que se refiere al hardware como al software, para resolver problemas complejos como puede ser la traducción automática de una lengua a otra. Esta quinta generación, que vivimos actualmente, está consiguiendo cambios realmente espectaculares en la evolución de la informática, mediante una mayor rapidez en el procesamiento, desarrollo de programas, desarrollo multimedia y avances en inteligencia artificial y en realidad virtual, entre otras muchas sorpresas que vendrán.

Características de la informática

El objeto de estudio de la informatica puede resumirse en el tratamiento automatizado de la información mediante sistemas digitales computarizados. Se propone tanto el abordaje teórico como el práctico de los sistemas informáticos, aunque no se trata de una ciencia experimental.Toma en préstamo el lenguaje formal de la lógica y la matemática para expresar las relaciones entre los sistemas de datos y las operaciones que estos ejecutan.

Es una de las disciplinas científicas más jóvenes, surgida formalmente en la segunda mitad del siglo XX y a grandes rasgos, puede caracterizarse de la siguiente manera:

  • Automatización: La informática se centra en el tratamiento automático de la información, lo que implica la ejecución de tareas complejas con mínima intervención humana.
  • Hardware y Software: Abarca tanto el hardware (componentes físicos como CPU, memoria, discos duros) como el software (programas, sistemas operativos) que permiten el funcionamiento de los sistemas computacionales.
  • Almacenamiento, Procesamiento y Transmisión de Datos: Los sistemas informáticos están diseñados para almacenar grandes cantidades de datos, procesarlos para obtener información útil y transmitirlos a través de redes.
  • Optimización de Procesos: Busca mejorar la eficiencia de diversas tareas y procesos mediante la automatización y el uso de algoritmos, lo que resulta en ahorro de tiempo y recursos.
  • Lenguaje Formal: Se apoya en el lenguaje formal de la lógica y las matemáticas para definir y manipular datos, así como para diseñar algoritmos y programas.
  • Ciencia Teórica y Aplicada: Combina el desarrollo de teorías sobre el funcionamiento de los sistemas computacionales con la aplicación práctica de esas teorías para resolver problemas del mundo real.
  • Interactividad y Facilidad de Uso: Los sistemas informáticos modernos suelen ser interactivos y amigables para el usuario, con interfaces gráficas que facilitan el acceso a la información y la realización de tareas.
  • Evolución Constante: La informática es una disciplina dinámica que evoluciona rápidamente, con nuevas tecnologías y aplicaciones surgiendo continuamente.

Fuentes:

  • www. apen.es
  • www. concepto.de
Únete a la discusión

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Menu