1. INTRODUCCIÓN.
Desde hace algunos años vivimos en la SOCIEDAD DE LA INFORMACIÓN. Hoy en día todo lo que nos rodea son datos e informaciones, y estas informaciones crecen cada día con mayor rapidez.
Este crecimiento tan grande y rápido del volumen de información que tenemos a nuestra disposición hace imposible que seamos capaces de manejarla.
Todo esto da lugar a un importantísimo desarrollo en el campo de la electrónica y de las comunicaciones, lo que hace que surja una nueva ciencia: La Informática.
2. LA INFORMÁTICA: EVOLUCIÓN HISTÓRICA.
2.1. CONCEPTO DE INFORMÁTICA.
El proceso de cualquier información lleva consigo la ejecución de las mismas operaciones, lo que da lugar a que una misma herramienta (el ordenador) pueda servir para solucionar cualquier tipo de problema.
La palabra informática es un neologismo formado por la contracción de las palabras información y automática. Se llama así porque permite el manejo de la INFORMACIÓN de forma AUTOMÁTICA.
INFORMÁTICA es la ciencia que estudia la recogida, organización, transformación y transmisión de la información de una forma lógica y racional, empleando para ello medios humanos, mecánicos y electrónicos.
2.2. EVOLUCIÓN HISTÓRICA. GENERACIONES DE ORDENADORES.
Hasta el siglo pasado fue muy escaso el número de herramientas que el hombre descubrió y utilizó para facilitar el proceso de información.
Es durante el siglo XX, gracias a los descubrimientos en el campo de la Electrónica, cuando verdaderamente el avance en el terreno de los ordenadores es espectacular.
Con la comercialización de los ordenadores se inician las generaciones de ordenadores. Veamos cada una de ellas:
A. PRIMERA GENERACIÓN.
Desde 1.946-1.957: Se caracteriza porque todos los ordenadores que pertenecen a ella estaban construidos por medio de válvulas electrónicas y tubos de vacío.
Eran de gran tamaño, muy pesados, de mucho consumo energético y se averiaban con bastante frecuencia. Los datos les eran proporcionados por medio de fichas o cintas perforadas. Se dedicaban fundamentalmente al cálculo científico.
El lenguaje utilizado es el binario. Los ordenadores más conocidos fueron ENAC y UNIVAC I.
B. SEGUNDA GENERACIÓN.
Hacia 1960, y como consecuencia del descubrimiento de los materiales semiconductores, se desarrollan componentes electrónicos (transistores, diodos y memorias de ferrita) que sustituyeron a las válvulas. Con ellos, se consiguió mejorar prácticamente todas las características de la primera generación: se reduce el tamaño y consumo, se utiliza la ferrita para construir memorias principales, empiezan a
usarse memorias auxiliares y lenguajes de programación de alto nivel como el FORTRAN.
C. TERCERA GENERACIÓN.
Nace cuando se empieza a utilizar el circuito integrado o chip en el diseño de ordenadores, a mediados de la década de los 60. Se reduce aún más el tamaño del ordenador y por tanto el consumo. Se desarrollan más lenguajes de alto nivel, como el COBOL y distintos sistemas operativos. La velocidad y potencia son tales que permiten procesar varios programas simultáneamente. Esto dio lugar a la multiprogramación. El hecho de que un ordenador pueda ejecutar varias tareas a la vez hace posible que se empiece a utilizar un aparato con varios terminales conectados a cierta distancia, que acceden a él. Así, aparece el teleproceso.
D. CUARTA GENERACIÓN.
En 1971, la casa INTEL consigue integrar en una sola pastilla (chip) la unidad de control y las unidades aritmética y lógica. A este circuito integrado se le llama microprocesador.
Además, se emplean las memorias basadas en componentes semiconductores. Se perfeccionan los lenguajes de programación existentes y aparecen otros nuevos más potentes desde el punto de vista del usuario como BASIC, ALGOL, PASCAL,…
Todo esto hace que un ordenador sea bastante asequible a cualquier persona, por lo que los fabricantes lanzan al mercado unos aparatos relativamente fáciles de manejar, pequeños, y no demasiado caros. Los más extendidos actualmente son los ordenadores personales o PC (Personal Computer)
E. QUINTA GENERACIÓN.
En esta generación se ha llegado al extremo de tener todos los componentes de un ordenador dentro de un único circuito impreso.
Hacia 1981 aparece el primer ordenador personal, con lo que empieza la trepidante carrera de la informática.
Actualmente se pueden encontrar en el mercado aparatos dotados del microprocesador Pentium IV a más de 2,4 GHZ, y su avance va a seguir siendo imparable.
3. FUCIONES Y FASES DE UN PROCESO DE DATOS.
3.1. DATOS E INFORMACIÓN.
La información está compuesta de datos y éstos a su vez, de caracteres. Ambos deben estar debidamente organizados de acuerdo a una serie de normas para aportar información.
Se denomina CARÁCTER a cualquier signo que se emplea en la escritura y el cálculo. Es la unidad básica e indivisible de un lenguaje. Pueden ser:
– Numéricos: Dígitos del 0 al 9.
– Alfabéticos: Están representados por las letras del alfabeto.
– Especiales: Distintos a los dos anteriores (+.-,;*=%).
Se define DATO como cualquier conjunto de caracteres necesarios para expresar un número, valor o concepto que aporte información.
En función de que esté compuesto el dato, distinguimos entre dato numérico, dato alfabético y dato alfanumérico.
INFORMACIÓN es un conjunto de datos debidamente organizados, necesarios para plantear y resolver cualquier problema.
3.2. CONCEPTO Y FASES DE UN PROCESO DE DATOS.
Las operaciones elementales que se realizan a una serie de datos conocidos para obtener un resultado son lo que se denomina tratamiento de la información o proceso de datos.
Ejemplo:
Las operaciones de ejemplos que demuestran que continuamente se está tratando la información. Supongamos que un automovilista se dirige hacia un cruce de carreteras en el que se encuentra una señal de STOP. ¿Qué debe hacer?
a) Reducir la velocidad y sino viene nadie, franquear el cruce.
b) Parar y, sino viene nadie, reanudar la marcha.
c) Continuar a la misma velocidad.
Evidentemente, el automovilista que respeta las normas de tráfico actuará según la opción b), con lo que, además, atravesará el cruce sin peligro.
El automovilista ha realizado un proceso por el cual ha tratado la información que le proporciona la señal de STOP. Veamos las fases del proceso seguido para llegar a parar el coche en el cruce:
1. Recibir información: Hay una señal de STOP. Es una información que se recibe por el sentido de la vista (se realiza una operación de lectura).
2. Almacenar la información: Señal de STOP. Lo introduce en su memoria.
3. Relacionar esta información recibida con la que ya tenía en su memoria. En este caso, compara la información recibida con las normas del Código de la Circulación.
4. Transmitir los resultados de la comparación: El resultado de la comparación es que debe parar. Por tanto, transmite a sus pies y manos las órdenes necesarias para detener el vehículo.
En este ejemplo ha habido un tratamiento de la información, para lo cual, se ha seguido un proceso compuesto por una serie de operaciones, que llamaremos proceso de datos.
Por lo tanto las fases de un proceso de datos son las siguientes:
1. Recepción de información.
2. Almacenamiento.
3. Relacionar la información.
4. Transmisión de los resultados.
4. PROCESO ELECTRÓNICO DE DATOS.
En este apartado vamos a conocer cómo se pueden proporcionar a los ordenadores los datos e instrucciones necesarias para que estos daros se procesen y proporcionen información.
Los tipos de datos básicos que maneja el ordenador son:
– Datos de entrada: Son los que se reciben desde las unidades periféricas de entrada (teclado, lectores ópticos, escáneres,…) o desde unidades de almacenamiento (disco duro, disquetes,…).
– Datos intermediarios: Son los que se obtienen durante la etapa de procesamiento, pero no representan resultados definitivos de salida.
– Datos de salida: Son los resultados del procesamiento que se obtienen gracias a las unidades periféricas de salida (impresora, plotter,…). También pueden ser almacenados para posteriormente operar con ellos.
El lenguaje que utilizamos para comunicarnos está constituido por combinaciones de letras y números, con los que formamos las palabras y las cantidades. Pero el ordenador no es capaz de emplear este sistema de comunicación. El ordenador es una máquina, y tan sólo entiende dos estados: cuando pasa corriente eléctrica (impulso eléctrico) y cuando no pasa corriente (no hay impulso eléctrico).
Para poder introducir datos en un ordenador es preciso adaptar nuestro sistema de comunicación al único lenguaje que la máquina es capaz de reconocer.
Los datos que recibe un ordenador han de darse en forma de impulsos eléctricos, que acostumbramos a representar con un 1 si hay impulso y con un 0 si no hay impulso. Por eso hemos de transcribir nuestro lenguaje a combinaciones de ceros y unos.
Traducir todos los símbolos que utilizamos para comunicarnos a combinaciones de ceros y unos se llama codificar. El código más empleado es el llamado ASCII (American Standard Coded for Information Interchange). Se elaboró asignando a cada carácter del teclado una combinación de ocho dígitos de ceros y unos.
En informática, se denomina bit a la unidad mínima de información que podemos representar. Con un solo bit podemos representar dos estados, 1 y 0.
El teclado del ordenador posee más de 170 caracteres. ¿Cuántos bits tendríamos que juntar para poder representar 170 estados? Podemos comprobarlo.
Con ocho bits podemos representar 28 = 256 estados; por tanto, ocho bits son más que suficientes para representar los más de 170 caracteres del teclado. En conclusión, para codificar todos los caracteres del teclado se han elegido combinaciones de ocho bits.
Una combinación de ocho bits se denomina byte. Con un byte se representa un carácter del teclado.
Un byte es una medida muy pequeña, comparado con las grandes cantidades de información que se pueden almacenar en un ordenador. Surgen entonces magnitudes mayores: kilobyte, megabyte y gigabyte.
1 kilobayte equivales a 210 bytes = 1.024 bytes.
En la tabla siguiente se representan las relaciones entre las distintas medidas de información:
Magnitud | Símbolo | Equivalencia |
1 byte | B | 8 bits |
1 Kilobyte | Kb | 1.024 B |
1 Megabyte | Mb | 1.024 Kb |
1 Gigabyte | Gb | 1.024 Mb |
1 Terabyte | Tb | 1.024 Gb |
5. REPRESENTACIÓN INTERNA DE DATOS.
5.1. SISTEMAS DE NUMERACIÓN.
El hombre trabaja normalmente en decimal y el ordenador, en binario. Ambos son sistemas de numeración basados en los mismos principios. En los dos sistemas, la representación de un número se realiza por medio de cadenas de caracteres numéricos dependiendo del valor de cada dígito y de la posición que ocupe dentro de la cadena. Estudiaremos los siguientes sistemas de numeración:
– Decimal.
– Binario.
– Hexadecimal.
Veamos cada uno de ellos.
5.1.1. REPRESENTACIÓN DE NÚMEROS EN DECIMAL.
En el sistema decimal se utilizan 10 dígitos para representar un valor numérico, por lo que se dice que la base del sistema es diez. Los dígitos del sistema decimal son: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9.
5.1.2. Para representar el valor el valor 10 no existe un símbolo; se utilizan dos: un 1 y un 0 (10); al estar colocado el 0 en la primera posición tiene como valor 1 y el 1 en la segunda posición, tiene valor diez veces superior (base = 10) al de los símbolos situados a su derecha y así sucesivamente
5.1.3. REPRESENTACIÓN DE NÚMEROS EN BINARIO.
En el sistema binario la idea es idéntica. Se trabaja únicamente con dos dígitos: 0, 1.
De tal forma que el valor 2 en decimal se representará en binario como 10, ya que el símbolo 2 no existe en binario.
En este sistema un dígito colocado en segunda posición tendrá un valor dos veces superior (base = 2) al de los símbolos situados en la primera posición.
5.1.4. REPRESENTACIÓN DE NÚMEROS EN HEXADECIMAL.
De la misma forma se puede trabajar con sistemas en cualquier base de numeración.
Una bastante utilizada en informática es la base 16 ó base hexadecimal, que permite representar hasta 16 valores diferentes: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F.
Para representar los diez símbolos del sistema decimal, no queda más remedio que utilizar cuatro dígitos binarios. Pero cuatro dígitos nos permiten representar hasta 16 valores (24 = 16); por lo cual, trabajando en decimal, estamos desperdiciando parte del potencial de almacenamiento de la información, ya que desperdiciamos 6 combinaciones de 4 dígitos. Por tanto, se utiliza el sistema hexadecimal para ocupe menos que los mismos datos en decimal.
5.2. PASO DE DECIMAL A BINARIO Y HEXADECIMAL.
Para pasar un número expresado en base decimal al mismo número en otro sistema de numeración, se divide sucesivamente el número y los cocientes que van resultando, por la base del sistema al que se quiere pasar. El resultado será el cociente final seguido de los restos de las divisiones en el orden inverso a como se han efectuado.
5.3. PASO DE BINARIO Y HEXADECIMAL A DECIMAL.
En general, el paso de un número expresado en base distinta a la decimal a base decimal se efectúa sumando los productos de cada dígito por la base elevada a su valor posicional, comenzando por cero.
6. SISTEMAS DE REPRESENTACIÓN DE CARACTERES.
En función del tipo de código empleado por el ordenador para representar el juego de caracteres utilizado, la longitud de un byte es diferente; sin embargo, la mayoría de los ordenadores usan bytes de ocho bits, en cuyo caso recibe el nombre, español de OCTETO. Los códigos más utilizados son: BCD, BCDIC, FELDATA, ASCII y EBCDIC.
Estos códigos permiten representar en binario puro cada uno de los tipos de caracteres conocidos: alfabéticos, numéricos y especiales.
Veamos cada uno de los códigos indicados:
– Código BCD: Binary Coded Decimal (Decimal codificado binario). Este código representa los diez dígitos decimales en binario utilizando 4 bits.
– Código BCDIC: Binary Coded Decimal Interchange Code (Código de intercambio Decimal Codificado en Binario). Es igual que el código BCD con 6 bits para poder representar las letras y símbolos especiales, además de los números.
– Código FIELDATA: Es otro código que utiliza 6 bits para representar 64 caracteres posibles (26 = 64).
– Código ASCII: American Standard Code for Information Interchange (Código Estándar Americano para el Intercambio de Información). Este código utiliza 7 bits para representar un carácter, con lo que permite representar hasta 27 = 128 caracteres. Incluye, además de los números, las letras mayúsculas, minúsculas y una serie de caracteres de control para controlar los mensajes en comunicaciones de datos, impresoras y teclados.
– Código EBCDIC: Extented Binary Coded Decimal Interchange (Código de Intercambio Decimal en Binario Extendido). Es una ampliación del BCDIC, ya que utiliza 8 dígitos para representar hasta 28 = 256 caracteres, aunque muchos de ellos no se utilizan. También representa, además de los números, letras minúsculas, mayúsculas y caracteres de control para la transmisión de datos, teclas de función y control de impresoras.
7. ARCHIVOS Y REGISTROS.
7.1. CONCEPTO DE ARCHIVO Y REGISTRO.
Es evidente que la información que se va a utilizar en un proceso cualquiera debe estar registrada y ordenada en un soporte de forma que nos permita acceder a ella rápidamente. Pensemos en el tiempo que se puede tardar en buscar un libro en una biblioteca donde los volúmenes se han ido depositando sin ningún orden en las estanterías. La forma más tradicional de organizar la información es agruparla y ordenarla en fichas y éstas en archivos, tanto si va a ser procesada automáticamente por un ordenador o manualmente por un hombre.
Por ejemplo, todos los datos referentes a cada libro de una biblioteca (autor, título, número de páginas, editorial, etc.) se registran en fichas y todas ellas en un archivo ordenadas alfabéticamente por autores o títulos. Pues bien, si esta información, así organizada, consideramos que ya está almacenada en algún soporte informático, a cada ficha la llamaremos registro y al conjunto de registros, archivo o fichero.
En orden jerárquico, un archivo está formado por un conjunto de registros. Cada registro por un conjunto de campos que contiene la información común que se va a procesar. Y cada campo es un conjunto de caracteres numéricos, alfanuméricos o alfabéticos que forman un dato con significado propio (nombre y valor).
Ø CARÁCTER: Es el elemento más pequeño de un archivo.
Ø CAMPO: Contiene un dato con significado propio.
Ø REGISTRO: Conjunto de campos referentes a un mismo objeto o concepto, que forman una unidad lógica.
Ø ARCHIVO O FICHERO: Es un conjunto de registros lógicos referidos a un mismo objeto o concepto y organizado con arreglo a unas normas preestablecidas.
7.2. TIPOS DE REGISTROS Y ARCHIVOS.
Debemos distinguir dos conceptos cuando hablamos de registros:
– Registro lógico.
– Registro físico.
A. REGISTRO LÓGICO: Es el que se toma como una unidad de información homogénea y que se refiere a la misma entidad. Por ejemplo, los datos personales de un cliente. Estos registros vienen definidos por uno o varios campos fijos cuyo contenido es único dentro de una colección de registros (el DNI en un archivo de datos personales sería el campo identificativo o clave).
Un registro debe tener definido el orden, la longitud (número de caracteres) y el tipo (numérico, alfabético o alfanumérico) de cada campo.
Los registros pueden ser de longitud fija, cuando el número de caracteres de cada campo es fijo, o variable en caso contrario.
B. REGISTRO FÍSICO: Es la unidad de información que se transfiere desde un soporte de almacenamiento a otro mediante un soporte de almacenamiento a otro mediante una sola operación de entrada o salida. El caso más típico es el traslado desde memoria principal a disco o cinta magnética o viceversa. El tamaño del registro físico depende de cada dispositivo y no tiene por qué guardar relación alguna con los registros lógicos. Es decir, su longitud puede ser menor, igual o mayor que la de un registro lógico.
A los archivos con información de entrada en un proceso, en general, se les llama archivos de entrada; a los que contienen los resultados, archivos de salida; y a los creados por el sistema mientras dura el proceso, archivos temporales. También existen archivos de backup o copias de seguridad que se deben obtener periódicamente de aquellos archivos con información importante para impedir que un accidente la destruya.
7.3. OPERACIONES SOBRE ARCHIVOS Y REGISTROS.
Debe haber una interacción entre los archivos y el usuario, de tal forma que el sistema pueda procesar los datos que contienen y, por otro lado, el usuario pueda tener acceso a sus archivos para recuperar su información o actualizarla cuando se produzca algún cambio. Y en el caso de que no hayan sido creados, el usuario debe tener la posibilidad de crear nuevos archivos. Son siete las operaciones que pueden realizarse sobre un archivo.
Ø CREAR UN ARCHIVO: Donde se definen los registros y campos.
Ø AÑADIR REGISTROS: Ej: Cuando aparece un nuevo cliente se añade un nuevo registro con los nuevos datos al archivo de clientes.
Ø BORRAR REGISTROS: Ej: Cuando se da de baja a un cliente.
Ø MODIFICAR REGISTROS: Ej: Un cambio de domicilio de un cliente.
Ø CLASIFICAR: Los registros de un archivo deben estar ordenados para simplificar su búsqueda según algún criterio determinado.
Ø BORRAR UN ARCHIVO: Cuando la información contenida en el archivo deja de ser válida por cualquier razón.
Ø FUSIÓN: Cuando se unen dos archivos o más para formar uno solo.
Ø DIVISIÓN: Cuando se obtienen dos archivos distintos a partir de uno (dos veces guardar como).
Ø CONSULTA: Consiste en acceder a uno o varios registros para conocer su contenido o ciertas características relativas a todos los registros; por ejemplo, para calcular la edad media de los clientes.