lunes, 29 de octubre de 2012

ESTRUCTURA DE DATOS

República Bolivariana de Venezuela
Ministerio del Poder Popular. para la Educación Superior
Universidad Nacional Experimental “Simón Rodríguez” 
Núcleo Valles del Tuy Catedra: Introducción al procesamiento de datos
Sección “D”
Facilitadora: Nolbis San Juan
Participantes: Milanyel Mendez
                       Yudelis Gonzalez



Informe exposición nº 3


ESTRUCTURA DE DATOS

En programación, una estructura de datos es una forma de organizar un conjunto de datos
elementales (un dato elemental es la mínima información que se tiene en el sistema) con el
objetivo de facilitar la manipulación de estos datos como un todo o individualmente.

Una estructura de datos define la organización e interrelación de estos, y un conjunto de
operaciones que se pueden realizar sobre él. Las operaciones básicas son:

Alta, adicionar un nuevo valor a la estructura.

Baja, borrar un valor de la estructura.

Búsqueda, encontrar un determinado valor en la estructura para realizar una operación con este
valor, en forma SECUENCIAL o BINARIO (siempre y cuando los datos estén ordenados)…

Otras operaciones que se pueden realizar son:

Ordenamiento, de los elementos pertenecientes a la estructura.

Apareo, dadas dos estructuras originar una nueva ordenada y que contenga a las apareadas.

Cada estructura ofrece ventajas y desventajas en relación a la simplicidad y eficiencia para la
realización de cada operación. De esta forma, la elección de la estructura de datos apropiada
para cada problema depende de factores como la frecuencia y el orden en que se realiza cada
operación sobre los datos.

DEFINICIONES.

Los más utilizados en el desarrollo del tema son:

Campos

Los componentes de un registro se denominan campos. Cada campo tiene un nombre llamado
identificador de Campo, que es algún identificador elegido por el programador cuando se declara
el tipo de registro.

Registro

Un registro es un tipo de datos estructurado denominado que consta de un conjunto de
elementos que pueden ser del mismo tipo o de tipos diferentes.

Archivos

Un archivo es una estructura de datos consistente en una secuencia de elementos o componentes
llamados registros, todos del mismo tipo, ya sea simple o estructurado. A diferencia de los arrays
un archivo puede almacenarse en un dispositivo auxiliar disco, cintas, etc. de forma que los datos
obtenidos durante y después del procesamiento ni se pierdan.

Los archivos no están limitados por la memoria de su computadora, donde están contenidas
las estructuras de datos. En teoría se dispone de una unidad de disco de 20 MB, podría alojar
un archivo de datos de igual tamaño, incluso con memoria de 128 KB o 640 KB, típicos de las
computadoras actuales

Cada archivo es referenciado por un identificador (su nombre).

ORGANIZACIÓN DE LOS ARCHIVOS.

Los archivos se encuentran organizados lógicamente como una secuencia de registros de varias
longitudes diferentes.

Los archivos de registros de longitud fija: son los que almacenan la información en los archivos
mediante un encabezado y luego se introducen uno a uno los registros ubicados en posiciones
consecutivas.

Los registros de longitud variable: es el almacenamiento de registros de varios tipos en un archivo
y permite uno o más campos de longitudes variables y dichos campos pueden ser repetidos. La
longitud de los registros debe estar definida correctamente para poder leer y escribir de forma
efectiva.

ENFOQUES GENERALES PARA LA ORGANIZACIÓN DE ARCHIVOS.

Los enfoques son:

Enfoque de acceso secuencial: Se refiere al procesamiento de los archivos de acuerdo con el orden
específico. Ejemplo archivo secuenciales y de texto.

Enfoque de acceso Directo Permite recuperar registros individuales sin leer otros registros del
archivo, ejemplos archivos indizados.

ARCHIVOS SECUENCIALES.

Se refiere al procesamiento de los registros, no importa el orden en que se haga, para eso los
registros están organizados en forma de una lista y recuperarlos y procesarlos uno por uno de
principio a fin.

Rudimentos de los archivos Secuenciales; dependiendo del dispositivo de almacenamiento
utilizado el archivo se puede mostrar el usuario como si fuera un sistema secuencial.

Al finalizar un archivo secuencial se denota con una marca de fin de archivo. (End end-of-file)

El usuario de un archivo secuencial puede ver los registros en un orden secuencial simple.

La única forma de recuperar registros es comenzar al principio y extraerlos en el orden
contemplado.

Cuestiones de programación; la manipulación de los archivos se hace en el contexto de la
programación en un lenguaje por procedimientos de alto nivel. Estos lenguajes tienden a expresar
la manipulación de archivos mediante subrutinas que se definen como parte del lenguaje formal o
se incluyen como extensiones del lenguaje en una biblioteca estándar.

La mayor parte de los lenguajes por procedimiento de alto nivel cuenta con características que
ayudan a detectar la marca de fin de archivo.

ARCHIVOS INDIZADOS.

Es la aplicación de incluir índices en el almacenamiento de los archivos; de esta forma nos será
más fácil buscar algún registro sin necesidad de ver todo el archivo.

Un índice en un archivo consiste en un listado de los valores del campo clave que ocurren en el
archivo, junto con la posición de registro correspondiente en el almacenamiento masivo.

Fundamento de los Índices

a.- La colocación de un listado al inicio del archivo: para la identificación del contenido.

b.- La presentación de un segundo índice: para reflejar la información de cada punto principal del
índice anterior.

c.- La actualización de los índices: Cuando se insertan y eliminan archivos, es preciso actualizar los
índices para evitar contratiempos actualizando un archivo.

d.- La organización de un índice: Nos evita examinar archivo por archivo para recuperar algún
registro buscado; por lo tanto ahorraríamos tiempo si tenemos una adecuado organización de los
índices.

Cuestiones de Programación

Algunos lenguajes de alto nivel cuentan con subtítulos para manipular los archivos de un registro
indizado.

Valiéndose de las subrutinas es posible escribir programas sin tener que preocuparse por la
estructura real del sistema de índices que se aplique

Los archivos y carpetas se organizan jerárquicamente En los sistemas informáticos modernos,
los archivos siempre tienen nombres. Los archivos se ubican en directorios. El nombre de un
archivo debe ser único en ese directorio. En otras palabras, no puede haber dos archivos con el
mismo nombre en el mismo directorio. El nombre de un archivo y la ruta al directorio del archivo
lo identifica de manera exacta entre todos los demás archivos del sistema informático-no puede
haber dos archivos con el mismo nombre y ruta. La mayoría de las computadoras organizan
los archivos en jerarquías llamadas carpetas, directorios o catálogos. (El concepto es el mismo
independientemente de la terminología usada.) Cuando una computadora permite el uso de

carpetas, cada archivo y carpeta no sólo tiene un nombre propio, sino también una ruta, que
identifica la carpeta o carpetas en las que reside un archivo o carpeta. En la ruta, se emplea algún
tipo de carácter especial -como una barra- para separar los nombres de los archivos y carpetas.
Muchos (pero no todos) sistemas informáticos usan extensiones en los nombres de archivo para
ayudar a identificar que contienen.

ACCESO A LOS ARCHIVOS

Se refiere al método utilizado para acceder a los registros de un archivo prescindiendo de su
organización. Existen distintas formas de acceder a los datos:

Secuenciales; los registros se leen desde el principio hasta el final del archivo, de tal forma que
para leer un registro se leen todos los que preceden.

Directo; cada registro puede leerse / escribirse de forma directa solo con expresar su dirección en
el fichero por él numero relativo del registro o por transformaciones de la clave de registro en él
numero relativo del registro a acceder.

Por Índice; se accede indirectamente a los registros por su clave, mediante consulta secuenciales a
una tabla que contiene la clave y la dirección relativa de cada registro, y posterior acceso directo al
registro.

Dinámico; es cuando se accede a los archivos en cualquier de los modos anteriormente citados.

COMPUTADOR ELECTRÓNICO Y SOFTWARE


República Bolivariana de Venezuela
Ministerio del Poder Popular. para la Educación Superior
Universidad Nacional Experimental “Simón Rodríguez” 
Núcleo Valles del Tuy Catedra: Introducción al procesamiento de datos
Sección “D”
Facilitadora: Nolbis San Juan
Participantes: Milanyel Mendez
                       Yudelis Gonzalez

Informe exposición nº 2


La Máquina Experimental de Pequeña Escala, para citarla según su nombre oficial y completo, ejecutó con éxito su primer programa en el verano de 1948, y abrió el camino a los ordenadores, iPods y teléfonos móviles que tan cotidianos les parecen hoy en día a mucha gente.

Diseñado y construido por Tom Kilburn y Freddie Williams en la Universidad de Manchester, fue el primer computador electrónico digital capaz de almacenar un programa.

La vista panorámica de la máquina fue publicada por primera vez en The Illustrated London News, en Junio de 1949, y en concreto se trata de un mosaico confeccionado con aproximadamente 24 fotos separadas tomadas por Alec Robinson, uno de los miembros del equipo del proyecto. Una anotación en su libreta de apuntes mostró que fueron tomadas el 15 de Diciembre de 1948.

El Baby fue construido utilizando casilleros metálicos de oficina postal, cientos de válvulas o tubos al vacío, y el teclado era una serie de botones e interruptores instalados verticalmente. La salida de datos no era una pantalla, sino que había que leer éstos directamente del frontal de un Tubo de Rayos Catódicos (CRT, por sus siglas en inglés).

En términos modernos, el prototipo Baby tuvo una RAM de sólo 32 "palabras". Cada palabra en la RAM consistía en 32 bits (dígitos binarios), y de esta forma Baby tuvo una cantidad total de memoria de 1024 bits, y una velocidad de cómputo de 1,2 milisegundos por instrucción.

Software: Se conoce como software al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.

Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. 

Compilador: es un programa informático que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz de interpretar. Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede ser un código intermedio (bytecode), o simplemente texto. Este proceso de traducción se conoce como compilación.

Utilidad: es una herramienta que realiza:
  • Tareas de mantenimiento
  • Soporte para la construcción y ejecución de programas
  • Las tareas en general
  • En donde se incluyen las bibliotecas de sistema, middleware, herramientas de desarrollo, etc.
  • Entre ellas podemos nombrar cifrado y descifrado de archivos, compresión de archivos, desfragmentadores de disco, editores de texto, respaldo, etc.
Periféricos de Entrada: permiten al usuario del computador introducir datos, comandos y programas en el CPU. El dispositivo de entrada más común es un teclado similar al de las máquinas de escribir. La información introducida con el mismo, es transformada por el ordenador en modelos reconocibles. Los datos se leen de los dispositivos de entrada y se almacenan en la memoria central o interna. Los Dispositivos de Entrada, convierten la información en señales eléctricas que se almacenan en la memoria central.

Periféricos de Salida: Estos dispositivos permiten al usuario ver los resultados de los cálculos o de las manipulaciones de datos de la computadora. El dispositivo de salida más común es la unidad de visualización (VDU, acrónimo de Video Display Unit), que consiste en un monitor que presenta los caracteres y gráficos en una pantalla similar a la del televisor.

Periférico de almacenamiento: Se encargan de guardar o salvar los datos de los que hace uso la CPU para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son: disco duro, CD-ROM, DVD ROM , USB.

  1. Ventajas del Software Libre
    1. Escrutinio Publico: Al ser muchos las personas que tienen acceso al código fuente, eso lleva a un proceso de corrección de errores muy dinámico, no hace falta esperar que el proveedor del software saque una nueva versión.
    2. Independencia del proveedor:
  2. Software de dominio publico: este tipo de software no tienen licencias de uso, por lo tanto corre el peligro de dejar de serlo si alguien lo utiliza con el fin de apropiárselo.
  1. Al disponer del código fuente, cualquier persona puede continuar ofreciendo soporte, desarrollo u otro tipo de servicios para el software.
  2. No estamos supeditados a las condiciones del mercado de nuestro proveedor, es decir que si este se va del mercado porque no le conviene y discontinua el soporte, nosotros podemos contratar a otra persona.
  1. Manejo de la lengua:
  1. Traducción: cualquier persona capacitada puede traducir y adaptar un software libre a cualquier lengua.
  2. Corrección ortográfica y gramatical: una vez traducido el software libre puede presentar errores de este tipo, los cuales pueden ser subsanados con mayor rapidez por una persona capacitada.
  1. Mayor seguridad y privacidad:
  1. Los sistemas de almacenamiento y recuperación de la inormacion son públicos. Cualquier persona puede ver y entender como se almacenan los datos en un determinado formato o sistema.
  2. Existe una mayor dificultad para introducir código malicioso como ser: espía (p/ej. capturador de teclas), de controll remoto (p/ej. Troyano), de entrada al sistema (p/ej. puerta trasera), etc.
  1. Garantía de continuidad: el software libre puede seguir siendo usado aun después de que haya desaparecido la persona que lo elaboro, dado que cualquier técnico informatico puede continuar desarrollándolo, mejorándolo o adaptándolo.
  2. Ahorro en costos: en cuanto a este tópico debemos distinguir cuatro grandes costos: de adquisición, de implantación (este a su vez se compone de costos de migracion y de instalación), de soporte o mantenimiento, y de interoperabilidad. El software libre principalmente disminuye el costo de adquisición ya que al otorgar la libertad de distribuir copias la puedo ejercer con la compra de una sola licencia y no con tantas como computadoras posea (como sucede en la mayoría de los casos de software propietario). Cabe aclarar que también hay una disminución significativa en el costo de soporte, no ocurriendo lo mismo con los costos de implantación y de interoperatividad.
  1. Libertad de elección:
  1. Respecto al software: se obtiene la independencia del soporte de versiones. Es de publico conocimiento que Microsoft ha dejado de ofrecer soporte de desarrollo a Windows 95 y Windows 98, para dedicarse de lleno a Windows Me, 2000, XP y .NET.
  2. Respecto al Hardware: al tener requisitos de funcionamiento no tan elevados, el usuario no esta atado a la compra de una determinada computadora, o procesador o disco rígido, o cantidad de memoria RAM, etc. Esa compra que haga el usuario solo depende de la velocidad con la que desee realizar sus tareas, no de si el software va a funcionar o no en esas condiciones.
  3. Respecto al soporte: al tener acceso al código fuente, cualquier persona idónea nos puede ofrecer soporte, no solo nuestro proveedor. En el software Propietario esto no sucede, ya que ninguna persona ajena al proveedor conoce el funcionamiento interno del mismo.
  4. Respecto a la Formación o Capacitación la puede ofrecer cualquiera, no solo el proveedor.
  1. Protección de la inversion:
  1. En Software: Los desarrollos en software siempre son aprovechables para otros desarrollos, si se licencian de manera "libre". Además, el fomento de la comunidad de usuarios supone un potencial extraordinario en cuanto a la generación de nuevo y mejor software.
  2. En Hardware: no se necesita reemplazar el hardware constantemente, porque no se necesita cambiar el software si este ya no funciona como se quiere.
  3. En Soporte: la experiencia ganada por los técnicos propios puede extenderse a otro tipo de software.
  4. En Formación: como no existen artificios para ocultar información, puede elegirse a otra persona que brinde capacitación con un precio mas accesible.
  1. Relación rendimiento/ Precio:
  1. Costo del Software: el software libre tiene la ventaja de no obligar a pagar una licencia por cada computadora en que se lo instale.
  2. Costo del Hardware: hay cierto Software Propietario que tiene requerimientos excesivos de hardware para funcionar. Es decir, no hay relación razonable entre la tarea que realiza y el hardware que requiere.
  3. Costo de Soporte: su costo es menor porque cualquiera lo puede ofrecer, si bien es cierto que no tenemos una calidad garantizada.
  4. Costo de Formación: su costo es menor, al no estar monopolizada. Aquí cabe el mismo comentario que el realizado con respecto al costo de soporte.
  1. Comunicación e interoperabilidad de sistemas: el Software Libre garantiza el respeto a los estándares en los formatos, protocolos e interfases. En cambio el Software Propietario generalmente los cambia, para obligar al usuario a cambiar de versión. Pero un costo importante en esta parte es el de adaptar los estándares cerrados a estándares abiertos (por ejemplo, XLS a XML,  DOC a Tex, etc.)
Centro de Procesamiento de Datos: (CPD) es el conjunto de recursos físico, lógicos, y humanos necesarios para la organización, realización y control de las actividades informáticas de una empresa.

Dentro de una empresa, el Centro de proceso de Datos cumple diversas funciones que justifican los puestos los puestos de trabajo establecidos que existen en él.
Explotación de sistemas o aplicaciones.

La explotación u operación de un sistema informático o aplicación informática consiste en la utilización y aprovechamiento del sistema desarrollado. Consta de previsión de fechas de realización de trabajos, operación general del sistema, control y manejo de soportes, seguridad del sistema,supervisión de trabajos, etc.
Soporte técnico a usuarios.

El soporte, tanto para los usuarios como para el propio sistema, se ocupa de seleccionar, instalar y mantener el sistema operativo adecuado, del diseño y control de la estructura de la base de datos, la gestión de los equipos de teleproceso, el estudio y evaluación de las necesidades y rendimientos del sistema y, por último, la ayuda directa a usuarios.
Gestión y administración del propio Centro de Procesamiento de Datos.

Las funciones de gestión y administración de un Centro de Procesamiento de Datos engloban operaciones de supervisión, planificación y control de proyectos, seguridad y control de proyectos, seguridad general de las instalaciones y equipos, gestión financiera y gestión de los propios recursos humanos.


viernes, 12 de octubre de 2012

INTRODUCCIÓN AL PROCESAMIENTO DE DATOS


República Bolivariana de Venezuela
Ministerio del Poder Popular. para la Educación Superior
Universidad Nacional Experimental “Simón Rodríguez” 
Núcleo Valles del Tuy Catedra: Introducción al procesamiento de datos
Sección “D”
Facilitadora: Nolbis San Juan
Participantes: Milanyel Mendez
                       Yudelis Gonzalez

Informe exposición nº 1

Fundamentos Básicos del Procesamiento de Datos
Antes de disponer de palabras o símbolos para representar los
números, el hombre primitivo empleaba los dedos para contar. El antepasado
del ábaco consistía en unas piedras introducidas en unos surcos que se
practicaban en la arena.

El Abaco Romano era de madera y las piedras se movían a lo largo de
unas ranuras talladas en una tabla.
La palabra cálculo significa piedra; de este modo surgió la palabra cálculo.
 Con el tiempo se inventó el ábaco portátil que consistía en unas bolitas ensartadas en un cordón que a su vez se fijaban en un soporte de madera Edmund Gunthen inventó una forma de emplear los logaritmos de una manera más simple aunque no exacta. Se trataba de situarlos en una recta, y las multiplicaciones y
divisiones se efectuaban añadiendo o sustrayendo segmentos por medio de
par de divisores. Esto se conoció con el nombre de Método
Gunther. Esta Regla de Cálculo era rápida, pequeña y a un precio razonable.
Se hizo muy popular entre los científicos e ingenieros hasta hace poco
tiempo, cuando fue sustituida por la calculadora de bolsillo. 
Un joven francés de 19 años llamado Blaise Pascal construyó un
mecanismo para realizar operaciones aritméticas. Fue el primer calculador lo
bastante seguro como para ser lanzado comercialmente.
El siguiente gran paso en el perfeccionamiento de las máquinas
calculadoras lo dio el  el matemático alemán Gottfried Wilheim Leibnitz.
Los elementos claves en la máquina de Leibnitiz eran los cilindros
escalonados. Esta máquina era más perfeccionada que la de Pascal, ya que
podía multiplicar, dividir y obtener raíces cuadradas.Fue la mente más
universal de su época.
La Máquina Analítica y Diferencial
Los inventos citados anteriormente no pueden considerarse como
máquinas automáticas, ya que estas requerían una constante intervención
del operador para producir nuevos datos y/o efectuar las maniobras que
implican cada operación.
La IBM
Luego del éxito de Hollerith en el censo norteamericano, varias
naciones incluyendo Austria, Canadá y Rusia consideraron el uso de la
máquina para los censos y Hollerith comenzó a rentar su sistema.
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de
Computadoras más rápidas, más pequeñas y con menores necesidades de
ventilación.
cual es la razón por la que IBM disfruta hoy de una gran parte del mercado
de las computadoras. La administración de la IBM asumió un gran riesgo y
estimó una venta de 50 computadoras. Este número era mayor que la
cantidad de computadoras instaladas en esa época en USA. De hecho la
IBM instaló 1000 computadoras. El resto  es historia
Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de
Computadoras más rápidas, más pequeñas y con menores necesidades de
ventilación. Sin embargo el costo seguía siendo una porción significativa del
presupuesto de una compañía. Las computadoras de la segunda generación
también  utilizaban redes de núcleos  magnéticos en lugar de tambores
giratorios para el almacenamiento primario. Estos núcleos contenían
pequeños anillos de material magnético, enlazados entre sí, en los cuales
podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron como líderes en la fabricación de computadoras.
La marina de EE.UU, utilizó las computadoras de la segunda
Generación para crear el primer simulador  de vuelo  (Whirlwind I). Honeywell
se colocó como el primer competido durante la segunda generación de
computadoras, Burroughs, Univac, NCR, CDC, Honeywell, los más grandes
computadores de IBM, durante los 60 se conocieron como el grupo BUNCH.
Algunas de las computadoras que se construyeron ya con transistor
fueron la IBM 1401 (FIGURA 4), las Honeywell 800 y su serie 5000, UNIVAC
M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data
Corporation con su conocido modelo CDC1604, y muchas otras, que
constituían un mercado de gran competencia, en rápido crecimiento. En este
generación se construyen las Supercomputadoras Remington Rand UNIVAC
Tercera Generación del Computador (1964 – 1971)
Las computadoras de la tercera generación emergieron con el
desarrollo de los circuitos integrados (pastillas de silicón) en las cuales se
colocan miles de componentes electrónicos, en una integración en
miniaturas. Las computadoras nuevamente se hicieron más pequeñas, más
rápidas, desprendían menos calor y eran energéticamente más eficientes,
Antes del advenimiento de los circuitos integrados, las computadoras
estaban diseñados para aplicaciones matemáticas o de negocios, pero no
para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
Cuarta Generación (1971-1981)
Dos mejoras en la tecnología de las computadoas marcan el inicio de
la cuarta generación: el reemplazo de las memorias con núcleos magnéticos,
por las de chips de silicio y la colocación de muchos más componentes en unchip: producto de la microminiaturización de los circuitos electrónicos . El
tamaño reducido del microprocesador y de chips hizo posible la creación de
las computadoras personales (PC).
Quinta Generación y la Inteligencia Artificial (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de
computadoras, porque los grandes avances y nuevos descubrimientos ya no
nos sorprenden como sucedió a mediados del siglo XX
Sexta Generación 1999 Hasta la Fecha
Como supuestamente la sexta generación de computadoras está en
marcha desde principios de los años noventa, debemos por lo menos,
esbozar las características que deben tener las computadoras de esta
generación. También se mencionan algunos de los avances tecnológicos de
la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las
computadoras de esta generación cuentan con arquitecturas combinadas
Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando
al mismo tiempo; se han creado computadoras capaces de realizar más de
un millón de millones de operaciones aritméticas de punto flotante por
segundo (teraflops); las redes de área mundial (Wide Area Network, WAN)
seguirán creciendo desorbitadamente utilizando medios de comunicación a
través de fibras ópticas y satélites, con anchos de banda impresionantes. Las
tecnologías de esta generación ya han sido desarrolladas o están en ese
proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del
caos, sistemas difusos, holografía, transistores ópticos, entre otros.

METODOS DE RECOLECCIÓN DE DATOS EN LA INVESTIGACIÓN CUANTITATIVA
 Datos primarios: son aquellos que el investigador obtiene directamente de la realidad, recolectándolos con sus propios instrumentos.
Datos secundarios: son registros escritos que proceden también de un contacto con la práctica, pero que ya han sido elegidos y procesados por otros investigadores.

Verificación de Datos Permite verificar los datos de un ciudadano que ha iniciado un trámite con la entidad. De este modo, el ciudadano no tendrá que aportar documentos acreditativos por ejemplo de identidad ni de residencia,en los trámites que inicie.

Ordenamiento de datos: La elaboración de datos es un proceso estadístico que permite la ordenación, presentación yresumen de los datos de manera de hacerlos inteligibles y manejables. La elaboración de losdatos recolectados permite hacer una descripción de naturaleza estadística de los hechosobservados. La masa de datos obtenida no permite interpretarlos. Entonces se
ordenan
siste-máticamente, clasificándolos y haciendo un recuento del número de unidades de observación quepertenecen a cada clase propuesta.

La sistematización de información: ordenamiento y clasificación -bajo determinados criterios, relaciones y categorías- de todo tipo de datos. Por ejemplo, la creación de bases de datos.
Un proceso permanente y acumulativo de creación de conocimientos a partir
de las experiencias de intervención en una realidad social. Ello alude a un
tipo de conocimientos a partir de las experiencias de intervención, aquélla
que se realiza en la promoción y la educación popular, articulándose con
sectores populares y buscando transformar la realidad
CÁLCULO: La manipulación aritmética de los datos se llama cálculo y es una actividad de procesamiento muy común.
RECUPERACION: Proceso mediante el cual se logra acceder, escoger y extraer datos almacenados. La recuperación consiste en obtener los datos o información almacenados.
REPRODUCCION: Duplicación de los datos o información para el traslado de los mismos de un lugar a otro.
EL CONCEPTO DE DIFUSIÓN Todo centro de documentación recoge y procesa información con el propósito de difundirla y darla a conocer.
     Se puede definir, por tanto, la difusión de información como el proceso por el cual se transmite al usuario la información que necesita o en darle la posibilidad de obtenerla. Se trata de una operación documental de salida.
     En su sentido más amplio engloba todas las modalidades de transmisión de documentos o referencias informativas: desde la comunicación verbal de una referencia concreta hasta la edición de boletines bibliográficos periódicos o el libro acceso de una parte de los fondos para su consulta por el usuario.
COMUNICACIÓN: La comunicación de datos es la transferencia de datos de una localidad u operación a otra, para utilizarlos o para seguirlos procesando, y este proceso continúa hasta que la información en forma útil llegue hasta el usuario final. Es natural que en ocasiones sea preciso copiar o duplicar la información.
                  METODOS DE PROCESAMIENTO DE DATOS
MANUAL: El procesamiento de los datos se hace a mano con el uso de los elementos que necesite como lápiz, papel, calculadora, carpetas, La técnica es económica, de fácil ejecución, pero se recomienda cuando el número de datos es pequeño.
MECANICA: Los datos se procesan con máquinas de escribir, sumadoras, impresoras de cheques.
ELECTROMECANICA: Los datos se codifican ya sea por medio de marcas sensibles a caracteres ópticos o magnéticos, Para lo cual se emplean diferentes máquinas como la intercaladora, tabuladora, perforadora y clasificadora.
ELECTRONICA: Utiliza la tecnología moderna para procesar los datos lo que se hace a gran velocidad y bajo costo, este sistema integra los tres anteriores. Los datos se pueden recopilar con caracteres ópticos y magnéticos, terminales, tarjetas o cinta de papel perforada. La información se almacena en cintas o discos magnéticos.
      Los computadores permiten almacenar grandes cantidades de datos de modo que estos se pueden recuperar fácilmente, modificarlos y reproducirlos un sin número de veces las que se necesiten.