lunes, 24 de noviembre de 2008

Warriors of the net

PARTE 1



PARTE 2



Informe:

Cuando hacemos clic en un link, iniciamos un flujo de información dentro del computador. La información viaja hacia su local propio de mensajería personal donde el Protocolo de comunicación IP la empaqueta, etiqueta y envía. Cada paquete es limitado en su tamaño. El local de mensajería decide como dividir la información y empaquetarla. Necesita una etiqueta describiendo la información importante (dirección del destinatario, del remitente y que tipo de paquete es). Cuando el paquete va dirigido hacia Internet, se le agrega una etiqueta para el servidor Proxy. El paquete es lanzado hacia la LAN. En la LAN no hay nada controlado, por lo tanto, puede haber accidentes. En ella hay distintos tipos de paquetes: IP, Novel, Appleton. El router local lee las direcciones y si es necesario pone los paquetes en otra red. Cuando los paquetes dejan el router, siguen a través de la intranet o red corporativa hacia el switch router enrutando los paquetes. Cuando los paquetes llegan a su destino son recolectados por la interfaz de red para ser enviados al Proxy. Todos los paquetes tienen diferentes tamaños dependiendo de su contenido. El Proxy abre el paquete y busca la dirección web o URL. Si la dirección es admisible (según configuración del Proxy) se envía el paquete hacia Internet sino se destruye. Luego, el paquete vuelve a su ruta dentro de la LAN. Estos pasan al Firewall y el router recoge cada paquete y los coloca en un camino o ancho de banda. Cuando el protocolo IP no recibe en su tiempo debido el acuse de recibo manda un paquete de reemplazo.

Router y Switch establecen enlaces entre las redes. Las rutas o caminos que los paquetes que pueden tomar son: líneas telefónicas, satelitales o cables transoceánicos. Los paquetes llegan al computador servidor donde está la página web solicitada y se encuentra con otro Firewall. El firewall está diseñado para dejar entrar sólo aquellos paquetes que cumplen con el criterio de selección. El Firewall tiene abiertos los puertos 25 y 80, cualquier intento de utilizar otro puerto es cancelado. El puerto 25 es utilizado para paquetes de correo y el puerto 80 es la entrada para paquetes de Internet que van al servidor web. El Firewall detecta los ping de la muerte y los elimina. Después los paquetes van dirigidos a la interfaz de red para ser llevados hasta el servidor web. Uno por uno los paquetes son recibidos, abiertos y desempaquetados. La información que contienen es enviada a la aplicación del servidor web. El paquete es reciclado. Listo para ser utilizado otra vez y llenado con la información solicitada, etiquetado y enviado de regreso al origen. Pasa por el Firewall en el servidor web, router y a través de todo Internet, llega al Firewall corporativo de origen, luego pasa por la interfaz de red y aquí se le suministra al navegador de Internet la información solicitada.


DEFINICIONES:

TCP: Protocolos para la interconexión de ordenadores. La palabra clave en este tema es INTER-RED o RED de REDES. Valiéndonos de estos dos protocolos, seremos capaces de conectar dos ordenadores y hacer que exista entre ellos una comunicación fiable y eficiente. En concreto, TCP es un protocolo de nivel de transporte, de ahí su nombre "Transmission Control Protocol";y se encarga de verificar la conexión de extremo a extremo. Para este propósito se apoya en el protocolo IP (del término "Internet Protocol"), que es un protocolo del nivel de red. IP se encarga fundamentalmente del direccionamiento y de la interconexión de redes hetereogéneas. O sea, que TCP se aprovecha del servicio que le brinda IP, e IP se apoya en la red de acceso que hay debajo. Y aquí es donde está el truco. Hoy en día, la red que "está debajo" es, un montón de ordenadores conectados entre sí mediante fibra óptica, cable coaxial... o sea, Internet.

Ping: (Packet Internet Grouper) se trata de una utilidad que comprueba el estado de la conexión con uno o varios equipos remotos por medio de los paquetes de solicitud de eco y de respuesta de eco (definidos en el protocolo de red ICMP) para determinar si un sistema IP específico es accesible en una red. Es útil para diagnosticar los errores en redes o enrutadores IP.

Router: Es un dispositivo de hardware para interconexión de red de computadoras que opera en la capa tres (nivel de red). Este dispositivo permite asegurar el enrutamiento de paquetes entre redes o determinar la ruta que debe tomar el paquete de datos.

Ping of Death (Ping de la muerte): Un ping de la muerte es un tipo de ataque enviado a una computadora que consiste en mandar numerosos paquetes ICMP muy pesados (mayores a 65.535 bytes) con el fin de colapsar el sistema atacado. Los atacantes comenzaron a aprovecharse de esta vulnerabilidad en los sistemas operativos en 1996, vulnerabilidad que en 1997 sería corregida. Este tipo de ataque no tiene efecto sobre los sistemas operativos actuales. Es un tipo de ataque a computadoras que implica enviar un ping deformado a una computadora. Un ping normalmente tiene un tamaño de 64 bytes; algunas computadoras no pueden manejar pings mayores al máximo de un paquete IP común, que es de 65.535 bytes.

Switch: es un dispositivo electrónico de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI (Open Systems Interconnection). Un conmutador interconecta dos o más segmentos de red, funcionando de manera similar a los puentes (bridges), pasando datos de un segmento a otro, de acuerdo con la dirección MAC de destino de los datagramas en la red. Un conmutador en el centro de una red en estrella. Los conmutadores se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las LANs (Local Area Network- Red de Área Local).

UDP: User Datagram Protocol (UDP) es un protocolo del nivel de transporte basado en el intercambio de datagramas. Permite el envío de datagramas a través de la red sin que se haya establecido previamente una conexión, ya que el propio datagrama incorpora suficiente información de direccionamiento en su cabecera. Tampoco tiene confirmación, ni control de flujo, por lo que los paquetes pueden adelantarse unos a otros; y tampoco se sabe si ha llegado correctamente, ya que no hay confirmación de entrega o de recepción. Su uso principal es para protocolos como DHCP, BOOTP, DNS y demás protocolos en los que el intercambio de paquetes de la conexión/desconexión son mayores, o no son rentables con respecto a la información transmitida, así como para la transmisión de audio y vídeo en tiempo real, donde no es posible realizar retransmisiones por los estrictos requisitos de retardo que se tiene en estos casos.

Hub: Es un equipo de redes que permite conectar entre sí otros equipos y retransmite los paquetes que recibe desde cualquiera de ellos a todos los demás. Los hubs han dejado de ser utilizados, debido al gran nivel de colisiones y tráfico de red que propician.

Firewall: Es un elemento de hardware o software utilizado en una red de computadoras para controlar las comunicaciones, permitiéndolas o prohibiéndolas según las políticas de red que haya definido la organización responsable de la red. Su modo de funcionar es indicado por la recomendación RFC 2979, que define las características de comportamiento y requerimientos de interoperabilidad. La ubicación habitual de un cortafuegos es el punto de conexión de la red interna de la organización con la red exterior, que normalmente es Internet; de este modo se protege la red interna de intentos de acceso no autorizados desde Internet, que puedan aprovechar vulnerabilidades de los sistemas de la red interna.

Wan: Una Red de Área Amplia (Wide Area Network o WAN, del inglés), es un tipo de red de computadoras capaz de cubrir distancias desde unos 100 hasta unos 1000 km, dando el servicio a un país o un continente. Un ejemplo de este tipo de redes sería RedIRIS, Internet o cualquier red en la cual no estén en un mismo edificio todos sus miembros (sobre la distancia hay discusión posible). Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes.
Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de redes privadas WAN se ha reducido drásticamente mientras que las VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente.
Normalmente la WAN es una red punto a punto, es decir, red de paquete conmutado. Las redes WAN pueden usar sistemas de comunicación vía satélite o de radio. Fue la aparición de los portátiles y los PDA la que trajo el concepto de redes inalámbricas.

Lan: Una red de área local, o red local, es la interconexión de varios ordenadores y periféricos. (LAN es la abreviatura inglesa de Local Area Network, 'red de área local'). Su extensión esta limitada físicamente a un edificio o a un entorno de hasta 100 metros. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.
El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.

Compresores de archivos

CUESTIONARIO: Winzip y Winrar

1) ¿Para qué se utilizan los compresores de archivos?

Un compresor de archivos es un programa que permite reducir (comprimir) el tamaño de un archivo. Esto lo consigue mediante una serie de algoritmos que permiten que los datos contenidos en un archivo ocupen menos tamaño sin que se produzca perdida de información. No voy a entrar en como consigue un compresor reducir el peso de un archivo ya que es un tema complicado que queda fuera del objetivo de este artículo el cual está orientado a los que comienzan en la informática, pero el que esté interesado puede leer más buscando sobre la compresión de datos.

2) Nombrar por lo menos 2 compresores de archivos.

Otros 2 compresores de archivos son : WINACE y WINISO

3) Detallar los pasos para comprimir y descomprimir.

Comprimir un archivo: Bueno, lo que todo el mundo sabe es descomprimir un archivo (y sino miralo en la sección descomprimir porque vas mal...). Ahora bien, que pasa cuando queremos mandarle una canción, una foto o un programa a un amigo y es demasiado grande, para que quepa en un email o en un disquete? Pues muy sencillo, tenemos que comprimir el archivo. Para ello elegid teneis varios programas:
• WinZip
• WinRar
• WinAce
WinZip
1. Abrimos WinZip y tocamos en el botón de "Nuevo/New".
2. Elegimos dónde queremos crear el archivo (dónde se va a guardar) y damos a OK.
3. Seleccionamos los archivos que queremos comprimir. (aún no deis a ok)
4. Dónde pone "Action" (en la misma ventana del paso 3) dejamos "Add (and replace) Files".
5. En "Compression" elegimos el tipo de compresión. La mejor es la "Maximum" pero si vais a comprimir muchos archivos esto puede llevar mucho tiempo así que pensaroslo. (si vais a meter hasta 100 MB esta es buena).
6. Finalmente, teneis la opción de ponerle contraseña (Dandole a Password)
7. Para finalizar, solo teneis que dar a Add. Para añadir nuevos archivos a este Zip, solo teneis que abrir y tocar el botón "Add" en los botones de Winzip con icono.
WinRar
1. Abrimos WinRar y damos a "Add".
2. En "Archive name" elegimos el nombre del archivo comprimido (terminado en .rar) y dónde queremos grabarlo (dando a "Browse")
3. En la misma ventana, dónde pone "Compression" elegimos la compresión preferida (si vais a comprimir menos de 100MB podeis probar con la máxima: "Best").
4. Luego damos a la pestaña "Files" y elegimos los archivos a añadir. Para ello damos a "Append", los seleccionamos y damos a OK.
5. Finalmente damos a aceptar.
6. Teneis la opción de que los archivos se dividan en archivos de un tamaño que especifiqueis (por ejemplo, para que os quepan en cd's o en disquetes). Para ello, hacedlo todo igual solo que en la ventana "General", dónde pusisteis dónde queriais grabar el archivo comprimido, teneis que poner en "Split to volumes,bytes" el tamaño que quereis que ocupe cada fracción:
o 1.457.664 - 3.5" : disquete
o 98.078k - ZIP-100 : disco ZIP de 100 MB
o 650m - CD-650M : CD de 650 MB
o 700m - CD-700M : CD de 700 MB
o Autodetect : autodetección (no deberíais cogerlo nunca, ya que esto está para que podais especificar un tamaño concreto.
WinAce
1. Abrimos WinAce y damos a "Create"
2. En "Archive" elegimos dónde se va a crear el archivo comprimido (en este caso ACE) y con que nombre (acabado en .ace).
3. Luego, seleccionamos los archivos con la ventana de exploración que tenemos justo encima. (solo hay que subrayarlos)
4. En la pestaña "Options" tenemos la opción de elegir el tipo de compresión ("Compression") y si queremos que se divida en pequeños paquetes ("Volumes").
5. Una vez echo esto, damos a "Add" y ya está.

4) Nombrar 3 ejemplos donde puedas utilizar WINZIP Y WINRAR.

• 4)
• _Extracción de archivos RAR y BZ2 .
• _Compresión mejorada de archivos de audio WAV .
• _Vista de imágenes en miniatura .

5) Dar un ejemplo cotidiano donde se utilice la descompresión de archivos.

Un ejemplo sería: Cuando se baja un cd de musica por un programa ( por ejemplo: Ares o Emule), esta carpeta puede aparecer en formato winrar o winzip. Para poder descomponer las canciones de música que se encuentran adentro del archivo, se tiene que pulsar el boton derecho sobre el archivo winzip o winrar, y luego presionar “extraer aquí”. Después de este procedimiento, las canciones salen del archivo winrar o winzip, y quedan separadas para poder ser escuchadas.

6) ¿Qué hay que tener para poder comprimir un archivo que me manden por mail?

Imaginemos que hemos recibido por mail o de alguna página Web, un archivo comprimido en una de las carpetas de nuestra compu. Podemos ejecutar el programa WinZip y realizar la operación desde el mismo programa, o podemos hacerlo aún más fácil.

Localizamos el archivo comprimido en nuestro Explorador de Windows. Imaginemos que se trata del fichero archivo.ZIP que está ubicado en la carpeta Mis Documentos.

Procederemos de la siguiente manera: clic derecho del ratón sobre el archivo y aparecerá el menú contextual. Elije la opción que consideres adecuada, y clic sobre ella:

• Extract to... (Extraer en...) extrae los archivos comprimidos en la carpeta que nosotros elijamos.
• Extract to folder (Extraer en la carpeta) C:\Mis documentos\archivo creará una nueva carpeta llamada archivo y descomprimirá allí los archivos.

Otro método es hacer un doble click sobre el archivo. A continuación se abrirá el WinZip mostrando el contenido del archivo comprimido. Luego hacemos clic en el botón Extract (Extraer) que aparece en la parte de arriba y aparecerá una pantalla desde donde podemos elegir la ubicación de la carpeta para los archivos: por ejemplo "C:\Mis documentos\archivo".
Bueno, todavía mas: la verdad, extraer el contenido de un archivo comprimido en formato ZIP es mucho mas sencillo a partir de Windows XP, puesto que el sistema operativo los maneja como si fueran "carpetas comprimidas", y con solo hacer doble clic en ellos, inmediatamente nos muestra su contenido y podemos copiar y arrastrar los archivos a donde queramos, como si no estuviese comprimido. Pero esto último sólo sucederá si no está instalado el WinZip o cualquier otro programa para comprimir/descomprimir. Es mejor tener el WinZip instalado, pues eso te permitirá también comprimir tus archivos para enviarlos con mas facilidad por correo o para que ocupen menos espacio en tu memory stick (memoria usb).

MULTIPLE CHOISE: Winzip y Winrar

1) ¿Para qué se utilizan los compresores de archivos?

# Para agrandar el tamaño de un archivo
$ Para reducir el tamaño de un archivo
# Para almacenar un archivo en un espacio reducido.
# Para buscar archivos dentro de la computadora.


2) Nombrar 3 compresores de archivos.

# Winrar, Winzip, Ares
# Winzip, Winace, Nero
# Winzip, Ares, Nero
$ Winrar, Winzip, Winace


3) ¿Para qué se utiliza el WINZIP?

# Para comprimir archivos
$ Para comprimir y descomprimir archivos
# Para descomprimir archivos
# Para descomprimir archivos recibidos por mail

4) ¿Para qué se utiliza el WINRAR?

$ Para comprimir, descomprimir y dividir el archivo comprimido en pedazos.
# Para comprimir y descomprimir un archivo.
# Para comprimir un archivo dividiendo este en pedazos
# Para descomprimir un archivo dividiendo este en pedazos.


5)¿Por quién fue desarrollado el formato RAR?

# Isaac Newton
# Frederick Tomasson
$ Eugene Roshal
# John Mackenzie

6) ¿Cuándo se lanzo la primera versión del formato RAR?

# 1984
$ 1993
# 1991
# 1989

7) ¿Qué es RAR?

# Archivo con un algoritmo de compresión sin pérdida
$ Archivo para comprimir archivos
$ Archivo para descomprimir archivos
$ Archivo para almacenar datos en la computadora

8) ¿Cual de estos es un método de compresión?

$ Reducing
# Paste
# Copying
# Amplying

9)¿Que sistema operativo no soporta winzip?

# Windows 2000
# Windows vista
# Windows XP
$ Linux

10) ¿En que se destaca la nueva versión del winzip?

# Extracción de cualquier archivo
$ Extracción de archivos RAR y BZ2
# Reproducir archivos
#Visor de archivos

Cuento

PAUTAS

*Archivo, Configurar página: Hoja A4, margen superior e inferior : 2,5 cm, márgenes izquierdos: 3 cm, y márgenes derechos: 2 cm.

Formato

*Título: Bordes y sombreados. _Formato, Párrafo: Sangría primera línea : 1,5 cm . *Formato Fuente: Letra 14. _Espacios entre párrafos: 6 puntos _Interlineado: 1,5 cm

Ver

*Encabezado y pie de página: Libro de cuentos, alineado a la derecha, fuente 10. *Pie de Página: centrado. Número de Páginas - Número de Página

Insertar

*Imágenes: insertar como mínimo 2 imágenes con formato estrecho. _Letra Capital: sin sangría ocupa 4 líneas

Cuento: "El niño perdido"


Pautas:

Arpanet

La red de computadoras ARPANET (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983.
Trasfondo
Agus GRosa El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica". En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno. Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares. Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave: El uso de una red descentralizada con múltiples caminos entre dos puntos. La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos. El resumen final de este esquema se presentó en 1962 y se publicó en 1964. En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes. Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete". En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET. Orígenes Mientras todo esto ocurría, ARPA y Taylor seguían interesados en crear una red de ordenadores. Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo. El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora. Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran. Nacimiento de ARPANET En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN (donde había trabajado Lickliderel, creador del concepto de Red Galáctica). La oferta de BBN seguía el plan de Roberts rapidamente. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida. Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses. Primer despliegue La ARPANET inicial consistía en cuatro IMPs instalados en: UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse. El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse. La Universidad de California, con un IBM 360. El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado. El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista. En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media. Software desarrollado En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde. El mito de los ataques nuclear El mito de que ARPANET se construyó para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita: A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet) Internet ha supuesto una revolución sin precedentes en el mundo de la informática y de las comunicaciones. Los inventos del telégrafo, teléfono, radio y ordenador sentaron las bases para esta integración de capacidades nunca antes vivida. Internet es a la vez una oportunidad de difusión mundial, un mecanismo de propagación de la información y un medio de colaboración e interacción entre los individuos y sus ordenadores independientemente de su localización geográfica. Internet representa uno de los ejemplos más exitosos de los beneficios de la inversión sostenida y del compromiso de investigación y desarrollo en infraestructuras informáticas. A raíz de la primitiva investigación en conmutación de paquetes, el gobierno, la industria y el mundo académico han sido copartícipes de la evolución y desarrollo de esta nueva y excitante tecnología.


PREGUNTAS:
1) ¿Por quién fue creada la red de computadoras ARPANET y para qué? Fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país.

2) ¿Donde se creó el primer nodo? El primer nodo se creó en la Universidad de California, Los Ángeles.

3) ¿Por quién y cuando fue formulada el concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras? El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962.

4) ¿Desde cuando Paul Brand estaba trabajando en la RAND CORPORATION? Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.

5) ¿Cuáles fueron las ideas claves de los resultados de Paul Brand en 1960? Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave: El uso de una red descentralizada con múltiples caminos entre dos puntos. La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

6) ¿Quién fue el que empezó a usar la palabra paquete? Fue Donal Davies quien empezó a usar el término "paquete".

7) ¿ Cómo conocía Lawrence G. Roberts a Donal Davies? Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) ya conocía a Davies gracias a la conferencia sobre multiplexación en el tiempo.

8) ¿En que consistía el concepto original de Roberts? El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos.

9) ¿En que año comenzó a existir un plan completo y aprobado por ARPA? En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores.

10) ¿Con que ordenadores se implementaron los IPM? Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos.

11) ¿Dónde se instalaban los cuatro IMPs que consistía la ARPANET inicial? La ARPANET inicial consistía en cuatro IMPs instalados en: UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse. El Augmentation Research Center en el Instituto de investigación de Stanford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse. La Universidad de California, con un IBM 360. El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.

12) ¿Qué invento Ray Tomlinson en 1972? En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico

13) ¿Quién publicó el primer documento sobre la teoría de conmutación de paquetes? ¿Desde donde? En Julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes.

14) ¿ Para qué se traslado Roberts a la DARPA? A finales de 1966 Roberts se trasladó a la DARPA a desarrollar el concepto de red de ordenadores y rápidamente confeccionó su plan para ARPANET, publicándolo en 1967.

15) ¿Qué lanzó DARPA para el desarrollo de unos de sus componentes claves? En Agosto de 1968, después de que Roberts y la comunidad de la DARPA hubieran refinado la estructura global y las especificaciones de ARPANET, DARPA lanzó un RFQ para el desarrollo de uno de sus componentes clave: los conmutadores de paquetes llamados interface message processors (IMPs, procesadores de mensajes de interfaz).

16) ¿Quién organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference? En Octubre de 1972, Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference. Esta fue la primera demostración pública de la nueva tecnología de red.

17) Cuando ARPANET original evolucionó hacia Internet, ¿En que idea se baso Internet? La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red.

18) ¿Cuántas fueron las reglas fundamentales en las primeras ideas de Kahn? ¿Cuáles? Cuatro fueron las reglas fundamentales en las primeras ideas de Kahn: Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet. Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor. Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo. No habría ningún control global a nivel de operaciones.

19) ¿Cuáles eran las otras cuestiones claves que debían de ser resueltas por Kahn? Otras cuestiones clave que debían ser resueltas eran: Algoritmos para evitar la pérdida de paquetes en base a la invalidación de las comunicaciones y la reiniciación de las mismas para la retransmisión exitosa desde el emisor. Provisión de pipelining ("tuberías") host a host de tal forma que se pudieran enrutar múltiples paquetes desde el origen al destino a discreción de los hosts participantes, siempre que las redes intermedias lo permitieran. Funciones de pasarela para permitir redirigir los paquetes adecuadamente. Esto incluía la interpretación de las cabeceras IP para enrutado, manejo de interfaces y división de paquetes en trozos más pequeños si fuera necesario. La necesidad de controles (checksums) extremo a extremo, reensamblaje de paquetes a partir de fragmentos, y detección de duplicados si los hubiere. Necesidad de direccionamiento global. Técnicas para el control del flujo host a host. Interacción con varios sistemas operativos. Implementación eficiente y rendimiento de la red, aunque en principio éstas eran consideraciones secundarias.

20) ¿ Cuáles son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf ? Estas son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf : Las comunicaciones entre dos procesos consistirían lógicamente en un larga corriente de bytes; ellos los llamaban "octetos". La posición de un octeto dentro de esta corriente de datos sería usada para identificarlo. El control del flujo se realizaría usando ventanas deslizantes y acks (N. del T.: abreviatura de acknowledgement, acuse de recibo). El destinatario podría decidir cuando enviar acuse de recibo y cada ack devuelto correspondería a todos los paquetes recibidos hasta el momento. Se dejó abierto el modo exacto en que emisor y destinatario acordarían los parámetros sobre los tamaños de las ventanas a usar. Se usaron inicialmente valores por defecto. Aunque en aquellos momentos Ethernet estaba en desarrollo en el PARC de Xerox, la proliferación de LANs no había sido prevista entonces y mucho menos la de PCs y estaciones de trabajo. El modelo original fue concebido como un conjunto, que se esperaba reducido, de redes de ámbito nacional tipo ARPANET. De este modo, se usó una dirección IP de 32 bits, de la cual los primeros 8 identificaban la red y los restantes 24 designaban el host dentro de dicha red. La decisión de que 256 redes sería suficiente para el futuro previsible debió empezar a reconsiderarse en cuanto las LANs empezaron a aparecer a finales de los setenta.

Generaciones de la computadora

La Primera Generación
J.P. Eckert y John Mauchly, de la Universidad de Pensilvania, inauguraron el nuevo ordenador el 14 de febrero de 1946. El ENIAC era mil veces más rápido que cualquier máquina anterior, resolviendo 5 mil adiciones y sustracciones, 350 multiplicaciones o 50 divisiones por segundo. Y tenía el doble del tamaño del Mark I: llenó 40 gabinetes con 100 mil componentes, incluyendo cerca de 17 mil válvulas electrónicas. Pesaba 27 toneladas y medía 5,50 x 24,40 m y consumía 150 KW. A pesar de sus incontables ventiladores, la temperatura ambiente llegaba a los 67 grados centígrados. Ejecutaba 300 multiplicaciones por segundo, pero, como fue proyectado para resolver un conjunto particular de problemas, su reprogramación era muy lenta. Tenía cerca de 19.000 válvulas sustituidas por año. En 1943, antes de la entrada en operación del ENIAC Inglaterra ya poseía el Colossus, máquina creada por Turing para descifrar los códigos secretos alemanes. ENIACEn 1945 Von Neumann sugirió que el sistema binario fuera adoptado en todos los ordenadores, y que las instrucciones y datos fueran compilados y almacenados internamente en el ordenador, en la secuencia correcta de utilización. Estas sugerencias sirvieron de base filosófica para los proyectos de ordenadores. (Actualmente se investigan ordenadores "no Von Neumann", que funcionan con fuzzy logic, lógica confusa) A partir de esas ideas, y de la lógica matemática o álgebra de Boole, introducida por Boole en el inicio del siglo XIX, es que Mauchly y Eckert proyectaron y construyeron el EDVAC, Electronic Discrete Variable Automatic Computer, completado en 1952, que fue la primera máquina comercial electrónica de procesamiento de datos del mundo. Ellos habían intentado eso con El BINAC, ordenador automático binario, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) lo suficiente para ser llevado a bordo de un avión, pero que nunca funcionó. El EDVAC utilizaba memorias basadas en líneas de retardo de mercurio, muy caras y más lentas que los CRTs, pero con mayor capacidad de almacenamiento. Wilkes construyó el EDSAC, Electronic Delay Storage Automatic Calculator en 1949, que funcionaba según la técnica de programas almacenados. El primer ordenador comercial de gran escala fue el UNIVAC, Universal Automatic Computer, americano, de 1951, que era programado tocando cerca de 6.000 llaves y conectando cables a un panel. La entrada y salida de informacion era realizada por una cinta metálica de 1/2 pulgada de ancho y 400 m de largo. En total, se vendieron 46 unidades del UNIVAC Modelo I, que eran normalmente acompañados de un dispositivo impresor llamado UNIPRINTER, que, solo, consumía 14.000 W. Otro fue el IBM 701, de 1952, que utilizaba cinta plástica, más rápida que la metálica del UNIVAC, y el IBM 704, con la capacidad fenomenal de almacenar 8.192 palabras de 36 bits, ambos de IBM. En Inglaterra surgen el MADAM, Manchester Automatic Digital Machine, el SEC, Simple Electronic Computer, y el APEC, All-Purpose Electronic Computer. Entre 1945 y 1951, el WHIRLWIND, del MIT, fue el primer ordenador que procesaba informacion en tiempo real, con entrada de datos a partir de cintas perforadas y salida en CRT (monitor de vídeo), o en la Flexowriter, una especie de máquina de escribir (Whirlwind quiere decir remolino).En 1947 Bardeen, Schockley y Brattain inventan el transístor, y, en 1953 Jay Forrester construye una memoria magnética. Los ordenadores a transistores surgen en los años 50, pesando 150 kg, con consumo inferior la 1.500 W y mayor capacidad que sus antecesores valvulados. La

Segunda Generación
Ejemplos de esta época son el IBM 1401 y el BURROUGHS B 200. En 1954 IBM comercializa el 650, de tamaño medio. El primer ordenador totalmente transistorizado fue el TRADIC, del Bell Laboratories. El IBM TX-0, de 1958, tenía un monitor de vídeo de primera calidad, era rápido y relativamente pequeño, poseia dispositivo de salida sonora. El PDP-1, procesador de datos programable, construido por Olsen, fue una sensación en el MIT: los alumnos jugaban Spacewar! y Ratón en el laberinto, a través de un joystick y un lapiz óptico. BURROUGH En 1957 el matemático Von Neumann colaboró para la construcción de un ordenador avanzado, el cual, como broma, recibió el nombre de MANIAC, Mathematical Analyser Numerator Integrator and Computer. En enero de 1959 Tejas Instruments anuncia al mundo una creación de Jack Kilby: el circuito integrado. Mientras a una persona de nivel medio le llevaría cerca de cinco minutos multiplicar dos números de diez dígitos, MARK I lo hacía en cinco segundos, el ENIAC en dos milésimas de segundo, un ordenador transistorizado en cerca de cuatro billonésimas de segundo, y, una máquina de tercera generación en menos tiempo aún.

La Tercera Generación
Esta generación es de la década del 60, con la introducción de los circuitos integrados. El Burroughs B-2500 fue uno de los primeros. Mientras el ENIAC podía almacenar veinte números de diez dígitos, estos podían almacenar millones de números. Surgen conceptos como memoria virtual, multiprogramación y sistemas operacionales complejos. Ejemplos de esta época son el IBM 360 y el BURROUGHS B-3500. IBM 360 En 1960 existían cerca de 5.000 ordenadores en los EUA. Es de esta época el término software. En 1964, la CSC, Computer Sciences Corporation, creada en 1959 con un capital de 100 dólares, se transformo en la primera compañía de software con acciones negociadas en bolsa. El primer mini computador comercial surgió en 1965, el PDP-5, lanzado por la americana DEC, Digital Equipament Corporation. Dependiendo de su configuración y accesorios él podía ser adquirido por el accesible precio de US$ 18,000.00. Le siguió el PDP-8, de precio más competitivo. Siguiendo su camino otras compañías lanzaron sus modelos, haciendo que a finales de la década ya existieran cerca de 100.000 ordenadores esparcidos por el mundo. En 1970 INTEL Corporation introdujo en el mercado un nuevo tipo de circuito integrado: el microprocesador. El primero fue el 4004, de cuatro bits. Fue seguido por el 8008, en 1972, el difundidísimo 8080, el 8085, etc. A partir de ahí surgen los microcomputadores. Para muchos, la cuarta generación surge con los chips VLSI, de integración a muy larga escala. Las cosas comienzan a desarrollarse con mayor rapidez y frecuencia. En 1972 Bushnell lanza el vídeo game Atari. Kildall lanza el CP/M en 1974. El primer kit de microcomputador, el ALTAIR 8800 en 1974/5. En 1975 Paul Allen y Bill Gates crean Microsoft y el primer software para microcomputador: una adaptación BASIC para el ALTAIR. En 1976 Kildall establece la Digital Research Incorporation, para vender el sistema operacional CP/M. En 1977 Jobs y Wozniak crean el microcomputador Apple, a Radio Shack el TRS-80 y la Commodore el PET. La plantilla Visicalc (calculador visible) de 1978/9, primer programa comercial, de Software Arts. En 1979 Rubinstein comienza a comercializar un software escrito por Barnaby: el Wordstar, y Paul Lutus produce el Apple Writer. El programa de un ingeniero de la NASA, Waine Ratliff, el dBASE II, de 1981. También de 1981 IBM-PC y el Lotus 1-2-3, de Kapor, que alcanzó la lista de los más vendidos en 1982. El Sinclair ZX81/ZX Spectrum es un ordenador minúsculo concebido por John Sinclair, profesor en la Universidad de Cambrige en U.K.Inicialmente concebido para la utilización de los estudiantes de la Universidad de Cambrige. La CPU tenía un procesador Zilog Z80A de 8 bit a 3,25 MHZ, una memoria compuesta por una ROM y una RAM y una ULA. La ROM, con 8K de capacidad, almacenaba de modo permanente los programas, tablas etc. necesarios para el funcionamiento del sistema y un traductor para el lenguaje de programación BASIC. La RAM tenía un área de trabajo disponible para el usuario de 1 K pero, era expandible hasta 16K. En la caja de plástico se alojaba también un subsistema de comunicaciones para conexión en serie a periféricos denominado SCL (Sinclair Computer Logic), una unidad para entrada y salida de sonido, un codificador de imágenes para TV. En la parte trasera de la caja de plástico tenía un conector donde se podía conectar una impresora minúscula que usaba un rollo de papel especial. El ordenador era suministrado con un cable para la conexión al televisor y otro para la conexión con un grabador de "cassettes" musical (norma Philips). El transformador de corriente eléctrica alterna a continua era adquirido por separado. Los programas y datos eran grabados en un cassette magnético y eran también leídos desde uno.El teclado no tenía teclas. Los caracteres ASCII eran impresos en una membrana. Esta tecnología y la falta de ventilación de la unidad de alimentación eléctrica eran las causas principales de averías que enviaban el ZX81 a la basura. Fue un ordenador muy popular debido a su bajo precio de venta. Osborne1. abricado por la Osborne en USA alrededor de año 1982. La CPU tenía una memoria de 64KB, una UAL y un Procesador Zilog Z80A de 8 bit a 4 MHZ. La caja, del tipo maleta attaché con un peso de 11 Kg, albergaba 2 unidades de disquete de 5" 1/4 con 204 KB o con opción a 408 KB de capacidad, un monitor de 5" (24 líneas por 54 columnas) en blanco y negro y un teclado basculante (servía de tapa de la maleta) con dos bloques de teclas, uno alfanumérico con los caracteres ASCII y otro numérico. Disponía de conectores para un monitor externo, ports serie RS-232C y paralelo IEEE-488 o Centronics.El sistema era alimentado por una batería propia recargable con una autonomía de 5 horas, por una batería externa de automóvil o por un transformador de corriente eléctrica alterna a continua.El sistema operativo era el CP/M desarrollada por la Digital Corporation. El software suministrado incluía un Interpretador M BASIC desarrollado por MICROSOFT, un Compilador BASIC desarrollado por la Compyler Systems, una hoja de cálculo SUPERCALC (derivada del Visicalc) y un procesador de texto denominado WORDSTAR. Podía ser programado en BASIC, FORTRAN, COBOL, PASCAL, PL 1, ALGOL, C, FORTH, ADA, ASSEMBLER y CROSS-ASSEMBLER.Última morada conocida: desconocida (fue visto en la FILEME-82 en Lisboa). IBM PC/XT Fabricado por IBM en USA alrededor de año 1980, inició con la versión PC-XT, a la cual le siguió una versión PC-AT.El CPU comprendía una memoria ROM de 40KB y una memoria RAM de 64KB expandible hasta 640KB, una ULA y un procesador Intel 8088 de 16 bit con una frecuencia de reloj de 4,77 MHZ.Era construido con tres módulos separados: CPU, monitor y teclado. El monitor era blanco y negro con 25 líneas por 80 columnas pudiendo ser substituido por un monitor con 16 colores. La CPU además del procesador albergaba una unidad de disquete de 5" 1/4 con una capacidad de 360KB pudiendo alojar otra unidad de disquete idéntica o un disco rígido con 10MB de capacidad, que era parte integrada en la versión PC-XT. El teclado con 83 teclas, 10 de las cuáles correspondían a funciones pre-programadas, disponía de caracteres acentuados. Poseia una salida para impresora y el PC-XT disponía de un interfaz para comunicaciones assincronas. El sistema operativo era el PC/MS-DOS el cual era un MS-DOS desarrollado por Microsoft para IBM. El lenguaje de programación que utilizada era el BASIC.. Sólo cerca de dos años después, con la presentación de los modelos PS/2-50 y PS/2-60, que eran equipados con un procesador Intel 80286, la IBM recuperó el sector de mercado de los PCS utilizando para el efecto la penetración en las empresas donde tenía instalado mainframes y "pequeños ordenadores". PC XT

La Cuarta Generación (1981-1990)
Urgieron en el transcurso del uso de la técnica de los circuitos LSI (LARGE SCALE INTEGRATION) y VLSI (VERY LARGE SCALE INTEGRATION). En ese periodo surgió también el procesamiento distribuido, el disco ótico y la gran difusión del microcomputador, que pasó a ser utilizado para procesamiento de texto, cálculos auxiliados, etc. 1982- Surge el 286 Usando memoria de 30 pines y slots ISA de 16 bits, ya venía equipado con memoria cache, para auxiliar al procesador en sus funciones. Utilizaba monitores CGA, en algunos raros modelos estos monitores eran coloreados pero la gran mayoría era verde, naranja o gris. 1985- El 386 Usaba memoria de 30 pines, pero debido a su velocidad de procesamiento ya era posible correr softwares graficos más avanzados como era el caso del Windows 3.1, su antecesor podía correr sólo la versión 3.0 debido a la baja calidad de los monitores CGA, el 386 ya contaba con placas VGA que podían alcanzar hasta 256 colores si es que el monitor soportara esa configuración. 386 1989- El 486 DX A partir de este momento el coprocessador matemático junto con el propio procesador, hubo también una mejora sensible en la velocidad debido a la aparición de la memoria de 72 pines, mucho más rapida que su antepasada de 30 pines y de las placas PCI de 32 bits dos veces más veloces que las placas ISA . Los equipamientos ya tenían capacidad para las placas SVGA que podrían alcanzar hasta 16 millones de colores, sin embargo esto sería usado comercialmente más adelante con la aparición del Windows 95.

La Quinta Generación (1991-hasta hoy)
Las aplicaciones exigen cada vez más una mayor capacidad de procesamiento y almacenamiento de datos. Sistemas especiales, sistemas multimedia (combinación de textos, gráficos, imágenes y sonidos), bases de datos distribuidas y redes neutrales, son sólo algunos ejemplos de esas necesidades. Una de las principales características de esta generación es la simplificación y miniaturización del ordenador, además de mejor desempeño y mayor capacidad de almacenamiento. Todo eso, con los precios cada vez más accesibles. La tecnología VLSI está siendo sustituida por la ULSI (ULTRA LARGE SCALE INTEGRATION).El concepto de procesamiento está yendo hacia los procesadores paralelos, o sea, la ejecución de muchas operaciones simultáneamente por las máquinas. La reducción de los costos de producción y del volumen de los componentes permitió la aplicación de estos ordenadores en los llamados sistemas embutidos, que controlan aeronaves, embarcaciones, automóviles y ordenadores de pequeño porte. Son ejemplos de esta generación de ordenadores, los micros que utilizan la línea de procesadores Pentium, de INTEL. 1993- Surge el Pentium Grandes cambios en este periodo se darían debido a las memorias DIMM de 108 pines, a la aparición de las placas de video AGP y a un perfeccionamiento de los slots PCI mejorando aún más su performance. 1997- El Pentium II 1999- El Pentium III 2001- el Pentium 4 No hay grandes novedades después de 1997, ya que los cambios estuvieron basados en los cada vez más veloces procesadores. El Futuro - Aquí viene el ordenador cuántico IBM anunció la construcción del más avanzado ordenador cuántico del mundo. La novedad representa un gran paso en relación al actual proceso de fabricación de chips con silicio que, de acuerdo con especialistas, debe alcanzar el máximo de su limitación física de procesamiento entre 10 y 20 años.El ordenador cuántico usa, en lugar de los tradicionales microprocesadores de chips de silicio, un dispositivo basado en propiedades físicas de los átomos, como el sentido de giro de ellos, para contar números uno y cero (bits), en vez de cargas eléctricas como en los ordenadores actuales. Otra característica es que los átomos también pueden sobreponerse, lo que permite al equipamiento procesar ecuaciones mucho más rápido.

PC

Es un dispositivo electrónico capaz de recibir un conjunto de instrucciones y ejecutarlas realizando cálculos sobre los datos numéricos, o bien compilando y correlacionando otros tipos de información. El computador tiene dos partes fundamentales que se complementan para su correcto funcionamiento, la primera es el Hardware: que consiste en su parte física, es decir lo que podemos ver, tocar, armar y desarmar, es decir, la parte tangible del computador. La segunda es el Software: ésta es el alma del computador, toda su parte electrónica y demás programas que le permite realizar las tareas correspondientes, es decir, la parte intangible del computador.

Sus partes:

Procesador: Comúnmente se la conoce como CPU, que significa unidad central de procesos (Central Processing unit), es el dispositivo más importante y el que más influye en su velocidad al analizar información, ya que en ella se encuentra la unidad de control y la unidad aritmético-lógica, las cuales en constante interacción con la memoria principal (también conocida como memoria interna) permiten manipular y procesar la información, y controlar los demás dispositivos de la unidad computacional.

Memoria RAM : Es un chip en el que el procesador almacena de manera temporal los datos e instrucciones con los que trabaja. El computador para poder funcional necesita colocar su sistema operativo, los programas y datos con los que va a trabajar, en un lugar donde los pueda encontrar de manera inmediata y fácil (para no tener que ir continuamente a buscarlos al disco duro donde se encuentran almacenados; esto sería 100 veces más lento).

Memoria ROM: Es la que contiene las instrucciones fundamentales para hacer funcionar la computadora, nunca cambia y retiene su información, así la computadora reciba o no corriente.

Memoria Caché: Es una unidad pequeña de memoria ultrarrápida en la que se almacena información a la que se ha accedido recientemente o a la que se accede con frecuencia, lo que evita que el microprocesador tenga que recuperar esta información de circuitos de memoria más lentos.

Memoria externa: También se la conoce como memoria auxiliar, ésta es la encargada de brindar seguridad a la información almacenada, por cuanto guarda los datos de manera permanente e independiente de que el computador esté en funcionamiento, a diferencia de la memoria interna que solo mantiene la información mientras el equipo esté encendido. Los dispositivos de almacenamiento son discos y cintas principalmente, los discos pueden ser flexibles, duros u ópticos.

Puertos: Para la conexión de periféricos. En la parte posterior de su computadora existen enchufes denominados puertos, donde se conectan al computador los periféricos. Los puertos pueden der de 3 tipos: Serial, Paralalo y USB.

Tarjeta Madre: Es una tarjeta plástica sobre la que están montados los principales componentes del PC (el procesador, la memoria RAM, la memoria ROM, la tarjeta de sonido, etcétera. Esta tarjeta tiene ranuras de expansión (SLOT) para que allí se conecten las tarjetas de expansión (tarjetas hijas). Estas son las que permiten insertar, por ejemplo, la tarjeta de sonido (que permite al PC reproducir sonido), el módem interno (que hace posible navegar por Internet) o la tarjeta gráfica o de video (que permite mostrar imágenes en la pantalla)

Bus: Vía por la que circulan los datos dentro de una computadora logrando así la interconexión entre las partes; de la memoria al monitor, el modem o la impresora, etc.

Disco Duro: Instala y guarda los programas. Almacena de manera permanente la información que se le suministra al computador. A diferencia de los discos flexibles, estos están hechos generalmente de aluminio, giran a una velocidad 10 veces mayor y su capacidad de almacenamiento es muy grande (Ejemplo: 40 gigabytes). Un disco duro es un paquete herméticamente cerrado, conformado por varios discos o placas, sus respectivas cabezas de lectura / escritura y la unidad de disco. El disco duro constituye el medio de almacenamiento más importante de un computador, ya que en la actualidad, por los volúmenes de información que se maneja, es muy difícil trabajar sin éste.

Ejemplo:

CPU ADMIRAL LE1150COM512VS80


Velocidad Procesador AMD LE 1150

DISCO 80GB
MEMORIA 512MB
LEE CD
GRABA CD
MONITOR SAMSUNG 17"

Unidades de almacenamiento

El disco duro : Almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programas, los archivos de texto, imagen... Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.

CD-ROM: La unidad de CD-ROM permite utilizar discos ópticos de una mayor capacidad que los disquetes de 3,5 pulgadas hasta 700 MB. Ésta es su principal ventaja, pues los CD-ROM se han convertido en el estándar para distribuir sistemas operativos, aplicaciones, etc.

CD-RW: Una regrabadora (CD-RW) puede grabar y regrabar discos compactos. Las características básicas de estas unidades son la velocidad de lectura, de grabación y de regrabación. En discos regrabables es normalmente menor que en los discos grabables una sola vez. Las regrabadoras que trabajan a 8X, 16X, 20X, 24X, etc., permiten grabar los 650, 700 MB o más tamaño (hasta 900 MB) de un disco compacto en unos pocos minutos.

DVD-ROM: Las unidades de DVD-ROM son aparentemente iguales que las de CD-ROM, pueden leer tanto discos DVD-ROM como CD-ROM. Se diferencian de las unidades lectoras de CD-ROM en que el soporte empleado tiene hasta 17 GB de capacidad, y en la velocidad de lectura de los datos.

DVD-RW: Puede leer y grabar imágenes, sonido y datos en discos de varios gigabytes de capacidad, de una capacidad de 650 MB a 9 GB.

Pen Drive: Son memorias externas que se conectan directamente al puerto USB.

Discos y cintas magnéticas de gran capacidad: Son unidades especiales que se utilizan para realizar copias de seguridad o respaldo en empresas y centros de investigación. Su capacidad de almacenamiento puede ser de cientos de gigabytes.

Memoria flash: Es un tipo de memoria que se comercializa para el uso de aparatos portátiles, como cámaras digitales o agendas electrónicas. El aparato correspondiente o bien un lector de tarjetas, se conecta a la computadora a través del puerto USB o Firewire.


La tabla de equivamientos acerca de la PC :
1 Byte = 8 bits
1024bytes = 1 kb (kiloByte)
1024kb = 1 mb (Mega-Byte)
1024 Mb = 1 Gb (Giga-Byte)
1024 Gb = 1Tb (Tere-Byte)

Periféricos

Se denominan periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal. Se entenderá por periférico a todo conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación: el bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder, el bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y el bus de datos, por donde circulan los datos.


PERÍFERICOS DE ENTRADA: Captan y envían los datos al dispositivo que los procesará.


PERIFÉRICOS DE SALIDA: Son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos este tipo de periféricos es información para el usuario.


PERIFÉRICOS DE ENTRADA Y SALIDA: Captan y envían datos al dispositivo que los procesara, y además reciben datos .