jueves, 12 de abril de 2012

TABLET PC



Una tableta (del inglés: tablet o tablet computer) es un tipo de computadora portátil, de mayor tamaño que un smartphone o una PDA, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o una pluma stylus (pasiva o activa), sin necesidad de teclado físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en determinados modelos, por una mini-trackball integrada en uno de los bordes de la pantalla.

El término puede aplicarse a una variedad de formatos que difieren en la posición de la pantalla con respecto a un teclado. El formato estándar se llama pizarra (slate) y carece de teclado integrado aunque puede conectarse a uno inalámbrico (por ej., Bluetooth) o mediante un cable USB (muchos sistemas operativos reconocen directamente teclados y ratones USB). Otro formato es el portátil convertible, que dispone de un teclado físico que gira sobre una bisagra o se desliza debajo de la pantalla. Un tercer formato, denominado híbrido (como el HP Compaq TC1100), dispone de un teclado físico, pero puede separarse de él para comportarse como una pizarra. Por último los Booklets incluyen dos pantallas, al menos una de ellas táctil, mostrando en ella un teclado virtual.

Los primeros ejemplos del concepto tableta de información se originaron en el siglo XX, principalmente como prototipos e ideas conceptuales, de los cuales el más prominente fue el Dynabook de Alan Kay en 1972.[cita requerida] Los primeros dispositivos electrónicos portátiles basados ​​en el concepto aparecieron a finales del siglo XX. Durante la década del 2000 Microsoft lanzó el Microsoft Tablet PC que tuvo relativamente poco éxito aunque logró crear un nicho de mercado en hospitales y negocios móviles (por ej., fuerzas de venta). Finalmente en 2010 Apple Inc. presenta el iPad, basado en su exitoso iPhone, alcanzando el éxito comercial al proveer por fin de la interfaz adecuada.

Las Tabletas, al igual que los computadores tradicionales, pueden funcionar con diferentes sistemas operativos (SO). Estos se dividen en dos clases:


- Sistemas Operativos basados en el escritorio de un computador tradicional y


- Sistemas Operativos post-PC (similares a los SO de los teléfonos móviles inteligentes).


Para la primera clase los SO más populares son el Windows de Microsoft y una variedad de sistemas de Linux. HP está desarrollando tabletas orientadas a las necesidades empresariales basadas en Windows y tabletas orientadas al consumidor personal basadas en webOS.8 9


Para la segunda clase, los SO más populares incluyen el iOS de Apple y el Android de Google. Muchos fabricantes también están probando productos con Windows CE, con Chrome OS de Google y con otros varios.


Utilidades:


  • Lectura de libros electrónicos
  • Lectura fuera de línea de páginas web (ej. utilizando el navegador Opera)
  • Lectura de cómics
  • Consulta y edición de documentos ofimáticos
  • Navegación web (mediante Wi-Fi, USB o 3G Interno)
  • Llamadas telefónicas, si son 3G, sustituyendo así al teléfono móvil; se suele utilizar un manos libre bluetooth
  • GPS
  • Reproducción de música
  • Visualización de vídeos y películas
  • Cámara fotográfica y de video HD
  • Videoconferencia
  • Juegos



La tableta funciona como una computadora, solo que más orientado a la multimedia, lectura de contenidos y a la navegación web que a usos profesionales. Para que pueda leerse una memoria o disco duro externo USB, debe contar con USB OTG5.


Dependiendo del sistema operativo que implementen y su configuración, al conectarse por USB a un ordenador, se pueden presentar como dispositivos de almacenamiento, mostrando sólo la posible tarjeta de memoria conectada, la memoria flash interna e incluso la flash ROM. Por ejemplo en Android el usuario debe de activar el modo de dispositivo de almacenamiento, apareciendo mientras como una ranura sin tarjeta.


Algunas tabletas presentan conectores minijack de 3,5, VGA o HDMI para poder conectarse a un televisor o a un monitor de computadora.

LOS DISPOSITIVOS DE ENTRADA


Dispositivos de entrada

Son aquellos dispositivos que permiten ingresar  de datos al computador, para realizar una acción o trabajos determinados, es decir, los que permiten comunicarnos con el ordenador.

Entre estos están:

Teclado

Consiste en un sistema de teclas y muy parecido a la maquina de escribir, pero con teclas adicionales, las cuales tienen funciones especificas, (pausar, cambiar de canción, apagar el ordenador). Tiene entre 97 y 127 teclas a aproximadamente y se divide en 4 bloques:

1.       Bloque de funciones: Desde F1 hasta F12, son las que permite realizar distintas accione de acuerdo al programa abierto.

2.       Bloque alfanumérico: este contiene los numero del 1 al 0 organizados como en la maquina de escribir. Se encuentra en la parte inferior del bloque de funciones.

3.       Bloque especial: contiene teclas que permiten realizar distintas acciones como es el caso de la tecla suprimir. Se encuentra a la derecha del bloque alfanumérico.

4.       Bloque numérico: contiene las teclas organizadas como una calculadora, los signos de las operaciones básicas: suma, resta, multiplicación y división así también la tecla enter.

Teclado inalámbrico:

Este teclado no necesita cable para ser detectado por el ordenador  y funciona mediante radiofrecuencias.

Teclado laser 3D o virtual:

Sistema portátil que reconoce el movimiento de los dedos y transmite las acciones por medio de la tecnología bluetooth a ordenador o cualquier otro dispositivo.



Mouse

Llamando así por la apariencia a un ratón, permite mover una flecha en la pantalla para interactuar con un programa del ordenador. Estos pueden trabajar tanto con cable como inalámbricamente.

Mouse mecánico:

Consta de una esfera que mueve dos ruedas, este con el tiempo acumula suciedad en los ejes de transmisión 
por el movimiento de la esfera.

Mouse óptico:

Este es mejor a mecánico, ya que no acumula suciedad en los ejes, trabaja con un sensor óptico que fotografían las variaciones de la superficie donde se encuentra.

Mouse laser:

Es más sensible que el óptico y es utilizado por diseñadores grafico y jugadores de video juegos

TrackBall:

Son muy similares a lo mouse convencionales, pero la diferencia se encuentra en que ves de mover al mouse entero so lo se mueve la esfera con los dedo para desplazar el curso



Escáner

Dispositivo que lee imágenes, documentos impresos, así como también obtener imágenes del cuerpo. Estos se utilizan en distintas parte o áreas, como los supermercados y  también en los hospitales.

Escaner de computadoras:

Para imágenes y documentos impresos (Libros, catálogos, revistas) que son guardados en e ordenador.

Escáner de código de barras:

Leen una franja de números que envía los datos al ordenador y permite identificar el nombre y precio del producto.

Escáner y la medicina:

Para obtener imágenes de nuestro cuerpo, información que permite verificar el estado de nuestro cuerpo y poder establecer diagnósticos.




Joystick

También llamada palanca de juego, es utilizada para los juegos de computadoras, consta de una palanca de direcciones y botones de acción que generan contactos eléctricos que permiten que se ejecute la acción deseada por el jugador, como que el personaje salte, ataque o se defienda.



Lápiz óptico

Este es igual a un lápiz o pluma ordinaria pero, en vez de usar carbón o tinta trabajan con luz,  este permiten realizar trabajos como si fuera un mouse, seleccionar, trazar, etc. Se usan en aplicaciones de diseño asistido, diseño grafico y así como también es muy común ver que los trabajadores que anotan las peticiones de almacenes los usan para ingresar las peticiones de los compradores.



Micrófono

Es el dispositivo que permite enviar señales acústicas al ordenador  ya que este consta con células receptoras de sonido, se envían por medio del cable o inalámbricamente y luego son transformadas a código binario.



Pantalla táctil

Permite seleccionar  acciones y comando solo tocando la pantalla, esta tiene sensores que permiten detectar el tacto, sintiendo el calor o presión de esta. Es común verlas en los cajeros automáticos, aplicaciones industriales de control o en algunos centros de comercio.


EL RAYO AZUL




Blu- Ray es un disco óptico que  tiene gran capacidad de almacenamiento  que puede llegar hasta 25 GB dependiendo de sus capas. Pero con diversas modificaciones empresas como Sony y  Panasonic con una nueva evaluación podrían llegar hasta 33,4 GB por capa. Su nombre proviene del color azul de su rayo laser y se le omite la e por que no se podía registras en algunos países con ese nombre,  ya que es un nombre común.

Fue creado por Blu-Ray Disc Association, liderado por Sony y Philips, con la creación de este ya no es necesario el exportar los videos o películas para su conversión ya que se puede grabar los datos en alta definición (1080p), ahorrando a las industrias dinero.

Tiene velocidades desde 1x hasta 12x, con un tiempo de escritura de 7,5 hasta 90 minutos los de una capa y de 15 hasta 180 minutos los de doble capa. Cuentan  también de un código región o zonas,  que son las especificaciones que el reproductor puede reproducir(A/1, B/2, C/3) aunque algunos logran desbloquearlos o saltar estos.

Protección

En lo que tiene que ver con el proceso de copiado consta de una serie de elementos de protección anti copia estos son:

AACS: controla la distribución de contenido, el cual crea una lista negra de grabadores, pero da una clave para cada modelo la cual si se descifra, se puede realizar la copia.

BD+ Y ROM-Mark: este es un sistema para cambiar la claves dinámicamente. Si se descifra la clave, solo se tiene que cambiar para que no vuelva a ser pirateado el producto.

SPDG Self-Protecting Digital Content: este se encarga de que no se realice un duplicado de la película.

ICT Image Constraint Token señal que evita que los contenido de alta definición viajen en soportes no cifrados.

LA INTERNET

La internet y  sus  elementos 



Es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.



Arpanet


La red de computadoras Advanced Research Projects Agency Network (ARPANET) fue creada por encargo del Departamento de Defensa de los Estados Unidos ("DOD" por sus siglas en inglés) como medio de comunicación para los diferentes organismos del país. El primer nodo se creó en la Universidad de California, Los Ángeles y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP iniciada en 1983.

El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.


WWW


La World Wide Web (del inglés, Telaraña Mundial), la Web o WWW, es un sistema de hipertexto que funciona sobre Internet. Para ver la información se utiliza una aplicación llamada navegador web para extraer elementos de información (llamados "documentos" o "páginas web") de los servidores web (o "sitios") y mostrarlos en la pantalla del usuario. El usuario puede entonces seguir hiperenlaces que hay en la página a otros documentos o incluso enviar información al servidor para interactuar con él. A la acción de seguir hiperenlaces se le suele llamar "navegar" por la Web. No se debe confundir la Web con Internet, que es la red física mundial sobre la que circula la información.


Del mismo modo que se puede distinguir entre "una internet" (una inter-red) y "la Internet", uno puede referirse a "una web" como un conjunto de sitios que proveen información por los medios descritos, y "la Web", que es la enorme e interconectada web disponible prácticamente en todos los sitios de Internet.



ISP

ISP se refiere a las siglas en Inglés para Internet Services Provider. Su traducción al español nos permite comprender de manera rápida y sencilla de qué se trata un ISP; un Proveedor de Servicios o acceso de Internet. A los ISP también se los llama IAP, que también corresponde a siglas en Inglés, en este caso para Internet Access Providers, que traducido al español, se entiende como Proveedores de Acceso a Internet.



 La dirección URL 


El URL es la cadena de carácteres con la cual se asigna una dirección única a cada uno de los recursos de información disponibles en la internet. Existe un URL único para cada página de la World Wide Web (WWW), para todos los elementos de Gopher y todos los grupos de debate USENET, etc.Esta dirección permite acceder a un archivo o recurso como ser páginas html, php, asp, o archivos gif, jpg, etc. 


El hosting
Un hosting es el servicio que nos permite guardar nuestra página web para que sea visible en internet.

Tipos de hosting


El alojamiento web se divide en seis tipos: gratuitos, compartidos, revendedores, servidores virtuales, servidores dedicados y de co-locación.

Hosting gratuito: El alojamiento gratuito es extremadamente limitado cuando se lo compara con el alojamiento de pago.. 

Hosting compartido (shared hosting): En este tipo de servicio se alojan clientes de varios sitios en un mismo servidor, gracias a la configuración del programa servidor web. 

Hosting de imágenes: Este tipo de hospedaje se ofrece para guardar tus imágenes en internet, la mayoría de estos servicios son gratuitos y las páginas se valen de la publicidad colocadas en su página al subir la imagen. 

Hosting revendedor (reseller): Este servicio de alojamiento está diseñado para grandes usuarios o personas que venden el servicio de Hosting a otras personas. 

Servidores virtuales (VPS, Virtual Private Server): mediante el uso de una máquina virtual, la empresa ofrece el control de un ordenador aparentemente no compartido. Así se pueden administrar varios dominios de forma fácil y económica, además de elegir los programas que se ejecutan en el servidor. Por ello, es el tipo de producto recomendado para empresas de diseño y programación web. 

Servidores dedicados: El término servidor dedicado se refiere a una forma avanzada de alojamiento web en la cual el cliente alquila o compra un ordenador completo, y por tanto tiene el control completo y la responsabilidad de administrarlo.

Colocación (o housing): Este servicio consiste básicamente en vender o alquilar un espacio físico de un centro de datos para que el cliente coloque ahí su propio ordenador. La empresa le da la corriente y la conexión a Internet, pero el ordenador servidor lo elige completamente el usuario (hasta el hardware).

COMO FUNCIONAN LOS ANTIVIRUS

Es un programa creado para prevenir o evitar la activación de los virus, así como su propagación y contagio. Cuenta además con rutinas de detención, eliminación y reconstrucción de los archivos y las áreas infectadas del sistema.

Un antivirus tiene tres principales funciones y componentes:

VACUNA: es un programa que instalado residente en la memoria, actúa como "filtro" de los programas que son ejecutados, abiertos para ser leídos o copiados, en tiempo real.

DETECTOR: que es el programa que examina todos los archivos existentes en el disco o a los que se les indique en una determinada ruta o PATH. Tiene instrucciones de control y reconocimiento exacto de los códigos virales que permiten capturar sus pares, debidamente registrados y en forma sumamente rápida desarman su estructura.

ELIMINADOR: es el programa que una vez desactivada la estructura del virus procede a eliminarlo e inmediatamente después a reparar o reconstruir los archivos y áreas afectadas.

Modelo Antivirus 

La estructura de un programa antivirus, está compuesta por dos módulos principales: el primero denominado de control y el segundo denominado de respuesta. A su vez, cada uno de ellos se divide en varias partes:

1. Módulo de control: Posee la técnica verificación de integridad que posibilita el registro de cambios en los archivos ejecutables y las zonas críticas de un disco rígido. Se trata, en definitiva, de una herramienta preventiva para mantener y controlar los componentes de información de un disco rígido que no son modificados a menos que el usuario lo requiera. Otra opción dentro de este módulo es la identificación de virus, que incluye diversas técnicas para la detección de virus informáticos. Las formas más comunes de detección son el scanning y los algoritmos, como por ejemplo, los heurísticos. Asimismo, la identificación de código dañino es otra de las herramientas de detección que, en este caso, busca instrucciones peligrosas incluidas en programas, para la integridad de la información del disco rígido. Esto implica descompilar (o desensamblar) en forma automática los archivos almacenados y ubicar sentencias o grupos de instrucciones peligrosas. Finalmente, el módulo de control también posee una administración de recursos para efectuar un monitoreo de las rutinas a través de las cuales se accede al hardware de la computadora (acceso a disco, etc.). De esta manera puede limitarse la acción de un programa restringiéndole el uso de estos recursos, como por ejemplo impedir el acceso a la escritura de zonas críticas del disco o evitar que se ejecuten funciones de formato del mismo.

2. Módulo de respuesta: La función alarma se encuentra incluida en todos los programas antivirus y consiste en detener la acción del sistema ante la sospecha de la presencia de un virus informático, e informar la situación a través de un aviso en pantalla. Algunos programas antivirus ofrecen, una vez detectado un virus informático, la posibilidad de erradicarlo. Por consiguiente, la función reparar se utiliza como una solución momentánea para mantener la operatividad del sistema hasta que pueda instrumentarse una solución adecuada. Por otra parte, existen dos técnicas para evitar el contagio de entidades ejecutables: evitar que se contagie todo el programa o prevenir que la infección se expanda más allá de un ámbito fijo. Aunque la primera opción es la más adecuada, plantea grandes problemas de implementación.

La A.V.P.D. (Antivirus Product Developers, Desarrolladores de Productos Antivirus) es una asociación formada por las principales empresas informáticas del sector, entre las que se cuentan:

• Cheyenne Software
• B. M.
• Intel
• McAfee Associates
• ON Tecnology
• Stiller Research Inc
• S&S International
• Symantec Corp.
• ThunderByte

LOS VIRUS MAS FAMOSOS


10. Creeper

Desarrollado en 1971; este fue el primer virus de la historia. Infectó a las computadoras PDP-11 conectadas a ARPANET, precursora de Internet. Una vez infectado el sistema, desplegaba un mensaje que decía: “Soy el más escalofriante; atrápame si puedes”. Se replicaba y aunque no era fatal, abrió la puerta al resto de los miembros de la lista.

9. Elk Cloner

Hecho por un estudiante preparatoriano en 1982, Elk Cloner atacaba las computadoras Apple II mediante discos floppy. Cada 50 veces que el equipo iniciaba, mostraba un poema escrito por el hacker.

8. The Morris Worm

Concebido por Robert Morris en 1988, fue considerado el primer gusano. Eventualmente llevó a su creador a ser condenado por fraude y abuso por computadora.

7. ILOVEYOU

El virus ILOVEYOU original esparcido por correo fue responsable de pérdidas económicas masivas debido a que infectó a millones de equipos en sólo nueve días. Disfrazado de carta de amor de un contacto conocido, fue el causante de que la CIA y el Pentágono redujeran su número de computadoras.

6. Code Red

Llamado así en referencia a la bebida Mountain Dew, este gusano hizo su aparición en julio de 2001, infectando a 360 mil computadoras en un sólo día. Era especialmente difícil combatirlo porque reinfectaba todas las computadoras justo después de ser limpiadas.

5. Nimda

Una extraña mezcla de virus, troyano y gusano. Era un virus que ataaba a Windows a través de varios métodos de infección, incluyendo correos o servidores de red, razón por la cual fue el virus de más rápida propagación (menos de una hora de haber sido lanzado).

4. Slammer

Otro gusano de extremadamente rápida propagación. Slammer atacó Internet por primera vez a las 5:00 horas del 25 de enero de 2003. Diez minutos después, 75 mil computadoras estaban infectadas. Se caracterizaba por ser un programa muy pequeño.

3. Blaster

Aunque no era muy peligroso debido a un error en su programación, sí recibió mucha atención por parte de los medios. El gusano creaba un hoyo en la programación de Microsoft XP y desplegaba un mensaje que acusaba a Bill Gates de enriquecerse y no reparar su sistema.

2. Welchia

Uno de los gusanos más inusuales de la historia ya que su fin fue ayudar, en vez de perjudicar. Su propósito era infectar equipos, eliminar al gusano Blaster y autodestruirse en seguida. No todo es malo, después de todo.

1. Commwarrior-A

Debutó en el verano de 2005 para alojarse en un sitio insospechado: los teléfonos celulares. Fue el primer virus en celulares y se esparcía a través de mensajes de texto. Sólo infectó a 60 teléfonos pero es un dolor de cabeza para los expertos en seguridad porque lo consideran como el nuevo protagonista en una posible larga guerra de programas malintencionados enfocados a la telefonía celular

miércoles, 11 de abril de 2012

MODELO OSI


El modelo de interconexión de sistemas abiertos, también llamado OSI (en inglés open system interconnection) es el modelo de red descriptivo creado por la Organización Internacional para la Estandarización en el año 1984. Es decir, es un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.



Historia



A principios de 1980 el desarrollo de redes surgió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnologías de conexión, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.



Para mediados de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de conexiones privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controlan todo uso de la tecnología. Las tecnologías de conexión que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.



Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de conexión como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (Systems Network Architecture) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.


Modelo de referencia OSI



Fue desarrollado en 1984 por la Organización Internacional de Estándares (ISO), una federación global de organizaciones que representa aproximadamente a 130 países. El núcleo de este estándar es el modelo de referencia OSI, una normativa formada por siete capas que define las diferentes fases por las que deben pasar los datos para viajar de un dispositivo a otro sobre una red de comunicaciones.



Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan desmarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar cómo puede estructurarse una "pila" de protocolos de comunicaciones.



El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes.



Se trata de una normativa estandarizada útil debido a la existencia de muchas tecnologías, fabricantes y compañías dentro del mundo de las comunicaciones, y al estar en continua expansión, se tuvo que crear un método para que todos pudieran entenderse de algún modo, incluso cuando las tecnologías no coincidieran. De este modo, no importa la localización geográfica o el lenguaje utilizado. Todo el mundo debe atenerse a unas normas mínimas para poder comunicarse entre sí. Esto es sobre todo importante cuando hablamos de la red de redes, es decir, Internet.



Este modelo está dividido en siete capas:

1.        Capa física

Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.



Sus principales funciones se pueden resumir como:



    Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.

    Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.

    Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).

    Transmitir el flujo de bits a través del medio.

    Manejar las señales eléctricas del medio de transmisión, polos en un enchufe, etc.

    Garantizar la conexión (aunque no la fiabilidad de dicha conexión)



2.       Capa de enlace de datos

Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso al medio, de la detección de errores, de la distribución ordenada de tramas y del control del flujo.



Por lo cual es uno de los aspectos más importantes a revisar en el momento de conectar dos ordenadores, ya que está entre la capa 1 y 3 como parte esencial para la creación de sus protocolos básicos (MAC, IP), para regular la forma de la conexión entre computadoras asi determinando el paso de tramas (trama = unidad de medida de la información en esta capa, que no es más que la segmentación de los datos trasladándolos por medio de paquetes), verificando su integridad, y corrigiendo errores, por lo cual es importante mantener una excelente adecuación al medio físico (los más usados son el cable UTP, par trenzado o de 8 hilos), con el medio de red que redirecciona las conexiones mediante un router. Dadas estas situaciones cabe recalcar que el dispositivo que usa la capa de enlace es el Switch que se encarga de recibir los datos del router y enviar cada uno de estos a sus respectivos destinatarios (servidor -> computador cliente o algún otro dispositivo que reciba información como celulares, etc.), dada esta situación se determina como el medio que se encarga de la corrección de errores, manejo de tramas, protocolización de datos (se llaman protocolos a las reglas que debe seguir cualquier capa del modelol OSI).



3.       Capa de red

Se encarga de identificar el enrutamiento existente entre una o más redes. Las unidades de información se denominan paquetes, y se pueden clasificar en protocolos enrutables y protocolos de enrutamiento.



    Enrutables: viajan con los paquetes (IP, IPX, APPLETALK)

    Enrutamiento: permiten seleccionar las rutas (RIP,IGRP,EIGRP,OSPF,BGP)



El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores, aunque es más frecuente encontrarlo con el nombre en inglés routers. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.



En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

4.       Capa de transporte

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión. Trabajan, por lo tanto, con puertos lógicos y junto con la capa red dan forma a los conocidos como Sockets IP:Puerto (191.16.200.54:80).


5.       Capa de sesión

Esta capa es la que se encarga de mantener y controlar el enlace establecido entre dos computadores que están transmitiendo datos de cualquier índole. Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

6.       Capa de presentación

El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.



Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.



Esta capa también permite cifrar los datos y comprimirlos. Por lo tanto, podría decirse que esta pa actúa como un traductor.

7.       Capa de aplicación

Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (Post Office Protocol y SMTP), gestores de bases de datos y servidor de ficheros (FTP), por UDP pueden viajar (DNS y Routing Information Protocol). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.



Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.