martes, 11 de noviembre de 2008

Redes wireless (inhalámbricas) - Germán Corzo

Presentacion PowerPoint

Software Libre - Pablo Zapata y Guillermo Giavon

Software libre
Es la denominación del software que brinda libertad a los usuarios sobre su producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado, estudiado, modificado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software; de modo más preciso, se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo que puede ayudar a otros; de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).
El software libre suele estar disponible gratuitamente, o al precio de coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por ende no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en algunas ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.
Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquél que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquél cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de éste, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es dominio público.

Historia
Entre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de los grandes computadores de la época (los mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.
Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones. Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.
En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software.
Con este antecedente, en 1984, Aparece Richard Matthew Stallman, ( * Manhattan, Nueva York, 16 de marzo de 1953), programador y la figura más relevante del movimiento por el software libre en el mundo. Sus mayores logros como programador incluyen el editor de texto Emacs, el compilador GCC, y el depurador GDB, bajo la rúbrica del Proyecto GNU. Pero su influencia es mayor por el establecimiento de un marco de referencia moral, político y legal para el movimiento del software libre, como una alternativa al desarrollo y distribución del software privativo. Es también inventor del concepto de Copyleft (aunque no del término), un método para licenciar software de tal forma que éste permanezca siempre libre y su uso y modificación siempre reviertan en la comunidad.

Libertades del software libre
De acuerdo con tal definición, el software es "libre" si garantiza las siguientes libertades:
Libertad 0 Libertad 1 Libertad 2 Libertad 3
Ejecutar el programa con cualquier propósito (privado, educativo, público, comercial, militar, etc.) Estudiar y modificar el programa (para lo cual es necesario poder acceder al código fuente)
Copiar el programa de manera que se pueda ayudar al vecino o a cualquiera Mejorar el programa y publicar las mejoras
Es importante señalar que las libertades 1 y 3 obligan a que se tenga acceso al código fuente.

La "libertad 2" hace referencia a la libertad de modificar y redistribuir el software libremente licenciado bajo algún tipo de licencia de software libre que beneficie a la comunidad.
Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la licencia GNU GPL frente a otras licencias de software libre ..
El término software no libre se emplea para referirse al software distribuido bajo una licencia de software más restrictiva que no garantiza estas cuatro libertades. Las leyes de la propiedad intelectual reservan la mayoría de los derechos de modificación, duplicación y redistribución para el dueño del copyright; el software dispuesto bajo una licencia de software libre rescinde específicamente la mayoría de estos derechos reservados.
La definición de software libre no contempla el asunto del precio. El software gratis puede incluir restricciones que no se adaptan a la definición de software libre —por ejemplo, puede no incluir el código fuente, puede prohibir explícitamente a los distribuidores recibir una compensación a cambio, etc.
Para evitar la confusión, algunas personas utilizan los términos "libre" (Libre software) y "gratis" (Gratis software) para evitar la ambigüedad de la palabra inglesa "free". Sin embargo, estos términos alternativos son usados únicamente dentro del movimiento del software libre, aunque están extendiéndose lentamente hacia el resto del mundo. Otros defienden el uso del término open source software (software de código abierto, también llamado de fuentes abiertas). La principal diferencia entre los términos "open source" y "free software" es que éste último tiene en cuenta los aspectos éticos y filosóficos de la libertad, mientras que el "open source" se basa únicamente en los aspectos técnicos.
En un intento por unir los mencionados términos que se refieren a conceptos semejantes, se está extendiendo el uso de la palabra "FLOSS" con el significado de "Free - Libre - Open Source Software" e, indirectamente, también a la comunidad que lo produce y apoya.

Tipos de Licencias
Una licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:
Licencias GPL
Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.
Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.
En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.
Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL.
Licencias estilo BSD
Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD (Berkeley Software Distribución y se utiliza para identificar un sistema operativo derivado del sistema Unix nacido a partir de los aportes realizados a ese sistema por la Universidad de California en Berkeley).. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").
Licencias estilo MPL y derivadas
Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.
Copyleft
Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.

Motivaciones del software libre
• La motivación ética, abanderada por la Free Software Foundation, heredera de la cultura hacker, y partidaria del apelativo libre, que argumenta que el software es conocimiento y debe poderse difundir sin trabas. Su ocultación es una actitud antisocial y la posibilidad de modificar programas es una forma de libertad de expresión.
• La motivación pragmática, abanderada por la Open Source Initiative y partidaria del apelativo abierto, que argumenta ventajas técnicas y económicas, con respecto a evitar una tragedia de los anticomunes mejorando los incentivos.
Aparte de estas dos grandes motivaciones, la gente que trabaja en software libre puede hacerlo por muchas otras razones, que van desde la diversión a la mera retribución económica, que es posible debido a modelos de negocio sustentables

Sistema Operativo libre: GNU/LINUX
Linux es un sistema operativo, compatible Unix. Dos características muy peculiares lo diferencian del resto de sistemas que podemos encontrar en el mercado, la primera, es que es libre, esto significa que no tenemos que pagar ningún tipo de licencia a ninguna casa desarrolladora de software por el uso del mismo, la segunda, es que el sistema viene acompañado del código fuente.
El sistema lo forman el núcleo del sistema (kernel) más un gran número de programas / bibliotecas que hacen posible su utilización. Muchos de estos programas y bibliotecas han sido posibles gracias al proyecto GNU, por esto mismo, muchos llaman a Linux, GNU/Linux, para resaltar que el sistema lo forman tanto el núcleo como gran parte del software producido por el proyecto GNU.
Linux se distribuye bajo la GNU General Public License por lo tanto, el código fuente tiene que estar siempre accesible y cualquier modificación ó trabajo derivado tiene que tener esta licencia.
El sistema ha sido diseñado y programado por multitud de programadores alrededor del mundo. El núcleo del sistema sigue en continuo desarrollo bajo la coordinación de Linus Torvalds, la persona de la que partió la idea de este proyecto, a principios de la década de los noventa. Hoy en DIA, grandes compañías, como IBM, SUN, HP, Novell y RedHat, entre otras muchas, aportan a Linux grandes ayudas tanto económicas como de código.
Día a día, más y más programas y aplicaciones están disponibles para este sistema, y la calidad de los mismos aumenta de versión a versión. La gran mayoría de los mismos vienen acompañados del código fuente y se distribuyen generalmente bajo los términos de licencia de la GNU General Public License.
Más y más casas de software comercial distribuyen sus productos para Linux y la presencia del mismo en empresas aumenta constantemente por la excelente relación calidad-precio que se consigue con Linux.
Las arquitecturas en las que en un principio se puede utilizar Linux son Intel 386-, 486-, Pentium, Pentium Pro, Pentium II/III/IV, IA-64, Amd 5x86, Amd64, Cyrix y Motorola 68020,IBM S/390, zSeries, DEC Alpha, ARM, MIPS, PowerPC, SPARC y UltraSPARC. Además no es dificil encontrar nuevos proyectos portando Linux a nuevas arquitexturas.
Historia
Linux hace su aparición a principios de la década de los noventa, era el año 1991 y por aquel entonces un estudiante de informática de la Universidad de Helsinki, llamado Linus Torvalds empezó, -como una afición y sin poder imaginar a lo que llegarla este proyecto, a programar las primeras líneas de código de este sistema operativo al que llamaría más tarde Linux.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querrían más
Linus nunca anuncio la versión 0.01 de Linux (agosto/septiembre 1991), esta versión no era ni siquiera ejecutable, solamente incluía los principios del núcleo del sistema, estaba escrita en lenguaje ensamblador y asumía que uno tenia acceso a un sistema Minix para su compilación.
El 5 de octubre de 1991, Linus anuncio la primera versión "Oficial" de Linux, -versión 0.02. Con esta versión Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los términos soporte, documentación , distribución .....
Despues de la versión 0.03, Linus salto en la numeración hasta la 0.10, más y más programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el número de versión hasta la 0.95 (Marzo 1992), la primera capaz de ejecutar el sistema X-windows. Más de un año despues (diciembre 1993) el núcleo del sistema estaba en la versión 0.99 y la versión 1.0.0 no llego hasta el 14 de marzo de 1994.
El 9 de Mayo 1996, Tux fue propuesto como mascota oficial de Linux.
El 9 de junio de 1996 fue lanzada la serie 2.0.x, la 2.2.x no llegó hasta el 25 de enero de 1999 y la 2.4.x hasta el 4 de enero del 2001.
El 17 de diciembre del 2003 fue lanzada la serie actual del nucleo, la 2.6.x y el desarrollo de Linux sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.
Diferencias entre Windows y Linux
Linux a diferencia de Windows, es multitarea real, y multiusuario, posee un esquema de seguridad basado en usuarios y permisos de lectura, escritura y ejecución establecidos a los archivos y directorios. Esto significa que cada usuario es propietario de sus archivos, y otro usuario no puede acceder a estos archivos. Esta propiedad no permite el contagio de virus entre archivos de diferentes usuarios.
Una diferencia, quizás la más importante de todas, con respecto a cualquier sistema operativo comercial, es el hecho de que es software libre, qué quiere decir esto? que junto con el sistema, se puede obtener el código fuente de cualquier parte del mismo y modificarlo a gusto. Ésto da varias ventajas, por ejemplo:
1. La seguridad de saber qué hace un programa tan solo viendo el código fuente, o en su defecto, tener la seguridad que al estar el código disponible, nadie va a agregar «características ocultas» en los programas que distribuye.
2. La libertad que provee la licencia GPL permite a cualquier programador modificar y mejorar cualquier parte del sistema, ésto da como resultado que la calidad del software incluido en GNU/Linux sea muy buena.
3. El hecho de que el sistema sea mantenido por una gran comunidad de programadores y usuarios alrededor del mundo, provee una gran velocidad de respuesta ante errores de programas que se van descubriendo, que ninguna compañía comercial de software puede igualar.
Además de las ventajas anteriormente enumeradas, GNU/Linux es ideal para su utilización en un ambiente de trabajo, dos razones justifican ésto:
1. Al ser software libre, no existe el costo de las licencias, y una copia del sistema GNU/Linux puede instalarse en tantas computadoras como se necesite.
2. Existen utilidades para el trabajo en oficina, que son compatibles con las herramientas de la serie MS-Office.
Desventajas
1. Linux no cuenta con una empresa que lo respalde, por lo que no existe un verdadero soporte como el de otros sistemas operativos.
2. La pendiente de aprendizaje es lenta.

3. Documentación y terminología muy técnica.
4. Para usuarios corrientes, todavía no es un sistema de escritorio.
5. Funciona únicamente con proveedores de hardware que accedieron a la licencia GPL y en algunas instancias no es compatible con variedad de modelos y marcas.
6. Requiere consulta, lectura e investigación en lista, foros o en bibliografía dedicada al tema.
7. La configuración de dispositivos de entrada y salida no es trivial.
8. Muy sensible al hardware.
9. Muchas distribuciones e idiomas.
10. Hay que leer y entender código
Distribuciones
Linux es un sistema de libre distribución por lo que podeis encontrar todos los ficheros y programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros y programas necesarios, asi como instalarlos en tu sistema y configurarlo, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas y organizaciones que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.
Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a través de Internet, o comprando los CDS de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, vía FTP .
REDHAT ENTERPRISE
Esta es una distribución que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.
OpenSuSE
Otra de las grandes. Facil de instalar. Version libre de la distribucion comercial SuSE
SuSE LINUX ENTERPRISE
Otra de las grandes. Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.
UBUNTU
Distribucion basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.
SLACKWARE
Esta distribucion es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.
Características de Linux
o multitarea: varios programas (realmente procesos) ejecutándose al mismo tiempo.
o multiusuario: varios usuarios en la misma máquina al mismo tiempo (¡y sin licencias para todos!).
o multiplataforma: corre en muchas CPUs distintas, no sólo Intel.
o funciona en modo protegido 386.
o tiene protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
o carga de ejecutables por demanda: Linux sólo lee de disco aquellas partes de un programa que están siendo usadas actualmente.
o política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
o memoria virtual usando paginación (sin intercambio de procesos completos) a disco: una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha (se sigue denominando intercambio, es en realidad un intercambio de páginas). Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio.
o la memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y éste puede a su vez ser reducido cuando se ejecuten grandes programas.
o librerías compartidas de carga dinámica (DLL's) y librerías estáticas también, por supuesto.
o se realizan volcados de estado (core dumps) para posibilitar los análisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
o casi totalmente compatible con POSIX, System V y BSD a nivel fuente.
o mediante un módulo de emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
o todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito.
o control de tareas POSIX.
o pseudo-terminales (pty's).
o emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si tu ordenador ya tiene una FPU (unidad de coma flotante), será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
o soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
o consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64.
o soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
o acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no necesitas ningún comando especial para usar la partición MS-DOS, parece un sistema de archivos normal de Unix (excepto por algunas graciosas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT (WNT, Windows 95) ha sido añadido al núcleo de desarrollo y estará en la próxima versión estable.
o un sistema de archivos especial llamado UMSDOS que permite que Linux sea instalado en un sistema de archivos DOS.
o soporte en sólo lectura de HPFS-2 del OS/2 2.1
o sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.
o TCP/IP, incluyendo ftp, telnet, NFS, etc.
o Appletalk disponible en el actual núcleo de desarrollo.
o software cliente y servidor Netware disponible en los núcleos de desarrollo.

Procesadores Multinucleo - Pablo Dominguez

PROCESADORES MULTINUCLEO


Introducción
Panorama Actual
Descripción inicial
Antecedentes de los procesadores multinúcleo
Ejemplos de procesadores multinúcleo
Futuro de los procesadores multinúcleo
Conclusiones


Introducción
La presente monografía trata el tema de los procesadores multinúcleo, dando un panorama de porque se decidió fabricarlos, sus antecedentes, como trabajan. Además se muestra algunos procesadores multi-núcleos actuales, de Intel, de AMD. Se ha puesto énfasis en el procesador Cell, por su potencial y su capacidad.
Este trabajo pretende dar una vista amplia de los procesadores multinúcleo. Para mayores detalles se puede consultar la bibliografía.
Panorama Actual
La fuerte competencia en el mundo de los procesadores, especialmente entre Intel y AMD, ha producido que la tecnología actual de fabricación de procesadores esta llegando a sus límites. Cada vez la miniaturización de los componentes del procesador es más difícil (el límite de construcción del silicio ronda los 15-20nm, donde el silicio empieza a ceder por falta de consistencia, ya se ha llegado a los 65nm), el problema de la generación de calor a aumentado, produciendo que sea más difícil aumentar la frecuencia principal del procesador. Todos estos problemas dificultan el aumento de rendimiento de los procesadores.
Los procesadores actuales no sobrepasan los 3.8 GHz (obtenido por el Pentium 4 Prescott), necesitan grandes disipadores y ventiladores porque generan mucho calor. No se podía continuar fabricando procesadores de la misma manera, se estaba llegando a un "estancamiento"; era necesario tomar otro camino, utilizar otra variable que hiciera que el rendimiento del procesador aumentará. Entonces, basándose en el procesamiento en paralelo, se empezaron a construir los procesadores multi-núcleo.
Descripción inicial
Los procesadores multi-núcleo son un procesador que contiene dentro de su empaque a varios núcleos o "cerebros". La mayoría de los procesadores son mono-núcleo, o sea tienen un solo cerebro. Mientras un procesador mono-núcleo tiene un solo cerebro para ejecutar procesos, un procesador multi-núcleo puede repartir los procesos entre sus varios cerebros para su posterior ejecución.
Es como cuando a una persona le dan muchos trabajos por hacer, si otro lo ayuda entre los dos pueden dividirse el trabajo y terminar más rápido. Si los dos les toca hacer un solo trabajo, si este es divisible, entonces los dos lo también lo harán mas rápido. Pero si el trabajo no es divisible, entonces en ese caso uno solo lo haría.
Por eso las aplicaciones que sacan más provecho de estos procesadores multinúcleo son aquellas que pueden generar muchos hilos de ejecución (thread) como las aplicaciones de audio/video, cálculo científico, juegos, tratamiento de gráficos en 3D, etc.
Pero de todas maneras siempre hay aplicaciones que no se dividen en hilos de ejecución, que no aprovechan por completo estos procesadores. Pero estos procesadores pueden ejecutar varias de estas aplicaciones al mismo tiempo.
Solo cuando uno ejecute una sola aplicación que no sea paralelizable (no se pueda descomponer en hilos) es cuando no se aprovecha el potencial de procesamiento que tienen estos procesadores.
Actualmente muchos programas son poco paralelizables (excepto en los sectores donde se usan supercomputadoras, sistemas distribuidos y paralelos, etc.), pero se pueden ejecutar muchos de ellos a la vez. Con el auge de estos procesadores, saldrán aplicaciones más paralelizables.
Como historia se puede decir que el primer procesador multinúcleo en el mercado fue el IBM Power 4 en el año 2000. Una alternativa a los procesadores multinúcleo son los sistemas multiprocesadores, que consisten en una placa madre que podía soportar desde 2 a más procesadores. El rendimiento es bastante bueno, pero también es bastante caro.


Antecedentes de los procesadores multinúcleo
Los procesadores multinúcleo se basaron en los sistemas distribuidos, la computación paralela, y las tecnologías como el Hyperthreading; que mostraban como dividir el trabajo entre varias unidades de ejecución.
Procesamiento en Paralelo
El procesamiento en paralelo es la división de una aplicación en varias partes para que sean ejecutadas a la vez por diferentes unidades de ejecución.
El procesamiento en paralelo se utiliza en Computación Paralela y la Computación Distribuida.
HyperThreading
Esta tecnología fue creada por Intel, para los procesadores Pentium 4 más avanzados. El Hyperthreading hace que el procesador funcione como si fuera dos procesadores. Esto fue hecho para que tenga la posibilidad de trabajar de forma multihilo (multithread) real, es decir pueda ejecutar muchos hilos simultáneamente.
Un procesador con la tecnología Hyperthreading tiene un 5% más de transistores que el mismo procesador sin esa tecnología.

Los dos procesadores lógicos, que posee el procesador hyperthreading, tienen su propio estado de la arquitectura: registros de control, registros de datos, registros de depuración, etc. y el APIC (controlador avanzado de interrupción programable). Los dos procesadores lógicos comparten la memoria caché, la interfaz del bus del sistema, etc.

Ejemplos de procesadores multinúcleo
Se verá un resumen de los principales procesadores multinúcleo de la actualidad. Se comienza por Intel, mostrando los procesadores multinúcleo que ha sacado al mercado, luego viene AMD, y por último se muestra al nuevo procesador Cell, que próximamente va a salir en la PlayStation 3.
Procesadores Multinúcleo de Intel
Actualmente Intel esta fabricando procesadores de doble núcleo. Comenzó fabricando los Pentium D en el 2005, luego en el 2006 lanzó los Core Duo y el Core 2 Duo.
Pentium D
Los Pentium D están conformados por dos procesadores Pentium 4 Prescott sin Hyperthreading. Luego Intel sacó el Pentium Extreme Edition (No confundir con el Pentium 4 Extreme Edition) que era un procesador que tenía los procesadores P4 Prescott, con la tecnología Hyperthreading, lo que hacia que el software viera cuatro procesadores.
Las características de los Pentium D son:
o Proceso de fabricación de 90nm
o Tienen la tecnología EM64T, que permite trabajar con 64 bits de forma nativa
o Utilizan núcleos SmithField (basados en los Prescott), cada uno de ellos tiene una memoria caché L2 de 1MB
o Van desde 2.80GHz, del modelo menos potente, hasta 3.20GHz para el modelo más potente.
El procesador que contiene dos núcleos Prescott se llama SmithField. Los nuevos procesadores de doble núcleo Pentium D se llaman Presler, están construidos con tecnología de fabricación de 65nm y van desde 2.8 hasta 3.73Ghz. Tienen una caché L2 por cada núcleo de 2MB (4MB en total).
Core Duo
Los procesadores Core Duo es una versión para los portátiles, implementa 2MB de caché de memoria compartida para ambos núcleos. Están hechos con la tecnología de 65nm. Su velocidad va desde 1.20 hasta 2.33Ghz. El FSB (bus del sistema) va desde 533Mhz del modelo menos potente hasta 667Mhz para los demás. El gasto de energía va desde 9.0w hasta 31w. Por los datos se ve que tienen una gran relación rendimiento/energía.
Core 2 Duo
Esta nueva familia de procesadores de Intel esta basado en la micro arquitectura Core, que reemplaza a la antigua micro arquitectura Netburst que fue aplicada en los demás procesadores y que ya estaba llegando a sus límites.
La arquitectura Core proviene de la arquitectura que produjo al Pentium M (utilizado por los Intel Centrino), que destaca por el gran rendimiento que obtiene de la poca energía que gasta. El Pentium M además proviene del Pentium III, y este del Pentium Pro (Los Pentium 4 son una rama genealógica aparte).
Las subfamilias del Core 2 Duo son:
Merom, para portátiles.
Conroe, para equipos de sobremesa.
WoodCrest, para servidores.
Los Core 2 Duo, recién han salido en julio del 2006. Además de la versión normal, hay una versión extrema. No se tienen todos los datos disponibles, pero ya se han probado algunos de ellos.
Los Core 2 Duo que han sido probados, por la mayoría de testeadores, son el Core 2 Extreme X6800, el Core 2 Duo E6700 y el E6600. En las pruebas estos procesadores demuestran tener más rendimiento que el más poderoso procesador del AMD, el AMD FX-62. Los mas fuertes (X6800 y E6700) vencen en casi todo al FX-62, en algunas pruebas por un margen considerable y el tercero (E6600) esta muy cerca.
Procesadores Multinúcleo de AMD
Antes de sacar sus procesadores multinúcleo al mercado, AMD ya había conseguido un gran éxito con su procesador Athlon 64, que incorporaba la capacidad de direccional 64 bits de memoria, la tecnología HyperTransport que era un nuevo bus bastante rápido que eliminaba cuellos de botella anteriores, y otras tecnologías; este procesador fue tomado como base para la construcción de su procesador de doble núcleo Athlon 64 X2, que salió al mercado a partir del 2005.

Para Servidores, AMD sacó el procesador Opteron X2, que se basaba también en el Opteron de un solo núcleo, el hermano mayor de los Athlon 64.
Para Portátiles AMD ha sacado el Turion X2, que lleva el poder de los procesadores de doble núcleo al campo de los móviles.
AMD fue el primero en sacar la tecnología de 64 bits, y también fue la primera en sacar los procesadores de doble núcleo para servidores, portátiles y computadoras de escritorio. Han tenido un gran éxito, pero con la aparición de los Core 2 Duo de Intel, basados en su exitoso Pentium M Centrino, la iniciativa vuelve a las manos de Intel en todos los frentes. Hay que esperar a que AMD saque sus nuevos procesadores K8L, de 4 núcleos y con tecnologías mejoradas, como el HyperTransport 3 y una caché L3.
Procesador CELL

El procesador Cell, es un procesador multi-núcleo diseñado por las empresas IBM, Sony y Toshiba desde el marzo del 2001. Este procesador va a ser usado inicialmente por la PlayStation 3, pero se tiene previsto usarlo también en los productos electrónicos que fabrican estas empresas, que van desde televisores de alta definición hasta ordenadores.
Los componentes del procesador son:
o 1 Power Processor Element (PPE).
o 8 Synergistic Processor Elements (SPEs).
o Bus de Interconexión de los Elementos (EIB).
o Controlador de Acceso Directo a Memoria (DMAC).
o 2 Controladores de Memoria Rambus XDR.
o Una interfaz Rambus FlexIO (Input / Output).

El PPE es el núcleo principal, este se encarga de coordinar el trabajo de todos los demás núcleos (SPEs), mediante la tecnología SMT (Simoultaneous Multi-Threading). El PPC toma el control del sistema operativo y deja a los SPEs el trabajo de los demás procesos.
EL PPE esta basado en la arquitectura PowerPC de 64 bits, tiene 32 KB de caché L1 y 512 KB de caché L2, tiene también tecnología de doble hilo y puede ejecutar dos instrucciones por hilo. Este procesador esta hecho como los RISC clásicos, o sea no es como los PowerPC tradicionales, por eso no tiene implementado la predicción de saltos, y la ejecución de instrucciones es en orden; lo que ahorra una cantidad considerable de transistores, pasando todo ese trabajo al compilador.

Los SPE son los procesadores auxiliares, son unidades de cálculo vectorial. Pueden ejecutar hasta dos instrucciones por ciclo. Cada SPE tiene 128 registros de 128 bits cada uno, 4 unidades de coma flotante, 4 unidades aritméticas enteras y una memoria local de 256 KB (esta memoria es SRAM como las memorias caché, pero no es una de ellas). Al no utilizar memoria caché, se simplifica el diseño del SPE. Los SPEs tienen memoria local para tomar los datos que requieren más rápidamente.
El bus de interconexión de elementos, EIB, esta compuesto por 4 canales de datos de 128 bits, permite la comunicación entre todos los elementos del procesador, permite también cargar y mover 16GB de datos por segundo hacia y fuera del Cell respectivamente. Para mantener lleno este ancho de banda, el procesador Cell utiliza en sus controladores de I/O y la memoria las tecnologías diseñadas por la empresa Rambus (conocida por haber fabricado las veloces memorias RAM para Pentium 4, las RIMM, que no tuvieron aceptación en el mercado). La memoria XDR de Rambus es bastante rápida, llegando a velocidades 12 veces superiores a las memorias convencionales de 533Mhz actuales.
La velocidad a la que llega es de 4.8Ghz. La tecnología FlexIO, también de Rambus, es una interfase de entrada y salida bastante rápida. Esta constituido por 12 conexiones punto a punto unidireccionales de 1byte, 7 de estas conexiones son de salida y 5 son de entrada. El FlexIO puede tener una velocidad desde 400Mhz hasta 8GHz.
El chip Cell ha ahorrado muchos transistores al no implementar caché para los SPEs, ejecución fuera de orden, predicción de saltos, etc., dejando todo ese trabajo al compilador; con el fin de poner mas procesadores (SPEs) lo que aumenta el poder de procesamiento, y además para que el chip sea más sencillo y gaste menos energía. Este chip es un monstruo con sus 234 millones de transistores, la mayoría dedicados al poder de procesamiento por lo anteriormente expuesto, y como utiliza muchos "cerebros", la generación de calor se disemina por todo el procesador.
Otras características de este procesador son:
o Fabricación en 90nm (nanómetros).
o Frecuencia de trabajo desde 3.2 GHz.
o 1,3 Voltios.
o Operación a 85ºC con un disipador.
o El prototipo tiene 221mm2.
o Utiliza la tecnología SOI (Silicio sobre aislante)
Otras características que tiene el Cell es que es escalable, fue diseñado para poder trabajar con otros Cell. Un PPC de un Cell tiene el potencial de comunicarse con un PPC o un SPE de otro Cell que se encuentre en la misma placa madre, en la misma red o en cualquier parte del mundo si ambos estos conectados a Internet.
Otros Procesadores
Otros procesadores multinúcleo importantes que han salido son:
o el PowerPC G5 para las Apple.
o El UltraSparc T1 Niagara, poderoso procesador para servidores, que genera un gran ahorro de energía por su relación rendimiento/energía. Su fabricante Sun Microsystems antes también ha sacado buenos procesadores multinúcleo para sus servidores.
Futuro de los procesadores multinúcleo
• Actualmente Intel y AMD están ofreciendo sus procesadores de doble núcleo. En los siguiente años saldrán sus procesadores de 4 núcleos, 8, etc. Intel prevé llegar a construir un procesador de 32 núcleos para el 2010.
• El procesador Cell ha comenzado a ser construido con la tecnología de fabricación de 65nm.
• IBM esta desarrollando el procesador Kilocore, un procesador que tiene un núcleo principal PowerPC que maneja a 1024 núcleos auxiliares pequeños de 8 bits.
• En cuanto a tecnologías, IBM ha fabricado, en experimentos, chips con la tecnología SiGe (tecnología que añade al silicio, mediante procesos nanotecnológicos, capas de germanio, para mejorar sus propiedades electrónicas) que pueden alcanzar 500GHz con el cero absoluto, previendo que pueden llegar a 350 Ghz a temperatura ambiente. Esta tecnología no es tan costosa, pudiéndose implementar en las fabricas de chips a muy bajo precio. Esto puede ser el comienzo de una nueva generación de procesadores ultrarápidos, comparados con los actuales.
Conclusiones
• Los procesadores AMD e Intel multinúcleo seguirán mejorando, pues llevan compatibilidad con las instrucciones x86. Las empresas de desarrollo de software se verán obligadas, por motivos competitivos, a desarrollar software que aproveche el procesamiento paralelo que tienen estos procesadores. Estos les generará gastos de desarrollo mayores de los normales.
• En cambio el procesador Cell tiene más problemas, porque no es compatible con el software existente. Es difícil que las empresas de software hagan programas para el Cell, por el enorme costo de desarrollo que implica. Pero fue una buena idea ponerlo en la consola PlayStation 3, porque ello generará una enorme cantidad de programadores, provenientes de las industrias de juegos, que quieran aprovechar todo el potencial que tiene.
• El rendimiento de los procesadores ha tomado nuevo aliento, después de dejar de avanzar en MHz. Con esta tecnología se puede seguir mejorando el rendimiento durante un buen tiempo.
• Dentro de poco, las personas normales tendremos el poder de cómputo que tenían los supercomputadores hace algunos años. (Se dice que 4 procesadores Cell tienen el poder equivalente a la supercomputadora más poderosa de EEUU de hace solo 10 años).

Sistemas de Computación en las Comunicaciones - Fabiana Quevedo - Javier Castro - Juán Maroglio

Sistemas de Computación
en las Comunicaciones



Alumnos:

Quevedo, Fabiana (C.2191)
Castro, Javier Leandro (C.2174)
Maroglio, Juan Alejandro (C.2173)



Materia: Sistemas de Computación
Profesor: Pedro Ruiz Cresta



Carrera: Analista de Sistemas
Curso: 1° - Sección I














Escuela Superior de Comercio
Manuel Belgrano

Universidad Nacional de Córdoba







INTRODUCCION




Al principio, el hombre se comunicaba utilizando señales de humo, figuras o sonidos.

La evolución de la ciencia permitió que en 1875 Alexander Graham Bell patentara el primer teléfono, que permitió entablar una conversación entre dos personas separadas por varios kilómetros.

Dos años después se instaló en Estados Unidos la primera central telefónica con capacidad para 21 abonados y asistencia de operadoras. Podemos decir que allí nace lo que se conoce como “Conmutación de Circuitos” de abonado.

En 1892 se consigue implementar el primer conmutador telefónico automático sin asistencia que prescindía de las operadoras en la central.

En 1923 se instala la primera central telefónica electromecánica de larga distancia en Alemania y en 1977 SIEMENS lanza al mercado las primeras centrales conmutadas digitales EWS que alcanzaron su pico evolutivo en la década del ’90.

Hoy, la conmutación comienza a ceder paso a una Nueva Generación de Red (New Generation Network) que se basa en redes IP (conmutación de paquetes) para el transporte de voz, datos y video. La NGN posee una estructura muy similar a la de una red de datos y si los comparamos, hasta podríamos confundirlos. Una central telefónica es un centro de cómputos, interconectado con otros centros por una red de de telecomunicaciones que se extiende a través de todo el país.

Esta red evoluciona, crece y se está integrando a otras redes para brindar cada vez más servicios.



LA RED DE TELEFONIA



Estructura de la Red:

Toda red se compone de tres elementos básicos: enlaces, nodos y terminales.

Un enlace es el medio por el cual viaja la información entre dos nodos de la red; por lo general utilizan medios como: cable coaxil, aire (mediante ondas electromagnéticas) o fibra óptica.

El nodo es la parte inteligente de la red y el encargado de encaminar la información hacia otros nodos o hacia una terminal. Esta última, puede ser cualquier dispositivo que permita al cliente interactuar con la red y hacer uso de los servicios que esta ofrece (teléfono, fax, computadora, etc.).





Los nodos se pueden interconectar utilizando diferentes topologías de red (figura 2), pero las más utilizadas son: estrella, malla o mixta.

En una red estrella, todos los nodos se unen entre sí a través de un nodo de tránsito cuya función es tomar el tráfico de un enlace y direccionarlo hacia otro.

En una red malla no hay nodo de tránsito, por lo que cada nodo posee enlaces contra los otros nodos de la red.

















De la combinación de las anteriores surge la red mixta. Esta posee nodo de tránsito y enlace con aquellos nodos adyacentes con los que intercambia mayor cantidad de tráfico.

En resumen, cada terminal se conecta a la red a través de un nodo y cada nodo está vinculado a otros nodos mediante enlaces. A este conjunto de elementos interconectados se le llama red de comunicaciones.



EL SERVICIO BÁSICO TELEFÓNICO:

Ahora veremos como está construida una Red de Telefonía Básica comúnmente denominada SBT (Servicio Básico Telefónico), en inglés, PSTN (Public Switched Telephone Network).

En 1875 G. Bell realiza la primera transmisión de voz entre un teléfono y la central utilizando un sólo hilo o cable de cobre. Este método era efectivo en circuitos de corta distancia ya que el ruido en la comunicación aumentaba con la misma.

El primer objetivo fue incrementar esta distancia sin perder calidad, entonces en 1878 la compañía de teléfonos Bell System experimentó satisfactoriamente con las líneas de dos hilos.

Este avance permitió aumentar la distancia que se cubría con un circuito telefónico.

Las empresas se embarcaron en una competencia por ver quién alcanzaba la mayor distancia y perdieron de vista la calidad del servicio. Por eso la ITU (Unión Internacional de Telecomunicaciones), debió normar la implementación de las líneas telefónicas estableciendo que la longitud máxima del circuito telefónico sería de 5Km, con una atenuación de 1000 ohm sobre un cable de cobre de 0,4 mm de diámetro.




La figura 3 esquematiza el plantel de una red de telefonía. Esta divide su plantel en dos partes: planta interna y planta externa.





La planta interna está contenida dentro del edificio que aloja a la Unidad de Conmutación (UC), comúnmente llamada “central telefónica”, que incluye las salas de: suministro eléctrico, grupos electrógenos, baterías y refrigeración.

La planta externa es toda aquella instalación de la red que se encuentra fuera del edificio donde está instalada la UC. La línea que separa ambas plantas está dentro del edificio, en el Repartidor General (RG). Aquí se unen los pares que conectan los circuitos de abonado de la UC con los pares que van hasta la terminal de cada cliente. Los elementos que forman la planta externa son: cables primarios, cables secundarios y armarios o sub repartidores.

Según los elementos que forman parte de la red física de distribución (cables, armarios, etc.) se la puede clasificar como una red Rígida o Estructurada (figura 4).







Una red rígida llega con los pares de cable o fibra directamente al cliente, sin que existan puntos de distribución intermedia.

En la red estructurada, los subrepartidores van tomando parte de la capacidad de los cables primarios o secundarios para distribuir el servicio dentro de un área limitada. El uso de subrepartidores permite modificar la configuración de la red y facilita su reparar. Cada subrepartidor tiene capacidad para 400 u 800 usuarios.


El RG se conecta con cada armario o subrepartidor, a través de un cable multipar de cobre llamado cable primario. Este cable tiene una capacidad máxima de 1980 pares y está protegido por una cubierta hermética que permite presurizarlo para detectar posibles averías, protegerlo, prolongar su vida útil y mantener la calidad del servicio.

El elemento principal de la planta interna es la UC puesto que es la encargada de establecer las conexiones, es decir “crear el circuito” entre los terminales de usuarios que desean comunicarse. Su estructura es totalmente modular, cada modulo tiene una función específica y según su importancia puede estar duplicado para asegurar el servicio. Para establecer los circuitos de comunicación a través de una red de telecomunicaciones, la UC utiliza una técnica llamada “conmutación de circuitos” y es por eso que también se la llama red conmutada.


La Red Conmutada:

Desde la invención del teléfono, la conmutación de circuitos ha sido la tecnología dominante. Al principio establecer los circuitos de comunicación entre clientes fue tarea de las operadoras, luego de las centrales electromecánicas y actualmente las centrales digitales.

Para transmitir señales de voz a grandes distancias se debe construir una red de nodos. A través de estos se pueden configurar, temporalmente, circuitos físicos que permiten establecer una comunicación entre dos terminales (figura 5).

Aquellos dispositivos finales entre los que se desea establecer una conexión y que son la interfaz con el cliente, son llamados terminales. Los terminales (computadoras, teléfonos u otros dispositivos de comunicación) se conectan a la red a través de un nodo. Cada nodo puede tener conectadas muchas terminales o ninguna, según sea su función.









Se dice que una red es conmutada, si los nodos de la misma construyen las rutas físicas interconectando los canales de uno o más enlaces (cada enlace está formado por varios canales y cada canal está conectado a un circuito que se encarga de controlar sus funciones).

Los datos que entran a la red por un terminal (origen) se encaminan hacia otra terminal (destino), porque cada nodo vincula los circuitos necesarios para construir un canal de comunicación, desde la terminal de origen hasta la de destino. A este proceso de unir temporalmente varios circuitos para establecer un canal de comunicación se lo llama conmutación de circuitos.

Por ejemplo en la figura 5, los datos de la terminal A van hacia la terminal F a través del nodo 4 y luego podrían encaminarse a través de los nodos: 5 y 6, o alternativamente a través de los nodos: 7 y 6, hasta alcanzar su destino.

Sobre esta red conmutada, podemos establecer las siguientes observaciones:

1. Algunos nodos solo se conectan con otros nodos (Ej.: los nodos 5 y 7). Su única tarea es la conmutación interna de circuitos dentro de la red.
2. Otros nodos pueden tener una o más terminales conectadas por lo que además de sus funciones de conmutación, se encargan de aceptar y distribuir datos desde o hacia las estaciones que tengan conectadas.
3. Los enlaces entre nodos están multiplexados. Esta técnica permite transportar más de un canal a través de cualquier medio (coaxil, fibra óptica, aire, etc.).
4. Por lo general la red no está completamente enlazada; es decir no hay un enlace directo entre cada nodo de la red. No obstante se la diseña de forma tal que siempre exista más de un camino para alcanzar a otros nodos.

La comunicación utilizando conmutación de circuitos implica la existencia de un camino dedicado entre las dos terminales. Ese camino es una secuencia de enlaces conectados entre nodos de la red. En cada enlace físico se dedica un canal lógico para cada conexión. La comunicación vía circuitos conmutados implica tres fases:



Establecimiento
del circuito:















Establecimiento
del circuito:
Antes de transmitir cualquier señal, se debe establecer un circuito de extremo a extremo (terminal a terminal). Por ejemplo, la estación A envía una solicitud al nodo 4 pidiendo una conexión a la terminal E. Generalmente el enlace desde A hasta 4 es una línea dedicada, por lo que esta parte de la conexión es permanente. El nodo 4 deberá encontrar un camino para alcanzar al nodo 6. Esto estará en función de la información de encaminamientos y de la disponibilidad y del costo. Supongamos que el nodo 4 toma el enlace al nodo 5, reserva un canal libre de dicho enlace y envía una señal solicitando la conexión a E.
Hasta ahora, se había establecido un camino dedicado desde A hasta 5 a través de 4. Ya que al nodo 4 se pueden conectar varias estaciones, este nodo debe ser capaz de establecer caminos para todas ellas. El resto del proceso es similar. El nodo 5 reserva un canal hacia el nodo 6 e internamente asigna ese canal al canal que viene desde el nodo 4. El nodo 6 completa la conexión hasta la terminal E.



Por último se realiza un test para determinar si E esta ocupado o si por el contrario está preparado para aceptar la conexión.


Transferencia
de Datos:
Una vez establecido el circuito, la información se puede transmitir desde A hasta F, generalmente esta conexión es full-duplex.



Liberación
del Circuito:
Finalizada la transferencia de datos, la conexión se libera por la acción de que realiza una de las terminales involucradas. Para esto, las señales de liberación deben propagarse por los nodos 4, 5 y 6 para que estos liberen los recursos dedicados a la conexión.



Las redes conmutadas son bastante ineficientes ya que la capacidad de cada canal y los circuitos asociados se reservan durante toda la conexión, incluso en el caso de que no se transfieran datos. Para una conexión de voz, la utilización del circuito puede que sea bastante alta, pero aún así, difícilmente se alcance el 100%. Para una conexión típica entre un terminal y un computador, es habitual que el canal no se utilice durante la mayor parte del tiempo.

Originalmente la conmutación de circuitos se diseño para el tráfico de voz pero en la actualidad también se usa para datos. Un ejemplo de su aplicación, es la red pública de telefonía (figura 6) también conocida como Servicio Basico Telefónico (SBT) o en ingles Public Switched Thelephone Network (PSTN).






La red del SBT está formada por un conjunto de redes regionales interconectadas. Inicialmente, estas redes se diseñaron para prestar un servicio de telefonía (analógico) a sus clientes, luego pasaron a operar con una cantidad significativa de tráfico de datos mediante el uso de MODEM y progresivamente se fueron transformando en una red digital con la utilización de técnicas xDSL.

Otra aplicación de las redes conmutadas, son las centrales privadas PBX (Private Branch Exchange). Estas se emplean para dar servicio de telefonía en edificios u oficinas.




Una red pública de telecomunicaciones se compone básicamente de cuatro elementos:



Terminales
Son los dispositivos que se conectan a la red (teléfonos, fax, computadoras, etc.) y a través de los cuales los abonados pueden hacer uso de los distintos servicios (Ej.: comunicación telefónica, Internet, etc.).


Bucle Local
Es el enlace permanente que une la Terminal al nodo, comúnmente se lo llama “Bucle de Abonado”. En la mayoría de los casos se utiliza par trensado de cobre cuya longitud por no supera los 5Km.


Centrales de Conmutación
Son los puntos de la red donde se interconectan varios canales para establecer una conexión entre dos terminales de la red, existen dos tipos de Centrales:
Centrales Finales: Soportan la conexión de terminales. Una central final puede brindar servicio a miles de terminales en un área geográfica limitada.
Centrales de Tránsito: No soportan la conexión de terminales, solo conmutan circuitos dentro de la red para crear rutas entre los distintos nodos. Estas centrales pueden manejar transito interurbano o internacional.


Enlaces
Así se les llama a las líneas que sirven de vínculo entre centrales. Estas líneas utilizan técnicas de multiplexación para transportar varias comunicaciones de voz por una línea y al mismo tiempo.



Cuando se establece una conexión entre abonados ubicados en distintas ciudades, las Centrales Tránsito son las encargadas de encaminar y conmutar el tráfico entre
Centrales Finales.





En la figura 7, para realizar una conexión entre las terminales A y B, se establecerá un circuito en la misma central final. En cambio establecer la conexión entre C y D es más complejo. En la central final C, la conexión se establece entre la línea C y un canal de línea principal a la Central de Tránsito. En esta se interconecta con otro


canal de línea principal contra la Central Final de D que a su vez conectará este canal con línea del abonado D.

Concepto Básico sobre Conmutación:

Para comprender mejor como trabaja un conmutador digital de circuitos, nos enfocaremos en el análisis de un nodo aislado. En este caso, la central de conmutación establecerá el camino dedicado entre cualquier par de terminales que quieran comunicarse. En la figura 8, las líneas discontinuas indican los caminos que la central ha establecido para cada circuito activo.





El corazón de una central telefónica es la Unidad de Conmutación o Conmutador Digital. Su función es establecer las rutas de conexión full duplex entre las terminales. La Interfaz de Red incluye todas las funciones y el hardware necesario para manejar los enlaces que vinculan a la central con la red de telecomunicaciones y con las terminales.

La Unidad de Control es el cerebro de la central telefónica y tiene tres tareas principales:

1. Establece, a demanda, las rutas de conexión. La unidad de control es la que determina si la terminal de destino está libre y reserva los canales en distintos tramos de enlace para construir una ruta a través del conmutador.
2. Mantiene las conexiones establecidas y el control de los circuitos involucrados.
3. Deshace las conexiones a pedido de uno de los terminales o por razones propias del sistema y se encarga de liberar todos los circuitos involucrados para futuras conexiones.

Una Central de Conmutación real, posee una estructura modular mucho más compleja. Los módulos más importantes están duplicados, esto se hace fundamentalmente, para asegurar el servicio. Mientras todos las partes de la central funcionan correctamente, los módulos duplicados trabajan repartiéndose las cargas de trabajo.








La Interfaz de Red está compuesta por módulos llamados Grupo de Enlaces a través de los cuales se conecta la unidad de conmutación con otros nodos y con las terminales de abonado. La Interfaz de Abonados, separa los canales de cada enlace y los conecta a la terminal de abonado correspondiente. Las centrales interurbanas no poseen interfaz de abonados y todos los Grupos de Enlace se dedican a la interconexión de otros nodos en la red.

Todos los módulos de la Unidad de Control, incluida la Unidad de Conmutación, están duplicados. Los procesadores centrales (CP) están conectados a la unidad de conmutación a través de los Message Buffer (MB). Su función es similar a la de una cola de impresión y evitan que los CP se desborden de trabajo. El Reloj provee de sincronismo local a la central y a su vez está conectado a una red superior de sincronismo.

Las Bases de Datos de la central se alojan en disco rígidos y tienen entre otras cosas información sobre:

1. Abonados (Números de teléfono y en que interfaz de abonado han sido creados, rangos de numeración disponibles, etc.)
2. Enlaces (enlaces habilitados y contra que nodo están conectados)
3. Tasación (facturación según rango horarios y días).
4. Log de eventos (fallas de módulo, fallas de enlace, modificaciones en configuración, etc).

Los puertos I/O permiten conectar PCs o terminales de gestión y unidades de cinta magnética para hacer los backup de sistema.










Conmutación por División en el Espacio:

La conmutación por división en el espacio fue originariamente desarrollada para los entornos analógicos y posteriormente se implementó en los digitales. Los principios fundamentales para utilizar un conmutador con señales analógicas o digitales son los mismos. En un conmutador por división en el espacio las rutas que se establecen son físicamente independientes una de otras (división en el espacio).

Cada conexión requiere establecer un camino físico exclusivo a través del conmutador para cada par de terminales (origen y destino).





Esto se puede representar mediante una matriz de conexiones (figura 10), donde cada punto de cruce constituye un punto de conexión que puede habilitarse o deshabilitarse desde la unidad de control.

La conexión entre dos líneas se establece habilitando el punto de cruce correspondiente. Estos conmutadores presentan las siguientes desventajas:

1. El número de puntos de cruce aumenta con el cuadrado del número de líneas conectadas. Esto es sumamente costoso si los conmutadores son muy grandes.
2. La perdida de un punto de cruce impedirá establecer la conexión entre los terminales que utilicen ese punto para comunicarse.
3. La matriz está sobre dimensionada y por lo tanto sub-utilizada; aún cuando todos los dispositivos estén activos, solo una fracción de los puntos de cruce estarán en uso.

Para evitar esto se emplean conmutadores con múltiples etapas, cuyas ventajas son:

1. El número de puntos de cruce se reduce, aumentando la utilización de las líneas de cruce. Para el ejemplo en total de puntos de cruce se reduce de 100 a 48.
2. Existe más de un camino posible a través de la red para conectar dos terminales, aumentando así la seguridad.








Evidentemente, un conmutador multietapa requiere de un sistema de control más complejo. Para establecer un camino en un conmutador con una sola etapa, se necesita habilitar tan solo un punto de conexión. En una red multietapa, se debe determinar un camino libre a través de las etapas y habilitar los puntos de conexión correspondientes.

Con el desarrollo de la tecnología digital y las técnicas síncronas de multiplexación por división de tiempo, tanto la voz como los datos se pueden transmitir utilizando señales digitales. Esto dio lugar a un cambio drástico en el diseño y la tecnología de los sistemas de conmutación de circuitos. En lugar de utilizar sistemas relativamente torpes por división espacial, los sistemas digitales modernos utilizan conmutadores que combinan división por espacio y tiempo.




Digitalización de Líneas Telefónicas (xDSL):

Para poder incrementar los servicios prestados a través de la red del SBT fue necesario digitalizar las líneas telefónicas. Para esto se utilizó una tecnología llamada ADSL (Asymetric Digital Suscriber Line).

El ADSL (Línea de Abonado Digital Asimétrica) transforma la línea Analógica, por la que antes se transportaba solo voz, en una línea digital de alta velocidad. Esta digitalización es factible siempre que la distancia entre el usuario y la UC no supere los 5Km.




Con esta tecnología se consigue mayor velocidad de transferencia de datos que la que se obtenía con los modem en banda vocal. Esto se debe a que al digitalizar la línea, la información se trasmite utilizando dos bandas: una de frecuencias bajas que cubren el espectro de la voz humana (0,3 a 4Khz) y la banda para datos cubre frecuencias fuera del rango audible (26Khz a 1,104Mhz) (figura 8).

Para separa las bandas de voz de la de datos, el usuario debe poseer un filtro que además evita las interferencias entre ambas bandas.

El flujo de información que se puede obtener utilizando ADSL es asimétrico, la tasa o velocidad con que se puede subir información a la red, UpStream, es mayor que la de descarga o DownStream.

Con las mejoras que fueron apareciendo en los dispositivos electrónicos, surgieron nuevas versiones de ADSL: ADSL2, ADSL2+. Estas últimas, permiten incrementar la tasa de transferencia con respecto al ADSL, pero a costa de tener que reducir la longitud de la línea.








Otra versión de esta tecnología, perteneciente a la llamada familia xDLS, es la VDSL (Very High Bit-Rate Digital Suscriber Line). Para implementarla se utilizan modems de alta velocidad donde la conexión entre el nodo y el cliente, se hace a través de un conversor óptico/eléctrico que se enlaza con fibra óptica al nodo y con cobre, solo en los últimos 150m, al cliente.




Con esta tecnología se alcanzan velocidades de 50Mbps con trafico simétrico, al igual que en el SBT.

Con esta tecnología se consiguió hablar por teléfono y al mismo tiempo navegar por Internet, utilizando la infraestructura de cobre existente de la red del SBT, con un notable incremento en la velocidad de transmisión. Pero por otro lado, surgen inconveniente para extender este servicio a todos los usuarios ya que no todas las líneas telefónicas soportan este servicio, esto se debe a que las exigencias de calidad que requiere el par de cobre, ruido y atenuación por la distancia hasta la UC, son mucho más estrictas que para el SBT.




New Generation Network:

Con los beneficios obtenidos con la digitalización de las líneas del SBT, las empresas de telecomunicaciones comenzaron a buscar la forma de mejorar las prestaciones de sus servicios y entonces se decidió cambiar la red de SBT por una nueva red de paquetes; así nace NGN o Next Generation Network.

A partir de aquí ya no se utiliza la conmutación de circuitos para conectar dos clientes, ahora hablamos de “conmutación de paquetes”.


Como sabemos, la conmutación de circuitos se basa en establecer un camino físico entre dos clientes. Este camino permanecía dedicado a la comunicación establecida y hasta que esta se liberara. Esto resulta poco eficiente ya que en caso de silencios prolongados, el camino permanecía tomado y ocupaba recursos de la red.

Esto no ocurre en la conmutación por paquetes ya que esta se basa en el envío de voz/datos/video en un número arbitrario de paquetes del mismo tamaño donde se adjunta en la cabecera, la dirección origen y destino como así también datos de control, los cuales permiten que los paquetes puedan desplazarse a través de distintos nodos de la red que une a los clientes hasta llegar al destino recorriendo distintos caminos y no ocupando el canal si no hay información para transmitir.

Con este método de conmutación se logra mayor flexibilidad en la utilización del medio de transmisión, dado que no necesariamente se utiliza el mismo canal físico para transmitir todos los paquetes del mensaje (fig. 14).





Las redes orientadas a paquetes se basan en el protocolo TCP/IP y han permitido desarrollar un nuevo concepto para la explotación de Servicio Básico Telefónico. La implementación de las redes NGN se efectúa migrando los servicios actuales a nuevos equipos (fig. 15).










Los dispositivos que se intercambian son los siguientes:

1. La matriz de Conmutación pasa a ser una red IP.
2. El procesador central es reemplazado por el Softswitch.
3. La señalización de la PSTN la tomará el Signalling Gateway.
4. La interconexión entre nodos que efectuaba el grupo de enlace, ahora se hará mediante el Trunk Media Gateway.
5. La interfaz de abonados será, según el tipo de acceso, tomada por los IAD o los Access Media Gateway.
6. En cuanto a los demás bloques como la maquina de anuncios, la base de abonados y los puertos I/O , pasarán a formar el Media Resource Server, el Home Location Register y el Sistema de Gestión.


Comparando la vieja Red Conmutada y NGN encontramos las siguientes diferencias:


Conmutación Clásica NGN
Telealimentación Alimentación por el cliente
Servicio telefónico Contenidos Múltiples
Analógico / Digital Digital
Red de Voz Red de Voz, Datos y Video
Red de numeración fija Red de numeración personalizada
Usuarios geográficos Usuario Universal





GLOSARIO DE TERMINOS


ATENUACION: se llama atenuación de una señal, acústica, eléctrica u óptica, a la pérdida de potencia sufrida por la misma al transitar por cualquier medio de transmisión.
MODULACION: técnica empleada para transportar información sobre una onda portadora, típicamente una onda sinusoidal. Estas técnicas permiten un mejor aprovechamiento del canal de comunicación lo que posibilita transmitir más información en forma simultánea, protegiéndola de posibles interferencias y ruidos.
RUIDO: señal no deseada que se mezcla con la señal útil que queremos transmitir. Es el resultado de diversos tipos de perturbación que tiende a enmascarar la información cuando se presenta en la banda de frecuencias del espectro de la señal, es decir, dentro de su ancho de banda.
SEÑAL: variación de una corriente eléctrica u otra magnitud física que se utiliza para transmitir información. Por ejemplo, en telefonía existen diferentes señales, que consisten en un tono continuo o intermitente, en una frecuencia característica, que permite conocer al usuario en qué situación se encuentra la llamada.
ANALOGICO: Una señal analógica es un tipo de señal generada por algún tipo de fenómeno electromagnético y que es representable por una función matemática continua en la que es variable su amplitud y periodo (representando un dato de información) en función del tiempo. Algunas magnitudes físicas comúnmente portadoras de una señal de este tipo son eléctricas como la intensidad, la tensión y la potencia, pero también pueden ser hidráulicas como la presión, térmicas como la temperatura, mecánicas, etc. La magnitud también puede ser cualquier objeto medible como los beneficios o pérdidas de un negocio.
DIGITAL: Una señal digital es un tipo de señal generada por algún tipo de fenómeno electromagnético en que cada signo que codifica el contenido de la misma puede ser analizado en término de algunas magnitudes que representan valores discretos, en lugar de valores dentro de un cierto rango. Por ejemplo, el interruptor de la luz sólo puede tomar dos valores o estados: abierto o cerrado, o la misma lámpara: encendida o apagada (véase circuito de conmutación).
MULTIPLEXADO: En telecomunicación, la multiplexación es la combinación de dos o más canales de información en un solo medio de transmisión usando un dispositivo llamado multiplexor. El proceso inverso se conoce como demultiplexación.
Existen varias técnicas de multiplexación, según el protocolo de comunicación empleado, se pueden combinar para aumentar la eficiencia; los más utilizados son:
• la multiplexación por división de tiempo o TDM (Time division multiplexing );
• la multiplexación por división de frecuencia o FDM (Frequency-division multiplexing) y su equivalente para medios ópticos, por división de longitud de onda o WDM (de Wavelength);
• la multiplexación por división en código o CDM (Code division multiplexing);
Cuando existe un esquema o protocolo de multiplexación pensado para que múltiples usuarios compartan un medio común, como por ejemplo en telefonía móvil o WiFi, suele denominarse control de acceso al medio o método de acceso múltiple. Como métodos de acceso múltiple destacan:
• el acceso múltiple por división de frecuencia o FDMA;
• el acceso múltiple por división de tiempo o TDMA;
• el acceso múltiple por división de código o CDMA.



ITU: La Unión Internacional de Telecomunicaciones (ITU) es el organismo especializado de las Naciones Unidas encargado de regular las telecomunicaciones, a nivel internacional, entre las distintas administraciones y empresas operadoras.









BIBLIOGRAFIA CONSULTADA




• Comunicaciones y Redes de Computadores William Stallings
• Comunicaciones Digitales Ing. Ruben O. Kustra
• Telecomunicación Digital (Tomo II) SIEMENS AktiengesellSchaft
• Wikipedia, La Enciclopedia Libre http:// es.wikipedia.org/wiki/Wikipedia:Portada

Seguridad Informática - Gastón Alejo - Matías Ortiz

Seguridad Informática
Podemos entender como seguridad un estado de cualquier tipo de información (informático o no) que nos indica que ese sistema está libre de peligro, daño o riesgo. Se entiende como peligro o daño todo aquello que pueda afectar su funcionamiento directo o los resultados que se obtienen del mismo. Para la mayoría de los expertos el concepto de seguridad en la informática es utópico porque no existe un sistema 100% seguro. Para que un sistema se pueda definir como seguro debe tener estas cuatro características:
• Integridad: La información sólo puede ser modificada por quien está autorizado.
• Confidencialidad: La información sólo debe ser legible para los autorizados.
• Disponibilidad: Debe estar disponible cuando se necesita.
• Irrefutabilidad: (No-Rechazo o No Repudio) Que no se pueda negar la autoría.
Dependiendo de las fuentes de amenaza, la seguridad puede dividirse en seguridad lógica y seguridad física.
En estos momentos la seguridad informática es un tema de dominio obligado por cualquier usuario de la Internet, para no permitir que su información sea robada.
Términos relacionados con la seguridad informática
• Activo: recurso del sistema de información o relacionado con éste, necesario para que la organización funcione correctamente y alcance los objetivos propuestos.
• Amenaza: es un evento que pueden desencadenar un incidente en la organización, produciendo daños materiales o pérdidas inmateriales en sus activos.
• Impacto: medir la consecuencia al materializarse una amenaza.
• Riesgo: posibilidad de que se produzca un impacto determinado en un Activo, en un Dominio o en toda la Organización.
• Vulnerabilidad: posibilidad de ocurrencia de la materialización de una amenaza sobre un Activo.
• Ataque: evento, exitoso o no, que atenta sobre el buen funcionamiento del sistema.
• Desastre o Contingencia: interrupción de la capacidad de acceso a información y procesamiento de la misma a través de computadoras necesarias para la operación normal de un negocio.
Aunque a simple vista se puede entender que un Riesgo y una Vulnerabilidad se podrían englobar un mismo concepto, una definición más informal denota la diferencia entre riesgo y vulnerabilidad, de modo que se debe la Vulnerabilidad está ligada a una Amenaza y el Riesgo a un Impacto.


Objetivos
Los activos son los elementos que la seguridad informática tiene como objetivo proteger. Son tres elementos que conforman los activos:
Información
Es el objeto de mayor valor para una organización, el objetivo es el resguardo de la información, independientemente del lugar en donde se encuentre registrada, en algún medio electrónico o físico.
Equipos que la soportan.
Software, hardware y organización.
Usuarios
Individuos que utilizan la estructura tecnológica y de comunicaciones que manejan la información.
Análisis de riesgos
El activo más importante que se posee es la información y, por lo tanto, deben existir técnicas que la aseguren, más allá de la seguridad física que se establezca sobre los equipos en los cuales se almacena. Estas técnicas las brinda la seguridad lógica que consiste en la aplicación de barreras y procedimientos que resguardan el acceso a los datos y sólo permiten acceder a ellos a las personas autorizadas para hacerlo.
Existe un viejo dicho en la seguridad informática que dicta: "lo que no está permitido debe estar prohibido" y ésta debe ser la meta perseguida.
Los medios para conseguirlo son:
1. Restringir el acceso (de personas de la organización y de las que no lo son) a los programas y archivos.
2. Asegurar que los operadores puedan trabajar pero que no puedan modificar los programas ni los archivos que no correspondan (sin una supervisión minuciosa).
3. Asegurar que se utilicen los datos, archivos y programas correctos en/y/por el procedimiento elegido.
4. Asegurar que la información transmitida sea la misma que reciba el destinatario al cual se ha enviado y que no le llegue a otro.
5. Asegurar que existan sistemas y pasos de emergencia alternativos de transmisión entre diferentes puntos.
6. Organizar a cada uno de los empleados por jerarquía informática, con claves distintas y permisos bien establecidos, en todos y cada uno de los sistemas o aplicaciones empleadas.
7. Actualizar constantemente las contraseñas de accesos a los sistemas de cómputo.



Puesta en marcha de una política de seguridad
Actualmente las legislaciones nacionales de los Estados, obligan a las empresas, instituciones públicas a implantar una política de seguridad. Ej: En España la Ley Orgánica de Protección de Datos o también llamada LOPD y su normativa de desarrollo.
Generalmente se ocupa exclusivamente a asegurar los derechos de acceso a los datos y recursos con las herramientas de control y mecanismos de identificación. Estos mecanismos permiten saber que los operadores tiene sólo los permisos que se les dio.
La seguridad informática debe ser estudiada para que no impida el trabajo de los operadores en lo que les es necesario y que puedan utilizar el sistema informático con toda confianza. Por eso en lo referente a elaborar una política de seguridad, conviene:
• Elaborar reglas y procedimientos para cada servicio de la organización.
• Definir las acciones a emprender y elegir las personas a contactar en caso de detectar una posible intrusión
• Sensibilizar a los operadores con los problemas ligados con la seguridad de los sistemas informáticos.
Los derechos de acceso de los operadores deben ser definidos por los responsables jerárquicos y no por los administradores informáticos, los cuales tienen que conseguir que los recursos y derechos de acceso sean coherentes con la política de seguridad definida. Además, como el administrador suele ser el único en conocer perfectamente el sistema, tiene que derivar a la directiva cualquier problema e información relevante sobre la seguridad, y eventualmente aconsejar estrategias a poner en marcha, así como ser el punto de entrada de la comunicación a los trabajadores sobre problemas y recomendaciones en término de seguridad.
Las amenazas
Una vez que la programación y el funcionamiento de un dispositivo de almacenamiento (o transmisión) de la información se consideran seguras, todavía deben ser tenidos en cuenta las circunstancias "no informáticas" que pueden afectar a los datos, las cuales son a menudo imprevisibles o inevitables, de modo que la única protección posible es la redundancia (en el caso de los datos) y la descentralización -por ejemplo mediante estructura de redes- (en el caso de las comunicaciones).
Estos fenómenos pueden ser causados por:
• El usuario: causa del mayor problema ligado a la seguridad de un sistema informático (porque no le importa, no se da cuenta o a propósito).
• Programas maliciosos: programas destinados a perjudicar o a hacer un uso ilícito de los recursos del sistema. Es instalado (por inatención o maldad) en el ordenador abriendo una puerta a intrusos o bien modificando los datos. Estos programas pueden ser un virus informático, un gusano informático, un troyano, una bomba lógica o un programa espía o Spyware.
• Un intruso: persona que consigue acceder a los datos o programas de los cuales no tiene acceso permitido (cracker, defacer, script kiddie o Script boy, viruxer, etc.).
• Un siniestro (robo, incendio, por agua): una mala manipulación o una malintención derivan a la pérdida del material o de los archivos.
• El personal interno de Sistemas. Las pujas de poder que llevan a disociaciones entre los sectores y soluciones incompatibles para la seguridad informática.

Técnicas de aseguramiento del sistema
• Codificar la información: Criptología, Criptografía y Criptociencia, contraseñas difíciles de averiguar a partir de datos personales del individuo.
• Vigilancia de red.
• Tecnologías repelentes o protectoras: cortafuegos, sistema de detección de intrusos - antispyware, antivirus, llaves para protección de software, etc. Mantener los sistemas de información con las actualizaciones que más impacten en la seguridad.
Consideraciones de software
Tener instalado en la máquina únicamente el software necesario reduce riesgos. Así mismo tener controlado el software asegura la calidad de la procedencia del mismo (el software pirata o sin garantías aumenta los riesgos). En todo caso un inventario de software proporciona un método correcto de asegurar la reinstalación en caso de desastre. El software con métodos de instalación rápidos facilita también la reinstalación en caso de contingencia.
Existe software que es conocido por la cantidad de agujeros de seguridad que introduce. Se pueden buscar alternativas que proporcionen iguales funcionalidades pero permitiendo una seguridad extra.
Consideraciones de una red
Los puntos de entrada en la red son generalmente el correo, las páginas web y la entrada de ficheros desde discos, o de ordenadores ajenos, como portátiles.
Mantener al máximo el número de recursos de red sólo en modo lectura, impide que ordenadores infectados propaguen virus. En el mismo sentido se pueden reducir los permisos de los usuarios al mínimo.
Se pueden centralizar los datos de forma que detectores de virus en modo batch puedan trabajar durante el tiempo inactivo de las máquinas.
Controlar y monitorizar el acceso a Internet puede detectar, en fases de recuperación, cómo se ha introducido el virus.
Algunas afirmaciones erróneas comunes acerca de la seguridad
• Mi sistema no es importante para un cracker. Esta afirmación se basa en la idea de que no introducir contraseñas seguras en una empresa no entraña riesgos pues ¿quién va a querer obtener información mía?. Sin embargo, dado que los métodos de contagio se realizan por medio de programas automáticos, desde unas máquinas a otras, estos no distinguen buenos de malos, interesantes de no interesantes, etc. Por tanto abrir sistemas y dejarlos sin claves es facilitar la vida a los virus.
• Estoy protegido pues no abro archivos que no conozco. Esto es falso, pues existen múltiples formas de contagio, además los programas realizan acciones sin la supervisión del usuario poniendo en riesgo los sistemas.
• Como tengo antivirus estoy protegido. En general los programas antivirus no son capaces de detectar todas las posibles formas de contagio existentes, ni las nuevas que pudieran aparecer conforme los ordenadores aumenten las capacidades de comunicación, además los antivirus son vulnerables a desbordamientos de búfer que hacen que la seguridad del sistema operativo se vea más afectada aún.
• Como dispongo de un firewall no me contagio. Esto únicamente proporciona una limitada capacidad de respuesta. Las formas de infectarse en una red son múltiples. Unas provienen directamente de accesos al sistema (de lo que protege un firewall) y otras de conexiones que se realizan (de las que no me protege). Emplear usuarios con altos privilegios para realizar conexiones puede entrañar riesgos, además los firewalls de aplicación (los más usados) no brindan protección suficiente contra el spoofing.
• Tengo un servidor web cuyo sistema operativo es un unix actualizado a la fecha: Puede que este protegído contra ataques directamente hacia el núcleo, pero si alguna de las aplicaciones web (PHP, Perl, Cpanel, etc.) está desactualizada, un ataque sobre algún script de dicha aplicación puede permitir que el atacante abra una shell y por ende ejecutar comandos en el unix.
Organismos oficiales de seguridad informática
Existen organismos oficiales encargados de asegurar servicios de prevención de riesgos y asistencia a los tratamientos de incidencias, tales como el CERT/CC (Computer Emergency Response Team Coordination Center) del SEI (Software Engineering Institute) de la Carnegie Mellon University el cual es un centro de alerta y reacción frente a los ataques informáticos, destinados a las empresas o administradores, pero generalmente estas informaciones son accesibles a todo el mundo.

Configuración de Red - Verónica Palavecino - Antonio Palavecino - Alberto Macías -

TRABAJO PRACTICO

El Siguiente trabajo trata sobre la instalación de una estructura de red de datos en un edificio público, con sus funciones y características.

DETALLES:

Es un edificio que consta de cuatro pisos. El Server está instalado en el segundo piso. Desde allí administra la información y procesos de acuerdo a las características del usuario accesado. En cada piso se encuentran oficinas con distintos requerimientos relacionados, la conexión es a través de cables de par trenzado.
El servidor dedicado y sus tres sistemas de respaldo trabajan bajo MS-DOS en red Novell, bajo una topología jerárquica en tiempo real. El sistema operativo con que trabaja es Netware 4X para Novell, que funciona gráficamente de la siguiente manera:




En cuanto a la gestión de sistemas de archivos utiliza el método del ascensor, mejorando los tiempos de respuesta. También carga los archivos en una tabla de índices (turbo fat) para una mas rápida ubicación y posicionamiento, además comprime todos aquellos archivos que no son de uso frecuente, liberando espacio de disco en un buen porcentaje.
En cuanto a seguridad para poder ingresar a la Lan debe logearse, de esta forma si no tiene el login adecuado o no está registrado dentro de los usuarios no tiene acceso a los datos y funciones de la red. Una vez accesado, debe ingresar un valor clave de 8 dígitos alfanuméricos que da acceso a determinadas funciones y bases de datos relacionadas, permitiendo hacer solo aquellas tareas para las que fue creado su perfil de usuario de acuerdo a una tabla de jerarquías funcionales y operativas. Como esta Lan es cerrada, no hay posibilidad de que algún usuario se relaciones o conecte con otras Lan o Wan o que sea subred de otra. Evitando de esta forma fuga de información, accesos clandestinos o contaminación exterior.
La seguridad referida al server, trabaja con un disco espejo, duplicando archivos y la fat, (redundancia de información). A su vez, todo es transferido a un tercer disco de respaldo, de acceso remoto, pero dentro del mismo edificio. Esto permite mantener al servidor funcional aún cuando presente fallos (por falta de energía, rotura de disco, etc.) dado que el segundo y/o tercer respaldo, alimentados en forma auxiliar, entran en función, hasta que el disco principal pueda levantarse (por auto gestión o por gestión externa).-
La información desde el server, viaja a través de cables de fibra óptica






Por su mayor capacidad, velocidad y riesgo de interferencias. No es un cableado estructurado debido a que su arquitectura original es antigua y simplemente se actualizó, cubre las expectativas en un buen grado.
En cada piso hay un concentrador

12 Port/2 líneas y 12 Port/4 líneas Hub multipar

Este Hub con 12 entradas de par trenzado se utiliza para distribuir datos, voz, señales infrarrojas o cualquier otra señal que viaje por multipar trenzado. El hub tiene en la parte trasera un conector Amphenol que brinda una sencilla interfase con centrales telefónicas estándar. El conector está equipado con puentes que lo convierten para ser utilizado con teléfonos convencionales

Que distribuye la señal hasta las rosetas, utilizando cableado de par trenzado sin apantallar, en una estructura similar a la abajo expuesta

Desde las rosetas hasta la placa de red, se utiliza el mismo cableado, todos con conectores RJ45


Conectores RJ-45 . Par Trenzado


Posición de los pines













Tarjeta de Red ISA de 10Mbps

Tarjeta de Red PCI de 10Mbps



Conectores BNC (coaxial) y RJ45 de una tarjeta de Red


CONCEPTOS:

RED LAN:
Una red de área local es un sistema de comunicación que permite a un cierto número de dispositivos independientes, comunicarse dentro de un área geográficamente reducida, empleando canales físicos de comunicación de velocidad moderada o alta
GESTION DE SISTEMAS DE ARCHIVO:
Búsqueda por el método del ascensor: Intenta mejorar el tiempo de acceso al disco. El método del ascensor prioriza la lectura basándose en la mejor forma de acceder a ella a partir de la posición actual de la cabeza de lectura. (ejemplo ascensor del Corte Inglés: Aunque lo llame antes el del segundo que el del quinto, si esta en el sexto y va para abajo, recoge primero al del quinto).
Caché de disco: Va a disminuir el número de accesos al disco. La caché de disco consiste en que los archivos que se utilizan mas frecuentemente se retienen en un buffer de memoria que se llama caché. Para que esto sea eficiente, también tiene que haber un mecanismo que saque archivos que no se usen para que puedan entrar otros archivos que, en este momento, estamos usando mas.
Turbo FAT: La tabla de asignación de archivos es la FAT de un disco. La FAT sería como el índice de un libro, donde vemos la posición de todos los archivos. La turbo FAT forma un índice de la tabla de asignación de archivos y, entonces, al estar indexada ( organización de tabla de asignación de archivos) esta tabla, la forma de acceder a los archivos es mucho mas rápida.
Escritura en dos planos: Se basa en que Netware prioriza las lecturas respecto a las escrituras.
Compresión de archivos: Un archivo comprimido es la forma de almacenar archivos en un disco para que ocupe menos. Netware, aquellos archivos que previamente comunique el administrador o el usuario, o los archivos que no se usan durante un tiempo determinado, los comprime. Con esto, se aumenta un 63% la capacidad del disco.
Reserva parcial de bloque: Cuando instalamos Netware se establece un tamaño de disco por defecto. Este tamaño de disco por defecto son 8 Kb, de manera que cuando vamos a trabajar con el disco, tomamos y almacenamos en bloques de 8 Kb. El sistema operativo, si encuentra bloques que están parcialmente usados, los subdivide en bloques de 512 bits, que se utilizan para almacenar archivos pequeños o para fragmentos de otros archivos.
Sistema de archivos con recuperación: Netware permite recuperar los archivos que se han borrado. Con Netware se puede controlar cuanto tiempo puede meterse un archivo como recuperable, y además, tiene una opción donde se pueden mantener recuperables todos los archivos borrados hasta que nos encontremos sin espacio en el disco.
Características de protección de datos.
• Seguridad: Se basa principalmente en el acceso a la red. Tendremos:
• Seguridad a nivel de cuenta/clave de acceso: Si un usuario no tiene asignado un nombre de usuario para entrar en la red, o bien un usuario no introduce bien la clave de acceso, no se podrá conectar al sistema operativo de la red.
• Restricciones sobre las cuentas: El administrador restringe los accesos a las diferentes utilidades de los usuarios
• Seguridad de objetos y archivos: El administrador puede asignar a los usuarios unos privilegios o derechos efectivos, llamados trustees. Los trustees determinan el modo en que se accede a la red. El modo se refiere, por ejemplo, si puedo modificar cosas, entrar solo en lectura... Trustees es algo parecido a los atributos de archivos de MS-DOS.
• Seguridad entre redes: Netware 4.X permite conexión entre redes. Esto es debido a que los NDS ( árbol de directorios de Netware) son únicos. El NDS es una manera que tiene Netware de usar todos los archivos de la red de manera única.
• Fiabilidad: Se basa en la realidad de los datos que están dentro de la red. Tendremos:
• Verificación de lectura tras escritura: Cada vez que se realiza una escritura en disco, Netware, comprueba mediante una lectura, que los datos se han grabado correctamente. En caso de que se haya producido un error los datos vuelven a ser escritos desde el caché de disco.
• Duplicación de directorios: Permite duplicar el directorio raíz de un disco para ofrecer una copia de seguridad en caso de que el original resulte dañado. Ese daño puede ser tanto un daño físico como por la destrucción de un virus.
• Duplicación de la FAT: Se mantiene un duplicado de la FAT. En caso de que se pierda la FAT original, se pasa al duplicado. Esto lo hace Netware sin que nosotros nos demos cuenta.
• Hot fix: Detecta y corrige errores de disco durante la ejecución.
• Tolerancia a fallos del sistema (STF): Permite tener redundancia en cuanto a hardware del equipo, es decir, puedes instalar dos discos duros en el servidor duplicando uno en el otro. Así, en el servidor, tendrás dos discos duros con la misma información.
• Sistema de control de transacciones (TTS): Ante una caída del servidor, Netware deshace las transacciones incompletas cuando reanuda el servicio.
• Monitorización de la SAI: Los UPS son unos módulos que controlan el estado de una SAI que esta conectada al servidor. De manera, que si en un momento determinado, se detecta que el servidor esta trabajando con la alimentación de reserva, indica los usuarios que se esta trabajando con la SAI. En ese momento se empiezan a guardar los datos.
CABLEADO
10 BASET: Llamado también de par trenzado o UTP, es el que más se utiliza en instalaciones nuevas, usado en topología estrella, muy empleado hoy en día en redes de información. Permite una transmisión de 10 Mbps. Este cable consiste en un conjunto de ocho hilos de cobre, cada uno de los cuales puede realizarse mediante un trenzado de hilos finos, o mediante un único cilindro macizo de aproximadamente un milímetro de grosor. Cada conductor va rodeado por su propio aislante, y el conjunto de los ocho hilos se envuelven en un recubrimiento protector. En el interior los conductores se agrupan por pares, que van enrollados sobre sí mismos. De ahí procede el nombre de par trenzado. El número de vueltas que dan los dos conductores de un par sobre sí mismos, suele ser de una cada dos centímetros o menos. Estas vueltas son fundamentales para evitar la interferencia de otras señales sobre la que transporta el par en cuestión, que viene a ser la información a transmitir. Las ventajas de un sistema Ethernet de par trenzado, son que el cable suele ser menos caro que el de otros sistemas -como el Ethernet grueso- y que resulta relativamente sencillo instalar el cable. La tarjeta de red de las estaciones de trabajo, deberán poseer un conector hembra RJ-45.
CONECTORES
La RJ-45 es una interfaz física comúnmente usada para conectar redes de cableado estructurado, (categorías 4, 5, 5e y 6). RJ es un acrónimo inglés de Registered Jack que a su vez es parte del Código Federal de Regulaciones de Estados Unidos. Posee ocho "pines" o conexiones eléctricas, que normalmente se usan como extremos de cables de par trenzado.Es utilizada comúnmente con estándares como TIA/EIA -568-B, que define la disposición de los pines o wiring pinout.Una aplicación común es su uso en cables de red Ethernet, donde suelen usarse 8 pines (4 pares).
PLACA O TARJETA DE RED
Una tarjeta de red permite la comunicación entre diferentes aparatos conectados entre si y también permite compartir recursos entre dos o más equipos (discos duros, cd-room, impresoras, etc). A las tarjetas de red también se les llama adaptador de red o NIC (Network Interface Card, Tarjeta de Interfaz de Red en español). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando un interfaz o conector Rj-45
La mayoría de tarjetas traen un zócalo vacío rotulado BOOT ROM, para incluir una ROM opcional que permite que el equipo arranque desde un servidor de la red con una imagen de un medio de arranque (generalmente un disquete), lo que pemite usar equipos sin disco duro ni unidad de disquete. El que algunas placas madre ya incorporen esa ROM en su BIOS y la posibilidad de usar tarjetas CompactFlash en lugar del disco duro con sólo un adaptador, hace que comience a ser menos frecuente, principalmente en tarjetas de perfil bajo.

INTEGRANTES DEL GRUPO

PALAVECINO VERÓNICA
PALAVECINO ANTONIO A.
MACIAS ALBERTO