martes, 31 de agosto de 2010
miércoles, 25 de agosto de 2010
OFIMATICA
Se llama ofimática al equipamiento hardware y software usado para crear, coleccionar, almacenar, manipular y transmitir digitalmente la información necesaria en una oficina para realizar tareas y lograr objetivos básicos. Las actividades básicas de un sistema ofimático comprenden el almacenamiento de datos en bruto, la transferencia electrónica de los mismos y la gestión de información electrónica relativa al negocio. La ofimática ayuda a optimizar o automatizar los procedimientos existentes.
La ofimática con red de área local (LAN) permite a los usuarios transmitir datos, correo electrónico e incluso voz por la red. Todas las funciones propias del trabajo en oficina, incluyendo dictados, mecanografía, archivado, copias, fax, télex, microfilmado y gestión de archivos, operación de los teléfonos y la centralita, caen en esta categoría. La ofimática fue un concepto muy popular en los años 1970 y 1980, cuando los ordenadores de sobremesa se popularizaron.
La ofimática con red de área local (LAN) permite a los usuarios transmitir datos, correo electrónico e incluso voz por la red. Todas las funciones propias del trabajo en oficina, incluyendo dictados, mecanografía, archivado, copias, fax, télex, microfilmado y gestión de archivos, operación de los teléfonos y la centralita, caen en esta categoría. La ofimática fue un concepto muy popular en los años 1970 y 1980, cuando los ordenadores de sobremesa se popularizaron.
No es necesaria la red para trabajar con un paquete ofimático.
EL POLO A TIERRA
Las computadoras actuales se protegen muy bien gracias a los excelentes componentes de su fuente y los reguladores de voltaje
modernos. Pero el circuito con polo a tierra se vuelve imprescindible cuando la instalación es de tipo comercial (como la de una
empresa o institución de enseñanza). En tales casos en donde los altibajos del fluido eléctrico son constantes se requiere
además crear una INSTALACION ELECTRICA INDEPENDIENTE, con su apropiada conexión a tierra.
También es importante orientar correctamente la posición de fase y neutro en el tomacorriente, para que todos los componentes
de protección y el PC reciban polaridad y referencia de tierra adecuadas. En el toma eléctrico en donde se van a enchufar los
aparatos de protección para el PC, los cables deben conectarse de tal manera que la ranura pequeña debe recibir la fase y la
ranura grande, el neutro. El agujero redondo es para conectar el cable de conexión a tierra.
Un error común es crear una instalación a tierra consistente en enterrar una varilla Copperweld para hacer un puente entre esta
y el borne de tierra del toma eléctrico para el PC. .........
Aunque parece práctico es un riesgo, pues por el mismo camino (inverso a la lógica que pensamos: que la corriente solo debe
salir del PC hacia la varilla) puede ENTRAR una corriente (como la de un rayo o un cable vivo aterrizado accidentalmente en el
área de la varilla) y luego de entrar por la tierra del PC, emitir una descarga viva de corriente intolerable para los circuitos del PC
(se encuentran a través de los chips y componentes, y por el camino inadecuado, una línea viva -- la invasora -- y el neutro o
línea común -- permitiendo la circulación de voltajes superiores a 3 voltios cuando la diferencia de potencial recomendada por los
fabricantes de PC entre neutro y tierra debe estar por debajo de los 3 voltios).
Técnicamente La conexión del borne de tierra del toma eléctrico debe CONECTARSE al borne de tierra de la empresa
suministradora de energía (en el tablero de distribución de la edificación).
Si no hay un borne de tierra disponible (y cuando se ha establecido que el polo es vital como en el caso de redes y grupos de PC
con instalación eléctrica independiente ), es recomendable utilizar un circuito eléctrico que cree el polo, tal como el que utilizan
por ejemplo los aviones. Eso se consigue con aparatos especiales de protección para PC conocidos como ACONDICIONADORES
DE VOLTAJE.
modernos. Pero el circuito con polo a tierra se vuelve imprescindible cuando la instalación es de tipo comercial (como la de una
empresa o institución de enseñanza). En tales casos en donde los altibajos del fluido eléctrico son constantes se requiere
además crear una INSTALACION ELECTRICA INDEPENDIENTE, con su apropiada conexión a tierra.
También es importante orientar correctamente la posición de fase y neutro en el tomacorriente, para que todos los componentes
de protección y el PC reciban polaridad y referencia de tierra adecuadas. En el toma eléctrico en donde se van a enchufar los
aparatos de protección para el PC, los cables deben conectarse de tal manera que la ranura pequeña debe recibir la fase y la
ranura grande, el neutro. El agujero redondo es para conectar el cable de conexión a tierra.
Un error común es crear una instalación a tierra consistente en enterrar una varilla Copperweld para hacer un puente entre esta
y el borne de tierra del toma eléctrico para el PC. .........
Aunque parece práctico es un riesgo, pues por el mismo camino (inverso a la lógica que pensamos: que la corriente solo debe
salir del PC hacia la varilla) puede ENTRAR una corriente (como la de un rayo o un cable vivo aterrizado accidentalmente en el
área de la varilla) y luego de entrar por la tierra del PC, emitir una descarga viva de corriente intolerable para los circuitos del PC
(se encuentran a través de los chips y componentes, y por el camino inadecuado, una línea viva -- la invasora -- y el neutro o
línea común -- permitiendo la circulación de voltajes superiores a 3 voltios cuando la diferencia de potencial recomendada por los
fabricantes de PC entre neutro y tierra debe estar por debajo de los 3 voltios).
Técnicamente La conexión del borne de tierra del toma eléctrico debe CONECTARSE al borne de tierra de la empresa
suministradora de energía (en el tablero de distribución de la edificación).
Si no hay un borne de tierra disponible (y cuando se ha establecido que el polo es vital como en el caso de redes y grupos de PC
con instalación eléctrica independiente ), es recomendable utilizar un circuito eléctrico que cree el polo, tal como el que utilizan
por ejemplo los aviones. Eso se consigue con aparatos especiales de protección para PC conocidos como ACONDICIONADORES
DE VOLTAJE.
COMO ELIMINAR LOS PROGRAMAS INÚTILES DEL PC
Cuantas veces hemos cometido el error de seguir el
consejo de un conocido o familiar respecto de INTRODUCIR en el PC un programa maravilla?. Es un error generalizado y todos lo hemos cometido alguna vez. Veamos como librarnos de las secuelas que producen los programas fantasma.
Como reconocer los programas inútiles.
No es fácil detectarlos, porque hay bastante irresponsabilidad de parte de los fabricantes y vendedores de estos programas.
Lamentablemente también se promocionan a través de sitios QUE NO SE HAN TOMADO LA MOLESTIA DE PROBARLOS y los
presentan como 'soluciones'. Lo sensato sería detallarle al inter nauta cuales son las ventajas y limitaciones del software en
cuestión para que nadie pierda su tiempo (el que más pierde es el usuario porque su PC deja de funcionar normalmente y el
programa no hace lo que se publica sobre él ).
Cuando un exhibidor de programas NO EXPLICA detalles, EXIGE que hay que INSTALAR OTRO PROGRAMA especial para descargar el 'regalo' (lo que probablemente sea un programa ESPIA), o dice que hay que REGISTRARSE obligatoriamente ( lo
mas probable para enviarnos spam ), hay que desconfiar de que se trate de un sitio serio (y por tanto de que sus 'regalos'
sean realmente útiles).
La cadena de errores.
Puesto que Internet es un lugar en donde mucha gente publica conocimiento (bueno, malo, abandonado, equivocado, y
correcto), nos encontramos ante un mar de información. En ese mar los anuncios de 'llevatelo gratis', 'adorna tu escritorio',
'acelera tus descargas de Internet', 'optimiza tu navegación, 'protege tu PC' y otros similares, llaman la atención de los inter
nautas poco informados de las trampas de mercadeo que existen en la Red.
El PRIMER ERROR consiste en bajar programas cuando el PC esta DESPROTEGIDO contra virus y anti spyware. Veamos como
ocurre.
Imagínate que necesitas enviar una comunicación via email a varias direcciones de correo de gente que te conoce. Necesitas
que cada contacto no vea las direcciones de correo de los demás del grupo. No te sirve para ello un servidor de listas de
correo pues quieres hacer un envío eventual para comunicar algo a una lista de gente que no tiene que suscribirse por recibir
tu nota y tampoco quieres hacer spam masivo.
La solución? bajar de Internet un programa demo o SHAREWARE (programa con utilidad limitada que se obsequia con fines
de evaluación). Te das a la tarea de buscar y encuentras varios que te muestran características muy singulares. Entonces
escoges dos y los descargas a tu PC (desde luego, obedeciendo TODAS las instrucciones de los exhibidores de los
programas).
Instalas el primero. Lo ejecutas y comienzas a luchar desesperadamente CONTRA la configuración del mismo. Al fin parece
que lo dominas y te entusiasmas. Inicias la escritura de tu lista. Como tienes varios buzones en la red, inscribes dos o tres
en el programa recién bajado, para HACER UNA PRUEBA PREVIA.
Cuando haces el envío: aparece un mensaje anunciando que solo puedes enviar una lista de cinco emails, porque se trata de
una versión TRIAL (versión de prueba limitada), dato que se ocultó cuando te presentaron el 'regalo'. ESTE ES EL SEGUNDO
ERROR: bajar un programa del que se desconoce si va a servir para resolver realmente nuestra necesidad. Pero es una
practica que no deja otro camino que soportarla pues los exhibidores pocas veces hablan de estas limitaciones.
La desinstalación del programa trial, demo, o shareware.
Ante la inutilidad del programa decides entonces descartarlo y eliminarlo de la máquina. Pero encuentras que no tiene
RUTINA DE DESINSTALACION. Entonces ingresas al Panel de control de Windows y abres el menú 'Agregar o quitar
programas' para eliminarlo. Cuando solicitas a Windows eliminarlo, este responde con un mensaje diciendo: 'Este programa
está activo, no se puede desinstalar'. Para colmo, el PC se ha vuelto lento e inestable (se empieza a bloquear).
Parece una novela y no es para menos, pues llegamos a sentirnos atrapados en un callejón sin salida y con un PC
desmejorado. Afortunadamente, en el medio informático hay muchas herramientas, recursos y especialistas dispuestos a
darnos una mano amistosa cuando lo necesitamos, veamos: para ELIMINAR EL PROGRAMA INUTIL, UTILIZANDO MEDIOS
AVANZADOS, tenemos los siguientes recursos:
1. Busca la rutina de desinstalación del programa. Puede estar dentro del grupo de opciones que se crean luego de su
instalación, en el grupo "Programas". Si existe, ejecútala.
2. Intenta desinstalar el programa desde Windows: por Inicio, Panel de control, Agregar o quitar programas.
3. Rastrea con la opcion "Buscar" de Windows, las alusiones al nombre del programa que quieres eliminar y borra todos los
archivos en donde se mencione su nombre (un poco difícil a veces porque los fabricantes cambian el nombre al hacerse la
instalación). Si ninguna de las acciones anteriores logra eliminar el programa, hay que tomar medidas de fondo, ubicándolo
en el REGISTRO para borrarlo.
Hay programas en Internet que ofrecen LIMPIAR el registro de Windows de programas que no deseamos pero estos también
pueden tener su Spyware (programa espia) por lo que es necesario contar con un programa ANTI SPYWARE en el PC. La
operación de limpieza manual del registro de Windows es un recurso importante que debe dominarse hoy en dia porque a
veces los programas limpiadores no eliminan los programas inutiles. Veamos como se hace una limpieza manual:
4. Editar el Registro de Windows. Esta operación es delicada y se recomienda HACER UNA COPIA DEL REGISTRO antes de
editarlo (se obtiene ejecutando la opcion EXPORTAR del menu ARCHIVO cuando el editor esta abierto). Para activar el editor
del Registro ejecuta: Inicio, Ejecutar, luego escribe: regedit y pulsa ENTER. Se abre una nueva ventana, la del editor del
registro.
Cuando el editor se activa, muestra en un estilo de árbol, los ramales que contienen los códigos de control del sistema.
Busca el ramal con el nombre HKEY_LOCAL_MACHINE y haz click sobre él. Luego sigue su ramificación en el siguiente
orden: SOFTWARE, Microsoft, Windows, CurrentVersion, Uninstall.
Llegado allí, UBICA el nombre del programa y ejecuta la opción del editor: EDICION, ELIMINAR.
COMO SALVAR EL DISCO DURO, CUANDO EL BOOT ESTÁ DAÑADO
Cuando aparece un mensaje en el PC del tipo:
"Pista 0 no valida, disco C inutilizable" o "Disk
C failure", "Inserte un Disquete de arranque",
(y no se puede particionar el disco), es señal de
que un daño grave ha ocurrido en el BOOT.
Aqui un caso:
La dificultad en arrancar un disco duro o en prepararlo ( PARTICIONARLO y FORMATEARLO) puede tener su origen en el desgaste de la sustancia magnética que recubre la superficie de los platos. Esta se daña por sucesivos apagados abruptos del
PC. Otra falla del arranque la puede originar un VIRUS que se alojó en el BOOT (sector maestro de arranque). Cuando esto ocurre, usualmente la información que estaba en el disco duro se pierde. La operación que se cita a continuación busca
solucionar ambos casos: el del deterioro físico y la existencia de un virus.
Como es sabido, Windows utiliza la pista cero, sector uno, de la cara cero de los discos duros para grabar el arranque de su sistema operativo. Ver teoria del disco duro en: DISCO DURO Quienes se dedican al soporte técnico saben que cuando se
deteriora esta sección del disco, este se tiene que dar por perdido, pues a diferencia de otros sistemas operativos, Windows necesita arrancar siempre desde esta zona.
Teóricamente podríamos particionar el disco para que inicie el boot en otro sector que estuviera en buen estado, a la vez que se hiciera creer a Windows que ese nuevo sector es el cero. Pero no es posible hacerlo con el propio Windows. Por ello, se
han creado otras alternativas de software que realizan esta excelente maniobra. Una de ellas la constituye el programa PARTITION MANAGER del cual hablamos anteriormente para limpiar el BOOT de virus. Este además de borrar
definitivamente una partición y crear una nueva, puede crearla en un sector diferente del cero.
El programa gratuito Ranish Partition Manager se puede bajar de Internet: http://ranish.com Es un programa pequeño, que cabe en un disquete.
Los pasos para salvar el disco son:
1. Arrancamos el PC con un DISQUETE MAESTRO o con un CD de Windows.
2.Insertamos el disquete de Partition manager" en el drive A.
3. Como la unidad A es la identificación que asigna Windows cuando el PC se inicia con un CD, es necesario pasar la lectura a
B: para que el disquete pueda leerse. Antes de pasar la lectura, hay que reemplazar el disquete de arranque por el de
PARTITION MANAGER.
4. Arrancamos el programa escribiendo: part y pulsamos ENTER.
5. Se visualiza la partición vieja del disco duro. Hay que borrarla colocando el cursor sobre el nombre de la misma y pulsando
la tecla "Supr", "Delete" o "Del".
6. Se ubica el cursor en la 3a. línea horizontal contada desde arriba y se pulsa Enter.
7. Se selecciona una unidad de 32 bits (solo para discos mayores de 512 megabytes).
8. Se lleva el cursor a la derecha a la columna Sector y se establece un numero distinto del cero. Puede ser 20 o 25 u otro.
9. Ubica la opción SAVE y graba esta partición. No aceptes el formato que se propone inmediatamente.
10. Sales pulsando la tecla ESC e ignora la advertencia del programa de que no tienes una partición activa.
11. Despues de salir, apaga el PC.
12. Arranca de nuevo e inserta el diskette maestro de Windows y formatea como cuando tienes un disco nuevo. Si se trata
de Windows ME o 2000, inserta el CD antes de arrancar y deja que Windows haga la INSTALACION AUTOMATICA. El sector
que elegiste con Partition Manager es tomado como el sector 0 y el disco volverá a funcionar.
"Pista 0 no valida, disco C inutilizable" o "Disk
C failure", "Inserte un Disquete de arranque",
(y no se puede particionar el disco), es señal de
que un daño grave ha ocurrido en el BOOT.
Aqui un caso:
La dificultad en arrancar un disco duro o en prepararlo ( PARTICIONARLO y FORMATEARLO) puede tener su origen en el desgaste de la sustancia magnética que recubre la superficie de los platos. Esta se daña por sucesivos apagados abruptos del
PC. Otra falla del arranque la puede originar un VIRUS que se alojó en el BOOT (sector maestro de arranque). Cuando esto ocurre, usualmente la información que estaba en el disco duro se pierde. La operación que se cita a continuación busca
solucionar ambos casos: el del deterioro físico y la existencia de un virus.
Como es sabido, Windows utiliza la pista cero, sector uno, de la cara cero de los discos duros para grabar el arranque de su sistema operativo. Ver teoria del disco duro en: DISCO DURO Quienes se dedican al soporte técnico saben que cuando se
deteriora esta sección del disco, este se tiene que dar por perdido, pues a diferencia de otros sistemas operativos, Windows necesita arrancar siempre desde esta zona.
Teóricamente podríamos particionar el disco para que inicie el boot en otro sector que estuviera en buen estado, a la vez que se hiciera creer a Windows que ese nuevo sector es el cero. Pero no es posible hacerlo con el propio Windows. Por ello, se
han creado otras alternativas de software que realizan esta excelente maniobra. Una de ellas la constituye el programa PARTITION MANAGER del cual hablamos anteriormente para limpiar el BOOT de virus. Este además de borrar
definitivamente una partición y crear una nueva, puede crearla en un sector diferente del cero.
El programa gratuito Ranish Partition Manager se puede bajar de Internet: http://ranish.com Es un programa pequeño, que cabe en un disquete.
Los pasos para salvar el disco son:
1. Arrancamos el PC con un DISQUETE MAESTRO o con un CD de Windows.
2.Insertamos el disquete de Partition manager" en el drive A.
3. Como la unidad A es la identificación que asigna Windows cuando el PC se inicia con un CD, es necesario pasar la lectura a
B: para que el disquete pueda leerse. Antes de pasar la lectura, hay que reemplazar el disquete de arranque por el de
PARTITION MANAGER.
4. Arrancamos el programa escribiendo: part y pulsamos ENTER.
5. Se visualiza la partición vieja del disco duro. Hay que borrarla colocando el cursor sobre el nombre de la misma y pulsando
la tecla "Supr", "Delete" o "Del".
6. Se ubica el cursor en la 3a. línea horizontal contada desde arriba y se pulsa Enter.
7. Se selecciona una unidad de 32 bits (solo para discos mayores de 512 megabytes).
8. Se lleva el cursor a la derecha a la columna Sector y se establece un numero distinto del cero. Puede ser 20 o 25 u otro.
9. Ubica la opción SAVE y graba esta partición. No aceptes el formato que se propone inmediatamente.
10. Sales pulsando la tecla ESC e ignora la advertencia del programa de que no tienes una partición activa.
11. Despues de salir, apaga el PC.
12. Arranca de nuevo e inserta el diskette maestro de Windows y formatea como cuando tienes un disco nuevo. Si se trata
de Windows ME o 2000, inserta el CD antes de arrancar y deja que Windows haga la INSTALACION AUTOMATICA. El sector
que elegiste con Partition Manager es tomado como el sector 0 y el disco volverá a funcionar.
FUENTE DE PODER
En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).
Clasificación
Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, pero sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de las misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
[editar] Fuentes de alimentación lineales
Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en continua se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión. La salida puede ser simplemente un condensador.
Fuentes de alimentación conmutadas
Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 Kilociclos típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante es aplicada a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (Inductores y capacitores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son mas complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes.
Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.
La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.
Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
Especificaciones
Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto.
El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente.
Aparte de disminuir lo más posible el rizado, la fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de carga.
Fuentes de alimentación especiales
Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga.
Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión...
Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga.
Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión...
RESEÑA DE LOS MICROPROCESADORES
El pionero de los actuales microprocesadores el 4004 de Intel.
Imagen de un Intel 80286, mejor conocido como 286.
Imagen de un Intel 80486, conocido también como 486SX de 33Mhz.
La parte de posterior de un Pentium Pro. Este chip en particular es uno de 200MHz, con 256KB de cache L2.
Un procesador Pentium II, se puede observar su estilo de zocket diferente.
Imagen de un procesador Celeron "Coppermine 128" 600 MHz.
Imagen de un procesador Pentium III de Intel.1971: MICROPROCESADOR 4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.
1982: MICROPROCESADOR 286
El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.
1985: EL MICROPROCESADOR INTEL 386
El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.
1989: EL DX CPU MICROPROCESADOR INTEL 486
La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático integrado, el cual acelera las tareas del micro, porque ofrece la ventaja de que las operaciones matemáticas complejas son realizadas (por el coprocesador) de manera independiente al funcionamiento del procesador central (CPU).
1991: AMD AMx86
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586
1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.
1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fué retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.
1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar video a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano.
1996: AMD K6 Y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.
Más adelante lanzó una mejora de los K6, los K6-2 a 250 nanómetros, para seguir compitiendo con lso Pentium II, siéndo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introducen un juego de instrucciones SIMD denominado 3DNow!
1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.
1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.
1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.
1999: PROCESADOR PENTIUM III
El procesador Pentium III ofrece 70 nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (llenas de gráficas) como las de los museos online, tiendas virtuales y transmitir archivos video de alta calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en él la tecnología 250 nanómetros.
1999: EL PROCESADOR PENTIUM III XEON
El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidor y añade una actuación mejorada en las aplicaciones del comercio electrónico y la informática comercial avanzada. Los procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando la actuación significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.
2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.
2001: ATHLON XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird podemos mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.
2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.
2006: INTEL CORE Y CORE 2 DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
2008: INTEL CORE iSERIES
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.
Imagen de un Intel 80286, mejor conocido como 286.
Imagen de un Intel 80486, conocido también como 486SX de 33Mhz.
La parte de posterior de un Pentium Pro. Este chip en particular es uno de 200MHz, con 256KB de cache L2.
Un procesador Pentium II, se puede observar su estilo de zocket diferente.
Imagen de un procesador Celeron "Coppermine 128" 600 MHz.
Imagen de un procesador Pentium III de Intel.1971: MICROPROCESADOR 4004
El 4004 fue el primer microprocesador de Intel. Este descubrimiento impulsó la calculadora de Busicom y pavimentó la manera para integrar inteligencia en objetos inanimados así como la computadora personal.
1972: MICROPROCESADOR 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint 2200. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
1974: MICROPROCESADOR 8080
Los 8080 se convirtieron en los cerebros de la primera computadora personal la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial "Starship" del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que corrían el sistema operativo CP/M. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de $395. En un periodo de pocos meses, vendió decenas de miles de estas computadoras personales.
1978: MICROPROCESADOR 8086-8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que los cerebros de IBM dieran un gran golpe comercial con el nuevo producto para el 8088, el IBM PC. El éxito del 8088 propulsó a Intel en la lista de las 500 mejores compañías de la prestigiosa revista Fortune, y la revista nombró la compañía como uno de Los triunfos comerciales de los sesenta.
1982: MICROPROCESADOR 286
El 286, también conocido como el 80286, era el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de Intel de microprocesadores. Luego de 6 años de su introducción, había un estimado de 15 millones de 286 basados en computadoras personales instalados alrededor del mundo.
1985: EL MICROPROCESADOR INTEL 386
El procesador Intel 386 ofreció 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, poseía capacidad multitarea, que significa que podría ejecutar múltiples programas al mismo tiempo y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que emplearan memoria virtual.
1989: EL DX CPU MICROPROCESADOR INTEL 486
La generación 486 realmente significó que el usuario contaba con una computadora con muchas opciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante y un caché unificado integrados en el propio circuito integrado del microprocesador y una unidad de interfaz de bus mejorada. Estas mejoras hacen que los i486 sean el doble de rápidos que un i386 e i387 a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático integrado, el cual acelera las tareas del micro, porque ofrece la ventaja de que las operaciones matemáticas complejas son realizadas (por el coprocesador) de manera independiente al funcionamiento del procesador central (CPU).
1991: AMD AMx86
Procesadores lanzados por AMD 100% compatible con los códigos de Intel de ese momento, ya que eran clones, pero llegaron a superar incluso la frecuencia de reloj de los procesadores de Intel a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586
1993: PROCESADOR DE PENTIUM
El procesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, poseía un bus de datos de 64 bits, permitiendo un acceso a memoria 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no únicamente brindaban al usuario un mejor manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que se ofrecían en velocidades de hasta 233 MHz, incluyendo una versión de 200 MHz y la más básica proporcionaba unos 166 MHz de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
1995: PROCESADOR PENTIUM PROFESIONAL
Lanzado al mercado para el otoño de 1995 el procesador Pentium Pro se diseña con una arquitectura de 32 bits, su uso en servidores, los programas y aplicaciones para estaciones de trabajo (redes) impulsan rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo iba más despacio que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. Cada procesador Pentium Pro estaba compuesto por unos 5,5 millones de transistores.
1996: AMD K5
Habiendo abandonado los clones se fabricada AMD de tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora que transforma todos los comandos x86 de la aplicación en comandos RISC. Este principio se usa hasta hoy en todos los CPUs x86. En todos los aspectos era superior el K5 al Pentium, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando sin éxito y fué retrasado 1 año de su salida, a razón de éste retraso, sus frecuencias de trabajo eran inferiores a la competencia y por tanto, los fabricantes de PC dieron por hecho que era peor.
1997: PROCESADOR PENTIUM II
El procesador de 7,5 millones de transistores Pentium II, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, pueden revisar y pueden compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica, el enviar video a través de las líneas normales del teléfono mediante el Internet se convierte en algo cotidiano.
1996: AMD K6 Y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a Intel en el terreno de los Pentium MMX, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador que casi se pone a la altura del mismísimo Pentium II por un precio muy inferior a sus análogos. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los mas de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándar.
Más adelante lanzó una mejora de los K6, los K6-2 a 250 nanómetros, para seguir compitiendo con lso Pentium II, siéndo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introducen un juego de instrucciones SIMD denominado 3DNow!
1998: EL PROCESADOR PENTIUM II XEON
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo (workstations) y servidores que utilizan aplicaciones comerciales exigentes como servicios de Internet, almacenaje de datos corporativo, creaciones digitales y otros. Pueden configurarse sistemas basados en el procesador para integrar de cuatro o ocho procesadores y más allá de este número.
1999: EL PROCESADOR CELERON
Continuando la estrategia de Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Intel Celeron es el nombre que lleva la línea de procesadores de bajo coste de Intel. El objetivo era poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.
1999: AMD ATHLON K7 (CLASSIC Y THUNDERBIRD)
Procesador compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, al que se le mejoró substancialmente el sistema de coma flotante (ahora son 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le aumentó la memoria caché de primer nivel (L1) a 128 KB (64 KB para datos y 64 KB para instrucciones). Además incluye 512 KB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma velocidad de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.
1999: PROCESADOR PENTIUM III
El procesador Pentium III ofrece 70 nuevas instrucciones (Internet Streaming, las extensiones de SIMD las cuales refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (llenas de gráficas) como las de los museos online, tiendas virtuales y transmitir archivos video de alta calidad. El procesador incorpora 9,5 millones de transistores, y se introdujo usando en él la tecnología 250 nanómetros.
1999: EL PROCESADOR PENTIUM III XEON
El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidor y añade una actuación mejorada en las aplicaciones del comercio electrónico y la informática comercial avanzada. Los procesadores incorporan tecnología que refuerzan los multimedios y las aplicaciones de video. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando la actuación significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.
2000: PENTIUM 4
El Pentium 4 es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro. Se estreno la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.
2001: ATHLON XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, por eso sacó el Athlon XP. Compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird podemos mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
2004: PENTIUM 4 (PRESCOTT)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MB o 2 MB de caché L2 y 16 KB de caché L1 (el doble que los Northwood), Prevención de Ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.
2004: ATHLON 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,. Cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, la velocidad del mismo y su tensión se reducen.
2006: INTEL CORE Y CORE 2 DUO
Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (Módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPUs Pentium 4/D2 La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPUs Core 2, mientras se incrementa la capacidad de procesamiento. Los CPUs de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
2007: AMD PHENOM
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPUs Phenom poseen características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depender tanto de la propia latencia de la RAM), además de compatibilidad de infraestructura de los socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
2008: INTEL CORE iSERIES
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (socket 1366), y sustituido a su vez en i7, i5 e i3 (socket 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando nucleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
2008: AMD PHENOM II Y ATHLON II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MB del Phenom original a 6 MB.
MICROPROCESADOR
Uno de los actuales microprocesadores de 64 bits y doble núcleo, un AMD Athlon 64 X2 3600.Desde el punto de vista funcional, un microprocesador es un circuito integrado que incorpora en su interior una unidad central de proceso (CPU) y todo un conjunto de elementos lógicos que permiten enlazar otros dispositivos como memorias y puertos de entrada y salida (I/O), formando un sistema completo para cumplir con una aplicación específica dentro del mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenándolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores que cambió totalmente la forma de trabajar, ha sido la computadora personal o microcomputadora.
El microprocesador o simplemente procesador, es el circuito integrado más importante, de tal modo, que se le considera el cerebro de una computadora. Está constituido por millones de transistores integrados. Puede definirse como chip, un tipo de componente electrónico en cuyo interior existen miles o en ocasiones millones, según su complejidad, de elementos llamados transistores cuyas interacciones permiten realizar las labores o funciones que tenga encomendado el chip.
Así mismo, es la parte de la computadora diseñada para llevar a cabo o ejecutar los programas. Éste ejecuta instrucciones que se le dan a la computadora a muy bajo nivel realizando operaciones lógicas simples, como sumar, restar, multiplicar o dividir. Se ubica generalmente en un zócalo específico en la placa o tarjeta madre y dispone para su correcto y estable funcionamiento de un sistema de refrigeración (generalmente de un ventilador montado sobre un disipador de metal termicamente muy conductor).
Lógicamente funciona como la unidad central de procesos (CPU/Central Procesing Unit), que está constituida por registros, la unidad de control y la unidad aritmético-lógica principalmente. En el microprocesador se procesan todas las acciones de la computadora.
Su "velocidad" se determina por la cantidad de operaciones por segundo que puede realizar: también denominada frecuencia de reloj. La frecuencia de reloj se mide Hertzios, pero dado su elevado número se utilizan los múltiplos megahertzio o gigahertzio
Una computadora personal o más avanzada puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias terminales (redes). Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.
La tendencia de los últimos años ha sido la de integrar múltiples núcleos dentro de un mismo encapsulado, además de componentes como memorias caché, controladoras de memoria e incluso unidades de procesamiento gráfico; elementos que anteriormente estaban montados sobre la placa base como dispositivos individuales.
COMPONENTES DE LA PLACA BASE
Esta es una ordenador que requiere de programas (software) y partes de computadora (hardware) para su funcionamiento, algunas partes que están a la vista de cualquiera (monitor, mouse, teclado, etc.) y algunas no tan visibles que están ensambladas en la tarjeta madre.
La tarjeta madre (en inglés motherboard) es una tarjeta de circuito impreso que da soporte de las demás partes de la computadora. Con una serie de circuitos integrados, la tarjeta madre sirve para llevar una conexión entre esos dispositivos internos (procesador, memorias, etc.) que hacen posible el correcto funcionamiento del ordenador. Todas las tarjetas madres tienen un software denominado BIOS que es el que se asegura que esta cumpla con el objetivo de gestión de todos estos dispositivos.
Esta anotación se concentrará en explicar el funcionamiento de algunos de los elementos que conforman una tarjeta madre, los cuales son los siguientes:
•Fuente de poder
•Tarjeta de video
•Tarjeta de sonido
•Tarjeta de red
•Puertos USB
•Procesador
•Memoria RAM
Fuente de poder
Como su nombre lo indica es la unidad que suministra energía eléctrica a otro componente de una máquina ó dicho palabras más informáticas, la fuente de poder se encarga de distribuir la energía eléctrica necesaria para el funcionamiento de todos los componentes del ordenador. Básicamente es e l dispositivo que nos permite regular la cantidad de energía a los diferentes dispositivos que están conectados a la computadora.
El voltaje de las fuentes de poder puede variar dependiendo de qué tantos dispositivos estén conectados al ordenador.
Tarjeta de video
La tarjeta de video es la placa que controla el video de una PC. Se inserta dentro del gabinete y se conecta al monitor. A mayor calidad de la tarjeta de video (mejor marca, más memoria RAM), mejores prestaciones, mayor cantidad de colores disponibles y mayores resoluciones por alcanzar. Por lo regular ya viene integrada en el ordenador pero, en dado caso que se requiera una mejor tarjeta de video (para juegos regularmente) se pueden integrar más mejores y nuevas conforme más presupuesto se cuente.
Actualmente existe una gran demanda de tarjetas de video debido a las gráficas tan impresionantes que se realizan para los videojuegos, las tarjetas de video de mayor demanda son las Nvidia y las ATI.
Tarjeta de sonido
Es el dispositivo que le da a la computadora la oportunidad de sintetizar y emitir sonidos, así como capturarlos para después ser procesados. Es común que un ordenador que no cuente con una tarjeta de sonido disponga al menos de un pequeño altavoz, que se puede controlar directamente desde el procesador para emitir sonidos de baja calidad.
Es el mismo caso para las tarjetas de sonido, se pueden integrar tarjetas de sonido mejores en los ordenadores según sean los resultados esperados, entre más mejor sea la tarjeta será mayor su costo.
Tarjeta de red
Es la tarjeta que se instala en el ordenador para poder conectarse a una red informática compuesta por varios ordenadores y así, poder transferir datos. También conocido como adaptadores de red, hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando un interfaz o conector RJ-45.
Las tarjetas de red más nuevas aparte de contar con lo ya antes mencionado integran también la función inalámbrica.
Puertos USB
Por lo regular es un puerto pequeño y rectangular ubicado en la parte posterior del ordenador que conecta los dispositivos periféricos, como una impresora, utilizando un cable USB. El puerto USB permite que el ordenador se comunique con impresoras, iPods y una gran cantidad de dispositivos.
La principal ventaja por la cual se ha aceptado bastante bien este tipo de tecnología es debido a la notable diferencia de transmisión de datos comparándola con los paralelos. Actualmente se planea que se lance la versión 3.0 de los USB hasta Junio del 2009.
Procesador
En pocas palabras, es el cerebro de la computadora. Es la parte principal de la Unidad Central de Proceso, de la que depende todo el funcionamiento del ordenador. En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio y su velocidad es medida en Mhz ó en Ghz según sea el caso.
Actualmente los procesadores de doble núcleo son lo más novedoso y están ya integrados en la mayoría de los equipos más nuevos.
Memoria RAM
La memoria RAM ó memoria de acceso aleatorio es el tipo de memoria que almacena los datos temporalmente, ya que al desconectar el ordenador se pierden.
La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash, caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.
Actualmente las memorias RAM más comunes son las DDR y las DDR2, que, por lo regular son las que se incluyen en los equipos más nuevos.
A pesar de que no son todos los elementos que conforman una tarjeta madre, son los más importantes e indispensables, son los que hacen posible la gran labor que realiza el ordenador.
La tarjeta madre (en inglés motherboard) es una tarjeta de circuito impreso que da soporte de las demás partes de la computadora. Con una serie de circuitos integrados, la tarjeta madre sirve para llevar una conexión entre esos dispositivos internos (procesador, memorias, etc.) que hacen posible el correcto funcionamiento del ordenador. Todas las tarjetas madres tienen un software denominado BIOS que es el que se asegura que esta cumpla con el objetivo de gestión de todos estos dispositivos.
Esta anotación se concentrará en explicar el funcionamiento de algunos de los elementos que conforman una tarjeta madre, los cuales son los siguientes:
•Fuente de poder
•Tarjeta de video
•Tarjeta de sonido
•Tarjeta de red
•Puertos USB
•Procesador
•Memoria RAM
Fuente de poder
Como su nombre lo indica es la unidad que suministra energía eléctrica a otro componente de una máquina ó dicho palabras más informáticas, la fuente de poder se encarga de distribuir la energía eléctrica necesaria para el funcionamiento de todos los componentes del ordenador. Básicamente es e l dispositivo que nos permite regular la cantidad de energía a los diferentes dispositivos que están conectados a la computadora.
El voltaje de las fuentes de poder puede variar dependiendo de qué tantos dispositivos estén conectados al ordenador.
Tarjeta de video
La tarjeta de video es la placa que controla el video de una PC. Se inserta dentro del gabinete y se conecta al monitor. A mayor calidad de la tarjeta de video (mejor marca, más memoria RAM), mejores prestaciones, mayor cantidad de colores disponibles y mayores resoluciones por alcanzar. Por lo regular ya viene integrada en el ordenador pero, en dado caso que se requiera una mejor tarjeta de video (para juegos regularmente) se pueden integrar más mejores y nuevas conforme más presupuesto se cuente.
Actualmente existe una gran demanda de tarjetas de video debido a las gráficas tan impresionantes que se realizan para los videojuegos, las tarjetas de video de mayor demanda son las Nvidia y las ATI.
Tarjeta de sonido
Es el dispositivo que le da a la computadora la oportunidad de sintetizar y emitir sonidos, así como capturarlos para después ser procesados. Es común que un ordenador que no cuente con una tarjeta de sonido disponga al menos de un pequeño altavoz, que se puede controlar directamente desde el procesador para emitir sonidos de baja calidad.
Es el mismo caso para las tarjetas de sonido, se pueden integrar tarjetas de sonido mejores en los ordenadores según sean los resultados esperados, entre más mejor sea la tarjeta será mayor su costo.
Tarjeta de red
Es la tarjeta que se instala en el ordenador para poder conectarse a una red informática compuesta por varios ordenadores y así, poder transferir datos. También conocido como adaptadores de red, hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.), pero actualmente el más común es del tipo Ethernet utilizando un interfaz o conector RJ-45.
Las tarjetas de red más nuevas aparte de contar con lo ya antes mencionado integran también la función inalámbrica.
Puertos USB
Por lo regular es un puerto pequeño y rectangular ubicado en la parte posterior del ordenador que conecta los dispositivos periféricos, como una impresora, utilizando un cable USB. El puerto USB permite que el ordenador se comunique con impresoras, iPods y una gran cantidad de dispositivos.
La principal ventaja por la cual se ha aceptado bastante bien este tipo de tecnología es debido a la notable diferencia de transmisión de datos comparándola con los paralelos. Actualmente se planea que se lance la versión 3.0 de los USB hasta Junio del 2009.
Procesador
En pocas palabras, es el cerebro de la computadora. Es la parte principal de la Unidad Central de Proceso, de la que depende todo el funcionamiento del ordenador. En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio y su velocidad es medida en Mhz ó en Ghz según sea el caso.
Actualmente los procesadores de doble núcleo son lo más novedoso y están ya integrados en la mayoría de los equipos más nuevos.
Memoria RAM
La memoria RAM ó memoria de acceso aleatorio es el tipo de memoria que almacena los datos temporalmente, ya que al desconectar el ordenador se pierden.
La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, estos dispositivos contienen un tipo entre varios de memoria de acceso aleatorio , ya que las ROM, memorias Flash, caché (SRAM) , los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.
Actualmente las memorias RAM más comunes son las DDR y las DDR2, que, por lo regular son las que se incluyen en los equipos más nuevos.
A pesar de que no son todos los elementos que conforman una tarjeta madre, son los más importantes e indispensables, son los que hacen posible la gran labor que realiza el ordenador.
PLACA BASE
La placa base, placa madre, tarjeta madre o board (en inglés motherboard, mainboard) es una tarjeta de circuito impreso a la que se conectan las demás partes de la computadora. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el procesador, la memoria RAM, los buses de expansión y otros dispositivos.
Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.
Va instalada dentro de una caja que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
La placa base, además, incluye un software llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.
TÉCNICAS APLICADAS AL MANTENIMIENTO PREDICTIVO
Existen varias técnicas aplicadas para el mantenimiento preventivo entre las cuales tenemos las siguientes:
1. Análisis de vibraciones.
El interés de de las Vibraciones Mecánicas llega al Mantenimiento Industrial de la mano del Mantenimiento Preventivo y Predictivo, con el interés de alerta que significa un elemento vibrante en una Maquina, y la necesaria prevención de las fallas que traen las vibraciones a medio plazo.
El interés principal para el mantenimiento deberá ser la identificación de las amplitudes predominantes de las vibraciones detectadas en el elemento o máquina, la determinación de las causas de la vibración, y la corrección del problema que ellas representan. Las consecuencias de las vibraciones mecánicas son el aumento de los esfuerzos y las tensiones, pérdidas de energía, desgaste de materiales, y las más temidas: daños por fatiga de los materiales, además de ruidos molestos en el ambiente laboral, etc.
Parámetros de las vibraciones.
•Frecuencia: Es el tiempo necesario para completar un ciclo vibratorio. En los estudios de Vibración se usan los CPM (ciclos por segundo) o HZ (hercios).
•Desplazamiento: Es la distancia total que describe el elemento vibrante, desde un extremo al otro de su movimiento.
•Velocidad y Aceleración: Como valor relacional de los anteriores.
•Dirección: Las vibraciones pueden producirse en 3 direcciones lineales y 3 rotacionales
Tipos de vibraciones.
Vibración libre: causada por un sistema vibra debido a una excitación instantánea.
Vibración forzada: causada por un sistema vibra debida a una excitación constante las causas de las vibraciones mecánicas
A continuación detallamos las razones más habituales por las que una máquina o elemento de la misma puede llegar a vibrar.
Vibración debida al Desequilibrado (maquinaria rotativa).
Vibración debida a la Falta de Alineamiento (maquinaria rotativa)
Vibración debida a la Excentricidad (maquinaria rotativa).
Vibración debida a la Falla de Rodamientos y cojinetes.
Vibración debida a problemasde engranajes y correas de Transmisión (holguras, falta de lubricación, roces, etc.)
2. Análisis de lubricantes.
Estos se ejecutan dependiendo de la necesidad, según:
Análisis Iniciales: se realizan a productosde aquellos equipos que presenten dudas provenientes de los resultados del Estudio de Lubricación y permiten correcciones en la selección del producto, motivadas a cambios en condiciones de operación
Análisis Rutinarios: aplican para equipos considerados como críticos o de gran capacidad, en los cuales se define una frecuencia de muestreo, siendo el objetivo principal de los análisis la determinación del estado del aceite, nivel de desgaste y contaminación entre otros
Análisis de Emergencia: se efectúan para detectar cualquier anomalía en el equipo y/o Lubricante, según:
•Contaminación con agua
•Sólidos (filtros y sellos defectuosos).
•Uso de un producto inadecuado
Equipos
•Bombas de extracción
•Envases para muestras
•Etiquetas de identificación
•Formatos
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Este método asegura que tendremos:
Máxima reducción de los costos operativos.
Máxima vida útil de los componentes con mínimo desgaste.
Máximo aprovechamiento del lubricante utilizado.
Mínima generación de efluentes.
En cada muestra podemos conseguir o estudiar los siguientes factores que afectan a nuestra maquina:
Elementos de desgaste: Hierro, Cromo, Molibdeno, Aluminio, Cobre, Estaño, Plomo.
Conteo de partículas: Determinación de la limpieza, ferrografía.
Contaminantes: Silicio, Sodio, Agua, Combustible, Hollín, Oxidación, Nitración, Sulfatos, Nitratos.
Aditivos y condiciones del lubricante: Magnesio, Calcio, Zinc, Fósforo, Boro, Azufre, Viscosidad.
Gráficos e historial: Para la evaluación de las tendencias a lo largo del tiempo.
De este modo, mediante la implementación de técnicas ampliamente investigadas y experimentadas, y con la utilización de equipos de la más avanzada tecnología, se logrará disminuir drásticamente:
Tiempo perdido en producciónen razón de desperfectos mecánicos.
Desgaste de las máquinas y sus componentes.
Horas hombre dedicadas al mantenimiento.
Consumo general de lubricantes
3. Análisis por ultrasonido.
Este método estudia las ondas de sonido de baja frecuencia producidas por los equipos que no son perceptibles por el oído humano.
Ultrasonido pasivo: Es producido por mecanismos rotantes, fugas de fluido, pérdidas de vacío, y arcos eléctricos. Pudiéndose detectarlo mediante la tecnología apropiada.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
El Ultrasonido permite:
Detección de fricción en maquinas rotativas.
Detección de fallas y/o fugas en válvulas.
Detección de fugas de fluidos.
Pérdidas de vacío.
Detección de "arco eléctrico".
Verificación de la integridad de juntas de recintos estancos.
Se denomina Ultrasonido Pasivo a la tecnología que permite captar el ultrasonido producido por diversas fuentes.
El sonido cuya frecuencia está por encima del rango de captación del oído humano (20-a-20.000 Hertz) se considera ultrasonido. Casi todas las fricciones mecánicas, arcos eléctricos y fugas de presión o vacío producen ultrasonido en un rango aproximado a los 40 Khz Frecuencia con características muy aprovechables en el Mantenimiento Predictivo, puesto que las ondas sonoras son de corta longitud atenuándose rápidamente sin producir rebotes. Por esta razón, el ruido ambiental por más intenso que sea, no interfiere en la detección del ultrasonido. Además, la alta direccionalidad del ultrasonido en 40 Khz. permite con rapidez y precisión la ubicación de la falla.
La aplicación del análisis por ultrasonido se hace indispensable especialmente en la detección de fallas existentes en equipos rotantes que giran a velocidades inferiores a las 300 RPM, donde la técnica de medición de vibraciones se transforma en un procedimiento ineficiente.
De modo que la medición de ultrasonido es en ocasiones complementaria con la medición de vibraciones, que se utiliza eficientemente sobre equipos rotantes que giran a velocidades superiores a las 300 RPM.
Al igual que en el resto del mundo industrializado, la actividad industrial en nuestro País tiene la imperiosa necesidad de lograr el perfil competitivo que le permita insertarse en la economía globalizada. En consecuencia, toda tecnología orientada al ahorro de energía y/o mano de obra es de especial interés para cualquier Empresa.
4. Termografía.
La Termografía Infrarroja es una técnica que permite, a distancia y sin ningún contacto, medir y visualizar temperaturas de superficie con precisión.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Los ojos humanos no son sensibles a la radiación infrarroja emitida por un objeto, pero las cámaras termográficas, o de termovisión, son capaces de medir la energía con sensores infrarrojos, capacitados para "ver" en estas longitudes de onda. Esto nos permite medir la energía radiante emitida por objetos y, por consiguiente, determinar la temperatura de la superficie a distancia, en tiempo real y sin contacto.
La gran mayoría de los problemas y averías en el entorno industrial - ya sea de tipo mecánico, eléctrico y de fabricación - están precedidos por cambios de temperatura que pueden ser detectados mediante la monitorización de temperatura con sistema de Termovisión por Infrarrojos. Con la implementación de programasde inspecciones termográficas en instalaciones, maquinaria, cuadros eléctricos, etc. es posible minimizar el riesgo de una falla de equipos y sus consecuencias, a la vez que también ofrece una herramienta para el control de calidad de las reparaciones efectuadas.
El análisis mediante Termografía infrarroja debe complementarse con otras técnicas y sistemas de ensayoconocidos, como pueden ser el análisis de aceites lubricantes, el análisis de vibraciones, los ultrasonidos pasivos y el análisis predictivo en motores eléctricos. Pueden añadirse los ensayos no destructivos clásicos: ensayos, radiográfico, el ultrasonido activo, partículas magnéticas, etc.
El análisis mediante Cámaras Termográficas Infrarrojas, está recomendado para:
•Instalaciones y líneas eléctricas de Alta y Baja Tensión.
•Cuadros, conexiones, bornes, transformadores, fusibles y empalmes eléctricos.
•Motores eléctricos, generadores, bobinados, etc.
•Reductores, frenos, rodamientos, acoplamientos y embragues mecánicos.
•Hornos, calderas e intercambiadores de calor.
•Instalaciones de climatización.
•Líneas de producción, corte, prensado, forja, tratamientos térmicos.
Las ventajas que ofrece el Mantenimiento Preventivo por Termovisión son:
•Método de análisis sin detención de procesos productivos, ahorra gastos.
•Baja peligrosidad para el operario por evitar la necesidad de contacto con el equipo.
•Determinación exacta de puntos deficientes en una línea de proceso.
•Reduce el tiempo de reparación por la localización precisa de la Falla.
•Facilita informesmuy precisos al personal de mantenimiento.
•Ayuda al seguimiento de las reparaciones previas.
•5. Análisis por árbol de fallas.
El Análisis por Árbolesde Fallos (AAF), es una técnica deductiva que se centra en un suceso accidental particular (accidente) y proporciona un método para determinar las causas que han producido dicho accidente. Nació en la década de los años 60 para la verificación de la fiabilidad de diseñodel cohete Minuteman y ha sido ampliamente utilizado en el campo nuclear y químico. El hecho de su gran utilización se basa en que puede proporcionar resultados tanto cualitativos mediante la búsqueda de caminos críticos, como cuantitativos, en términos de probabilidad de fallos de componentes.
Para el tratamiento del problema se utiliza un modelo gráfico que muestra las distintas combinaciones de fallos de componentes y/o errores humanos cuya ocurrencia simultánea es suficiente para desembocar en un suceso accidental.
La técnica consiste en un proceso deductivo basado en las leyes del Álgebrade Boole, que permite determinar la expresión de sucesos complejos estudiados en función de los fallos básicos de los elementos que intervienen en él.
Consiste en descomponer sistemáticamente un suceso complejo (por ejemplo rotura de un depósito de almacenamiento de amoniaco) en sucesos intermedios hasta llegar a sucesos básicos, ligados normalmente a fallos de componentes, errores humanos, errores operativos, etc. Este proceso se realiza enlazando dichos tipos de sucesos mediante lo que se denomina puertas lógicas que representan los operadores del álgebra de sucesos.
Cada uno de estos aspectos se representa gráficamente durante la elaboración del árbol mediante diferentes símbolosque representan los tipos de sucesos, las puertas lógicas y las transferencias o desarrollos posteriores del árbol.
Un ejemplo de árbol de fallos es el siguiente:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Los símbolos representan tanto sucesos, puertas lógicas y transferencias. Los más importantes son los siguientes:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
6. Análisis FMECA.
Otra útil técnica para la eliminación de las características de diseño deficientes es el análisis de los modos y efectos de fallos (FMEA); o análisis de modos de fallos y efectos críticos (FMECA)
La intención es identificar las áreas o ensambles que es más probable que den lugar a fallos del conjunto.
El FMEA define la función como la tarea que realiza un componente --por ejemplo, la función de una válvula es abrir y cerrar-- y los modos de fallo son las formas en las que el componente puede fallar. La válvula fallará en la apertura si se rompe su resorte, pero también puede tropezar en su guía o mantenerse en posición de abierta por la leva debido a una rotura en la correa de árbol de levas.
La técnica consiste en evaluar tres aspectos del sistema y su operación:
Condiciones anticipadas de operación, y el fallo más probable.
Efecto de fallo en el rendimiento.
Severidad del fallo en el mecanismo.
La probabilidad de fallos se evalúa generalmente en una escalade 1 a 10, con la criticidad aumentando con el valor del número.
Esta técnica es útil para evaluar soluciones alternativas a un problema pero no es fácil de usar con precisión en nuevos diseños.
El FMEA es útil para evaluar si hay en un ensamble un número innecesario de componentes puesto que la interacciónde un ensamble con otro multiplicará los efectos de un fallo. Es igualmente útil para analizar el producto y el equipo que se utiliza para producirlo.
El FMEA, ayuda en la identificación de los modos de fallo que es probable que causen problemas de uso del producto. Ayuda también a eliminar debilidades o complicaciones excesivas del diseño, y a identificar los componentes que pueden fallar con mayor probabilidad. Su empleo no debe confinarse al producto que se desarrolla por el grupode trabajo. Puede también usarse eficazmente para evaluar las causas de parada en las máquinas de producción antes de completar el diseño.
1. Análisis de vibraciones.
El interés de de las Vibraciones Mecánicas llega al Mantenimiento Industrial de la mano del Mantenimiento Preventivo y Predictivo, con el interés de alerta que significa un elemento vibrante en una Maquina, y la necesaria prevención de las fallas que traen las vibraciones a medio plazo.
El interés principal para el mantenimiento deberá ser la identificación de las amplitudes predominantes de las vibraciones detectadas en el elemento o máquina, la determinación de las causas de la vibración, y la corrección del problema que ellas representan. Las consecuencias de las vibraciones mecánicas son el aumento de los esfuerzos y las tensiones, pérdidas de energía, desgaste de materiales, y las más temidas: daños por fatiga de los materiales, además de ruidos molestos en el ambiente laboral, etc.
Parámetros de las vibraciones.
•Frecuencia: Es el tiempo necesario para completar un ciclo vibratorio. En los estudios de Vibración se usan los CPM (ciclos por segundo) o HZ (hercios).
•Desplazamiento: Es la distancia total que describe el elemento vibrante, desde un extremo al otro de su movimiento.
•Velocidad y Aceleración: Como valor relacional de los anteriores.
•Dirección: Las vibraciones pueden producirse en 3 direcciones lineales y 3 rotacionales
Tipos de vibraciones.
Vibración libre: causada por un sistema vibra debido a una excitación instantánea.
Vibración forzada: causada por un sistema vibra debida a una excitación constante las causas de las vibraciones mecánicas
A continuación detallamos las razones más habituales por las que una máquina o elemento de la misma puede llegar a vibrar.
Vibración debida al Desequilibrado (maquinaria rotativa).
Vibración debida a la Falta de Alineamiento (maquinaria rotativa)
Vibración debida a la Excentricidad (maquinaria rotativa).
Vibración debida a la Falla de Rodamientos y cojinetes.
Vibración debida a problemasde engranajes y correas de Transmisión (holguras, falta de lubricación, roces, etc.)
2. Análisis de lubricantes.
Estos se ejecutan dependiendo de la necesidad, según:
Análisis Iniciales: se realizan a productosde aquellos equipos que presenten dudas provenientes de los resultados del Estudio de Lubricación y permiten correcciones en la selección del producto, motivadas a cambios en condiciones de operación
Análisis Rutinarios: aplican para equipos considerados como críticos o de gran capacidad, en los cuales se define una frecuencia de muestreo, siendo el objetivo principal de los análisis la determinación del estado del aceite, nivel de desgaste y contaminación entre otros
Análisis de Emergencia: se efectúan para detectar cualquier anomalía en el equipo y/o Lubricante, según:
•Contaminación con agua
•Sólidos (filtros y sellos defectuosos).
•Uso de un producto inadecuado
Equipos
•Bombas de extracción
•Envases para muestras
•Etiquetas de identificación
•Formatos
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Este método asegura que tendremos:
Máxima reducción de los costos operativos.
Máxima vida útil de los componentes con mínimo desgaste.
Máximo aprovechamiento del lubricante utilizado.
Mínima generación de efluentes.
En cada muestra podemos conseguir o estudiar los siguientes factores que afectan a nuestra maquina:
Elementos de desgaste: Hierro, Cromo, Molibdeno, Aluminio, Cobre, Estaño, Plomo.
Conteo de partículas: Determinación de la limpieza, ferrografía.
Contaminantes: Silicio, Sodio, Agua, Combustible, Hollín, Oxidación, Nitración, Sulfatos, Nitratos.
Aditivos y condiciones del lubricante: Magnesio, Calcio, Zinc, Fósforo, Boro, Azufre, Viscosidad.
Gráficos e historial: Para la evaluación de las tendencias a lo largo del tiempo.
De este modo, mediante la implementación de técnicas ampliamente investigadas y experimentadas, y con la utilización de equipos de la más avanzada tecnología, se logrará disminuir drásticamente:
Tiempo perdido en producciónen razón de desperfectos mecánicos.
Desgaste de las máquinas y sus componentes.
Horas hombre dedicadas al mantenimiento.
Consumo general de lubricantes
3. Análisis por ultrasonido.
Este método estudia las ondas de sonido de baja frecuencia producidas por los equipos que no son perceptibles por el oído humano.
Ultrasonido pasivo: Es producido por mecanismos rotantes, fugas de fluido, pérdidas de vacío, y arcos eléctricos. Pudiéndose detectarlo mediante la tecnología apropiada.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
El Ultrasonido permite:
Detección de fricción en maquinas rotativas.
Detección de fallas y/o fugas en válvulas.
Detección de fugas de fluidos.
Pérdidas de vacío.
Detección de "arco eléctrico".
Verificación de la integridad de juntas de recintos estancos.
Se denomina Ultrasonido Pasivo a la tecnología que permite captar el ultrasonido producido por diversas fuentes.
El sonido cuya frecuencia está por encima del rango de captación del oído humano (20-a-20.000 Hertz) se considera ultrasonido. Casi todas las fricciones mecánicas, arcos eléctricos y fugas de presión o vacío producen ultrasonido en un rango aproximado a los 40 Khz Frecuencia con características muy aprovechables en el Mantenimiento Predictivo, puesto que las ondas sonoras son de corta longitud atenuándose rápidamente sin producir rebotes. Por esta razón, el ruido ambiental por más intenso que sea, no interfiere en la detección del ultrasonido. Además, la alta direccionalidad del ultrasonido en 40 Khz. permite con rapidez y precisión la ubicación de la falla.
La aplicación del análisis por ultrasonido se hace indispensable especialmente en la detección de fallas existentes en equipos rotantes que giran a velocidades inferiores a las 300 RPM, donde la técnica de medición de vibraciones se transforma en un procedimiento ineficiente.
De modo que la medición de ultrasonido es en ocasiones complementaria con la medición de vibraciones, que se utiliza eficientemente sobre equipos rotantes que giran a velocidades superiores a las 300 RPM.
Al igual que en el resto del mundo industrializado, la actividad industrial en nuestro País tiene la imperiosa necesidad de lograr el perfil competitivo que le permita insertarse en la economía globalizada. En consecuencia, toda tecnología orientada al ahorro de energía y/o mano de obra es de especial interés para cualquier Empresa.
4. Termografía.
La Termografía Infrarroja es una técnica que permite, a distancia y sin ningún contacto, medir y visualizar temperaturas de superficie con precisión.
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Los ojos humanos no son sensibles a la radiación infrarroja emitida por un objeto, pero las cámaras termográficas, o de termovisión, son capaces de medir la energía con sensores infrarrojos, capacitados para "ver" en estas longitudes de onda. Esto nos permite medir la energía radiante emitida por objetos y, por consiguiente, determinar la temperatura de la superficie a distancia, en tiempo real y sin contacto.
La gran mayoría de los problemas y averías en el entorno industrial - ya sea de tipo mecánico, eléctrico y de fabricación - están precedidos por cambios de temperatura que pueden ser detectados mediante la monitorización de temperatura con sistema de Termovisión por Infrarrojos. Con la implementación de programasde inspecciones termográficas en instalaciones, maquinaria, cuadros eléctricos, etc. es posible minimizar el riesgo de una falla de equipos y sus consecuencias, a la vez que también ofrece una herramienta para el control de calidad de las reparaciones efectuadas.
El análisis mediante Termografía infrarroja debe complementarse con otras técnicas y sistemas de ensayoconocidos, como pueden ser el análisis de aceites lubricantes, el análisis de vibraciones, los ultrasonidos pasivos y el análisis predictivo en motores eléctricos. Pueden añadirse los ensayos no destructivos clásicos: ensayos, radiográfico, el ultrasonido activo, partículas magnéticas, etc.
El análisis mediante Cámaras Termográficas Infrarrojas, está recomendado para:
•Instalaciones y líneas eléctricas de Alta y Baja Tensión.
•Cuadros, conexiones, bornes, transformadores, fusibles y empalmes eléctricos.
•Motores eléctricos, generadores, bobinados, etc.
•Reductores, frenos, rodamientos, acoplamientos y embragues mecánicos.
•Hornos, calderas e intercambiadores de calor.
•Instalaciones de climatización.
•Líneas de producción, corte, prensado, forja, tratamientos térmicos.
Las ventajas que ofrece el Mantenimiento Preventivo por Termovisión son:
•Método de análisis sin detención de procesos productivos, ahorra gastos.
•Baja peligrosidad para el operario por evitar la necesidad de contacto con el equipo.
•Determinación exacta de puntos deficientes en una línea de proceso.
•Reduce el tiempo de reparación por la localización precisa de la Falla.
•Facilita informesmuy precisos al personal de mantenimiento.
•Ayuda al seguimiento de las reparaciones previas.
•5. Análisis por árbol de fallas.
El Análisis por Árbolesde Fallos (AAF), es una técnica deductiva que se centra en un suceso accidental particular (accidente) y proporciona un método para determinar las causas que han producido dicho accidente. Nació en la década de los años 60 para la verificación de la fiabilidad de diseñodel cohete Minuteman y ha sido ampliamente utilizado en el campo nuclear y químico. El hecho de su gran utilización se basa en que puede proporcionar resultados tanto cualitativos mediante la búsqueda de caminos críticos, como cuantitativos, en términos de probabilidad de fallos de componentes.
Para el tratamiento del problema se utiliza un modelo gráfico que muestra las distintas combinaciones de fallos de componentes y/o errores humanos cuya ocurrencia simultánea es suficiente para desembocar en un suceso accidental.
La técnica consiste en un proceso deductivo basado en las leyes del Álgebrade Boole, que permite determinar la expresión de sucesos complejos estudiados en función de los fallos básicos de los elementos que intervienen en él.
Consiste en descomponer sistemáticamente un suceso complejo (por ejemplo rotura de un depósito de almacenamiento de amoniaco) en sucesos intermedios hasta llegar a sucesos básicos, ligados normalmente a fallos de componentes, errores humanos, errores operativos, etc. Este proceso se realiza enlazando dichos tipos de sucesos mediante lo que se denomina puertas lógicas que representan los operadores del álgebra de sucesos.
Cada uno de estos aspectos se representa gráficamente durante la elaboración del árbol mediante diferentes símbolosque representan los tipos de sucesos, las puertas lógicas y las transferencias o desarrollos posteriores del árbol.
Un ejemplo de árbol de fallos es el siguiente:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
Los símbolos representan tanto sucesos, puertas lógicas y transferencias. Los más importantes son los siguientes:
Para ver el gráfico seleccione la opción "Descargar" del menú superior
6. Análisis FMECA.
Otra útil técnica para la eliminación de las características de diseño deficientes es el análisis de los modos y efectos de fallos (FMEA); o análisis de modos de fallos y efectos críticos (FMECA)
La intención es identificar las áreas o ensambles que es más probable que den lugar a fallos del conjunto.
El FMEA define la función como la tarea que realiza un componente --por ejemplo, la función de una válvula es abrir y cerrar-- y los modos de fallo son las formas en las que el componente puede fallar. La válvula fallará en la apertura si se rompe su resorte, pero también puede tropezar en su guía o mantenerse en posición de abierta por la leva debido a una rotura en la correa de árbol de levas.
La técnica consiste en evaluar tres aspectos del sistema y su operación:
Condiciones anticipadas de operación, y el fallo más probable.
Efecto de fallo en el rendimiento.
Severidad del fallo en el mecanismo.
La probabilidad de fallos se evalúa generalmente en una escalade 1 a 10, con la criticidad aumentando con el valor del número.
Esta técnica es útil para evaluar soluciones alternativas a un problema pero no es fácil de usar con precisión en nuevos diseños.
El FMEA es útil para evaluar si hay en un ensamble un número innecesario de componentes puesto que la interacciónde un ensamble con otro multiplicará los efectos de un fallo. Es igualmente útil para analizar el producto y el equipo que se utiliza para producirlo.
El FMEA, ayuda en la identificación de los modos de fallo que es probable que causen problemas de uso del producto. Ayuda también a eliminar debilidades o complicaciones excesivas del diseño, y a identificar los componentes que pueden fallar con mayor probabilidad. Su empleo no debe confinarse al producto que se desarrolla por el grupode trabajo. Puede también usarse eficazmente para evaluar las causas de parada en las máquinas de producción antes de completar el diseño.
METODOLOGÍA DE LAS INSPECCIONES
Una vez determinada la factibilidady conveniencia de realizar un mantenimiento predictivo a una máquina o unidad, el paso siguiente es determinar la o las variables físicas a controlar que sean indicativas de la condición de la máquina. El objetivo de esta parte es revisar en forma detallada las técnicas comúnmente usadas en el monitoreo según condición, de manera que sirvan de guía para su seleccióngeneral. La finalidad del monitoreo es obtener una indicación de la condición ( mecánica) o estado de salud de la máquina, de manera que pueda ser operada y mantenida con seguridad y economía.
Por monitoreo, se entendió en sus inicios, como la medición de una variable físicaque se considera representativa de la condición de la máquina y su comparación con valores que indican si la máquina está en buen estado o deteriorada. Con la actual automatización de estas técnicas, se ha extendido la acepción de la palabra monitoreo también a la adquisición, procesamiento y almacenamiento de datos. De acuerdo a los objetivosque se pretende alcanzar con el monitoreo de la condición de una máquina debe distinguirse entre vigilancia, protección, diagnóstico y pronóstico.
•Vigilancia de máquinas. Su objetivo es indicar cuándo existe un problema. Debe distinguir entre condición buena y mala, y si es mala indicar cuán mala es.
•Protección de máquinas. Su objetivo es evitar fallas catastróficas. Una máquina está protegida, si cuando los valores que indican su condición llegan a valores considerados peligrosos, la máquina se detiene automáticamente.
•Diagnóstico de fallas. Su objetivo es definir cuál es el problema específico. Pronóstico de vida la esperanza a. Su objetivo es estimar cuánto tiempo más Podría funcionar la máquina sin riesgo de una falla catastrófica.
En el último tiempo se ha dado la tendencia a aplicar mantenimiento predictivo o sintomático, sea, esto mediante vibroanálisis, análisis de aceite usado, control de desgastes, etc.
Por monitoreo, se entendió en sus inicios, como la medición de una variable físicaque se considera representativa de la condición de la máquina y su comparación con valores que indican si la máquina está en buen estado o deteriorada. Con la actual automatización de estas técnicas, se ha extendido la acepción de la palabra monitoreo también a la adquisición, procesamiento y almacenamiento de datos. De acuerdo a los objetivosque se pretende alcanzar con el monitoreo de la condición de una máquina debe distinguirse entre vigilancia, protección, diagnóstico y pronóstico.
•Vigilancia de máquinas. Su objetivo es indicar cuándo existe un problema. Debe distinguir entre condición buena y mala, y si es mala indicar cuán mala es.
•Protección de máquinas. Su objetivo es evitar fallas catastróficas. Una máquina está protegida, si cuando los valores que indican su condición llegan a valores considerados peligrosos, la máquina se detiene automáticamente.
•Diagnóstico de fallas. Su objetivo es definir cuál es el problema específico. Pronóstico de vida la esperanza a. Su objetivo es estimar cuánto tiempo más Podría funcionar la máquina sin riesgo de una falla catastrófica.
En el último tiempo se ha dado la tendencia a aplicar mantenimiento predictivo o sintomático, sea, esto mediante vibroanálisis, análisis de aceite usado, control de desgastes, etc.
ORGANIZACIÓN PARA EL MANTENIMIENTO PREDICTIVO
Esta técnica supone la mediciónde diversos parámetros que muestren una relación predecible con el ciclo de vida del componente. Algunos ejemplos de dichos parámetros son los siguientes:
•Vibración de cojinetes
•Temperatura de las conexiones eléctricas
•Resistencia del aislamiento de la bobina de un motor
El uso del mantenimiento predictivo consiste en establecer, en primer lugar, una perspectiva histórica de la relación entre la variable seleccionada y la vida del componente. Esto se logra mediante la toma de lecturas (por ejemplo la vibración de un cojinete) en intervalos periódicos hasta que el componente falle.
•Vibración de cojinetes
•Temperatura de las conexiones eléctricas
•Resistencia del aislamiento de la bobina de un motor
El uso del mantenimiento predictivo consiste en establecer, en primer lugar, una perspectiva histórica de la relación entre la variable seleccionada y la vida del componente. Esto se logra mediante la toma de lecturas (por ejemplo la vibración de un cojinete) en intervalos periódicos hasta que el componente falle.
MANTENIMIENTO PREDICTIVO
El mantenimiento predictivo es una técnica para pronosticar el punto futuro de falla de un componente de una maquina, de tal forma que dicho componente pueda reemplazarse, con base en un plan, justo antes de que falle. Así, el tiempomuerto del equipo se minimiza y el tiempo de vida del componente se maximiza.
MANTENIMIENTO PREVENTIVO
El mantenimiento preventivo permite detectar fallos repetitivos, disminuir los puntos muertos por paradas, aumentar la vida útil de equipos, disminuir costos de reparaciones, detectar puntos débiles en la instalación entre una larga lista de ventajas.
Relativo a la informática, el mantenimiento preventivo consiste en la revisión periódica de ciertos aspectos, tanto de hardware como de software en un pc. Estos influyen en el desempeño fiable del sistema, en la integridad de los datos almacenados y en un intercambio de información correctos, a la máxima velocidad posible dentro de la configuración optima del sistema.
Dentro del mantenimiento preventivo existe software que permite al usuario vigilar constantemente el estado de su equipo, asi como también realizar pequeños ajustes de una manera fácil.
Además debemos agregar que el mantenimiento preventivo en general se ocupa en la determinación de condiciones operativas, de durabilidad y de confiabilidad de un equipo en mención este tipo de mantenimiento nos ayuda en reducir los tiempos que pueden generarse por mantenimiento correctivo.
En lo referente al mantenimiento preventivo de un producto software, se diferencia del resto de tipos de mantenimiento (especialmente del mantenimiento perfectivo) en que, mientras que el resto (correctivo, evolutivo, perfectivo, adaptativo...) se produce generalmente tras una petición de cambio por parte del cliente o del usuario final, el preventivo se produce tras un estudio de posibilidades de mejora en los diferentes módulos del sistema.
Aunque el mantenimiento preventivo es considerado valioso para las organizaciones, existen una serie de fallas en la maquinaria o errores humanos a la hora de realizar estos procesos de mantenimiento. El mantenimiento preventivo planificado y la sustitución planificada son dos de las tres políticas disponibles para los ingenieros de mantenimiento.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
Relativo a la informática, el mantenimiento preventivo consiste en la revisión periódica de ciertos aspectos, tanto de hardware como de software en un pc. Estos influyen en el desempeño fiable del sistema, en la integridad de los datos almacenados y en un intercambio de información correctos, a la máxima velocidad posible dentro de la configuración optima del sistema.
Dentro del mantenimiento preventivo existe software que permite al usuario vigilar constantemente el estado de su equipo, asi como también realizar pequeños ajustes de una manera fácil.
Además debemos agregar que el mantenimiento preventivo en general se ocupa en la determinación de condiciones operativas, de durabilidad y de confiabilidad de un equipo en mención este tipo de mantenimiento nos ayuda en reducir los tiempos que pueden generarse por mantenimiento correctivo.
En lo referente al mantenimiento preventivo de un producto software, se diferencia del resto de tipos de mantenimiento (especialmente del mantenimiento perfectivo) en que, mientras que el resto (correctivo, evolutivo, perfectivo, adaptativo...) se produce generalmente tras una petición de cambio por parte del cliente o del usuario final, el preventivo se produce tras un estudio de posibilidades de mejora en los diferentes módulos del sistema.
Aunque el mantenimiento preventivo es considerado valioso para las organizaciones, existen una serie de fallas en la maquinaria o errores humanos a la hora de realizar estos procesos de mantenimiento. El mantenimiento preventivo planificado y la sustitución planificada son dos de las tres políticas disponibles para los ingenieros de mantenimiento.
Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.
El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.
DESFRAGMENTACIÓN
De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información (aunque este evento no siempre puede detectarse con anticipación).
•Alto porcentaje de fragmentación: Durante el uso de una PC existe un ininterrumpido proceso de borrado de archivos e instalación de otros nuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta, la velocidaddisminuye en razón del incremento de los tiempos de acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de pantalla.
La detección precoz de fallas puede evitar a tiempo un desastre con pérdida parcial o total de información (aunque este evento no siempre puede detectarse con anticipación).
•Alto porcentaje de fragmentación: Durante el uso de una PC existe un ininterrumpido proceso de borrado de archivos e instalación de otros nuevos.
Estos se instalan a partir del primer espacio disponible en el disco y si no cabe se fracciona, continuando en el próximo espacio vacío.
Un índice bajo de fragmentación es tolerable e imperceptible, pero en la medida que aumenta, la velocidaddisminuye en razón del incremento de los tiempos de acceso al disco ocasionado por la fragmentación, pudiendo hacerse notable.
Todas las versiones de Windows incluyen el desfragmentador de disco.
El proceso de desfragmentación total consume bastante tiempo (en ocasiones hasta horas), y aunque puede realizarse como tarea de fondo no resulta conveniente la ejecución simultanea de otro programa mientras se desfragmenta el disco, debiendo desactivarse también el protector de pantalla.
COMO REALIZAR LA LIMPIEZA DE LA PC
Para garantizar un rendimiento optimo y eficaz de la computadora, debemos mantenerla limpia y bien organizada.
Debemos eliminar los programasantiguos, programas que no utilicemos y las unidades de disco para liberar la memoria y reducir la posibilidad de conflicto del sistema.
Un disco duro puede presentar diversas deficiencias, que casi siempre se pueden corregir estas son:
1.Poco espacio disponible.
2.Espacio ocupado por archivos innecesarios.
3.Alto porcentaje de fragmentación.
Se debe eliminar los archivos antiguos y temporales. Además, entre más pocos archivos innecesarios tenga la computadora, estará más protegida de amenazas como el hurto de la identidad en Internet.
Cuando el espacio libre de un disco se acerca peligrosamente a cero, la PC entra en una fase de funcionamiento errático: se torna excesivamente lenta, emite mensajes de error (que en ocasiones no especifican la causa), algunas aplicaciones no se inician, o se cierran después de abiertas, etc.
Como factor de seguridad aceptable, el espacio vacío de un disco duro no debe bajar del 10% de su capacidad total, y cuando se llega a este límite deben borrarse archivos innecesarios, o desinstalar aplicaciones que no se usen, o comprimir archivos.
Todas las aplicaciones de Windows generan archivos temporales.
Estos archivos se reconocen por la extensión .tmp y generalmente existe uno o varios directorios donde se alojan.
En condiciones normales, las aplicaciones que abren archivos temporales deben eliminarlos cuando la aplicación concluye, pero esto a veces no sucede cuando se concluye en condiciones anormales, o Windows "se cuelga" o por una deficiente programación de la aplicación.
Estos archivos temporales deben borrarse del disco duro.
Existen otro tipo de archivos que pueden borrarse, y no son temporales: la papelera de reciclaje, el caché de Internet ( windows\temporary internet files) y algunas carpetas que permanecen el disco después que se baja o se instala un programa.
El caché de Internet debe borrarse si resulta estrictamente necesario, ya que después de borrado no podrán verse las páginas visitadas sin estar conectado.
Debe hacerse mediante la función explícita del navegador, y además ajustarse el tamaño del caché.
Un usuario experimentado puede intentar otras posibilidades, como por ejemplo eliminar DLL duplicadas, instaladores, datos de aplicaciones desinstaladas, etc.
Debe obrar con mucho cuidado cuando haga esta "limpieza profunda" y si no hay plena seguridad de que un archivo en cuestión puede ser borrado, no debe eliminarlo de la papelera de reciclaje hasta comprobarlo, pudiendo reponerse a su ubicación original si resultara necesario.
En general lo que se debe realizar son estas labores:
•Eliminar los programas antiguos y archivos temporales.
•Eliminar la información obsoleta
•Asegurarnos de guardar de manera segura la información.
•Eliminar las entradas de registro inválidas y los accesos directos dañados.
RAZONES PARA HACER UN MANTENIMIENTO AL PC
Las computadoras funcionan muy bien y están protegidas cuando reciben mantenimiento. Si no se limpian y se organizan con frecuencia, el disco duro se llena de información, el sistema de archivos se desordena y el rendimiento general disminuye.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son:
1.Diagnóstico.
2.Limpieza.
3.Desfragmentación.
Si no se realiza periódicamente un escaneo del disco duro para corregir posibles errores o fallas, una limpieza de archivos y la desfragmentación del disco duro, la información estará más desprotegida y será más difícil de recuperar.
El mantenimiento que se debe hacer, se puede resumir en tres aspectos básicos importantes, los cuales son:
1.Diagnóstico.
2.Limpieza.
3.Desfragmentación.
MANTENIMIENTO DEL PC
Es una serie de rutinas periódicas que debemos realizar a la PC, necesarias para que la computadoraofrezca un rendimiento óptimo y eficaz a la hora de su funcionamiento. De esta forma podemos prevenir o detectar cualquier falla que pueda presentar el computador.
CABLE DIRECTO
El cable directo de red sirve para conectar dispositivos desiguales, como un computador con un hub o switch. En este caso ambos extremos del cable deben tener la misma distribución. No existe diferencia alguna en la conectividad entre la distribución 568B y la distribución 568A siempre y cuando en ambos extremos se use la misma, en caso contrario hablamos de un cable cruzado.
El esquema más utilizado en la práctica es tener en ambos extremos la distribución 568B.
Cable directo 568A
El esquema más utilizado en la práctica es tener en ambos extremos la distribución 568B.
Cable directo 568A
PROTOCOLO DE RED
Los protocolo de red son una o más normas standard que especifican el método para enviar y recibir datos entre varios ordenadores. Su instalación esta en correspondencia con el tipo de red y el sistema operativo que la computadora tenga instalado.
No existe un único protocolo de red, y es posible que en un mismo ordenador coexistan instalados varios de ellos, pues cabe la posibilidad que un mismo ordenador pertenezca a redes distintas. La variedad de protocolos puede suponer un riesgode seguridad: cada protocolo de red que se instala en un sistema queda disponible para todos los adaptadores de red existentes en dicho sistema, físicos ( tarjetas de red o módem) o lógicos (adaptadores VPN). Si los dispositivos de red o protocolos no están correctamente configurados, se puede dar acceso no deseado a los recursos de la red. En estos casos, la regla de seguridad más sencilla es tener instalados el número de protocolos indispensable; en la actualidad y en la mayoría de los casos debería bastar con sólo TCP/ IP.
Dentro de la familiade protocolos se pueden distinguir
Protocolos de transporte:
•ATP (Apple Talk Transaction Protocol)
•NetBios/NetBEUI
•TCP (Transmission Control Protocol)
Protocolos de red:
•DDP (Delivery Datagram Protocol)
•IP (Internet Protocol)
•IPX (Internet Packed Exchange)
•NetBEUI Desarrollado por IBM y Microsoft.
Protocolos de aplicación:
•AFP (Appletalk File Protocol)
•FTP (File Transfer Protocol)
•Http (Hyper Text transfer Protocol)
Dentro de los protocolos antes mencionados, los más utilizados son:
•IPX/SPX, protocolos desarrollados por Novell a principiosde los años 80 los cuales sirven de interfaz entre el sistema operativo de red Netware y las distintas arquitecturas de red. El protocolo IPX es similar a IP, SPX es similar a TCP por lo tanto juntos proporcionan servicios de conexión similares a TCP/IP.
•NETBEUI/NETBIOS (Network Basic Extended User Interface / Network Basic Input/Output System) NETBIOS es un protocolo de comunicaciónentre ordenadores que comprende tres servicios (servicio de nombres, servicio de paquetes y servicio de sesión,
inicialmente trabajaba sobre el protocolo NETBEUI, responsable del transporte de datos. Actualmente con la difusión de Internet, los sistemas operativos de Microsoft más recientes permiten ejecutar NETBIOS sobre el protocolo TCP/IP, prescindiendo entonces de NETBEUI.
•APPLE TALK es un protocolo propietario que se utiliza para conectar computadoras Macintosh de Apple en redes locales.
•TCP/IP (Transmission Control Protocol/Internet Protocol) este protocolo fue diseñado a finales de los años 60, permite enlazar computadoras con diferentes sistemas operativos. Es el protocolo que utiliza la red de redes Internet.
Servicios de una Red
Para que el trabajode una red sea efectivo, debe prestar una serie de servicios a sus usuarios, como son:
1.Acceso, este servicios de acceso a la red comprenden tanto la verificación de la identidad del usuario para determinar cuales son los recursos de la misma que puede utilizar, como servicios para permitir la conexión de usuarios de la red desde lugares remotos.
2.Ficheros, el servicio de ficheros consiste en ofrecer a la red grandes capacidades de almacenamientopara descargar o eliminar los discos de las estaciones. Esto permite almacenar tanto aplicaciones como datos en el servidor, reduciendo los requerimientos de las estaciones. Los ficheros deben ser cargados en las estaciones para su uso.
3.Impresión, este servicio permite compartir impresoras entre múltiples usuarios, reduciendo así el gasto. En estos casos, existen equipos servidores con capacidad para almacenar los trabajos en espera de impresión. Una variedad de servicio de impresión es la disponibilidad de servidores de fax.
4.Correo, el correo electrónico, aplicación de red más utilizada que ha permitido claras mejoras en la comunicación frente a otros sistemas. Este servicio además de la comodidad, ha reducido los costos en la transmisión de información y la rapidez de entrega de la misma.
5.Información, los servidores de información pueden bien servir ficheros en función de sus contenidos como pueden ser los documentoshipertexto, como es el caso de esta presentación. O bien, pueden servir información dispuesta para su procesopor las aplicaciones, como es el caso de los servidores de bases de datos.
6.Otros, generalmente existen en las redes más modernas que poseen gran capacidad de transmisión, en ellas se permite transferir contenidos diferentes de los datos, como pueden ser imágenes o sonidos, lo cual permite aplicaciones como: estaciones integradas (voz y datos), telefonía integrada, servidores de imágenes, videoconferencia de sobremesa, etc.
No existe un único protocolo de red, y es posible que en un mismo ordenador coexistan instalados varios de ellos, pues cabe la posibilidad que un mismo ordenador pertenezca a redes distintas. La variedad de protocolos puede suponer un riesgode seguridad: cada protocolo de red que se instala en un sistema queda disponible para todos los adaptadores de red existentes en dicho sistema, físicos ( tarjetas de red o módem) o lógicos (adaptadores VPN). Si los dispositivos de red o protocolos no están correctamente configurados, se puede dar acceso no deseado a los recursos de la red. En estos casos, la regla de seguridad más sencilla es tener instalados el número de protocolos indispensable; en la actualidad y en la mayoría de los casos debería bastar con sólo TCP/ IP.
Dentro de la familiade protocolos se pueden distinguir
Protocolos de transporte:
•ATP (Apple Talk Transaction Protocol)
•NetBios/NetBEUI
•TCP (Transmission Control Protocol)
Protocolos de red:
•DDP (Delivery Datagram Protocol)
•IP (Internet Protocol)
•IPX (Internet Packed Exchange)
•NetBEUI Desarrollado por IBM y Microsoft.
Protocolos de aplicación:
•AFP (Appletalk File Protocol)
•FTP (File Transfer Protocol)
•Http (Hyper Text transfer Protocol)
Dentro de los protocolos antes mencionados, los más utilizados son:
•IPX/SPX, protocolos desarrollados por Novell a principiosde los años 80 los cuales sirven de interfaz entre el sistema operativo de red Netware y las distintas arquitecturas de red. El protocolo IPX es similar a IP, SPX es similar a TCP por lo tanto juntos proporcionan servicios de conexión similares a TCP/IP.
•NETBEUI/NETBIOS (Network Basic Extended User Interface / Network Basic Input/Output System) NETBIOS es un protocolo de comunicaciónentre ordenadores que comprende tres servicios (servicio de nombres, servicio de paquetes y servicio de sesión,
inicialmente trabajaba sobre el protocolo NETBEUI, responsable del transporte de datos. Actualmente con la difusión de Internet, los sistemas operativos de Microsoft más recientes permiten ejecutar NETBIOS sobre el protocolo TCP/IP, prescindiendo entonces de NETBEUI.
•APPLE TALK es un protocolo propietario que se utiliza para conectar computadoras Macintosh de Apple en redes locales.
•TCP/IP (Transmission Control Protocol/Internet Protocol) este protocolo fue diseñado a finales de los años 60, permite enlazar computadoras con diferentes sistemas operativos. Es el protocolo que utiliza la red de redes Internet.
Servicios de una Red
Para que el trabajode una red sea efectivo, debe prestar una serie de servicios a sus usuarios, como son:
1.Acceso, este servicios de acceso a la red comprenden tanto la verificación de la identidad del usuario para determinar cuales son los recursos de la misma que puede utilizar, como servicios para permitir la conexión de usuarios de la red desde lugares remotos.
2.Ficheros, el servicio de ficheros consiste en ofrecer a la red grandes capacidades de almacenamientopara descargar o eliminar los discos de las estaciones. Esto permite almacenar tanto aplicaciones como datos en el servidor, reduciendo los requerimientos de las estaciones. Los ficheros deben ser cargados en las estaciones para su uso.
3.Impresión, este servicio permite compartir impresoras entre múltiples usuarios, reduciendo así el gasto. En estos casos, existen equipos servidores con capacidad para almacenar los trabajos en espera de impresión. Una variedad de servicio de impresión es la disponibilidad de servidores de fax.
4.Correo, el correo electrónico, aplicación de red más utilizada que ha permitido claras mejoras en la comunicación frente a otros sistemas. Este servicio además de la comodidad, ha reducido los costos en la transmisión de información y la rapidez de entrega de la misma.
5.Información, los servidores de información pueden bien servir ficheros en función de sus contenidos como pueden ser los documentoshipertexto, como es el caso de esta presentación. O bien, pueden servir información dispuesta para su procesopor las aplicaciones, como es el caso de los servidores de bases de datos.
6.Otros, generalmente existen en las redes más modernas que poseen gran capacidad de transmisión, en ellas se permite transferir contenidos diferentes de los datos, como pueden ser imágenes o sonidos, lo cual permite aplicaciones como: estaciones integradas (voz y datos), telefonía integrada, servidores de imágenes, videoconferencia de sobremesa, etc.
TOPOLOGIAS DE RED
Cuando se menciona la topología de redes, se hace referencia a la forma geométrica en que están distribuidas las estaciones de trabajo y los cables que las conectan.Su objetivo es buscar la forma más económica y eficaz de conexión para, al mismo tiempo, aumentar la fiabilidad del sistema, evitar los tiempos de espera en la transmisión, permitir un mejor control de la red y lograr de forma eficiente el aumento del número de las estaciones de trabajo.
Dentro de las topologías que existen, las más comunes son:
Dentro de las topologías que existen, las más comunes son:
Aunque no son las más comunes también existen otras topologías generadas por las combinaciones entre las ya mencionadas anteriormente como es el caso de:
ESTRUCTURA DE LAS REDES
Las redes tienen tres niveles de componentes: software de aplicaciones, software de red y hardware de red.
• El Software de Aplicaciones, programasque se comunican con los usuarios de la red y permiten compartir información (como archivos, gráficos o vídeos) y recursos (como impresoraso unidades de disco).
• El software de Red, programas que establecen protocolos para que los ordenadores se comuniquen entre sí. Dichos protocolos se aplican enviando y recibiendo grupos de datos formateados denominados paquetes.
• El Hardware de Red, formado por los componentes materiales que unen los ordenadores. Dos componentes importantes son los medios de transmisión que transportan las señalesde los ordenadores (típicamente cables o fibras ópticas) y el adaptador de red, que permite acceder al medio material que conecta a los ordenadores, recibir paquetes desde el software de red y transmitir instrucciones y peticiones a otros ordenadores.
En resumen, las redes están formadas por conexiones entre grupos de ordenadores y dispositivos asociados que permiten a los usuarios la transferencia electrónica de información. En estas estructuras, los diferentes ordenadores se denominan estaciones de trabajo y se comunican entre sí a través de un cable o línea telefónica conectada a los servidores.
Dichos servidores son ordenadores como las estaciones de trabajo pero con funciones administrativas y están dedicados en exclusiva a supervisar y controlar el acceso a la red y a los recursos compartidos. Además de los ordenadores, los cables o la línea telefónica, existe en la red el módem para permitir la transferencia de información convirtiendo las señales digitales a analógicas y viceversa, también existen en esta estructura los llamados Hubs y Switches con la función de llevar acabo la conectividad.
• El Software de Aplicaciones, programasque se comunican con los usuarios de la red y permiten compartir información (como archivos, gráficos o vídeos) y recursos (como impresoraso unidades de disco).
• El software de Red, programas que establecen protocolos para que los ordenadores se comuniquen entre sí. Dichos protocolos se aplican enviando y recibiendo grupos de datos formateados denominados paquetes.
• El Hardware de Red, formado por los componentes materiales que unen los ordenadores. Dos componentes importantes son los medios de transmisión que transportan las señalesde los ordenadores (típicamente cables o fibras ópticas) y el adaptador de red, que permite acceder al medio material que conecta a los ordenadores, recibir paquetes desde el software de red y transmitir instrucciones y peticiones a otros ordenadores.
En resumen, las redes están formadas por conexiones entre grupos de ordenadores y dispositivos asociados que permiten a los usuarios la transferencia electrónica de información. En estas estructuras, los diferentes ordenadores se denominan estaciones de trabajo y se comunican entre sí a través de un cable o línea telefónica conectada a los servidores.
Dichos servidores son ordenadores como las estaciones de trabajo pero con funciones administrativas y están dedicados en exclusiva a supervisar y controlar el acceso a la red y a los recursos compartidos. Además de los ordenadores, los cables o la línea telefónica, existe en la red el módem para permitir la transferencia de información convirtiendo las señales digitales a analógicas y viceversa, también existen en esta estructura los llamados Hubs y Switches con la función de llevar acabo la conectividad.
RESEÑA SOBRE LA EVOLUCION DE LAS REDES
Los primeros enlaces entre ordenadores se caracterizaron por realizarse entre equipos que utilizaban idénticos sistemas operativos soportados por similar hardware y empleaban líneas de transmisión exclusivas para enlazar sólo dos elementos de la red.
En 1964 el Departamento de Defensa de los EE.UU. pide a la agencia DARPA (Defense Advanced Research Proyects Agency) la realización de investigaciones con el objetivo de lograr una red de ordenadores capaz de resistir un ataque nuclear. Para el desarrollo de esta investigaciónse partió de la idea de enlazar equipos ubicados en lugares geográficos distantes, utilizando como medio de transmisión la red telefónica existente en el país y una tecnología que había surgido recientemente en Europacon el nombre de Conmutación de Paquetes. Ya en 1969 surge la primera red experimental ARPANET, en 1971 esta red la integraban 15 universidades, el MIT; y la NASA; y al otro año existían 40 sitios diferentes conectados que intercambiaban mensajes entre usuarios individuales, permitían el control de un ordenador de forma remota y el envío de largos ficheros de textos o de datos. Durante 1973 ARPANET desborda las fronteras de los EE.UU. al establecer conexiones internacionales con la "University College of London" de Inglaterra y el "Royal Radar Establishment" de Noruega.
En esta etapa inicial de las redes, la velocidad de transmisión de información entre los ordenadores era lenta y sufrían frecuentes interrupciones. Ya avanzada la década del 70, DARPA, le encarga a la Universidad de Stanford la elaboración de protocolosque permitieran la transferencia de datos a mayor velocidad y entre diferentes tipos de redesde ordenadores. En este contexto es que Vinton G. Cerf, Robert E. Kahn, y un grupode sus estudiantes desarrollan los protocolos TCP/IP.
En 1982 estos protocolos fueron adoptados como estándar para todos los ordenadores conectados a ARPANET, lo que hizo posible el surgimiento de la red universal que existe en la actualidad bajo el nombre de Internet.
En la década de 1980 esta red de redes conocida como la Internet fue creciendo y desarrollándose debido a que con el paso del tiempo cientos y miles de usuarios, fueron conectando sus ordenadores.
En 1964 el Departamento de Defensa de los EE.UU. pide a la agencia DARPA (Defense Advanced Research Proyects Agency) la realización de investigaciones con el objetivo de lograr una red de ordenadores capaz de resistir un ataque nuclear. Para el desarrollo de esta investigaciónse partió de la idea de enlazar equipos ubicados en lugares geográficos distantes, utilizando como medio de transmisión la red telefónica existente en el país y una tecnología que había surgido recientemente en Europacon el nombre de Conmutación de Paquetes. Ya en 1969 surge la primera red experimental ARPANET, en 1971 esta red la integraban 15 universidades, el MIT; y la NASA; y al otro año existían 40 sitios diferentes conectados que intercambiaban mensajes entre usuarios individuales, permitían el control de un ordenador de forma remota y el envío de largos ficheros de textos o de datos. Durante 1973 ARPANET desborda las fronteras de los EE.UU. al establecer conexiones internacionales con la "University College of London" de Inglaterra y el "Royal Radar Establishment" de Noruega.
En esta etapa inicial de las redes, la velocidad de transmisión de información entre los ordenadores era lenta y sufrían frecuentes interrupciones. Ya avanzada la década del 70, DARPA, le encarga a la Universidad de Stanford la elaboración de protocolosque permitieran la transferencia de datos a mayor velocidad y entre diferentes tipos de redesde ordenadores. En este contexto es que Vinton G. Cerf, Robert E. Kahn, y un grupode sus estudiantes desarrollan los protocolos TCP/IP.
En 1982 estos protocolos fueron adoptados como estándar para todos los ordenadores conectados a ARPANET, lo que hizo posible el surgimiento de la red universal que existe en la actualidad bajo el nombre de Internet.
En la década de 1980 esta red de redes conocida como la Internet fue creciendo y desarrollándose debido a que con el paso del tiempo cientos y miles de usuarios, fueron conectando sus ordenadores.
APLICACIONES
• Las bandas más importantes con aplicaciones inalámbricas, del rango de frecuencias que abarcan las ondas de radio, son la VLF (comunicaciones en navegación y submarinos), LF (radio AM de onda larga), MF (radio AM de onda media), HF (radio AM de onda corta), VHF (radio FM y TV), UHF (TV).
• Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad u otras características de objetos remotos) y para la televisión digital terrestre.
• Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
• Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.
• Mediante las microondas terrestres, existen diferentes aplicaciones basadas en protocolos como Bluetooth o ZigBee para interconectar ordenadores portátiles, PDAs, teléfonos u otros aparatos. También se utilizan las microondas para comunicaciones con radares (detección de velocidad u otras características de objetos remotos) y para la televisión digital terrestre.
• Las microondas por satélite se usan para la difusión de televisión por satélite, transmisión telefónica a larga distancia y en redes privadas, por ejemplo.
• Los infrarrojos tienen aplicaciones como la comunicación a corta distancia de los ordenadores con sus periféricos. También se utilizan para mandos a distancia, ya que así no interfieren con otras señales electromagnéticas, por ejemplo la señal de televisión. Uno de los estándares más usados en estas comunicaciones es el IrDA (Infrared Data Association). Otros usos que tienen los infrarrojos son técnicas como la termografía, la cual permite determinar la temperatura de objetos a distancia.
TIPOS DE REDES
Wireless Personal Area Network
WPAN
En este tipo de red de cobertura personal, existen tecnologías basadas en HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE 802.15.4 y utilizado en aplicaciones como la domótica, que requieren comunicaciones seguras con tasas bajas de transmisión de datos y maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema remoto de almacenamiento y recuperación de datos con el propósito de transmitir la identidad de un objeto (similar a un número de serie único) mediante ondas de radio.
Wireless Local Area Network
WLAN
WLAN
En las redes de área local podemos encontrar tecnologías inalámbricas basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar del grupo ETSI, o tecnologías basadas en Wi-Fi, que siguen el estándar IEEE 802.11 con diferentes variantes.
Wireless Metropolitan Area Network
Red de área metropolitana
Para redes de área metropolitana se encuentran tecnologías basadas en WiMAX (Worldwide Interoperability for Microwave Access, es decir, Interoperabilidad Mundial para Acceso con Microondas), un estándar de comunicación inalámbrica basado en la norma IEEE 802.16. WiMAX es un protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda. También podemos encontrar otros sistemas de comunicación como LMDS (Local Multipoint Distribution Service).
Wireless Wide Area Network
WAN
En estas redes encontramos tecnologías como UMTS (Universal Mobile Telecommunications System), utilizada con los teléfonos móviles de tercera generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también la tecnología digital para móviles GPRS (General Packet Radio Service).
Características
Según el rango de frecuencias utilizado para transmitir, el medio de transmisión pueden ser las ondas de radio, las microondas terrestres o por satélite, y los infrarrojos, por ejemplo. Dependiendo del medio, la red inalámbrica tendrá unas características u otras:
• Ondas de radio: las ondas electromagnéticas son omnidireccionales, así que no son necesarias las antenas parabólicas. La transmisión no es sensible a las atenuaciones producidas por la lluvia ya que se opera en frecuencias no demasiado elevadas. En este rango se encuentran las bandas desde la ELF que va de 3 a 30 Hz, hasta la banda UHF que va de los 300 a los 3000 MHz, es decir, comprende el espectro radioelectrico de 30 - 3000000 Hz.
• Microondas terrestres: se utilizan antenas parabólicas con un diámetro aproximado de unos tres metros. Tienen una cobertura de kilómetros, pero con el inconveniente de que el emisor y el receptor deben estar perfectamente alineados. Por eso, se acostumbran a utilizar en enlaces punto a punto en distancias cortas. En este caso, la atenuación producida por la lluvia es más importante ya que se opera a una frecuencia más elevada. Las microondas comprenden las frecuencias desde 1 hasta 300 GHz.
• Microondas por satélite: se hacen enlaces entre dos o más estaciones terrestres que se denominan estaciones base. El satélite recibe la señal (denominada señal ascendente) en una banda de frecuencia, la amplifica y la retransmite en otra banda (señal descendente). Cada satélite opera en unas bandas concretas. Las fronteras frecuenciales de las microondas, tanto terrestres como por satélite, con los infrarrojos y las ondas de radio de alta frecuencia se mezclan bastante, así que pueden haber interferencias con las comunicaciones en determinadas frecuencias.
• Infrarrojos: se enlazan transmisores y receptores que modulan la luz infrarroja no coherente. Deben estar alineados directamente o con una reflexión en una superficie. No pueden atravesar las paredes. Los infrarrojos van desde 300 GHz hasta 384 THz.
Suscribirse a:
Entradas (Atom)