domingo, 19 de septiembre de 2010

PUERTOS DE ENTRADA

PS/2
El conector PS/2 o puerto PS/2 toma su nombre de la serie de ordenadores IBM Personal System/2 en que es creada por IBM en 1987, y empleada para conectar teclados y ratones.

PUERTO PARALELO:
Un puerto paralelo es una interfaz entre un ordenador y un periférico cuya principal característica es que los bits de datos viajan juntos enviando un byte completo o más a la vez. Es decir, se implementa un cable o una vía física para cada bit de datos formando un bus.
El cable paralelo es el conector físico entre el puerto paralelo y el periférico. En un puerto paralelo habrá una serie de bits de control en vias aparte que irán en ambos sentidos por caminos distintos.
En contraposición al puerto paralelo está el Puerto serie, que envía los datos bit a bit por el mismo hilo.
Y se usa normalmente para el puerto de impresora de un PC.

PUERTO RED O LAN:
LAN es la abreviatura de Local Area Network (Red de Área Local o simplemente Red Local). Una red local es la interconexión de varios ordenadores y periféricos. Su extensión esta limitada físicamente a un edificio o a un entorno de unos pocos kilómetros. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc; para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.

PUERTO USB:
Este puerto ha supuesto un importante avance cuando se trata de conectar varios dispositivos externos, ya que mejora el número de ellos que es posible conectar de manera simultánea, y con una importante velocidad de transferencia.
USB (Universal Serial Bus) permite conectar hasta 127 dispositivos y ya es un estándar en los ordenadores de última generación, que incluyen al menos dos puertos USB 1.1, o puertos USB 2.0 en los más modernos.

PUERTO SERIAL O SERIE:
Un puerto serie es una interfaz de comunicaciones entre ordenadores y periféricos en donde la información es transmitida bit a bit enviando un solo bit a la vez, en contraste con el puerto paralelo que envía varios bits a la vez. Entre el puerto serie y el puerto paralelo, existe la misma diferencia que entre una carretera tradicional de un sólo carril por sentido y una autovía con varios carriles por sentido.
En este puerto también se pude decir que es el antecesor de el usb ya que a través de el se conectan varios dispositivos
PUERTO VGA:
Video Graphics Array (VGA) es una norma de visualización de gráficos para ordenadores creada en 1987 por IBM. VGA pertenece a la familia de normas que comenzó con la MDA.
AUDIO LINE-OUT Y MICROFONO:
Se ubican en la placa de la tarjeta madre atravez de ellos se conectan los altavoces bocinas y micrófonos se emiten sonidos y se generan (micrófono).

sábado, 11 de septiembre de 2010

RANURAS DE EXPANSION (SLOTS)

(slot de expansión, zócalo de expansión). La ranura de expansión es un tipo de zócalo donde se insertan tarjetas de expansión (tarjeta o placa aceleradora de gráficos, placa de red, placa de sonido, etc.)
Todas las placas o tarjetas que hay en un gabinete de computadora están montadas sobre la placa madre, en sus correspondientes ranuras de expansión.
Las placas se insertan a las ranuras por presión y pueden fijarse al gabinete metálico empleando tornillos en la parte trasera.

Tipos de ranuras de expansión:
Hay diferentes tipos de ranuras de expansión para diferentes tipos de placas. En las PCs las ranuras más comunes son AGP y PCI y sus variantes. También fueron muy usadas las ISA en las PCs.

Los tipos de ranuras o slots de expansión son:

  •  AGP: las ranuras AGP se utilizan especialmente para tarjetas gráficas AGP. Comienzan a ser reemplazadas por las ranuras PCI Express. Tipos de AGP: AGP, AGP 2x, AGP 4x y AGP 8x.

  •  PCI: Las más populares para módems internos, tarjetas de red y de sonido.

  • XT: son muy antiguas, ya no se utilizan.

  • ISA: ya casi no se utilizan porque fueron reemplazados por los PCI. Los ISA fueron las primeras ranuras en usarse en computadoras personales.

  •  VESA: ranura introducida en 1992 por el comité VESA de la empresa NEC para dar soporte a las nuevas placas de video.

  • AMR: ranura de expansión diseñada por Intel para dispositivos de audio (como tarjetas de sonido) o módems que fue lanzada en 1998. Fueron superadas por tecnologías como ACR Y CNR. Todas son obsoletas.

  •  CNR: (Comunication and Network Riser), ranuras de expansión para dispositivos de comunicación como módems y tarjetas red, lanzadas en 2000 por Intel.

  • PCI-Express: mejora de los bus PCI. Probable reemplazante para todos los buses, incluidos PCI y AGP.

CONECTOR IDE Y ATA

La interfaz Paralell ATA conocida como IDE (Integrated device Electronics) oATA (Advanced Technology Attachment) controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAP I (Advanced Technology Attachment Packet Interface) añade además dispositivos como, las unidades CD-ROM.
IDE significa "Integrated device Electronics" --Dispositivo con electrónica integrada--que
indica que el controlador del dispositivo se encuentra integrado en la electrónica del
dispositivo.

ATA significa AT atachment y ATAPI, ATA packet interface.
Las 2 versiones son:
  • Paralell ATA
• ATA-1
o ATA-2 Soporta transferencias rápidas en bloque y multiword DMA.
o ATA-3 Es el ATA2 revisado.
o ATA-4 conocido como Ultra-DMA o ATA-33 que soporta transferencias en 33 MBps.
o ATA-5 o Ultra ATA/66. Originalmente propuesta por Quantum para
                 transferencias en 66 MBps.
o ATA-6 o Ultra ATA/100. Soporte para velocidades de 100MBps.
o ATA-7 o Ultra ATA/133. Soporte para velocidades de 133MBps.

  • Serial ATA. Remodelación de ATA con nuevos conectores (alimentación y datos), cables y tensión de alimentación

Configuraciones :
Las controladoras IDE (ATA) casi siempre están incluidas en la placa base, normalmente dos
conectores para dos dispositivos cada uno. De los dos discos duros,uno tiene que estar
como esclavo y el otro como maestro para que la controladora sepa a que dispositivo
enviar/recibir los datos. La configuración se realiza mediante jumpers. Habitualmente, un disco
duro puede estar configurado de una de estas tres formas:

• Como maestro ('master'). Si es el único dispositivo en el cable, debe tener esta
configuración, aunque a veces también funciona si está como esclavo. Si hay otro
dispositivo, el otro debe estar como esclavo.

• Como esclavo ('slave'). Debe haber otro dispositivo que sea maestro.

• Selección por cable (cable select). El dispositivo será maestro o esclavo en función de su posición en el cable. Si hay otro dispositivo, también debe estar configurado como
cable select. Si el dispositivo es el único en el cable, debe estar situado en la posición
de maestro.

HISTORIA DE LA MEMORIA RAM

“La memoria RAM es una memoria volátil, es un tipo de memoria temporal que pierden sus datos cuando se quedan sin energía. Se utiliza generalmente para almacenar temporalmente datos, con este trabajo pretendemos mostrar la historia y la evolución de la memoria RAM a través del tiempo desde un punto de vista técnico.” Mencionaremos clases de memorias”.

FPM-RAM

Fecha de introducción: 1990

Descripción de la tecnología

Aparece actualmente con dos velocidades de acceso, 60 nanosegundos las más rápidas y 70 nanosegundos las más lentas. Para sistemas basados en procesadores Pentium con velocidades de bus de 66Mhz (procesadores a 100, 133, 166 y 200Mhz) es necesario instalar memorias de 60 nanosegundos para no generar estados de espera de la cpu.

La FPMRAM se basa en que se supone que el siguiente acceso a un dato de memoria va a ser en la misma fila que el anterior, con lo que se ahorra tiempo en ese caso. El acceso más rápido de la FPM RAM es de 5-3-3-3 ciclos de reloj para la lectura a ráfagas de cuatro datos consecutivos.

Velocidad de transferencia: 200 MB/s

EDO-RAM

Fecha de introducción: 1994

Descripción de la tecnología

Extended Data Output-RAM. Evoluciona de la Fast Page; permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos).

Muy común en los Pentium MMX y AMD K6, con velocidad de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168.

Velocidad de transferencia: 320 MB/s


BEDO-RAM

Fecha de introducción: 1997

Descripción de la tecnología

Es una evolución de la EDO RAM y competidora de la SDRAM. Lee los datos en ráfagas, lo que significa que una vez que se accede a un dato de una posición determinada de memoria se leen los tres siguientes datos en un solo ciclo de reloj por cada uno de ellos, reduciendo los tiempos de espera del procesador. En la actualidad es soportada por los chipsets VIA 580VP, 590VP y 680VP. Al igual que la EDO RAM, la limitación de la BEDO RAM es que no puede funcionar por encima de los 66 MHz.

Velocidad de transferencia: Ofrece tasas de transferencia desde 533 MB/s hasta 1066 MB/s 1997

SDR SDRAM

Descripción de la tecnología

Memoria RAM dinámica de acceso síncrono de tasa de datos simple. La diferencia principal radica en que este tipo de memoria se conecta al reloj del sistema y está diseñada para ser capaz de leer o escribir a un ciclo de reloj por acceso, es decir, sin estados de espera intermedios. Este tipo de memoria incluye tecnología InterLeaving, que permite que la mitad del módulo empiece un acceso mientras la otra mitad está terminando el anterior.

Cuenta con tiempos de acceso de entre 25 y 10 ns y que se presentan en módulos DIMM de 168 contactos en ordenadores de sobremesa y en módulos SO-DIMM de 72, 100, 144, o 200 contactos en el caso de los ordenadores portátiles.




PC66

Fecha de introducción: 1997

Velocidad de transferencia

La velocidad de bus de memoria es de 66 MHz, temporización de 15 ns y ofrece tasas de transferencia de hasta 533 MB/s.

 PC100

Fecha de introducción: 1998

Velocidad de transferencia

La velocidad de bus de memoria es de 125 MHz, temporización de 8 ns y ofrece tasas de transferencia de hasta 800 MB/s.

 PC133

Fecha de introducción: 1999

Velocidad de transferencia

La velocidad de bus de memoria es de 133 MHz, temporización de 7,5 ns y ofrece tasas de transferencia de hasta 1066 MB/s.



DDR-SDRAM

Descripción de la tecnología

Son módulos compuestos por memorias síncronas (SDRAM), disponibles en encapsulado DIMM, que permite la transferencia de datos por dos canales distintos simultáneamente en un mismo ciclo de reloj. Los módulos DDRs soportan una capacidad máxima de 1 GB.

No hay diferencia arquitectónica entre los DDR SDRAM diseñados para diversas frecuencias de reloj, por ejemplo, el PC-1600 (diseñado para correr a 100 MHz) y el PC-2100 (diseñado para correr a 133 MHz). El número simplemente señala la velocidad en la cual el chip está garantizado para funcionar. Por lo tanto el DDR SDRAM puede funcionar a velocidades de reloj más bajas para las que fue diseñado o para velocidades de reloj más altas para las que fue diseñado.


 PC1600 - DDR200

Fecha de introducción: 2001

Velocidad de transferencia

1600 MB/s

 PC2100 - DDR266

Fecha de introducción: 2002

Velocidad de transferencia

2133 MB/s

 PC3200 – DDR400

Fecha de introducción: Junio del 2004

Velocidad de transferencia

Esta tecnología de memoria RAM DDR que trabaja a una frecuencia de 400 MHz con un bus de 200MHz y ofrece una tasa de transferencia máxima de 3.2 GB/s.


PC4200 – DDR533

Fecha de introducción: A mediados del 2004

Velocidad de transferencia

Tecnologías de memoria RAM que trabajan por encima de los 533MHz de frecuencia ya son consideradas DDR2 y estas tienen 240 pines. Trabaja a una frecuencia de 533 MHz con un bus de 133MHz y ofrece una tasa de transferencia máxima de 4.2 GB/s.


 PC4800 – DDR600


Fecha de introducción: A mediados del 2004

Velocidad de transferencia

Tecnología de memoria RAM DDR2 que trabaja a una frecuencia de 600 MHz con un bus de 150MHz y ofrece una tasa de transferencia máxima de 4.8 GB/s.


PC5300 – DDR667

Fecha de introducción: A finales del 2004

Velocidad de transferencia

Tecnología de memoria RAM DDR2 que trabaja a una frecuencia de 667 MHz con un bus de 166MHz y ofrece una tasa de transferencia máxima de 5.3 GB/s.


PC6400 – DDR800

Fecha de introducción: A finales del 2004

Velocidad de transferencia Tecnología de memoria RAM DDR2 que trabaja a una frecuencia de 800 MHz con un bus de 200MHz y ofrece una tasa de transferencia máxima de 6.4 GB/s.



 DDR3 – 800

Fecha de introducción: Junio del 2004

Velocidad de transferencia

Posee el mismo número de pines que la DDR2. A pesar de eso son incompatibles con las DDR2, puesto que la muesca esta ubicada en un lugar diferente. Trabajan a un voltaje de 1.5V mientras que las DDR2 trabajan a 2.5, dándoles la ventaja de menor consumo de energía. Trabaja a una frecuencia de 800 MHz con un bus de 100MHz y ofrece una tasa de transferencia máxima de 6.4 GB/s.


 DDR3 – 1066

Fecha de introducción: Mayo del 2007

Velocidad de transferencia Tecnología de memoria RAM DDR3 que trabaja a una frecuencia de 1066MHz con un bus de 133MHz y ofrece una tasa de transferencia máxima de 8.53 GB/s.



DDR3 – 1333

Fecha de introducción: Mayo de 2007

Velocidad de transferencia

De las primeras memorias clasificadas como de “Low-Latency” con velocidades de transferencia de 10.667 GB/s  1333 MHz

DDR3 – 1600

Fecha de introducción: Julio de 2007

Velocidad de transferencia de la información

12.80 GB/s a 1600 MHz

DDR3 – 1800

Fecha de introducción: Agosto de 2007

Velocidad de transferencia 14.40 GB/s a 1800 MHz

DDR3 – 2000

Fecha de introducción: Marzo de 2008 (pruebas)

Velocidad de transferencia

16.0 GB/s a 2000 MHz


RDRAM

Descripción de la tecnología

También llamadas Rambus, se caracterizan por utilizar dos canales en vez de uno con 184 pines y un bus de 16-bit


RAMBUS PC600

Fecha de introducción: 1999

Velocidad de transferencia

1.06 GB/s por canal, que hacen en total 2.12 GB/s a 266MHz

RAMBUS PC700

Fecha de introducción: 1999

Velocidad de transferencia

1.42 GB/s por canal, que hacen en total 2.84 GB/s a 356 MHz

RAMBUS PC800

Fecha de introducción: 1999

Velocidad de transferencia

1.6 GB/s por canal, que hacen en total 3.2 GB/s a 400 MHz


ESDRAM

Fecha de introducción: A mediados de año de 1999

Descripción de la tecnología

Esta memoria incluye una pequeña memoria estática en el interior del chip SDRAM. Con ello, las peticiones de ciertos ser resueltas por esta rápida memoria, aumentando las prestaciones. Se basa en un principio muy similar al de la memoria caché utilizada en los procesadores actuales.

Velocidad de transferencia de la información:

Hasta 1.6 GB/s a 133MHz y hasta 3.2 GB/s a 150 MHz

Flash Memory

Este tipo de memoria se utiliza principalmente para almacenamiento, pero actualmente Windows Vista nos la opción de utilizarla también como memoria RAM, a continuación las características:

Fecha de introducción

Fueron inventadas en 1984 (ambos tipos NOR y NAND) por Toshiba y presentadas también en ese año en el IEEE-IEDM, pero fueron introducidas al mercado (las de tipo NOR) en 1988 por Intel. En 1988 Toshiba anunció el tipo NAND en el ISSCC.

Descripción de la tecnología

Memoria no volátil con usos de en pequeños dispositivos basados en el uso de baterías como teléfonos móviles, PDA, pequeños electrodomésticos, cámaras de fotos digitales, reproductores portátiles de audio o simples dispositivos de almacenamiento portátiles. Con capacidades de almacenamiento de 64MB hasta 32GB, basadas en NOR y NAND.

Velocidad de transferencia

La velocidad de transferencia de estas tarjetas, al igual que la capacidad de las mismas, se ha ido incrementando progresivamente, generalmente la velocidad es mayor en lectura que en escritura. Las más comunes actualmente tienen una velocidad de transferencia de ~20 MB/s, aunque la nueva generación de tarjetas permitirá velocidades de hasta 30 MB/s.

QUE ES XT, AT Y ATX ?

XT

Placa madre XT (8.5 × 11" ó 216 × 279mm)

Extended Technology - Tecnología extendida). En el año 1983, tipo de computadora personal de IBM.

XT es un factor de forma creado por IBM para su primera computadora hogareña. La especificación era abierta, por lo tanto múltiples desarrolladores se basaron en esta convirtiéndose así en un estándar de facto.

El ordenador personal XT de IBM, acortado a menudo a PC XT o simplemente XT, fué el sucesor de IBM del PC original DE IBM. Fue lanzado como número del producto de IBM 5160 en 8 de marzo, 1983, y vino el estándar con a impulsión dura. Fue basado en esencialmente la misma arquitectura que la PC original, con solamente mejoras incrementales; una nueva arquitectura del autobús de 16 pedacitos seguiría en EN. El sistema fue pensado en gran parte para los usuarios del negocio, y corresponder PC 3270 el ofrecer terminal 3270 la emulación fue lanzada más adelante en octubre de 1983. XT está parado para eXtendido Technology.

El XT estándar vino originalmente con 128KB de la memoria, un 360KB 5 1/4 de doble cara " lleno-altura diskette conduzca, un 10MB Seagate ST-412 impulsión dura, un adaptador asincrónico (tarjeta serial) y una fuente de alimentación 130W. La placa base tenía ocho 8 ranuras de extensión del pedacito ISA, y Intel 8088 microprocesador que funciona en 4.77 megaciclos (con un zócalo para 8087 matemáticas coprocessor); el sistema operativo vendido generalmente con él era PC-DOS 2.0 y arriba. Las ocho ranuras de extensión eran un aumento sobre los cinco en la PC de IBM, aunque tres son tomados por el adaptador de la impulsión floja, el adaptador de la impulsión dura, y la tarjeta de Async. La especificación básica pronto fue aumentada para tener 256KB de la memoria como estándar.

Había dos versiones de la placa base de XT. La original podría apoyar hasta 256kB en la placa base sí mismo (cuatro bancos de las virutas 64kB), con un máximo de 640kB alcanzado usando tarjetas de la extensión. El segundo tablero de la revisión - introducido en 1986 - podría apoyar el 640kB entero en la placa base (dos bancos de 256kb saltan, dos bancos de 64kB). Los tableros anteriores podrían ser adaptados a las “últimas” especificaciones después de un par de modificaciones de menor importancia. La segunda placa base de la revisión también tenía un BIOS revisado, que incluyó la ayuda por el tiempo realzado del booting del teclado y del corte por la mitad.

Último XTs vino fábrica-cabido con las impulsiones flojas de la mitad-altura, tan bien como la opción para una impulsión dura 20MB y un teclado “realzado” (esencialmente a Modelo M sin el panel del LED).


 
AT
 
AT (Advanced Technology) es el formato de placa base empleado por el IBM AT y sus clones en formato sobremesa completo y torre completo. Su tamaño es de 12 pulgadas (305 mm) de ancho x 11-13 pulgadas de profundo. Fue lanzado al mercado en 1984. Este formato fue el primer intento exitoso de estandarización para las formas de placas base; antes de él, cada fabricante producía sus PC de formas diferentes haciendo casi imposible realizar intercambios de partes, actualizaciones de hardware y otras operaciones que hoy son comunes.

Si bien este estándar representó un gran avance sobre las plataformas propietarias que producía cada fabricante, con el tiempo fueron descubiertas varias falencias que hicieron necesario que se reemplazara. Su gran tamaño dificultaba la introducción de nuevas unidades de disco. Además su conector con la fuente de alimentación inducía fácilmente al error siendo numerosos los casos de gente que quemaba la placa al conectar indebidamente los dos juegos de cables (pese a contar con un código de color para situar 4 cables negros en la zona central). El conector de teclado es el mismo DIN 5 del IBM PC original.

En 1985 IBM introdujo Baby-AT, más pequeño y barato que AT. Pronto todos los fabricantes cambiaron a esta variante. Sin embargo las mismas especificaciones de este estándar hacían muy difícil seguir con el proceso de miniaturización, por lo que en 1995, Intel presento el estándar ATX, el cual era compatible con el nuevo procesador Pentium.

En 1997 ATX dejó atrás a AT, pasando a ser el nuevo estándar más popular.

ATX

El estándar ATX (Advanced Technology Extended) se desarrollo como una evolución del factor de forma[1] de Baby-AT, para mejorar la funcionalidad de los actuales E/S y reducir el costo total del sistema. Este fue creado por Intel en 1995. Fue el primer cambio importante en muchos años en el que las especificaciones técnicas fueron publicadas por Intel en 1995 y actualizadas varias veces desde esa época, la versión más reciente es la 2.2 [2] publicada en 2004.

Una placa ATX tiene un tamaño de 305 mm x 244 mm (12" x 9.6"). Esto permite que en algunas cajas ATX quepan también placas microATX.

Otra de las características de las placas ATX son el tipo de conector a la Fuente de alimentación, el cual es de 24 (20+4) contactos que permiten una única forma de conexión y evitan errores como con las fuentes AT y otro conector adicional llamado P4, de 4 contactos. También poseen un sistema de desconexión por software.

lunes, 30 de agosto de 2010

QUE MEDIDAS DE SEGURIDAD DEBEMOS SEGUIR?

CARGA ESTATICA

Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas eléctricas sobre las otras cargas situadas en su misma región del espacio".6

La carga estática es más habitual de lo que general mente se piensa. Todos hemos recibido un calambre alguna vez, al tocar a alguna persona o, por ejemplo, al salir del coche. Eso no es un problema grave para un coche. En cambio, podría despedirse para siempre de su procesador Pentium.

Para evitarlo, hay que asegurarse de que no estamos cargados estáticamente al tocar las piezas de un ordenador. Tenga en cuenta los siguientes puntos:

- Tenga cuidado con la ropa que se pone, la lana y la tela sintética se cargan estáticamente con gran facilidad.

- Incluso muchos tipos de alfombras suponen un peligro para la carga estática as i por si acaso no deje las piezas de su ordenador sobre la alfombra

- Transporte las piezas de su PC en fundas especiales antiestáticas, nunca en bolsas de plástico. En caso de que no tuviera también puede utilizar papel de aluminio.

- Antes de empezar a trabajar descárguese estáticamente tocando algún objeto metálico, basta con tocar la misma caja de su PC.

HERRAMIENTAS NECESARIAS PARA UN MANTENIMIENTO:

El mantenimiento para una computadora es aquel que nos sirve para solucionar un problema en la computadora, ya sea tanto en Hardware como en Software. El mantenimiento consiste en dar una limpieza profunda a la PC y esta consiste en:


El SCAN DISK: Es aquel que se encarga de buscar errores en el disco y los repara. El Desfragmentador de disco duro: Libera espacio en el disco, acomoda los archivos que son útiles para el usuario creando así más espacio y los archivos que ya no sirven los elimina.

El Antivirus: Los virus de computadoras consisten en sectores de código que dañan o borran información, archivos o programas de software en la computadora,

Lo visto arriba son las herraminetas necesarias para el mantenimiento interno (software) de la computadora y asi como hay mantenimineto de software asi igual existe el del hardware. ahora veremos las herraminetas necesarias para llevar a cabo el mantenimineto del hardware.
Recuerde que para cualquier labor de mantenimiento se debe utilizar la herramienta adecuada. En cuanto al mantenimiento preventivo, podemos mencionar las siguientes:


Un juegode atornilladores (Estrella. hexagonal o Torx, de pala y de copa) Una pulsera antiestática Una brocha pequeña suave Copitos de algodónUn soplador o "blower Trozos de tela secos Un disquete de limpieza Alcoholisopropílico Limpia contactos en aerosol Silicona lubricante o grasa blanca Un borrador.


Existen varios procesos que se deben realizar antes cíe iniciar un mantenimiento preventivo para determinar el correcto funcionamiento de los componentes. Estos son:


• Probar la unidad de disco flexible. Una forma práctica de realizar este proceso es tener un disco antivirus lo más actualizado posible y ejecutar el programa. Esto determina el buen funcionamiento de la unidad y a la vez. Se verifica que no haya virus en el sistema.

• Chequear el disco duro con el comando CHKDSK del DOS.

• Si se tiene multimedia instalada, puede probarse con un CD de música, esto determina que los altavoces y la unidad estén bien.

• Realice una prueba a todos los periféricos instalados. Es mejor demorarse un poco para determinar el funcionamiento correcto de la computadoray sus periféricos antes de empezar a desarmar el equipo.

• Debemos ser precavidos con el manejo de los tornillos del sistema en el momento de desarmarlo. Los tornillos no están diseñados para todos los puntos. Es muy importante diferenciar bien los que son cortos de los medianos y de los largos. Por ejemplo, si se utiliza un tornillo largo para montar el disco duro, se corre el riesgo de dañar la tarjeta interna del mismo. Escoja la mejor metodología según sea su habilidad en este campo:

Algunos almacenan lodos los tomillos en un solo lugar, otros los clasifican y otros los ordenan según se va desarmando para luego formarlos en orden contrario en el momento de armar el equipo.

• El objetivoprimordial de un mantenimiento no es desarmar y armar, sino de limpiar, lubricar y calibrar los dispositivos. Elementos como el polvo son demasiado nocivos para cualquier componente electrónico, en especial si se trata de elementos con movimiento tales como los motoresde la unidad de disco, el ventilador, etc.

• Todas estas precauciones son importantes para garantizar que el sistema de cómputo al que se le realizará.

Debemos tener en cuenta que hay que respetar las medidas de seguridad al momento de realizar un mantenimineto de hardaware. Igual en las herramientas para el desarmado de las piezas que contiene la computadora pues si no usamos las adecuadas pueden los tornillos transroscarse y asi perjudicar en el proceso.

viernes, 27 de agosto de 2010

CON QUE FRECUENCIA SE DEBE REALIZAR UN MANTENIMIENTO?

 si nos referimos a limpieza fisica...  recomendaria dependiendo del area donde te encuentres .. como sabes el factor polvo es enemigo de las piezas de un computador... si el terreno es muy hostil por lo menos 3 veces al 4 al año, si es ciudad por lo menos 2 veces..


 Si nos referimos a software.. esta recomendado formatear la pc cada 6 meses.. ya que tanto windows xp como windows vista, generan demasiados archivos temporales y demas errores en el registro... ojo que el formateo no daña el disco, si no haces esto podrias tener problemas de pantalla azul... o derrepente que o reconosca disco.. por lo general errores con archivos huerfanos.

 Como podemos darnos cuanta la limpieza es mui importante tanto en el interior como en lo exterior de una pc asi que.tratemos de que se realice frecuentemente siempre y cuando tener en cuenta que hay partes delicadas en el interior de la computadora y hacerlo con mucho cuidado.
Asi podremos tener una computadora en muy buen estado.

miércoles, 25 de agosto de 2010

¿QUE ES EL MANENIMIENTO EN UN EQUIPO DE COMPUTO?

El mantenimiento del computador es aquel que debemos realizar al computador cada cierto tiempo, bien sea para corregir fallas existentes o para prevenirlas.

El periodo de mantenimiento depende de diversos factores: la cantidad de horas diarias de operación, el tipo de actividad (aplicaciones) que se ejecutan, el ambientedonde se encuentra instalada (si hay polvo, calor, etc.), el estadogeneral (si es un equipo nuevo o muy usado), y el resultado obtenido en el último mantenimiento.

Una PC de uso personal, que funcione unas cuatro horas diarias, en un ambiente favorable y dos o menos años de operación sin fallas graves, puede resultar aconsejable realizar su mantenimiento cada dos o tres meses de operación, aunque algunas de las actividades de mantenimiento pudieran requerir una periodicidad menor.

En cambio si la PC se usa más de 4 horas diarias, tiene mucho tiempo de operación, se recomienda hacer un mantenimiento por lo menos una vez al mes.

No debe considerarse dentro de esta actividad la limpieza externa y el uso sistemático de cubiertas protectoras de polvo, insectos y suciedad ambiental, ni tampoco la realización de copias de seguridad (backup), o la aplicación de barreras anti-virus, proxies o cortafuegos (firewalls) que dependen de las condiciones específicas de operación y entorno ambiental.
veamos los dos tipos de mantenimiento:

MANTENIMIENTO PREVENTIVO:
El mantenimiento preventivo permite detectar fallos repetitivos, disminuir los puntos muertos por paradas, aumentar la vida útil de equipos, disminuir costos de reparaciones, detectar puntos débiles en la instalación entre una larga lista de ventajas.



Relativo a la informática, el mantenimiento preventivo consiste en la revisión periódica de ciertos aspectos, tanto de hardware como de software en un pc. Estos influyen en el desempeño fiable del sistema, en la integridad de los datos almacenados y en un intercambio de información correctos, a la máxima velocidad posible dentro de la configuración optima del sistema.

Dentro del mantenimiento preventivo existe software que permite al usuario vigilar constantemente el estado de su equipo, asi como también realizar pequeños ajustes de una manera fácil.

Además debemos agregar que el mantenimiento preventivo en general se ocupa en la determinación de condiciones operativas, de durabilidad y de confiabilidad de un equipo en mención este tipo de mantenimiento nos ayuda en reducir los tiempos que pueden generarse por mantenimiento correctivo.

En lo referente al mantenimiento preventivo de un producto software, se diferencia del resto de tipos de mantenimiento (especialmente del mantenimiento perfectivo) en que, mientras que el resto (correctivo, evolutivo, perfectivo, adaptativo...) se produce generalmente tras una petición de cambio por parte del cliente o del usuario final, el preventivo se produce tras un estudio de posibilidades de mejora en los diferentes módulos del sistema.



Aunque el mantenimiento preventivo es considerado valioso para las organizaciones, existen una serie de fallas en la maquinaria o errores humanos a la hora de realizar estos procesos de mantenimiento. El mantenimiento preventivo planificado y la sustitución planificada son dos de las tres políticas disponibles para los ingenieros de mantenimiento.

Algunos de los métodos más habituales para determinar que procesos de mantenimiento preventivo deben llevarse a cabo son las recomendaciones de los fabricantes, la legislación vigente, las recomendaciones de expertos y las acciones llevadas a cabo sobre activos similares.

El primer objetivo del mantenimiento es evitar o mitigar las consecuencias de los fallos del equipo, logrando prevenir las incidencias antes de que estas ocurran. Las tareas de mantenimiento preventivo incluyen acciones como cambio de piezas desgastadas, cambios de aceites y lubricantes, etc. El mantenimiento preventivo debe evitar los fallos en el equipo antes de que estos ocurran.

MANTENIMIENTO CORRECTIVO:
El mantenimiento correctivo o mantenimiento por rotura fue el esbozo de lo que hoy día es el mantenimiento. Esta etapa del mantenimiento va precedida del mantenimiento planificado.

Hasta los años 50, en pleno desarrollo de la producción en cadena y de la sociedad de consumo, lo importante era producir mucho a bajo coste. En esta etapa, el mantenimiento era visto como un servicio necesario que debía costar poco y pasar inadvertido como señal de que "las cosas marchaban bien".

En esta etapa, "mantener" ES sinónimo de "reparar" y el servicio de mantenimiento operaba con una organización y planificación mínimas (mecánica y engrase) pues la industria no estaba muy mecanizada y las paradas de los equipos productivos no tenían demasiada importancia al tratarse de maquinaria sencilla y fiable y, debido a esta sencillez, fácil de reparar. La política de la empresa era la de minimizar el costo de mantenimiento.

Este mantenimiento agrupa las acciones a realizar en el software (programas, bases de datos, documentación, etc.) ante un funcionamiento incorrecto, deficiente o incompleto que por su naturaleza no pueden planificarse en el tiempo.

Estas acciones, que no implican cambios funcionales, corrigen los defectos técnicos de las aplicaciones. Entendemos por defecto una diferencia entre las especificaciones del sistema y su funcionamiento cuando esta diferencia se produce a causa de errores en la configuración del sistema o del desarrollo de programas. Se establecerá un marco de colaboración que contemple las actividades que corresponden a la garantía del actual proveedor y las actividades objeto de este contrato. La corrección de los defectos funcionales y técnicos de las aplicaciones cubiertas por el servicio de mantenimiento, incluye:

• Recogida, catalogación y asignación de solicitudes y funciones.

• Análisis del error / problema.

• Análisis de la solución.

• Desarrollo de las modificaciones a los sistemas, incluyendo pruebas unitarias.

• Pruebas del sistema documentadas.

• Mantenimiento de las documentaciones técnicas y funcionales del sistema.

CONCLUSION:
El problema es que las computadoras se han vuelto tan confiables y convenientes, que damos por hecho su operación eficaz.

Sin embargo, al igual que una casa o un automóvil, las computadoras ocasionalmente requieren atención.

Si se realiza las siguientes labores de mantenimiento con frecuencia la computadora funcionará de manera segura y sin problemas:

1. Diagnóstico.

2. Limpieza.

3. Desfragmentación.

De todos los componentes de una PC, el disco duro es el más sensible y el que más requiere un cuidadoso mantenimiento.

Por esta razón periódicamente debemos utilizar el Scandisk u otro utilitario para detectar si hay errores en el disco duro, y de haberlos tratar de repararlo.

Una vez esto hecho procedemos a realizar una limpieza profunda de todos los archivos innecesarios que ponen lento al sistema, tales archivos son: programas antiguos, archivos temporales de internet, instaladores de programas, entrada de registrosinválidas, accesos directos dañados, los archivos contenido en la papelera de reciclaje, entre otros.

De esta manera conseguiremos una PC más rápida, eficiente, optima, segura y menos propensa a perder información.