jueves, 26 de mayo de 2011

CONCEPTO DE COMPUTADORA

Una computadora o computador (del latín computare -calcular-), también denominada ordenador (del francés ordinateur, y éste del latín ordinator), es una máquin electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.


GENERACIONES DE COMPUTADORAS

PRIMERA GENERACION (1951-1958) En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos. Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

Usaban tubos al vacío para procesar información.
Usaban tarjetas perforadas para entrar los datos y los programas.
Usaban cilindros magnéticos para almacenar información e instrucciones internas.
Eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas.
Se comenzó a utilizar el sistema binario para representar los datos.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de 10,000 dólares).

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.


SEGUNDA GENERACION (1958-1964)
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero

La segunda generación de los transistores reemplazó a las válvulas de vacío en los circuitos de las computadoras.
Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.
Las características más relevantes de las computadoras de la segunda generación son:
  • Estaban construidas con electrónica de transistores
  • Se programaban con lenguajes de alto nivel
  • 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU
  • 1956, IBM vendió su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un coste de $10.000 por megabyte.
  • El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).
  • 1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizaba tarjetas perforadas. Demostró ser una computadora de propósito general y 12.000 unidades fueron vendidas, haciéndola la máquina más exitosa en la historia de la computación. tenía una memoria de núcleo magnético de 4.000 caracteres (después se extendió a 16.000 caracteres). Muchos aspectos de sus diseños estaban basados en el deseo de reemplazar el uso de tarjetas perforadas, que eran muy usadas desde los años 1920 hasta principios de los '70.
  • 1960, IBM lanzó el mainframe IBM 1620 basada en transistores, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y se vendieron aproximadamente 2.000 unidades. Utilizaba una memoria de núcleo magnético de más de 60.000 dígitos decimales.
  • DEC lanzó el PDP-1, su primera máquina orientada al uso por personal técnico en laboratorios y para la investigación.:%
  • 1964, IBM anunció la serie 360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidad, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía dos líneas separadas, una línea de productos "comerciales" y una línea "científica". El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 System/360 habían sido entregadas en 1968.

      


TERCERA GENERACION (1964-1971)
La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El ordenador IBM-360 dominó las ventas de la tercera generación de ordenadores desde su presentación en 1965. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.

A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del hols en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie 360.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Esto es lo que ocurrió en (1964-1974) que comprende de la Tercera generación de computadoras:
  • Menor consumo de energía
  • Apreciable reducción del espacio
  • Aumento de fiabilidad
  • Teleproceso
  • Multiprogramación
  • Renovación de periféricos
  • Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
Características de está generación:
·  Se desarrollaron circuitos integrados para procesar información.
·  Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip"    
·  Los circuitos integrados recuerdan los datos, ya que almacenan la información
    Es una pieza de silicio que contiene los componentes electrónicos en miniatura
    Llamados semiconductores. como cargas eléctricas.
·  Surge la multiprogramación.
·  Las computadoras pueden llevar a cabo ambas tareas de procesamiento o
    Análisis matemáticos.
·  Emerge la industria del "software".
·  Se desarrollan las minicomputadoras IBM 360 y DEC PDP-1.
· Otra vez las computadoras se tornan más pequeñas, más ligeras y más
   Eficientes.
·  Consumían menos electricidad, por lo tanto, generaban menos calor.



CUARTA GENERACION (1971-1988)
La denominada Cuarta Generación (1971 a la fecha) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.

Aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".
Características de esta generación:
  Se desarrolló el microprocesador.
  Se colocan más circuitos dentro de un "chip".
  "LSI - Large Scale Integration circuit".
  "VLSI - Very Large Scale Integration circuit".
  Cada "chip" puede hacer diferentes tareas.
  Un "chip" sencillo actualmente contiene la unidad de control y la unidad de
     aritmética/lógica.  El  Tercer componente, la memoria primaria, es operado por otros
     "chips".
  Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio.
  Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.
  Se desarrollan las supercomputadoras.


QUINTA GENERACION (1988-AL PRESENTE)
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto lanzado por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software  usando el lenguaje PROLOG al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

  • Se desarrollan las microcomputadoras, o sea, computadoras personales o PC.


  • Se desarrollan las supercomputadoras. 






  • BIOS Y SU FUNCION

    La BIOS mejor conocido como memoria ROM sus siglas significan (imput-output system) (sistema basico de entrada y salida). es un chip cargdo con un software que se encarga de localizar y reconocer todos los dispositivos necesarios para cargar el sistema operatio de la RAM. Tambien permite el buen funcionamiento y configuramiento de hardware.

    Por un lado tenemos el Hardware, que no es ni mas ni menos que un chip, en el cual se almacena el Software del mismo (esta seria la segunda parte).

    Dentro de
    este pequeño chip, el software cumple con la función de administrar, y reconocer los dispositivos que tenemos instalados, (Discos rígidos, Placa de Audio, Video, Red, USB, módem, etc.).
    También identifica el
    flujo de corriente que necesitara cada dispositivo, para funcionar correctamente. Estos flujos de corriente son denominados IRQ1, IRQ2… etc. Los números de cada IRQ serán correspondientes a cada dispositivo que integren nuestra placa base.

    Cuando compramos una
    placa base nueva, la BIOS viene configurada por defecto. A medida que vamos incorporando diversos dispositivos, esta se encargara de asignar las correspondientes IRQ a cada uno.

    A veces suele
    suceder que dos dispositivos distintos compartan una misma IRQ, motivo por el cual se genera un conflicto, y uno u ambos dispositivos dejan de funcionar. En esta parte ya deberemos intervenir nosotros para asignar una IRQ distinta, que permita el funcionamiento de los dispositivos.

    La BIOS cumple un papel fundamental en el funcionamiento de nuestro PC, siendo el único dispositivo que conoce realmente el hardware de nuestro ordenador y el que se encarga de su inicialización.

    El arranque del PC se realiza a través de la BIOS, cargándose un software de control en cada arranque, el cual se encarga de realizar un testeo del hardware del ordenador a fin de verifiar y por fin argar el SO en la memoria.

    Igualmente, existen unos archivos que configurarán el ordenador de acuerdo a ciertas peculiaridades, realizándose a través de los ficheros denominados CONFIG.SYS y AUTOEXEC.BAT.
    La existenia de estos archivos no es precisa para el arranque del PC, pudiendo éste arrancar normalmente sin ellos.

    Así pues, la BIOS arranca en dos fases:

    - Primero realiza un reconocimiento y testeo del hardware presente en el ordenador.
    - Posteriormente realiza el arranque del SO, para lo cual debe cargar en memoria ciertas rutinas a fin de comuniarse con los distintos dispositivos hardware.



    Códigos de error de la BIOS

    Si durante el proceso de testeo del hardware la BIOS detecta alguna anomalía, nos lo hará saber mediante un sistema de pitidos.
    Este código no está estandarizado y cada fabricante tiene sus normas.

    Actualización de la BIOS

    La BIOS es un ciruito integrado que contine un programa. Con el tiempo surgen nuevas funciones y se corrigen defectos por lo cual las firmas comerciales pueden sacar nuevas versiones a fin de actualizar nuestra BIOS.

    Principales fabricantes de BIOS

    Existen muy pocos fabricantes de BIOS,

    - AWARD,
    - AMI (American Megatrends),
    - PHOENIX 


    PLACA MADRE

    La placa base, también conocida como placa madre o tarjeta madre (del inglés motherboard o mainboard) es una placa de circuito impreso a la que se conectan los componentes que constituyen la computadora u ordenador. Tiene instalados una serie de circuitos integrados, entre los que se encuentra el chipset, que sirve como centro de conexión entre el microprocesador, la memoria de acceso aleatorio (RAM), las ranuras de expansión y otros dispositivos.
    Va instalada dentro de una caja o gabinete que por lo general está hecha de chapa y tiene un panel para conectar dispositivos externos y muchos conectores internos y zócalos para instalar componentes dentro de la caja.
    La placa base, además, incluye un firmware llamado BIOS, que le permite realizar las funcionalidades básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga del sistema operativo.

    La tarjeta madre es el componente más importante de un computador, ya que en él se integran y coordinan todos los demás elementos que permiten su adecuado funcionamiento. De este modo, una tarjeta madre se comporta como aquel dispositivo que opera como la plataforma o circuito principal de una computadora.
    La tremenda importancia que posee una tarjeta madre radica en que, en su interior, se albergan todos los conectores que se necesitan para cobijar a las demás tarjetas del computador. De esta manera, una tarjeta madre cuenta con los conectores del procesador, de la memoria RAM, del Bios, asi como también, de las puertas en serie y las puertas en paralelo. En este importante tablero es posible encontrar también los conectores que permiten la expansión de la memoria y los controles que administran el buen funcionar de los denominados accesorios periféricos básicos, tales como la pantalla, el teclado y el disco duro.
    Una vez que la tarjeta madre ha sido equipada con esta gran cantidad de elementos que se han mencionado, se le llama “Chipset” o conjunto de procesadores. En los computadores Apple a esta tarjeta se le llama "tarjeta lógica" o simplemente mobo.
    La tarjeta madre es también la llamada “Placa Central” del computador, y como ya se mencionaba, en ella podemos encontrar todos los conectores que posibilitan la conexión con otros microprocesadores, los que le permiten la realización de tareas mucho más específicas. De este modo, cuando en un computador comienza un proceso de datos, existen múltiples partes que operan realizando diferentes tareas, cada uno llevando a cabo una parte del proceso. Sin embargo, lo más importante será la conexión que se logra entre el procesador central, también conocido con el nombre de CPU (este se confunde muchas veces con la tarjeta madre, pero la CPU va conectada a esta), y los otros procesadores.
    A la hora de elegir la tarjeta madre que utilizaremos en nuestro computador es de suma importancia tener en cuenta las recomendaciones que el fabricante de éste haya realizado en el manual de instrucciones, ya que el instalar placas madre con características no compatibles con los requerimientos del fabricante, hace que estos dispositivos, que por lo general no presentan fallas luego de mucho tiempo de uso, fallen de manera inesperada.

       

    miércoles, 25 de mayo de 2011

    CABLE IDE

    El cable IDE es un tipo de cable, generalmente gris, que se utiliza para conectar un conector IDE de la placa madre hacia un dispositivo de almacenamiento (especialmente discos duros y unidades de discos ópticos).

    Generalmente cada cable IDE permite conectar dos dispositivos, el problema es que sólo un dispositivo puede estar transfiriendo información a la vez.

    Electrónica integrada de la impulsión (IDE) de los cables de conectar discos duros, unidades de CD, y dispositivos de almacenamiento a los ordenadores. Que se componen de varios hilos conductores funcionando en paralelo y direcciones que forman una amplia y plana cinta. Están disponibles en longitudes de hasta 36 pulgadas, pero las normas actuales recomiendan sólo 18 pulgadas para ser utilizado en las computadoras.
    El estándar ATA (Adjunto de Tecnología Avanzada) es una interfaz estándar que permite conectar distintos periféricos de almacenamiento a equipos de PC. El estándar ATA fue desarrollado el 12 de mayo de 1994 por el ANSI (documento X3.221-1994).
    A pesar del nombre oficial "ATA", este estándar es más conocido por el término comercial IDE (Electrónica de Unidad Integrada) o IDE Mejorado (EIDE o E-IDE).
    El estándar ATA fue diseñado originalmente para conectar discos duros; sin embargo, se desarrolló una extensión llamada ATAPI (Paquete de Interfaz ATA) que permite interconectar otros periféricos de almacenamiento (unidades de CD-ROM, unidades de DVD-ROM, etc.) en una interfaz ATA.
    Dado que ha surgido el estándar Serial ATA (escrito S-ATA o SATA), lo que le permite la transferencia de datos a través de un vínculo serial, en algunos casos el término "Paralelo ATA" (escrito PATA o P-ATA) reemplaza al término "ATA" para diferenciar entre los dos estándares.

    DIFERENCIA ENTRE UN CABLE (FAJA) DE DATOS DE 40 HILOS Y UN CABLE (FAJA) DE DATOS DE 80 HILOS.

    La diferencia fundamental reside en que el cable de 80 hilos lleva 1 hilo a masa (GND) por cada hilo de tension, con lo cual hay el doble (40 hilos de tension y 40 hilos a masa intercalados), cosa que los de 40 hilos no (solo llevan los de tension).

    Estos hilos extras están unicamente para asilar cada hilo de datos de los demás, y que las perturbaciones eléctricas no molesten las señales de los otros hilos de datos.

    Además los cables de 80 hilos permiten una velocidad mayor de transferencia que los de 40.

    En la siguiente figura vemos un ejemplo de cada uno.
     
              CABLE IDE 40 HILOS
                CABLE IDE DE 80 HILOS












    martes, 24 de mayo de 2011

    MICROPROCESADOR

    El microprocesador controla todos los dispositivos logicos conectados al computador por medio de la placa madre. Este se situa en una base que recibe el nombre de Socket, compuesta por 370 pines.
    El microprocesador, o simplemente procesador, es el circuito integrado central y más complejo de una computadora u ordenador; a modo de ilustración, se le suele asociar por analogía como el "cerebro" de una computadora.
    El procesador es un circuito integrado constituido por millones de componentes electrónicos integrados. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.
    Desde el punto de vista funcional es, básicamente, el encargado de realizar toda operación aritmético-lógica, de control y de comunicación con el resto de los componentes integrados que conforman un PC, siguiendo el modelo base de Von Neumann. También es el principal encargado de ejecutar los programas, sean de usuario o de sistema; sólo ejecuta instrucciones programadas a muy bajo nivel, realizando operaciones elementales, básicamente, las aritméticas y lógicas, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
    Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control y una unidad aritmético lógica (ALU), aunque actualmente todo microprocesador también incluye una unidad de cálculo en coma flotante, (también conocida como "co-procesador matemático"), que permite operaciones por hardware con números decimales, elevando por ende notablemente la eficiencia que proporciona sólo la ALU con el cálculo indirecto a través de los clásicos números enteros.
    El microprocesador está conectado, generalmente, mediante un zócalo específico a la placa base. Normalmente para su correcto y estable funcionamiento, se le adosa un sistema de refrigeración, que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula del microprocesador suele colocarse pasta térmica para mejorar la conductividad térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.
    La "velocidad" del microprocesador suele medirse por la cantidad de operaciones por ciclo de reloj que puede realizar y en los ciclos por segundo que este último desarrolla, o también en MIPS. Está basada en la denominada frecuencia de reloj (oscilador). La frecuencia de reloj se mide hercios, pero dada su elevada cifra se utilizan múltiplos, como el megahercio o el gigahercio.
    Cabe destacar que la frecuencia de reloj no es el único factor determinante en el rendimiento, pues sólo se podría hacer comparativa entre dos microprocesadores de una misma microarquitectura.
    Es importante notar que la frecuencia de reloj efectiva no es el producto de la frecuencia de cada núcleo físico del procesador por su número de núcleos, es decir, uno de 3 GHz con 6 núcleos físicos nunca tendrá 18 GHz, sino 3 GHz, independientemente de su número de núcleos.
    Hay otros factores muy influyentes en el rendimiento, como puede ser su memoria caché, su cantidad de núcleos, sean físicos o lógicos, el conjunto de instrucciones que soporta, su arquitectura, etc; por lo que sería difícilmente comparable el rendimiento de dos procesadores distintos basándose sólo en su frecuencia de reloj.
    Un computador de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador cuasi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento.
    Estos últimos años ha existido una tendencia de integrar el mayor número de elementos de la PC dentro del propio procesador, aumentando así su eficiencia energética y su rendimiento. Una de las primeras integraciones, fue introducir la unidad de coma flotante dentro del encapsulado, que anteriormente era un componente aparte y opcional situado también en la placa base, luego se introdujo también el controlador de memoria, y más tarde un procesador gráfico dentro de la misma cámara, aunque no dentro del mismo encapsulado. Posteriormente se llegaron a integrar completamente en el mismo encapsulado (die).
    Respecto a esto último, compañías tales como Intel ya planean integrar el puente sur dentro del microprocesador, eliminando completamente ambos circuitos auxiliares de la placa.
    También la tendencia general, más allá del mercado del PC, es integrar varios componentes en un mismo chip para dispositivos tales como Tablet PC, teléfonos móviles, videoconsolas portátiles, etc. A estos circuitos integrados "todo en uno" se los conoce como system on a chip; por ejemplo nVidia Tegra o Samsung Hummingbird, ambos integran microprocesador, unidad de procesamiento gráfico y controlador de memoria dentro de un mismo circuito integrado.

    BIOS DE RELOJ

    Todos las placas bases disponen de una bateria o pila que maneja una carga de 3 volteos que se encarga de mantener la alimentacion electrica del reloj de tiempo real, se encarga de alimentar los parametros almacenados en la ROM la vida de esta bateria suele ser de 3 a 5 años, cuando el sistema detecta que la bateria esta baja de carga muestra un mensaje al arancar el PC que muestra lo siguiene "checksum Failvre", este es un sistema de que debemos configurar el equipo  o bien cambiar la bateria

    Como dijimos, la pila conserva los datos de la BIOS cuando el ordenador está apagado. Dura mucho (unos tres años de media), pero al final se agota. Para cambiarla, apunte todos los datos de la BIOS, desconecte todo y sustitúyala por una igual, o bien por un paquete externo de baterías que se conectan a un jumper (un microinterruptor) de la placa base; ambas cosas las debería encontrar en tiendas de electrónica.
    Después conecte todo, arranque el ordenador, entre en la BIOS y reintroduzca todos los datos, ya que se habrán borrado. ¿Se imagina si no tuviera una copia escrita qué aventura? A mí me pasó hace años, y no me quedó más remedio que aprender sobre BIOS... bueno, no hay mal que por bien no venga.






    lunes, 23 de mayo de 2011

    MEMORIA

    Hacemos referencia especificamente a la memoria RAM, esta es una memoria de tipo volatil, es decir que almacena informaciòn mientras la computadora se mantenga funcionando.

    Memoria es un término genérico usado para designar las partes de la computadora o de los dispositivos periféricos donde todos los datos y programas son almacenados.

    Hablando exclusivamente de la computadora, dentro del gabinete, y acopladas a la placa madre, podemos encontrar dos tipos de memorias.

    Memoria RAM - Random Access Memory (Memoria de Acceso Aleatorio)

    La memoria RAM es la memoria de almacenamiento temporal, que almacena los programas y los datos que están siendo procesados, solamente durante el procesamiento. Es una memoria volátil, los datos sólo permanecen en ella almacenados mientras la computadora este prendida. En el momento que la PC se apaga, todos esos datos se pierden.

    Hay algunos conceptos que deben conocerse para que sea más fácil comprender la memoria RAM de las computadoras modernas:

    - Es usada para el almacenamiento temporal de datos o instrucciones.
    - Cuando escribimos un texto en una computadora, la información es almacenada en la memoria RAM, así como los datos de entrada.
    - La RAM también es conocida como memoria de escritura y lectura, pues leemos o escribimos informaciones en este tipo de memoria.

    La memoria RAM es fundamental para lograr una buena performance de nuestro equipo.

    Memoria ROM - Read Only Memory (Memoria sólo de Lectura)

    Es usada para almacenar aplicaciones y /o datos permanentes o raramente alterados. La información generalmente es colocada en el chip de almacenamiento cuando es fabricado y el contenido de la ROM no puede ser alterado por un programa de usuario. Por ese motivo es una memoria sólo de lectura.

    La ROM se constituye en un chip que posee un software determinado y no programado por el usuario. De esta forma la ROM es hardware y software a la vez (a esto se da el nombre de firmware). Por lo tanto, firmware, es un hardware que contiene un software ya determinado, asociando así las dos capacidades. Ejemplo: un CD de juegos play station.

    En resumen, la información almacenada en ROM no es volátil, o sea, no es perdida cuando la computadora se apaga. La RAM es volátil, y las informaciones almacenadas son perdidas cuando se apaga la maquina.


    La frase memoria RAM se utiliza frecuentemente para referirse a los módulos de memoria que se usan en los computadores personales y servidores. En el sentido estricto, los módulos de memoria contienen un tipo, entre varios de memoria de acceso aleatorio, ya que las ROM,memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición. Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso, en otros dispositivos como las consolas de videojuegos, esa misma memoria va soldada sobre la placa principal.
    Su capacidad se mide en bytes, y dada su naturaleza siempre binaria, sus múltiplos serán representados en múltiplos binarios tales como Kilobyte, Megabyte, Gigabyte... y así sucesivamente.

    La historia está marcada por la necesidad del volumen de datos. Originalmente, los datos eran programados por el usuario con movimientos de interruptores. Se puede decir que el movimiento de datos era bit a bit. Las necesidades apuntaron a una automatización y se crearon lo que se denomina byte de palabra. Desde una consola remota, se trasladaban los interruptores asignándoles valores de letra, que correspondían a una orden de programación al microprocesador. Así, si se deseaba programar una orden NOT con dos direcciones distintas de memoria, solo se tenía que activar el grupo de interruptores asociados a la letra N, a la letra O y a la letra T. Seguidamente, se programaban las direcciones de memoria sobre las cuales recibirían dicho operador lógico, para después procesar el resultado. Los interruptores evolucionaron asignándoles una tabla de direccionamiento de 16x16 bytes, en donde se daban 256 valores de byte posibles (la actual tabla ASCII). En dicha tabla, se traducen lo que antes costaba activar 8 interruptores por letra, a una pulsación por letra (de cara al recurso humano, un ahorro en tiempos. Una sola pulsación, predisponía 1 byte en RAM... o en otras palabras, cambiaba la posición de 8 interruptores con una sola pulsación). Se usó el formato de máquina de escribir, para representar todo el alfabeto latino, necesario para componer palabras en inglés; así como los símbolos aritméticos y lógicos que permitían la escritura de un programa directamente en memoria RAM a través de una consola o teclado.
    En origen, los programadores no veían en tiempo real lo que tecleaban, teniendo que imprimir de cuando en cuando el programa residente en memoria RAM y haciendo uso del papel a la hora de ir modificando o creando un nuevo programa. Dado que el papel era lo más accesible, los programas comenzaron a imprimirse en un soporte de celulosa más resistente, creando lo que se denominó Tarjeta perforada. Así pues, los programas constaban de una o varias tarjetas perforadas, que se almacenaban en archivadores de papel con las típicas anillas de sujeción. Dichas perforaciones, eran leídas por un dispositivo de entrada, que no era muy diferente al teclado y que constaba de pulsadores que eran activados o desactivados, dependiendo de si la tarjeta en la posición de byte, contenía una perforación o no. Cada vez que se encendía la máquina, requería de la carga del programa que iba a ejecutar.

    CHIPSET

    Circuito integrado auxiliar o chipset es el conjunto de circuitos integrados diseñados con base a la arquitectura de un procesador (en algunos casos diseñados como parte integral de esa arquitectura), permitiendo que ese tipo de procesadores funcionen en una placa base. Sirven de puente de comunicación con el resto de componentes de la placa, como son la memoria, las tarjetas de expansión, los puertos USB, ratón, teclado, etc.
    Las placas base modernas suelen incluir dos integrados, denominados Norte y Sur, y suelen ser los circuitos integrados más grandes después del microprocesador.
    El chipset determina muchas de las características de una placa base y por lo general la referencia de la misma está relacionada con la del chipset.
    A diferencia del microcontrolador, el procesador no tiene mayor funcionalidad sin el soporte de un chipset: la importancia del mismo ha sido relegada a un segundo plano por las estrategias de marketing.

    El chipset es el conjunto de chips que se encarga de controlar algunas funciones concretas del ordenador, como la forma en que interacciona el microprocesador con la memoria o la caché, o el control de los puertos y slots ISA, PCI, AGP, USB...
    El chipset de una placa base es un conjunto de chips cuyo número varía según el modelo y que tiene como misión gestionar todos los componentes de la placa base tales como el micro o la memoria; integra en su interior las controladoras encargadas de gestionar los periféricos externos a través de interfaces como USB, IDE, serie o paralelo. El chipset controla el sistema y sus capacidades, es el encargado de realizar todas las transferencias de datos entre los buses, la memoria y el microprocesador, por ello es casi el "alma" del ordenador. Dentro de los modernos chipset se integran además distintos dispositivos como la controladora de vídeo y sonido, que ofrecen una increíble integración que permite construir equipo de reducido tamaño y bajo coste.
    Una de las ventajas de disponer de todos los elementos que integra el chipset, agrupados dentro de dos o tres chips, es que se evitan largos períodos de comprobación de compatibilidades y funcionamiento. Como inconveniente nos encontramos con que el chipset no se puede actualizar, pues se encuentra soldado a la placa.
    Antes estas funciones eran relativamente fáciles de realizar y el chipset tenía poca influencia en el rendimiento del ordenador, por lo que éste era un elemento poco importante o influyente a la hora de comprar una placa base. Pero los nuevos microprocesadores, junto al amplio espectro de tecnologías existentes en materia de memorias, caché y periféricos que aparecen y desaparecen continuamente, han logrado aumentar la importancia del chipset.
    Las características del chipset y su grado de calidad marcarán los siguientes factores a tener en cuenta:
    • Que obtengamos o no el máximo rendimiento del microprocesador.
    • Posibilidades de actualizar el ordenador.
    • Poder utilizar ciertas tecnologías más avanzadas de memorias y periféricos.
    Chipset y placa base forman un conjunto indisoluble y muy importante. Se debe tener en cuenta que un buen chipset por sí mismo no implica que la placa base en conjunto sea de calidad. La placa base hemos de comprarla mirando y pensando en el futuro, máxime si vamos a realizar posteriormente ampliaciones.
    El principal impulsor de los chipset en los últimos años ha sido Intel, que además de dominar en los microprocesadores tiene una importante posición en este mercado.
    En el año 1994 Intel presentó el 82434NX (Neptune) y el 82434LX (Mercury), ambos con problemas para trabajar con el bus PCI. En 1995 apareció el conocido chipset FX (Tritón), diseñado específicamente para funcionar con la familia Pentium. El primer chipset serio que comercializó Intel fue el 430FX, al que siguieron otros como el HX, VX o TX, todos ellos para micros Pentium de Socket 7. Con la aparición del Pentium II se empleó el modelo 440FX (Natoma) usado en los Pentium Pro, pero no optimizado para Pentium II al carecer de soporte para SDRAM, Ultra DMA y AGP y tras éste salió el 440LX, que ofrece un buen funcionamiento y gran estabilidad. Con la aparición de micros a 350 y 400 MHz y el bus de 100MHz sale al mercado en 1998 el 440BX, que ofrece soporte para el citado bus de 100 MHz, un mayor ancho de banda para el bus PCI y AGP usando la tecnología Quad Port, soporte para el nuevo bus IEEE 1394 y Pentium II Mobile Processor destinado a equipos portátiles. Paralelamente al 440BX aparece el 440EX, diseñado para ser usado con el procesador Celeron, este chipset es una versión reducida del LX, pues sólo soporta 256 Mb de memoria y un máximo de 3 slots PCI, todo ello orientado a reducir drásticamente los costes y permitir la venta de equipos muy baratos.
    Más tarde llegó el ZX, versión reducida del BX y destinado a placas de bajo coste y de características recortadas. La gran novedad fue el 810 y las sucesivas revisiones, con una arquitectura de bus que mejora las prestaciones generales de la placa, incluyen soporte para discos UDMA-66 e integran vídeo y sonido dentro del propio chipset y parece haber resultado un fracaso. Más tarde salió el 820, pero al no ofrecer brillantes prestaciones e integrar la memoria RDRAM en módulos RIMM han llevado al destierro a este chipset. Por ello VIA, empresa veterana en la fabricación de placas base, con sus modelos Apollo Pro 133 y Apollo Pro 133A ha conseguido una gran parte de mercado que antes tenía Intel. En la actualidad está triunfando con su reciente KX133, chipset para Athlon que ofrece unas extraordinarias prestaciones.



    FUENTE DE PODER

    Como su nombre lo indica es la principal, -y muy importante- fuente de corriente eléctrica de la computadora. Además, transforma la corriente alterna del tomacorriente común en corriente directa de bajo voltaje que los componentes de la computadora pueden usar. Si este voltaje fallara, fuera demasiado alto o demasiado bajo la computadora no arrancaría.
    En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna de la red de suministro, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).

    Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.

    La fuente de poder es el componente más ignorado de una computadora y el más difícil de seleccionar. Es la parte que se conecta a la corriente distribuyendo la electricidad a los demás componentes de la computadora; sin fuente de poder, la computadora no funciona, mientras que una de baja calidad puede quemar los componentes o “tronar” en una nube de humo azul.

    En una fuente de baja calidad la corriente es variable, y estas variaciones van dañando poco a poco los componentes, hasta hacer que truenen; una fuente de poder buena protege a los componentes y alarga su vida.

    La corriente se mide en watts, que significan el poder total empleado (como en un lámpara de 80 watts). Ahora imaginen una manguera por la que corre agua, el ancho de la manguera serían los voltios que soporta una instalación eléctrica, y la fuerza del agua serían los amperes; si multiplicas los voltios por los amperes obtendrás la cantidad de watts que estás consumiendo.

    Esta se encarga de controlar y regular el voltaje que la computadora utiliza para su correcto funcionamiento, manejando un voltaje de 110 volteos minimo, por eso mismo se genera calor dentro de la fuente de poder, teniendo como dispositivo un ventilador como medio de enfriamiento para controlar la temperatura. La alilmentacion de la fuente de poder se genera por un conector, estos se pueden clasificar de 2 maneras: Conector Macho (tiene pines) y Conector Hembra ( no tiene pines), la funcion de ambos es la misma.

    La funcion de los pines que posee el conector, signifan un pin negativo, otro positivo, y un dispositivo de tierra, este ultimo se encarga de evitar daños causados por alto voltaje.


    domingo, 22 de mayo de 2011

    CONECTORES HEMBRA Y MACHO



    Generalmente un conector se puede clasificar de dos maneras: CONECTOR MACHO (tiene pines) Y HEMBRA(no tiene pines). la funcion de ambos es la misma. 

    La funcion de los pines que posee un conector, significan: un pin negativo, otro positivo y un dispositivo de tierra, este ultimo se encarga de evitar daños causados por alto voltaje.