lunes, 5 de julio de 2010

sistemas abiertos

Origenes.

La tendencia de recurrir a sistemas abiertos ha sido a largo plazo. No fue sino hasta el 1989 cuando se le dió carácter al concepto de sistemas abiertos, no existiendo todavía estándares para los equipos de computación. Con la aparición de los computadores personales surgió la portabilidad de los softwares, así los usuarios y los fabricantes demandaban las mismas facilidades en grandes equipos independientemente del hardware del fabricante.

La idea de sistemas abiertos surge de la necesidad de un sistema operativo estándar mundial; y éstos estándares deberían ofrecer los siguientes elementos:

  • Interoperabilidad entre computadores de cualquier fabricantes.
  • Portabilidad de software en distintos hardwares.
  • Compatibilidad entre diferentes versiones de sistemas operativos.
  • Escalabilidad del software en diferentes plataformas de hardware.

Este movimiento ha traido cambios importantes en lo que hasta ahora ha sido el mantenimiento y proceso de la información. Cada fabricante se mantiene a la vanguardia para satisfacer las necesidades de los sistemas abiertos.

Por otro lado se encuentra la necesidad que tenían las instituciones de intercambiar información, lo cual era tarea difícil o casi imposible, ya que los equipos eran diferentes en su Arquitectura.

En el año 1977, para solucionar el problema de arquitectura propia entre equipos, la Organizacion Internacional de Estandarización ( ISO) creó el subcomite SC16, el cual desarrollo el modelo de arquitectura llamado "Modelo de Referencia para la Intercomunicacion de Sistemas Abiertos" ( OSI). Dicho modelo fue evolucionando y se llegó a estructurar en siete niveles, de los cuales los tres inferiores constituyen un estándar muy difundido que se conoce con el nombre de X.25.-

En el año 1980 se estableció un organismo para el desarrollo de estándares en la confección de sistemas abiertos, así surge el llamado USR/GROUP, conocido hoy como UNIFORUM. No fue sino hasta el 1987 cuando este organismo publicó un documento sobre especificaciones en la construcción de sistemas abiertos. El énfasis se hizo en remover la información e implementación específica de las máquinas usando valores simbólicos en lugar de valores numéricos.

El estándar POSIX.1 fue el resultado de los trabajos comenzados por el comite USR/GROUP. El primer sistema en cumplir todos los estándares del POSIX fue el CTOS, diseñado para el manejo de tareas de transacciones intensivas en redes dispersas geograficamente.

Existen serias razones que han motivado el surgimiento de los sistemas abiertos, las cuales pueden resumirse de la siguiente manera:

  • Los ejecutivos empezaron a utilizar computadores personales, con los cuales podían correr el mismo software sin importar el fabricante de la máquina, lo que conllevaba a cierta independencia del proveedor, así se preguntaron porque no ocurría lo mismo con los mainframes.
  • Los sistemas propietarios obligan a que el mantenimiento de los equipos sea dado por el mismo

proveedor.

  • La carencia de recursos disponibles: preparación humana, dinero, capacidad de proceso para emigrar las aplicaciones viejas a las nuevas, etc.
  • Los usuarios demandaban que los equipos de cómputos permitieran la comunicaciones entre

equipos de diferenntes proveedores.

Los tecnólogos informáticos pensaron que los mainframes desaparecerian con el surgimiento de los sistemas pequeños. Hoy en dia éstos equipos representan la vía por la cual se puede organizar el enredo de tecnología causada por proveedores diferentes. Estos equipos se encargarían de realizar las misiones mas serias del cómputo: procesos de transacciones en linea, manejo de base de datos y redes de comunicaciòn compleja.

viernes, 2 de julio de 2010


Disco Óptico:

Un disco sobre el que se lee y escribe con luz. En esta categoria se incluye los CD-ROMs, que son grabados en el momento de su fábricación y no pueden ser borrados. Los Worms(Write Once Read Many) que son grabados en el entorno del usuario y tampoco pueden ser borrados. Y los borrables, que son aquellos que pueden ser reescritos una y otra vez, para esto se utiliza la tecnología Magnéto Óptica(MO) y cambio de fase. Estos temas se explicarán a continuación en detalle.

CD-ROM
Estos discos se basan en la misma tecnología que se utiliza en los CDs de audio, y fue la primera que se desarrollo. Este medio de almacenamiento tiene la desventaja de que no es posible reescribir en ellos, esto lo hace un medio ideal para distribuir software. Estos discos pueden producirse en masa, a muy bajo costo y con una maquinaria totalmente automatizada.

Los CD-ROMs se elaboran utilizando un láser de alto poder para formar agujeros en un disco maestro, luego se hace un molde que se usa para imprimir copias en discos plásticos. Luego se aplica en la superficie una delgada capa de aluminio, seguida de otra de plástico transparente para protección.

Los CD-ROMs se leen mediante un detector que mide la energía reflejada de la superficie al apuntar a esta un láser de bajo poder. Los agujeros, que se denominan huecos (pits), y las áreas sin laserizar entre estos, que se denominan zonas planas (lands), producen una diferente reflectividad del haz de láser, lo que hace posible distinguir entre ambos y recibir dos estados posibles: 0 y 1. Pero no se indica un 0 o un 1 con un land o un pit, sino que un pit indica el cambio de estado, osea de 0 a 1 o de a 1 a 0, y segun la cantidad de lands que haya, el estado se mantiene estable, osea mientras no se cambie de estado se mantiene una zona de lands(Ver figura 1). De esta manera, se trata de realizar la minima cantidad de huecos(pits) posibles en el disco, y así poder escribir más rápidamente.

Puede estimarse entre 10 y 15 años la permanencia de la información en un CD ROM común, dado que la superficie de aluminio que contiene la información se oxida muy lentamente en ese lapso, salvo que sea sometida a una protección anti-óxido especial, o sea de oro

Los CD-Roms están constituidos por una pista en espiral que presenta el mismo número de bits por centímetro en todos sus tramos(densidad lineal constante),para aprovechar mejor el medio de almacenamiento, y no desperdiciar espacio como sucede en los discos magnéticos. Es por esto que en la lectura y grabación de un CD, a medida que el haz láser se aleja del centro del disco, la velocidad debe disminuir, ya que en el centro el espiral es de menos longitud que en los bordes(ver figura 2). Alternando las velocidades se logra que la cantidad de bits leídos por segundo sea constante en cualquier tramo, sea en el centro o en los bordes. SI esta velocidad sería constante, se leerían menos bits por segundo si la zona esta más cerca del centro, y más si esta más cerca de los bordes. Todo esto significa que un CD gira a una velocidad angular variable.

Para poder lograr que los CDs tengan igual densidad en cualquier tramo de la espiral, en la grabación , el haz láser emitido por la cabeza( que se mueve en línea recta radial desde el centro al borde del plato) genera la espiral a velocidad lineal constante(CLV), esto significa que la cantidad de bits grabados por segundos será constante.

Pero para poder lograr esto, y mantener una densidad lineal constante y la pista en espiral, será necesario que el CD gire a una velocidad angular variable(explicado anteriormente). Por lo tanto, por girar un CD a una velocidad angular variable, y ser escrito a velocidad linear constante, se escriben y leen la misma cantidad de bits por segundo y por centímetro, cualquiera sea la posición del mismo. Mientras que cada vuelta de la espiral contendrá más o menos bits según si este más cerca del centro o del borde.

Uno de los problemas del CD-ROM es que la impresión de discos de aluminio con cubierta plástica no es muy precisa, por lo cual la información digital contiene, por lo general, muchos errores. Existen dos formas para corregir estos errores:

  1. La cabeza lectora de la unidad contiene un espejo de precisión manejado por un mecanismo que se utiliza para encontrar errores en la superficie del disco.
  2. Los datos se graban utilizando un algoritmo denominado ‘código de corrección de errores de Reed Solomon’. Este es similar al algoritmo de Hamming, pero al utilizar mas bits de paridad, puede corregir mayor cantidad de errores.

Un tipo de CD-ROM de 60 min de duración (también son comunes los de 74 min) presenta la espiral constituida por 270000 marcos conteniendo cada uno 2048 bytes (2 K) para datos. En total se pueden almacenar: 527 Mb. La espiral presenta unas 16000 vueltas por pulgada radial(t.p.i). Se debe tener en cuenta que en el espesor de un cabello entran 50 vueltas.

Antes de grabar el disco "maestro",un programa fracciona cada archivo a grabar en marcos de 2048 bytes de datos, y les agrega, conforme a los campos de un marco.:

  1. unos y ceros indicadores de comienzo de marco , que sirven para sincronismo con la lectora de CD.
  2. una secuencia de bits que irá en la cabecera (header) de cada marco para poder localizarlo.

Para poder localizar un marco dentro del CD , este se identifica por una dirección formada por 3 variables. Teniendo en cuenta el CD de 60 minutos (antes explicado), las primeras dos variables de la dirección son los minutos y los segundos horarios(mm:ss), los cuales obviamente varían desde 0 hasta el 59. El comienzo del espiral, o sea el centro del CD, tiene la dirección 00:00, este va progresando según va creciendo el espiral, hasta llegar a la dirección 59:59. Pero estas direcciones no son suficientes para localizar cada marco, de ahi viene la utilidad de la tercer variable. Esta variable, indica el numero de marco, teniendo en cuenta los minutos y segundos, y sus valores pueden ser desde el 0 hasta el 74. Osea, que por cada segundo , hay 75 marcos. De esta manera hay 60 valores posibles para los minutos y los segundos, y 75 para cada marco, hay 270 000 direcciones posibles, por lo cual existe una dirección para cada marco.

Teniendo en cuenta esto, podemos deducir, que por ejemplo el marco 155, tendrá la dirección 0:2 4. Esto se deduce ya que sí por c/seg existen 75 marcos, si la dirección es 2 seg, esta pertenece al marco 150, entonces para direccionar el marco 155, el marco es el numero 4.

Existen unidades lectoras de CD-ROM de tipo 2x, 4x, 6x,... velocidad simple de una unidad de CD de audio estándar respectivamente.
Si bien los CD-ROM son los CD más usados para almacenar programas y datos, las unidades lectoras de CD actuales también permiten leer información digital de otros tipos de CD basados en la misma tecnología, con vistas a aplicaciones en multimedia, como ser:
CD-DA (Digital Audio): es el conocido CD que escuchamos en un reproductor de CD para audio. Podemos escuchar la música que contiene mientras trabajamos con una PC, o bien mezclarla en usos multimedia.
CD-I son las iniciales de disco compacto interactivo. De tecnología semejante al CD-ROM, puede combinar datos, audio y video, conforme a un estándar multimedia propuesto por Phillips y Sony en 1986. Este también define métodos para codificar y decodificar datos comprimidos, y para visualizarlos. Almacena 72 minutos de audio digital estéreo ó 19 horas de conversación de calidad en mono, ó 6000 a 1500 imágenes de video - según la calidad deseada- que pueden buscarse interactivamente y mezclarse. Para utilizarse el mismo, se requiere de una plaqueta especial.
CD-ROM XA (de extended Architecture): es un estándar para sonido e imagen propuesto por Phillips, Sony y Microsoft, extensión de las estructuras de un CD-ROM, que especifica la grabación comprimida de sonido en un CD-ROM por el sistema ADPCM, también empleado en CD-I. Esto hace que un CD-ROM XA sea un puente entre el CD-ROM y el CD-I.
DVI es un tipo de CD ROM que integra video, televisión, gráficos con animación, audio multicanal y textos. Necesita plaquetas adicionales. Debido a una técnica de compresión de datos, éstos ocupan 120 veces menos lugar, permitiendo ver una hora de video de 30 imágenes por segundo. A esta velocidad, dado que una imagen de TV ocupa 600 KB, para ver un segundo se requieren 600 KB x 30 = 18 MB. De no existir compresión, los 600 MB de un CD ROM sólo permiten unos 600/18 » 30 seg. de visión. Los reproductores de CD actuales pueden leer CD-ROM, CD-R (de varias sesiones), CD-ROM XA, Photo CD, Video-CD, CD-I, CD-plus, y CD-DA.

WORM

Los WORMs (Write Once Read Many) son discos òpticos en los que, como el nombre lo indica, se puede escribir una sola vez, y acceder a los datos tantas veces como se quiera. Estos aparecieron ya que este dispositivo permite al usuario escribir el mismo en el disco. Sin embargo, una vez que se ha laserizado un hueco en la superficie, este ya no puede borrarse. Los discos que utilizan la tecnología Worm más conocidos en el mercado son los CD-R (Compact Disc Recordable), llamados anteriormente CD-WO(Write Once).

El proceso de grabación se realiza de la siguiente manera: el CD contiene una espiral, parcialmente pregrabada de fabrica que contiene las direcciones de los marcos, que sirve de guía para el láser. Este espiral posee una capa orgánica(un pigmento) translúcida que cuando el haz incide en una posición, esta se calienta decolorando el pigmento. En sima de esta capa se encuentra un capa de oro que sirve para reflejar el haz láser en cada lectura.

En la lectura, la capa orgánica deja pasar el haz láser hacia la capa de oro, o sea la capa reflectora, reflejandose de forma distinta según el haz haya atravesado un punto decolorado o no, simulando de esta manera en la lectura pits para las zonas decoloradas, y lands para las zonas donde no incidió el láser. Esto sucede ya que las zonas decoloradas producen una reflexion similar a la de un pit, y lo mismo con la de una zona sin decolorar con un land. Es por esto que CD-R ya grabado se lee como un CD-ROM .

Un CD-R no es necesariamente grabado en una sola sesión, se puede grabar en varios momentos como archivos que se quiere incorporar, hasta llegar a los 650 Mb(llamamos sesión a cada momento que se graba una determinada cantidad de archivos en un CD-R). Es por esto que un CD-R se debe grabar con la siguiente estructura para poder contener múltiples sesiones:

Los primeros 4 mm de ancho radial de una espiral de un CD-R o de un CD-ROM constituyen el "lead in", que antecede a la zona de datos. Esta es de unos 29 mm de ancho, y le sigue el "lead out" de 1 mm.

En un CD-R, el "lead-in" es precedido por dos áreas necesarias para alinear el haz láser a fin de poder grabar lo que sigue. Cada sesión de grabado de la espiral debe comenzar con la escritura de un "lead in", y terminar con la de un "lead out". A su vez, cada "lead in" debe contener la tabla de contenidos ("Table of contents" TOC), índice de los datos grabados en la sesión correspondiente.

Debe mencionarse que un CD-R grabado en "multisesiones" debe ser leído por un lector de CD-ROM apropiado (como son los actuales). De no serlo, sólo leerá la primer sesión.
Los sistemas operativos de una PC utilizan para la lectura de un CD-ROM el formato lógico HSG/ISO 9660. Este es un estandar de una organización interna de los CD –ROM establecida en 1985 por la empresa High Sierra Group, utilizado para establecer normas de compatibilidad entre los CDs.

Uno de los usos del CD-R que no se mencionó es el del Photo Cd. Este es un estándar elaborado en 1990 por Phillips y Eastman Kodak que especifica el procedimiento para convertir fotografías de 35 mm en señales digitales para ser grabadas en un CD-R en una o varias sesiones. La grabación se realiza durante el revelado de la película. Así se guardan cientos de fotos color en un CD-R.

martes, 29 de junio de 2010

Disco duro

Disco duro, en los ordenadores o computadoras, unidad de almacenamiento permanente de gran capacidad. Está formado por varios discos apilados —dos o más—, normalmente de aluminio o vidrio, recubiertos de un material ferromagnético. Como en los disquetes, una cabeza de lectura/escritura permite grabar la información, modificando las propiedades magnéticas del material de la superficie, y leerla posteriormente (La tecnología magnética, consiste en la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien sean una canción, bien los bits que forman una imagen o un documento importante.); esta operación se puede hacer un gran número de veces.

La mayor parte de los discos duros son fijos, es decir, están alojados en el ordenador de forma permanente. Existen también discos duros removibles, como los discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de información de un ordenador a otro.

El primer disco duro se instaló en un ordenador personal en 1979; era un Seagate con una capacidad de almacenamiento de 5 MB. Hoy día, la capacidad de almacenamiento de un disco duro puede superar los 50 MB. A la vez que aumentaba la capacidad de almacenamiento, los discos duros reducían su tamaño; así se pasó de las 12 pulgadas de diámetro de los primeros, a las 3,5 pulgadas de los discos duros de los ordenadores portátiles o las 2,5 pulgadas de los discos de los notebooks (ordenadores de mano).

Modernamente, sólo se usan en el mundo del PC dos tipos de disco duro: el IDE y el SCSI (leído "escasi"). La diferencia entre estos Discos duros radica en la manera de conectarlos a la MainBoard.

lunes, 28 de junio de 2010

La tecnología óptica

la tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación comercial masiva fue el superexitoso CD de música, que data de comienzos de la década de 1.980. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo.

Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio.

Disco de vídeo digital

Disco de vídeo digital, también conocido en la actualidad como disco versátil digital (DVD), un dispositivo de almacenamiento masivo de datos cuyo aspecto es idéntico al de un disco compacto, aunque contiene hasta 25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un CD-ROM. Su mayor capacidad de almacenamiento se debe, entre otras cosas, a que puede utilizar ambas caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos; no obstante, los lectores de CD no permiten leer DVDs.

En un principio se utilizaban para reproducir películas, de ahí su denominación original de disco de vídeo digital. Hoy, los DVD-Vídeo son sólo un tipo de DVD que almacenan hasta 133 minutos de película por cada cara, con una calidad de vídeo LaserDisc y que soportan sonido digital Dolby surround; son la base de las instalaciones de cine en casa que existen desde 1996. Además de éstos, hay formatos específicos para la computadora que almacenan datos y material interactivo en forma de texto, audio o vídeo, como los DVD-R, unidades en las que se puede grabar la información una vez y leerla muchas, DVD-RW, en los que la información se puede grabar y borrar muchas veces, y los DVD- RAM, también de lectura y escritura.

En 1999 aparecieron los DVD-Audio, que emplean un formato de almacenamiento de sonido digital de segunda generación con el que se pueden recoger zonas del espectro sonoro que eran inaccesibles al CD-Audio.

Todos los discos DVD tienen la misma forma física y el mismo tamaño, pero difieren en el formato de almacenamiento de los datos y, en consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una capa almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas almacenan hasta 17 GB. Del mismo modo, no todos los DVDs se pueden reproducir en cualquier unidad lectora; por ejemplo, un DVD-ROM no se puede leer en un DVD-Vídeo, aunque sí a la inversa.

Por su parte, los lectores de disco compacto, CD, y las unidades de DVD, disponen de un láser, ya que la lectura de la información se hace por procedimientos ópticos. En algunos casos, estas unidades son de sólo lectura y en otros, de lectura y escritura.

sábado, 26 de junio de 2010

Últimas novedades en lenguajes de programación

La aparición de los ordenadores y, sobre todo, su hibridación con las telecomunicaciones configurando la gran red global, han propiciado una revolución "informacional" de las fuerzas productivas de una magnitud desconocida hasta ahora. Para Peña Marí, en el análisis histórico de este fenómeno, se ha prestado tradicionalmente “mucha más atención” a las herramientas materiales de computación, al hardware, que no al software y los lenguajes de programación, que son los instrumentos para comunicar los algoritmos a las máquinas que han de ejecutarlos. El objetivo de esta conferencia es situar los avances en el diseño de lenguajes de programación en su contexto histórico, explicando el surgimiento de las principales innovaciones, indicando cómo impactaron en lenguajes posteriores, qué lenguajes las implementaron por primera vez y quiénes fueron sus autores. También se pasa revista a los desarrollos más recientes y se indican algunas líneas en las que es previsible evolucionen los lenguajes en un futuro próximo. En la ingeniería actual, no sólo en la informática, es importante tener una visión global del desarrollo de los lenguajes y de sus debilidades y aciertos para construir programas, así como el saber situar cada acontecimiento y cada lenguaje en su momento histórico y comprender mejor sus influencias mutuas. El ponenteRicardo Peña Marí es catedrático de Universidad del Departamento de Sistemas Informáticos y Computación de la Universidad Complutense de Madrid. Sus áreas de investigación son el diseño y desarrollo de lenguajes de programación y el uso de métodos formales para garantizar la corrección de los programas. Ha trabajado en técnicas de especificación y diseño de programas con tipos abstractos de datos y en métodos de verificación de programas concurrentes. En los últimos 12 años se ha dedicado al paradigma de programación funcional. Dentro de él, su grupo junto con la Universidad de Marburg (Alemania), han desarrollado el lenguaje funcional-paralelo Edén. En los últimos años sigue trabajando dentro del paradigma funcional pero más dedicado al análisis estático de programas. Peña ha sido investigador principal en varios proyectos nacionales y ha participado en otros proyectos europeos. Además, ha publicado numerosos artículos científicos en congresos y revistas internacionales y es autor de libros como “Diseño de Programas”, “De Euclides a Java

viernes, 25 de junio de 2010

Relación de los principales lenguajes de programación


ABC

ABC es el resultado de un proyecto del CWI (un centro de investigación holandés de carácter oficial). En el sitio web de CWI hay intérpretes ABC para distintas plataformas (Unix, Macintosh, MS-DOS y Atari-ST). También está disponible el código fuente de la versión Unix.

ABC pretende ser un sustituto de BASIC. Como éste, fue pensado para principiantes, aunque su evolución posterior lo hace también adecuado para programadores avanzados. Es muy fácil de aprender y de usar, y el código es compacto pero legible (al menos eso dicen). Tiene tipos de datos de muy alto nivel: números (enteros exactos de cualquier tamaño y números no exactos), textos (strings de cualquier longitud), listas (sus elementos tienen que ser del mismo tipo y siempre están ordenados), compuestos (equivalentes a registros sin nombres de campo) y tablas (son listas con índices o claves). Como sucede con otros intérpretes, ABC es, además de un lenguaje de programación, un entorno interactivo de trabajo.

Un defecto de ABC es que los textos no pueden contener más que los caracteres US-ASCII (nada de acentos, eñes, etc.). También se le ha criticado la falta de extensibilidad (algo común a muchos lenguajes, me parece).

El intérprete va acompañado de alguna información, pero el verdadero manual se vende como libro independiente.

martes, 22 de junio de 2010

tercera Unidad


ENGUAJES DE BAJO NIVEL (ensamblador):

Son más fáciles de utilizar que los lenguajes máquina, pero al igual que ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por excelencia es el ensamblador. El lenguaje ensamblador es el primer intento de sustituir el lenguaje maquina por otro más similar a los utilizados por las personas. Este intenta desflexibilizar la representación de los diferentes campos. Esa flexibilidad se consigue no escribiendo los campos en binario y aproximando la escritura al lenguaje. A principios de la década de los 50 y con el fin de facilitar la labor de los programadores, se desarrollaron códigos mnemotécnicos para las operaciones y direcciones simbólicas. Los códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina. La computadora sigue utilizando el lenguaje maquina para procesar los datos, pero los programas ensambladores traducen antes los símbolos de código de operación especificados a sus equivalentes en el lenguaje maquina. En la actualidad los programadores no asignan números de dirección reales a los datos simbólicos, simplemente especifican donde quieren que se coloque la primera localidad del programa y el programa ensamblador se encarga de lo demás, asigna localidades tanto para las instrucciones como los datos. Estos programas de ensamble o ensambladores también permiten a la computadora convertir las instrucciones en lenguaje ensamblador del programador en su propio código maquina. Un programa de instrucciones escrito en lenguaje ensamblador por un programador se llama programa fuente. Después de que el ensamblador convierte el programa fuente en código maquina a este se le denomina programa objeto. Para los programadores es más fácil escribir instrucciones en un lenguaje ensamblador que en código de lenguaje maquina pero es posible que se requieran dos corridas de computadora antes de que se puedan utilizar las instrucciones del programa fuente para producir las salidas deseadas.

El lenguaje de bajo nivel es el lenguaje de programación que el ordenador puede entender a la hora de ejecutar programas, lo que aumenta su velocidad de ejecución, pues no necesita un intérprete que traduzca cada línea de instrucciones.

Visto a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador.

Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que son, a menudo, difíciles de aprender. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada procesador. Si se lleva el programa a otra maquina se debe reescribir el programa desde el principio.

Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor facilidad de codificación y, en general, su velocidad de calculo, ahorran tiempo y requieren menos atención a detalles. Se incurren en menos errores y los que se cometen son más fáciles de localizar. Tanto el lenguaje maquina como el ensamblador gozan de la ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en comparación con el resultado de la compilación del programa equivalente escrito en otros lenguajes. Los programas en lenguaje ensamblador son más fáciles de modificar que los programas en lenguaje máquina.

Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que impide la transportabilidad de los programas (posibilidad de ejecutar un programa en diferentes máquinas). El lenguaje ensamblador del PC es distinto del lenguaje ensamblador del Apple Machintosh. La formación de los programadores es más compleja que la correspondiente a los programadores de alto nivel, ya que exige no solo las técnicas de programación, sino también el conocimiento del interior de la maquina El programador ha de conocer perfectamente el hardware del equipo, ya que maneja directamente las posiciones de memoria, registros del procesador y demás elementos físicos. Todas las instrucciones son elementales, es decir, en el programa se deben describir con el máximo detalle todas las operaciones que se han de efectuar en la maquina para la realización de cualquier proceso.

Los lenguajes ensamblador tienen sus aplicaciones muy reducidas, se centran básicamente en aplicaciones de tiempo real, control de procesos y de dispositivos electrónico

viernes, 18 de junio de 2010

Interpretar el lenguaje de signos

Un nuevo sistema visual interpreta el lenguaje de signosLa lengua de signos española se compone de cientos de signos. Ahora, los investigadores Sergio Escalera, Radeva Petia y Vitria Jordi, de la CVC-UAB, seleccionaron más de veinte de estos signos para desarrollar un nuevo sistema de interpretación visual que permite a las personas sordas llevar a cabo consultas en el lenguaje que utilizan habitualmente.Los signos pueden variar ligeramente en función de cada usuario. Los investigadores del proyecto tuvieron esto en cuenta durante los ensayos, realizándolos con diferentes personas para ayudar al sistema a "familiarizarse" con esta variabilidad. Los signos reconocidos por el sistema se programaron para que las personas sordas pudieran mantener una conversación básica, incluyendo el pedir ayuda o instrucciones.El hardware incluye una cámara de video que registra las secuencias de imágenes cuando detecta la presencia de un usuario que desea realizar una consulta. Un sistema de aprendizaje automático y visión por ordenador detecta los movimientos de la cara, las manos y los brazos, así como cualquier desplazamiento de pantalla y los incorpora a un sistema de clasificación que identifica cada movimiento con la palabra asociada con el signo.Uno de los aspectos que vale la pena destacar es la capacidad para adaptar el sistema a cualquier otro lenguaje de signos, dado que la metodología utilizada es de carácter general. Bastaría con reprogramar el sistema con los signos utilizados en ese idioma específico. La cantidad de signos que el sistema puede reconocer también es escalable, aunque los investigadores admiten que los nuevos datos incrementarán las dificultades para diferenciarlos.El sistema se presentó, recientemente, como prototipo de la fase final de un proyecto europeo y los investigadores ya están trabajando en nuevas fases del proyecto, como el uso de dos cámaras con el objetivo de reconocer signos aún más complejos y complementar la información con las características faciales

jueves, 17 de junio de 2010



Wine 1.se anunció en la web de Wine la publicación de Wine 1.0 , la versión tan esperada desde que el proyecto comenzó hace ya 15 años, intentando ser una solución para la ejecución de programas de Windows en plataformas Unix; y lo han conseguido.
Aunque Wine no ofrece una compatibilidad completa con cualquier programa de Windows, sí que está testado para algunas aplicaciones importantes, como Photoshop CS2, multitud de juegos, o muchos de los visores de documentos de MS Office.
Existe una sección dentro de la web de Wine, llamada “
Wine Application Database“, en la que se ofrece información acerca de la compatibilidad de más de 10.000 aplicaciones de Windows corriendo bajo Wine.
Como leí en el blog de
Microteknologias, no estaría mal que en las aplicaciones de Windows, a partir de ahora, informasen de la compatibilidad de las mismas de la forma “Diseñado para Windows XP, Vista, y Wine 1.0″. De hecho, en algunas empresas importantes, como Google, distribuyen muchos de sus programas, escritos en Windows, como si fueran para Linux, funcionando estos gracias a Wine (por ejemplo, Google Earth o Picasa).
Puedes encontrar más información de este proyecto en la
web de Wine.

lunes, 14 de junio de 2010

avances de software


La forma inicial de programar un generador de movimientos fue el generar mediante fórmulas matemáticas los movimientos legales de cada pieza sobre el tablero, obteniendo todas las posibilidades con tal de entregárselas como una lista al software de búsqueda. Esta propuesta fue mencionada por vez primera en el paper de Shannon [68] y se aplicó a prácticamente todos los programas de la época. La idea inicial fue el que el programa generara sólo los mejores movimientos con tal de reducir drásticamente el árbol de variantes (estrategia "B", según la nomenclatura dada por Shannon) pero los resultados distaron de ser positivos puesto que el problema principal relacionado con este proceso fue que en las búsquedas en profundidad esta forma de generar los movimientos tomaba un tiempo excesivo, lo cual hacía muy lento el proceso global, motivo por el cual se buscaron otras formas de programar la generación de movidas en base a operaciones que la computadora pudiese realizar más rápidamente. Sólo hasta principios de 1970 (gracias a la presencia de hardware y ambientes de desarrollo de mayor capacidad) se utilizó la técnica de los mapas de bits (bit-boards)la cual significó un gran avance en este proceso del juego de la máquina dado que se redujo la complejidad de operaciones a aquellas que son básicas para la máquina. A pesar de este avance, era clara la necesidad de implementar fuera del software esta función del programa, dado que la necesidad de hacer búsquedas más rápidas y profundas se basaba en un generador de alta velocidad, cosa que era muy difícil lograr a nivel de hardware. Las mejoras en esta función del programa vinieron principalmente del lado del desarrollo de hardware específico para la generación de movimientos. En 1977 el programa "Belle" fue el primero en utilizar circuitos digitales para la generación de movimientos logrando aumentar su velocidad de búsqueda de 200 a 160.000 posiciones por segundo. El generador utilizado en Belle sirvió como punto de partida para máquinas más poderosas. El computador que derrotó a Kasparov en 1997, DeepBlue, tenía 30 procesadores IBM RS-6000 SP acoplados a 480 chips. Esta máquina fue capaz de lograr velocidades computacionales de 200 millones de posiciones por segundo. Las característica principal de estos generadores a nivel de Hardware es el poder caracterizar a las casillas de origen y destino mediante transmisores y receptores respectivamente, para luego generar mediante un árbol de prioridades los movimientos ordenados de acuerdo a criterios de capturas, jaques, etc. [38]. La principal ventaja entre el generador de movimientos de DeepBlue y BELLE es que el primero solucionó el problema de generar en primer orden los movimientos de jaque. En la actualidad la utilización de mapas de bits es prácticamente universal en todos los programas de ajedrez. Las mejoras se ven principalmente en los tipos de mapas generados de acuerdo al tipo de movimientos buscados (reglas de mapas de bits). El principal desarrollo en este tema es a nivel de hardware en donde los avances se han visto en el orden de jugadas entregado en la generación de los movimientos. En el último año se han desarrollado también tarjetas de hardware específicas para implementación en computadoras personales (Field Programable Gate Arrays) las cuales han sido utilizadas en forma experimental.

viernes, 11 de junio de 2010



Intel ha presentado tres nuevos procesadores Pentium 4 que desarrolla su tecnología 'Hyperthread', junto con los nuevos chipsets 865G y 865PE. Esta tecnología permite a un solo procesador trabajar con un software diseñado específicamente para trabajar con entornos duales. Varios fabricantes de PCs ya ofrecen productos equipados con los nuevos procesadores y chipsets de Intel, incluyendo Acer America, Gateway e IBM. Los procesadores, 2.80C, 2.60C y 2.40C también incluyen un system bus de 800 MHz. Chipsets Los sets 865G y 865PE incorporan también capacidades gráficas renovadas para aquellos equipos que contengan Pentium 4. Junto con el anuncio de Intel, Acer ha introducido su nuevo modelo Veriton7600G a un precio de 949 dólares, que vendrá equipado con Pentium 4 y el chipset 865G. Gateway, de la misma manera, ha integrado los nuevos Pentium como parte de sus PCs 500 Series, a un precio de 999 dólares. En cuanto a IBM, los nuevos A50p, M50, y S50 ThinkCentre PCs estarán a la venta a partir de 699 dólares.

jueves, 10 de junio de 2010




Estamos ante una nueva gran evolución en el mundo del almacenamiento. Primero las cintas de casette, le siguieron los disquetes magnéticos, dando paso a los Cd-roms regrabables y las unidades Zip, y por último los DVD's-RW, con la era de las memorias flash se ha vuelto a dar otra vuelta de rosca. Cada vez son más pequeñas y con mayor capacidad, son los nuevos dispositivos que más se están adaptando a nuestros tiempos. Pequeños, ligeros y fáciles de transportar y usar. TwistPRO es un claro ejemplo de ello.

De la mano de la prestigiosa compañía de memorias Swissbit os presentamos si nuevo producto que acaban de lanzar al mercado, su nombre es TwistPRO. Es una pequeña memoria USB portátil que no deja a nadie impasible cuando se conoce su capacidad. Este que estamos analizando es la versión de nada más y nada menos que 2GB de capacidad. Sí, sí, eso que todos pensábamos que pronto sería realidad, una memoria USB de más de un giga ya es hoy día realidad. La gama TwistPRO también tiene una versión con 4GB de capacidad. Los colores disponibles son Azul Índigo para la versión de 2GB y Rojo Magma para la versión de 4GB.

Especificaciones del producto:
- Tipo de USB - USB 2.0 Hi-Speed device.

- USB 1.1 Full-Speed compliant.
- Alimentación - Se alimenta exclusivamente a través del puerto USB.
- Compatible con - Win XP, Win 2000, Windows ME
- Linux 2.4 y superior.
- MAC OS 9.0 y superior.
- Win98SE driver disponibles.
- Mac 8.6 driver para almacenamiento masivo disponibles para Apple
- Habilitado para arraque - Siempre y cuando esté soportado por BIOS (USB-ZIP, USB-FDD or USB-HDD)
- Indicador Led - Incluye un indicador led que indica cuando la unidad está trabajando.
- Funcionamiento

- Lectura max. 8MB/sec
- Escritura max. 7MB/sec
- Controlador:(más adelante ablaremos sobre esto). - Controlador para el almacenamiento masivo.
- ECC al vuelo (más adelante hablaremos sobre esto).
- Administrador Automático de sectores erróneos.
- Software - Incluye un completo software que cubre todas nuestras necesidades, incluida la de seguridad.

miércoles, 9 de junio de 2010


El procesador Intel Core i7 lleva integrado el controlador de memoria dentro del propio procesador. La tecnología Intel QuickPath Interconnect, es una tecnología de interconexión con el procesador punto a punto desarrollada por Intel en competencia con la tecnología HyperTransport de AMD.

Esta tecnología incluye un controlador de memoria dentro del propio procesador. Reemplaza al Front Side Bus (FSB) de los procesador Xeon e Itanium.

El rendimiento de esta tecnología está reportado para ser de 4,8 a 6,4 Gigatransferencias por segundo (GT/s) por dirección, y un enlace puede ser 5, 10 o 20 bits de largo en cada dirección. Además el ancho de banda provisto por un enlace largo completo asciende de 12,0 a 16,0 GB/s por dirección, o de 24,0 a 32,0 GB/s por enlace.

Admite hasta tres canales de memoria DDR3 a 1600 Mhz por lo que empezaremos a ver placas con seis slots de memoria en vez de cuatro.

domingo, 6 de junio de 2010

SISTEMA OPERATIVO ABIERTO
El sistema operativo abierto o tambien llamado WINDOWS DE CODIGO ABIERTO es un sistema operativo hackeado por asi decirtelo estos windows contienen un serial de oro, eso quiere decir que cuando los instales no te va a pedir contraseña o cualquier otra configuracion, entonces cuando tu WINDOWS DE CODIGO ABIERTO te va a aparecer que tu windows es original, y contaras con varios privilegios como por ejemplo instalar windows media 11, que es la razon por la cual muchos queremos validar nuestro windows, y tambien podras instalar todo tipo de programas que te pidan que tu windows sea original, otra de las ventajas que te trae un sistema operativo abierto esque cuando los intalas no se tarda mucho como los otros sistemas y tambien te trae un listado de programas para que puedas instalar desde el mismo disco de windows estos programas son:

Office
Nero
Antivirus (Regularmente Nod32)
Everest
Msn 8.5
Msn plus
Codecs
Ares
Windows media player 11
Alcohol
CloneCD
Clear
TuneUp
y varios mas
Mozilla fire fox

otra de de sus funciones esque ia viene optimizado esto quiere decir que tu computadora andara mcho mas rapido que con cualquier otro windows, ia viene editado Registro del sistema.

aca te dejo uno nombre de windows de codigo abierto:
Windows UE (te lo recomiendo anda Super)
Windows Destrampados (Xp Sp3)
Windows vista lite (Varias versiones)

sábado, 5 de junio de 2010


Sin duda que uno de los sistemas que ha revolucionado al mercado es aquel que se encuentra absolutamente realizado bajo el apoyo del código abierto o también llamado software libre, pues la industria que se dedica a la proliferación de estos sistemas ha encontrado actualmente un sólido segmento de mercado que lo sigue ciegamente y además participa de manera activa en el desarrollo de los mismos sistemas, cuestión fundamental en sistemas operativos como Linux en donde se propende a la creación de un sistema operativo lo más cercano a la perfección mediante la inclusión de todos los usuarios que serán los operadores de estos sistemas.

Es menester del presente artículo presentarle a todos aquellos que utilizan Linux, 3 razones que fundamentan su utilización en desmedro de sistemas como Windows, que en muchas ocasiones dejan bastante que desear. Por otra parte se pretende con la redacción de este artículo el comentarle a quienes utilizan actualmente Windows, las ventajas del software libre en relación a las posibilidades que en él se encuentran, pues a pesar de no poseer todas las alternativas multimedia que se pueden encontrar comúnmente en un sistema operativo recurrente como lo es el desarrollado por Microsoft, el futuro del desarrollo de programas de código abierto es simplemente sorprendente.

Primera razón: Linux es gratuito.

Antes de comenzar a revisar las características que lo diferencian del clásico Windows, tendríamos que comenzar por evaluar el costo involucrado para cada usuario al momento de aventurarse en el aprendizaje de Linux, pues para suerte de muchos y desgracia de otros se trata de un software absolutamente gratuito que tan sólo requerirá de tiempo para aprender a utilizarlo con propiedad, a diferencia del clásico Windows que tienen un costo elevado y presenta una serie de indecisiones en su elaboración, las que se traducen en errores y problemas recurrentes para los usuarios.

Segunda razón: Linux es libre.

El hecho de que se trate de un software libre, entrega más seguridad a todos los usuarios que en él trabajan, pues tal y como lo pueden ver en la red, existen ciertas iniciativas emprendidas por Microsoft a través de las cuales logran invadir un ordenador que use su sistemas y verificar si efectivamente la entrega que se utiliza es o no legal, cuestión que no se puede cuestionar pues cuidan sus intereses, pero se podría considerar como de práctica dudosa desde el punto de vista del usuario, ya que cada quien es responsable de los sistemas que utiliza, y eso no le da derecho a ningún desarrollador de softwares en definitiva a que entre en sus sistemas. Con Linux no te pasará eso.

Al ser un programa de desarrollo libre, Linux entrega un sin número de distribuciones a las cuales puedes adscribirte, y es que es un sistema operativo hecho a la medida de cada quien, no así Windows que presenta una versión oficial y subversiones de cada una de estas que van agregando accesorios pero son más de lo mismo.

tercera razón: Linux es seguro.

Los usuarios que utilizan habitualmente Windows, muchas veces son víctimas de los llamados virus, spywares y otro tipo de archivos o programas del tipo maliciosos, por lo que constantemente tienen que mantener actualizadas las bases de datos de sus antivirus y protectores informáticos, pues de otra forma son presa segura de aquellos que suelen explotar deficiencias en los sistemas operativos de Microsoft.

No obstante lo anterior, aquellos usuarios que utilicen Linux no tendrá que preocuparse por todo lo anterior, debido a que de acuerdo a la constitución de este sistema operativo libre, resulta casi imposible el que alguna ejecución de comando le haga daño sin que el usuario sepa lo que está ocurriendo en su sistema.

jueves, 3 de junio de 2010


Google se muestra seguro de tener todo preparado para presentar su sistema operativo para ordenadores a finales del próximo otoño. Chrome OS empezará a competir con Windows de Microsoft y Mac OS de Apple, e incluso con otras versioens de Linux "tarde en otoño", ha señalado un alto ejecutivo hoy.

El sistema operativo Chrome en principio está diseñado para funcionar en ordenadores portátiles, aseguró Sundar Pichai, director de Google en el proyecto Chrome a los periodistas en la feria Computex PC.

"Vamos a ser muy selectivos en la forma en que el sistema llegará al mercado, porque queremos ofrecer un buen servicio al usuario", apuntó. "Estamos pensando a partes iguales tanto en el software como en el hardware".

El sistema operativo de Google supone un desafío directo al predominio del sistema Windows de Microsoft, que actualmente está presente en más del 90% de los equipos personales.

Anteriormente, Microsoft ha restado importancia a la inminente aparición de otro rival en el mercado, asegurando que su implantación supondrá dificultadas para los desarrolladores, que tendrán que reprogramar sus aplicaciones si quieren que funcionen en todas las plataformas.

Pichai se ha opuesto totalmente a esta afirmación, asegurando que Chrome está basado en estándares abiertos centrados en la programación de aplicaciones en un entorno web, por lo que a día de hoy, ya hay miles de aplicaciones que serán compatibles con el sistema. Esto supone que las empresas de software no tendrán que desarrollar una nueva versión para Chrome.

"Chrome OS es uno de los pocos sistemas operativos que sin haber aparecido aún ya dispondría de millones de aplicaciones", dijo Pichai. "No es necesario volver a diseñar Gmail para que funcione en Chrome, por ejemplo, y Facebook no tiene necesidad de reescribir una nueva aplicación para Chrome".

Además, siendo Chrome un sistema de código abierto, permitirá a los fabricantes de PC "adaptar" el sistema a las necesidades de sus equipos, por lo que su presentación podrá ser diferente en función de cada uno de los fabricantes.

domingo, 30 de mayo de 2010

Tipos de memorias RAM

DRAM: acrónimo de "Dynamic Random Access Memory", o simplemente RAM ya que es la original, y por tanto la más lenta.

Usada hasta la época del 386, su velocidad de refresco típica es de 80 ó 70 nanosegundos (ns), tiempo éste que tarda en vaciarse para poder dar entrada a la siguiente serie de datos. Por ello, la más rápida es la de 70 ns. Físicamente, aparece en forma de DIMMs o de SIMMs, siendo estos últimos de 30 contactos.

FPM (Fast Page Mode): a veces llamada DRAM, puesto que evoluciona directamente de ella, y se usa desde hace tanto que pocas veces se las diferencia. Algo más rápida, tanto por su estructura (el modo de Página Rápida) como por ser de 70 ó 60 ns. Es lo que se da en llamar la RAM normal o estándar. Usada hasta con los primeros Pentium, físicamente aparece como SIMMs de 30 ó 72 contactos (los de 72 en los Pentium y algunos 486).

Para acceder a este tipo de memoria se debe especificar la fila (página) y seguidamente la columna. Para los sucesivos accesos de la misma fila sólo es necesario especificar la columna, quedando la columna seleccionada desde el primer acceso. Esto hace que el tiempo de acceso en la misma fila (página) sea mucho más rápido. Era el tipo de memoria normal en los ordenadores 386, 486 y los primeros Pentium y llegó a alcanzar velocidades de hasta 60 ns. Se presentaba en módulos SIMM de 30 contactos (16 bits) para los 386 y 486 y en módulos de 72 contactos (32 bits) para las últimas placas 486 y las placas para Pentium.

EDO o EDO-RAM: Extended Data Output-RAM. Evoluciona de la FPM. Permite empezar a introducir nuevos datos mientras los anteriores están saliendo (haciendo su Output), lo que la hace algo más rápida (un 5%, más o menos). Mientras que la memoria tipo FPM sólo podía acceder a un solo byte (una instrucción o valor) de información de cada vez, la memoria EDO permite mover un bloque completo de memoria a la caché interna del procesador para un acceso más rápido por parte de éste. La estándar se encontraba con refrescos de 70, 60 ó 50 ns. Se instala sobre todo en SIMMs de 72 contactos, aunque existe en forma de DIMMs de 168.

La ventaja de la memoria EDO es que mantiene los datos en la salida hasta el siguiente acceso a memoria. Esto permite al procesador ocuparse de otras tareas sin tener que atender a la lenta memoria. Esto es, el procesador selecciona la posición de memoria, realiza otras tareas y cuando vuelva a consultar la DRAM los datos en la salida seguirán siendo válidos. Se presenta en módulos SIMM de 72 contactos (32 bits) y módulos DIMM de 168 contactos (64 bits).

SDRAM: Sincronic-RAM. Es un tipo síncrono de memoria, que, lógicamente, se sincroniza con el procesador, es decir, el procesador puede obtener información en cada ciclo de reloj, sin estados de espera, como en el caso de los tipos anteriores. Sólo se presenta en forma de DIMMs de 168 contactos; es la opción para ordenadores nuevos.

SDRAM funciona de manera totalmente diferente a FPM o EDO. DRAM, FPM y EDO transmiten los datos mediante señales de control, en la memoria SDRAM el acceso a los datos esta sincronizado con una señal de reloj externa.

La memoria EDO está pensada para funcionar a una velocidad máxima de BUS de 66 Mhz, llegando a alcanzar 75MHz y 83 MHz. Sin embargo, la memoria SDRAM puede aceptar velocidades de BUS de hasta 100 MHz, lo que dice mucho a favor de su estabilidad y ha llegado a alcanzar velocidades de 10 ns. Se presenta en módulos DIMM de 168 contactos (64 bits). El ser una memoria de 64 bits, implica que no es necesario instalar los módulos por parejas de módulos de igual tamaño, velocidad y marca

PC-100 DRAM: Este tipo de memoria, en principio con tecnología SDRAM, aunque también la habrá EDO. La especificación para esta memoria se basa sobre todo en el uso no sólo de chips de memoria de alta calidad, sino también en circuitos impresos de alta calidad de 6 o 8 capas, en vez de las habituales 4; en cuanto al circuito impreso este debe cumplir unas tolerancias mínimas de interferencia eléctrica; por último, los ciclos de memoria también deben cumplir unas especificaciones muy exigentes. De cara a evitar posibles confusiones, los módulos compatibles con este estándar deben estar identificados así: PC100-abc-def.

BEDO (burst Extended Data Output): Fue diseñada originalmente para soportar mayores velocidades de BUS. Al igual que la memoria SDRAM, esta memoria es capaz de transferir datos al procesador en cada ciclo de reloj, pero no de forma continuada, como la anterior, sino a ráfagas (bursts), reduciendo, aunque no suprimiendo totalmente, los tiempos de espera del procesador para escribir o leer datos de memoria.

RDRAM: (Direct Rambus DRAM). Es un tipo de memoria de 64 bits que puede producir ráfagas de 2ns y puede alcanzar tasas de transferencia de 533 MHz, con picos de 1,6 GB/s. Pronto podrá verse en el mercado y es posible que tu próximo equipo tenga instalado este tipo de memoria. Es el componente ideal para las tarjetas gráficas AGP, evitando los cuellos de botella en la transferencia entre la tarjeta gráfica y la memoria de sistema durante el acceso directo a memoria (DIME) para el almacenamiento de texturas gráficas. Hoy en día la podemos encontrar en las consolas NINTENDO 64.

DDR SDRAM: (Double Data Rate SDRAM o SDRAM-II). Funciona a velocidades de 83, 100 y 125MHz, pudiendo doblar estas velocidades en la transferencia de datos a memoria. En un futuro, esta velocidad puede incluso llegar a triplicarse o cuadriplicarse, con lo que se adaptaría a los nuevos procesadores. Este tipo de memoria tiene la ventaja de ser una extensión de la memoria SDRAM, con lo que facilita su implementación por la mayoría de los fabricantes.

SLDRAM: Funcionará a velocidades de 400MHz, alcanzando en modo doble 800MHz, con transferencias de 800MB/s, llegando a alcanzar 1,6GHz, 3,2GHz en modo doble, y hasta 4GB/s de transferencia. Se cree que puede ser la memoria a utilizar en los grandes servidores por la alta transferencia de datos.

ESDRAM: Este tipo de memoria funciona a 133MHz y alcanza transferencias de hasta 1,6 GB/s, pudiendo llegar a alcanzar en modo doble, con una velocidad de 150MHz hasta 3,2 GB/s.

La memoria FPM (Fast Page Mode) y la memoria EDO también se utilizan en tarjetas gráficas, pero existen además otros tipos de memoria DRAM, pero que SÓLO de utilizan en TARJETAS GRÁFICAS, y son los siguientes:

MDRAM (Multibank DRAM) Es increíblemente rápida, con transferencias de hasta 1 GIGA/s, pero su coste también es muy elevado.

SGRAM (Synchronous Graphic RAM) Ofrece las sorprendentes capacidades de la memoria SDRAM para las tarjetas gráficas. Es el tipo de memoria más popular en las nuevas tarjetas gráficas aceleradoras 3D.

VRAM Es como la memoria RAM normal, pero puede ser accedida al mismo tiempo por el monitor y por el procesador de la tarjeta gráfica, para suavizar la presentación gráfica en pantalla, es decir, se puede leer y escribir en ella al mismo tiempo.

WRAM (Window RAM) Permite leer y escribir información de la memoria al mismo tiempo, como en la VRAM, pero está optimizada para la presentación de un gran número de colores y para altas resoluciones de pantalla. Es un poco más económica que la anterior.

sábado, 29 de mayo de 2010

MEMORIAS

El propósito del almacenamiento es guardar datos que la computadora no esté usando. El almacenamiento tiene tres ventajas sobre la memoria:

  1. Hay más espacio en almacenamiento que en memoria.
  2. El almacenamiento retiene su contenido cuando se apaga el computador
  3. El almacenamiento es más barato que la memoria.

El medio de almacenamiento más común es el disco magnético. El dispositivo que contiene al disco se llama unidad de disco (drive). La mayoría de las computadoras personales tienen un disco duro no removible. Además usualmente hay una o dos unidades de disco flexible, las cuales le permiten usar discos flexibles removibles. El disco duro normalmente puede guardar muchos más datos que un disco flexible y por eso se usa disco duro como el archivero principal de la computadora. Los discos flexibles se usan para cargar programas nuevos, o datos al disco duro, intercambiar datos con otros usuarios o hacer una copia de respaldo de los datos que están en el disco duro.

Una computadora puede leer y escribir información en un disco duro mucho más rápido que en el disco flexible. La diferencia de velocidad se debe a que un disco duro está construido con materiales más pesados, gira mucho más rápido que un disco flexible y está sellado dentro de una cámara de aire, las partículas de polvo no pueden entrar en contacto con las cabezas.

La memorización consiste en la capacidad de registrar sea una cadena de caracteres o de instrucciones (programa) y tanto volver a incorporarlo en determinado proceso como ejecutarlo bajo ciertas circunstancias.

El computador dispone de varios dispositivos de memorización:

  • La memoria ROM
  • La memoria RAM
  • Las memorias externas. Un aspecto importante de la memorización es la capacidad de hacer ese registro en medios permanentes, básicamente los llamados "archivos" grabados en disco.
  • El acumulador

viernes, 28 de mayo de 2010

La memoria principal o RAM

Acrónimo de Random Access Memory, (Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior. Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.

Cuando las aplicaciones se ejecutan, primeramente deben ser cargadas en memoria RAM. El procesador entonces efectúa accesos a dicha memoria para cargar instrucciones y enviar o recoger datos. Reducir el tiempo necesario para acceder a la memoria, ayuda a mejorar las prestaciones del sistema. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o discos duros, es que la RAM es mucho más rápida, y se borra al apagar el ordenador.

Es una memoria dinámica, lo que indica la necesidad de "recordar" los datos a la memoria cada pequeños periodos de tiempo, para impedir que esta pierda la información. Eso se llama Refresco. Cuando se pierde la alimentación, la memoria pierde todos los datos. "Random Access", acceso aleatorio, indica que cada posición de memoria puede ser leída o escrita en cualquier orden. Lo contrario seria el acceso secuencial, en el cual los datos tienen que ser leídos o escritos en un orden predeterminado.

Es preciso considerar que a cada BIT de la memoria le corresponde un pequeño condensador al que le aplicamos una pequeña carga eléctrica y que mantienen durante un tiempo en función de la constante de descarga. Generalmente el refresco de memoria se realiza cíclicamente y cuando esta trabajando el DMA. El refresco de la memoria en modo normal esta a cargo del controlador del canal que también cumple la función de optimizar el tiempo requerido para la operación del refresco. Posiblemente, en más de una ocasión en el ordenador aparecen errores de en la memoria debido a que las memorias que se están utilizando son de una velocidad inadecuada que se descargan antes de poder ser refrescadas.

Las posiciones de memoria están organizadas en filas y en columnas. Cuando se quiere acceder a la RAM se debe empezar especificando la fila, después la columna y por último se debe indicar si deseamos escribir o leer en esa posición. En ese momento la RAM coloca los datos de esa posición en la salida, si el acceso es de lectura o coge los datos y los almacena en la posición seleccionada, si el acceso es de escritura.

La cantidad de memoria Ram de nuestro sistema afecta notablemente a las prestaciones, fundamentalmente cuando se emplean sistemas operativos actuales. En general, y sobretodo cuando se ejecutan múltiples aplicaciones, puede que la demanda de memoria sea superior a la realmente existente, con lo que el sistema operativo fuerza al procesador a simular dicha memoria con el disco duro (memoria virtual). Una buena inversión para aumentar las prestaciones será por tanto poner la mayor cantidad de RAM posible, con lo que minimizaremos los accesos al disco duro.

Los sistemas avanzados emplean RAM entrelazada, que reduce los tiempos de acceso mediante la segmentación de la memoria del sistema en dos bancos coordinados. Durante una solicitud particular, un banco suministra la información al procesador, mientras que el otro prepara datos para el siguiente ciclo; en el siguiente acceso, se intercambian los papeles.

Los módulos habituales que se encuentran en el mercado, tienen unos tiempos de acceso de 60 y 70 ns (aquellos de tiempos superiores deben ser desechados por lentos). Es conveniente que todos los bancos de memoria estén constituidos por módulos con el mismo tiempo de acceso y a ser posible de 60 ns.

Hay que tener en cuenta que el bus de datos del procesador debe coincidir con el de la memoria, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado. Por tanto, el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad. Como existen restricciones a la hora de colocar los módulos, hay que tener en cuenta que no siempre podemos alcanzar todas las configuraciones de memoria. Tenemos que rellenar siempre el banco primero y después el banco número dos, pero siempre rellenando los dos zócalos de cada banco (en el caso de que tengamos dos) con el mismo tipo de memoria. Combinando diferentes tamaños en cada banco podremos poner la cantidad de memoria que deseemos.