lunes, 5 de julio de 2010

sistemas abiertos

Origenes.

La tendencia de recurrir a sistemas abiertos ha sido a largo plazo. No fue sino hasta el 1989 cuando se le dió carácter al concepto de sistemas abiertos, no existiendo todavía estándares para los equipos de computación. Con la aparición de los computadores personales surgió la portabilidad de los softwares, así los usuarios y los fabricantes demandaban las mismas facilidades en grandes equipos independientemente del hardware del fabricante.

La idea de sistemas abiertos surge de la necesidad de un sistema operativo estándar mundial; y éstos estándares deberían ofrecer los siguientes elementos:

  • Interoperabilidad entre computadores de cualquier fabricantes.
  • Portabilidad de software en distintos hardwares.
  • Compatibilidad entre diferentes versiones de sistemas operativos.
  • Escalabilidad del software en diferentes plataformas de hardware.

Este movimiento ha traido cambios importantes en lo que hasta ahora ha sido el mantenimiento y proceso de la información. Cada fabricante se mantiene a la vanguardia para satisfacer las necesidades de los sistemas abiertos.

Por otro lado se encuentra la necesidad que tenían las instituciones de intercambiar información, lo cual era tarea difícil o casi imposible, ya que los equipos eran diferentes en su Arquitectura.

En el año 1977, para solucionar el problema de arquitectura propia entre equipos, la Organizacion Internacional de Estandarización ( ISO) creó el subcomite SC16, el cual desarrollo el modelo de arquitectura llamado "Modelo de Referencia para la Intercomunicacion de Sistemas Abiertos" ( OSI). Dicho modelo fue evolucionando y se llegó a estructurar en siete niveles, de los cuales los tres inferiores constituyen un estándar muy difundido que se conoce con el nombre de X.25.-

En el año 1980 se estableció un organismo para el desarrollo de estándares en la confección de sistemas abiertos, así surge el llamado USR/GROUP, conocido hoy como UNIFORUM. No fue sino hasta el 1987 cuando este organismo publicó un documento sobre especificaciones en la construcción de sistemas abiertos. El énfasis se hizo en remover la información e implementación específica de las máquinas usando valores simbólicos en lugar de valores numéricos.

El estándar POSIX.1 fue el resultado de los trabajos comenzados por el comite USR/GROUP. El primer sistema en cumplir todos los estándares del POSIX fue el CTOS, diseñado para el manejo de tareas de transacciones intensivas en redes dispersas geograficamente.

Existen serias razones que han motivado el surgimiento de los sistemas abiertos, las cuales pueden resumirse de la siguiente manera:

  • Los ejecutivos empezaron a utilizar computadores personales, con los cuales podían correr el mismo software sin importar el fabricante de la máquina, lo que conllevaba a cierta independencia del proveedor, así se preguntaron porque no ocurría lo mismo con los mainframes.
  • Los sistemas propietarios obligan a que el mantenimiento de los equipos sea dado por el mismo

proveedor.

  • La carencia de recursos disponibles: preparación humana, dinero, capacidad de proceso para emigrar las aplicaciones viejas a las nuevas, etc.
  • Los usuarios demandaban que los equipos de cómputos permitieran la comunicaciones entre

equipos de diferenntes proveedores.

Los tecnólogos informáticos pensaron que los mainframes desaparecerian con el surgimiento de los sistemas pequeños. Hoy en dia éstos equipos representan la vía por la cual se puede organizar el enredo de tecnología causada por proveedores diferentes. Estos equipos se encargarían de realizar las misiones mas serias del cómputo: procesos de transacciones en linea, manejo de base de datos y redes de comunicaciòn compleja.

viernes, 2 de julio de 2010


Disco Óptico:

Un disco sobre el que se lee y escribe con luz. En esta categoria se incluye los CD-ROMs, que son grabados en el momento de su fábricación y no pueden ser borrados. Los Worms(Write Once Read Many) que son grabados en el entorno del usuario y tampoco pueden ser borrados. Y los borrables, que son aquellos que pueden ser reescritos una y otra vez, para esto se utiliza la tecnología Magnéto Óptica(MO) y cambio de fase. Estos temas se explicarán a continuación en detalle.

CD-ROM
Estos discos se basan en la misma tecnología que se utiliza en los CDs de audio, y fue la primera que se desarrollo. Este medio de almacenamiento tiene la desventaja de que no es posible reescribir en ellos, esto lo hace un medio ideal para distribuir software. Estos discos pueden producirse en masa, a muy bajo costo y con una maquinaria totalmente automatizada.

Los CD-ROMs se elaboran utilizando un láser de alto poder para formar agujeros en un disco maestro, luego se hace un molde que se usa para imprimir copias en discos plásticos. Luego se aplica en la superficie una delgada capa de aluminio, seguida de otra de plástico transparente para protección.

Los CD-ROMs se leen mediante un detector que mide la energía reflejada de la superficie al apuntar a esta un láser de bajo poder. Los agujeros, que se denominan huecos (pits), y las áreas sin laserizar entre estos, que se denominan zonas planas (lands), producen una diferente reflectividad del haz de láser, lo que hace posible distinguir entre ambos y recibir dos estados posibles: 0 y 1. Pero no se indica un 0 o un 1 con un land o un pit, sino que un pit indica el cambio de estado, osea de 0 a 1 o de a 1 a 0, y segun la cantidad de lands que haya, el estado se mantiene estable, osea mientras no se cambie de estado se mantiene una zona de lands(Ver figura 1). De esta manera, se trata de realizar la minima cantidad de huecos(pits) posibles en el disco, y así poder escribir más rápidamente.

Puede estimarse entre 10 y 15 años la permanencia de la información en un CD ROM común, dado que la superficie de aluminio que contiene la información se oxida muy lentamente en ese lapso, salvo que sea sometida a una protección anti-óxido especial, o sea de oro

Los CD-Roms están constituidos por una pista en espiral que presenta el mismo número de bits por centímetro en todos sus tramos(densidad lineal constante),para aprovechar mejor el medio de almacenamiento, y no desperdiciar espacio como sucede en los discos magnéticos. Es por esto que en la lectura y grabación de un CD, a medida que el haz láser se aleja del centro del disco, la velocidad debe disminuir, ya que en el centro el espiral es de menos longitud que en los bordes(ver figura 2). Alternando las velocidades se logra que la cantidad de bits leídos por segundo sea constante en cualquier tramo, sea en el centro o en los bordes. SI esta velocidad sería constante, se leerían menos bits por segundo si la zona esta más cerca del centro, y más si esta más cerca de los bordes. Todo esto significa que un CD gira a una velocidad angular variable.

Para poder lograr que los CDs tengan igual densidad en cualquier tramo de la espiral, en la grabación , el haz láser emitido por la cabeza( que se mueve en línea recta radial desde el centro al borde del plato) genera la espiral a velocidad lineal constante(CLV), esto significa que la cantidad de bits grabados por segundos será constante.

Pero para poder lograr esto, y mantener una densidad lineal constante y la pista en espiral, será necesario que el CD gire a una velocidad angular variable(explicado anteriormente). Por lo tanto, por girar un CD a una velocidad angular variable, y ser escrito a velocidad linear constante, se escriben y leen la misma cantidad de bits por segundo y por centímetro, cualquiera sea la posición del mismo. Mientras que cada vuelta de la espiral contendrá más o menos bits según si este más cerca del centro o del borde.

Uno de los problemas del CD-ROM es que la impresión de discos de aluminio con cubierta plástica no es muy precisa, por lo cual la información digital contiene, por lo general, muchos errores. Existen dos formas para corregir estos errores:

  1. La cabeza lectora de la unidad contiene un espejo de precisión manejado por un mecanismo que se utiliza para encontrar errores en la superficie del disco.
  2. Los datos se graban utilizando un algoritmo denominado ‘código de corrección de errores de Reed Solomon’. Este es similar al algoritmo de Hamming, pero al utilizar mas bits de paridad, puede corregir mayor cantidad de errores.

Un tipo de CD-ROM de 60 min de duración (también son comunes los de 74 min) presenta la espiral constituida por 270000 marcos conteniendo cada uno 2048 bytes (2 K) para datos. En total se pueden almacenar: 527 Mb. La espiral presenta unas 16000 vueltas por pulgada radial(t.p.i). Se debe tener en cuenta que en el espesor de un cabello entran 50 vueltas.

Antes de grabar el disco "maestro",un programa fracciona cada archivo a grabar en marcos de 2048 bytes de datos, y les agrega, conforme a los campos de un marco.:

  1. unos y ceros indicadores de comienzo de marco , que sirven para sincronismo con la lectora de CD.
  2. una secuencia de bits que irá en la cabecera (header) de cada marco para poder localizarlo.

Para poder localizar un marco dentro del CD , este se identifica por una dirección formada por 3 variables. Teniendo en cuenta el CD de 60 minutos (antes explicado), las primeras dos variables de la dirección son los minutos y los segundos horarios(mm:ss), los cuales obviamente varían desde 0 hasta el 59. El comienzo del espiral, o sea el centro del CD, tiene la dirección 00:00, este va progresando según va creciendo el espiral, hasta llegar a la dirección 59:59. Pero estas direcciones no son suficientes para localizar cada marco, de ahi viene la utilidad de la tercer variable. Esta variable, indica el numero de marco, teniendo en cuenta los minutos y segundos, y sus valores pueden ser desde el 0 hasta el 74. Osea, que por cada segundo , hay 75 marcos. De esta manera hay 60 valores posibles para los minutos y los segundos, y 75 para cada marco, hay 270 000 direcciones posibles, por lo cual existe una dirección para cada marco.

Teniendo en cuenta esto, podemos deducir, que por ejemplo el marco 155, tendrá la dirección 0:2 4. Esto se deduce ya que sí por c/seg existen 75 marcos, si la dirección es 2 seg, esta pertenece al marco 150, entonces para direccionar el marco 155, el marco es el numero 4.

Existen unidades lectoras de CD-ROM de tipo 2x, 4x, 6x,... velocidad simple de una unidad de CD de audio estándar respectivamente.
Si bien los CD-ROM son los CD más usados para almacenar programas y datos, las unidades lectoras de CD actuales también permiten leer información digital de otros tipos de CD basados en la misma tecnología, con vistas a aplicaciones en multimedia, como ser:
CD-DA (Digital Audio): es el conocido CD que escuchamos en un reproductor de CD para audio. Podemos escuchar la música que contiene mientras trabajamos con una PC, o bien mezclarla en usos multimedia.
CD-I son las iniciales de disco compacto interactivo. De tecnología semejante al CD-ROM, puede combinar datos, audio y video, conforme a un estándar multimedia propuesto por Phillips y Sony en 1986. Este también define métodos para codificar y decodificar datos comprimidos, y para visualizarlos. Almacena 72 minutos de audio digital estéreo ó 19 horas de conversación de calidad en mono, ó 6000 a 1500 imágenes de video - según la calidad deseada- que pueden buscarse interactivamente y mezclarse. Para utilizarse el mismo, se requiere de una plaqueta especial.
CD-ROM XA (de extended Architecture): es un estándar para sonido e imagen propuesto por Phillips, Sony y Microsoft, extensión de las estructuras de un CD-ROM, que especifica la grabación comprimida de sonido en un CD-ROM por el sistema ADPCM, también empleado en CD-I. Esto hace que un CD-ROM XA sea un puente entre el CD-ROM y el CD-I.
DVI es un tipo de CD ROM que integra video, televisión, gráficos con animación, audio multicanal y textos. Necesita plaquetas adicionales. Debido a una técnica de compresión de datos, éstos ocupan 120 veces menos lugar, permitiendo ver una hora de video de 30 imágenes por segundo. A esta velocidad, dado que una imagen de TV ocupa 600 KB, para ver un segundo se requieren 600 KB x 30 = 18 MB. De no existir compresión, los 600 MB de un CD ROM sólo permiten unos 600/18 » 30 seg. de visión. Los reproductores de CD actuales pueden leer CD-ROM, CD-R (de varias sesiones), CD-ROM XA, Photo CD, Video-CD, CD-I, CD-plus, y CD-DA.

WORM

Los WORMs (Write Once Read Many) son discos òpticos en los que, como el nombre lo indica, se puede escribir una sola vez, y acceder a los datos tantas veces como se quiera. Estos aparecieron ya que este dispositivo permite al usuario escribir el mismo en el disco. Sin embargo, una vez que se ha laserizado un hueco en la superficie, este ya no puede borrarse. Los discos que utilizan la tecnología Worm más conocidos en el mercado son los CD-R (Compact Disc Recordable), llamados anteriormente CD-WO(Write Once).

El proceso de grabación se realiza de la siguiente manera: el CD contiene una espiral, parcialmente pregrabada de fabrica que contiene las direcciones de los marcos, que sirve de guía para el láser. Este espiral posee una capa orgánica(un pigmento) translúcida que cuando el haz incide en una posición, esta se calienta decolorando el pigmento. En sima de esta capa se encuentra un capa de oro que sirve para reflejar el haz láser en cada lectura.

En la lectura, la capa orgánica deja pasar el haz láser hacia la capa de oro, o sea la capa reflectora, reflejandose de forma distinta según el haz haya atravesado un punto decolorado o no, simulando de esta manera en la lectura pits para las zonas decoloradas, y lands para las zonas donde no incidió el láser. Esto sucede ya que las zonas decoloradas producen una reflexion similar a la de un pit, y lo mismo con la de una zona sin decolorar con un land. Es por esto que CD-R ya grabado se lee como un CD-ROM .

Un CD-R no es necesariamente grabado en una sola sesión, se puede grabar en varios momentos como archivos que se quiere incorporar, hasta llegar a los 650 Mb(llamamos sesión a cada momento que se graba una determinada cantidad de archivos en un CD-R). Es por esto que un CD-R se debe grabar con la siguiente estructura para poder contener múltiples sesiones:

Los primeros 4 mm de ancho radial de una espiral de un CD-R o de un CD-ROM constituyen el "lead in", que antecede a la zona de datos. Esta es de unos 29 mm de ancho, y le sigue el "lead out" de 1 mm.

En un CD-R, el "lead-in" es precedido por dos áreas necesarias para alinear el haz láser a fin de poder grabar lo que sigue. Cada sesión de grabado de la espiral debe comenzar con la escritura de un "lead in", y terminar con la de un "lead out". A su vez, cada "lead in" debe contener la tabla de contenidos ("Table of contents" TOC), índice de los datos grabados en la sesión correspondiente.

Debe mencionarse que un CD-R grabado en "multisesiones" debe ser leído por un lector de CD-ROM apropiado (como son los actuales). De no serlo, sólo leerá la primer sesión.
Los sistemas operativos de una PC utilizan para la lectura de un CD-ROM el formato lógico HSG/ISO 9660. Este es un estandar de una organización interna de los CD –ROM establecida en 1985 por la empresa High Sierra Group, utilizado para establecer normas de compatibilidad entre los CDs.

Uno de los usos del CD-R que no se mencionó es el del Photo Cd. Este es un estándar elaborado en 1990 por Phillips y Eastman Kodak que especifica el procedimiento para convertir fotografías de 35 mm en señales digitales para ser grabadas en un CD-R en una o varias sesiones. La grabación se realiza durante el revelado de la película. Así se guardan cientos de fotos color en un CD-R.

martes, 29 de junio de 2010

Disco duro

Disco duro, en los ordenadores o computadoras, unidad de almacenamiento permanente de gran capacidad. Está formado por varios discos apilados —dos o más—, normalmente de aluminio o vidrio, recubiertos de un material ferromagnético. Como en los disquetes, una cabeza de lectura/escritura permite grabar la información, modificando las propiedades magnéticas del material de la superficie, y leerla posteriormente (La tecnología magnética, consiste en la aplicación de campos magnéticos a ciertos materiales cuyas partículas reaccionan a esa influencia, generalmente orientándose en unas determinadas posiciones que conservan tras dejar de aplicarse el campo magnético. Esas posiciones representan los datos, bien sean una canción, bien los bits que forman una imagen o un documento importante.); esta operación se puede hacer un gran número de veces.

La mayor parte de los discos duros son fijos, es decir, están alojados en el ordenador de forma permanente. Existen también discos duros removibles, como los discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de información de un ordenador a otro.

El primer disco duro se instaló en un ordenador personal en 1979; era un Seagate con una capacidad de almacenamiento de 5 MB. Hoy día, la capacidad de almacenamiento de un disco duro puede superar los 50 MB. A la vez que aumentaba la capacidad de almacenamiento, los discos duros reducían su tamaño; así se pasó de las 12 pulgadas de diámetro de los primeros, a las 3,5 pulgadas de los discos duros de los ordenadores portátiles o las 2,5 pulgadas de los discos de los notebooks (ordenadores de mano).

Modernamente, sólo se usan en el mundo del PC dos tipos de disco duro: el IDE y el SCSI (leído "escasi"). La diferencia entre estos Discos duros radica en la manera de conectarlos a la MainBoard.

lunes, 28 de junio de 2010

La tecnología óptica

la tecnología óptica de almacenamiento por láser es bastante más reciente. Su primera aplicación comercial masiva fue el superexitoso CD de música, que data de comienzos de la década de 1.980. Los fundamentos técnicos que se utilizan son relativamente sencillos de entender: un haz láser va leyendo (o escribiendo) microscópicos agujeros en la superficie de un disco de material plástico, recubiertos a su vez por una capa transparente para su protección del polvo.

Realmente, el método es muy similar al usado en los antiguos discos de vinilo, excepto porque la información está guardada en formato digital (unos y ceros como valles y cumbres en la superficie del CD) en vez de analógico y por usar un láser como lector. El sistema no ha experimentado variaciones importantes hasta la aparición del DVD, que tan sólo ha cambiado la longitud de onda del láser, reducido el tamaño de los agujeros y apretado los surcos para que quepa más información en el mismo espacio.

Disco de vídeo digital

Disco de vídeo digital, también conocido en la actualidad como disco versátil digital (DVD), un dispositivo de almacenamiento masivo de datos cuyo aspecto es idéntico al de un disco compacto, aunque contiene hasta 25 veces más información y puede transmitirla al ordenador o computadora unas 20 veces más rápido que un CD-ROM. Su mayor capacidad de almacenamiento se debe, entre otras cosas, a que puede utilizar ambas caras del disco y, en algunos casos, hasta dos capas por cada cara, mientras que el CD sólo utiliza una cara y una capa. Las unidades lectoras de DVD permiten leer la mayoría de los CDs, ya que ambos son discos ópticos; no obstante, los lectores de CD no permiten leer DVDs.

En un principio se utilizaban para reproducir películas, de ahí su denominación original de disco de vídeo digital. Hoy, los DVD-Vídeo son sólo un tipo de DVD que almacenan hasta 133 minutos de película por cada cara, con una calidad de vídeo LaserDisc y que soportan sonido digital Dolby surround; son la base de las instalaciones de cine en casa que existen desde 1996. Además de éstos, hay formatos específicos para la computadora que almacenan datos y material interactivo en forma de texto, audio o vídeo, como los DVD-R, unidades en las que se puede grabar la información una vez y leerla muchas, DVD-RW, en los que la información se puede grabar y borrar muchas veces, y los DVD- RAM, también de lectura y escritura.

En 1999 aparecieron los DVD-Audio, que emplean un formato de almacenamiento de sonido digital de segunda generación con el que se pueden recoger zonas del espectro sonoro que eran inaccesibles al CD-Audio.

Todos los discos DVD tienen la misma forma física y el mismo tamaño, pero difieren en el formato de almacenamiento de los datos y, en consecuencia, en su capacidad. Así, los DVD-Vídeo de una cara y una capa almacenan 4,7 GB, y los DVD-ROM de dos caras y dos capas almacenan hasta 17 GB. Del mismo modo, no todos los DVDs se pueden reproducir en cualquier unidad lectora; por ejemplo, un DVD-ROM no se puede leer en un DVD-Vídeo, aunque sí a la inversa.

Por su parte, los lectores de disco compacto, CD, y las unidades de DVD, disponen de un láser, ya que la lectura de la información se hace por procedimientos ópticos. En algunos casos, estas unidades son de sólo lectura y en otros, de lectura y escritura.

sábado, 26 de junio de 2010

Últimas novedades en lenguajes de programación

La aparición de los ordenadores y, sobre todo, su hibridación con las telecomunicaciones configurando la gran red global, han propiciado una revolución "informacional" de las fuerzas productivas de una magnitud desconocida hasta ahora. Para Peña Marí, en el análisis histórico de este fenómeno, se ha prestado tradicionalmente “mucha más atención” a las herramientas materiales de computación, al hardware, que no al software y los lenguajes de programación, que son los instrumentos para comunicar los algoritmos a las máquinas que han de ejecutarlos. El objetivo de esta conferencia es situar los avances en el diseño de lenguajes de programación en su contexto histórico, explicando el surgimiento de las principales innovaciones, indicando cómo impactaron en lenguajes posteriores, qué lenguajes las implementaron por primera vez y quiénes fueron sus autores. También se pasa revista a los desarrollos más recientes y se indican algunas líneas en las que es previsible evolucionen los lenguajes en un futuro próximo. En la ingeniería actual, no sólo en la informática, es importante tener una visión global del desarrollo de los lenguajes y de sus debilidades y aciertos para construir programas, así como el saber situar cada acontecimiento y cada lenguaje en su momento histórico y comprender mejor sus influencias mutuas. El ponenteRicardo Peña Marí es catedrático de Universidad del Departamento de Sistemas Informáticos y Computación de la Universidad Complutense de Madrid. Sus áreas de investigación son el diseño y desarrollo de lenguajes de programación y el uso de métodos formales para garantizar la corrección de los programas. Ha trabajado en técnicas de especificación y diseño de programas con tipos abstractos de datos y en métodos de verificación de programas concurrentes. En los últimos 12 años se ha dedicado al paradigma de programación funcional. Dentro de él, su grupo junto con la Universidad de Marburg (Alemania), han desarrollado el lenguaje funcional-paralelo Edén. En los últimos años sigue trabajando dentro del paradigma funcional pero más dedicado al análisis estático de programas. Peña ha sido investigador principal en varios proyectos nacionales y ha participado en otros proyectos europeos. Además, ha publicado numerosos artículos científicos en congresos y revistas internacionales y es autor de libros como “Diseño de Programas”, “De Euclides a Java

viernes, 25 de junio de 2010

Relación de los principales lenguajes de programación


ABC

ABC es el resultado de un proyecto del CWI (un centro de investigación holandés de carácter oficial). En el sitio web de CWI hay intérpretes ABC para distintas plataformas (Unix, Macintosh, MS-DOS y Atari-ST). También está disponible el código fuente de la versión Unix.

ABC pretende ser un sustituto de BASIC. Como éste, fue pensado para principiantes, aunque su evolución posterior lo hace también adecuado para programadores avanzados. Es muy fácil de aprender y de usar, y el código es compacto pero legible (al menos eso dicen). Tiene tipos de datos de muy alto nivel: números (enteros exactos de cualquier tamaño y números no exactos), textos (strings de cualquier longitud), listas (sus elementos tienen que ser del mismo tipo y siempre están ordenados), compuestos (equivalentes a registros sin nombres de campo) y tablas (son listas con índices o claves). Como sucede con otros intérpretes, ABC es, además de un lenguaje de programación, un entorno interactivo de trabajo.

Un defecto de ABC es que los textos no pueden contener más que los caracteres US-ASCII (nada de acentos, eñes, etc.). También se le ha criticado la falta de extensibilidad (algo común a muchos lenguajes, me parece).

El intérprete va acompañado de alguna información, pero el verdadero manual se vende como libro independiente.

martes, 22 de junio de 2010

tercera Unidad


ENGUAJES DE BAJO NIVEL (ensamblador):

Son más fáciles de utilizar que los lenguajes máquina, pero al igual que ellos, dependen de la máquina en particular. El lenguaje de bajo nivel por excelencia es el ensamblador. El lenguaje ensamblador es el primer intento de sustituir el lenguaje maquina por otro más similar a los utilizados por las personas. Este intenta desflexibilizar la representación de los diferentes campos. Esa flexibilidad se consigue no escribiendo los campos en binario y aproximando la escritura al lenguaje. A principios de la década de los 50 y con el fin de facilitar la labor de los programadores, se desarrollaron códigos mnemotécnicos para las operaciones y direcciones simbólicas. Los códigos mnemotécnicas son los símbolos alfabéticos del lenguaje maquina. La computadora sigue utilizando el lenguaje maquina para procesar los datos, pero los programas ensambladores traducen antes los símbolos de código de operación especificados a sus equivalentes en el lenguaje maquina. En la actualidad los programadores no asignan números de dirección reales a los datos simbólicos, simplemente especifican donde quieren que se coloque la primera localidad del programa y el programa ensamblador se encarga de lo demás, asigna localidades tanto para las instrucciones como los datos. Estos programas de ensamble o ensambladores también permiten a la computadora convertir las instrucciones en lenguaje ensamblador del programador en su propio código maquina. Un programa de instrucciones escrito en lenguaje ensamblador por un programador se llama programa fuente. Después de que el ensamblador convierte el programa fuente en código maquina a este se le denomina programa objeto. Para los programadores es más fácil escribir instrucciones en un lenguaje ensamblador que en código de lenguaje maquina pero es posible que se requieran dos corridas de computadora antes de que se puedan utilizar las instrucciones del programa fuente para producir las salidas deseadas.

El lenguaje de bajo nivel es el lenguaje de programación que el ordenador puede entender a la hora de ejecutar programas, lo que aumenta su velocidad de ejecución, pues no necesita un intérprete que traduzca cada línea de instrucciones.

Visto a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador.

Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que son, a menudo, difíciles de aprender. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada procesador. Si se lleva el programa a otra maquina se debe reescribir el programa desde el principio.

Ventajas del lenguaje ensamblador frente al lenguaje máquina: mayor facilidad de codificación y, en general, su velocidad de calculo, ahorran tiempo y requieren menos atención a detalles. Se incurren en menos errores y los que se cometen son más fáciles de localizar. Tanto el lenguaje maquina como el ensamblador gozan de la ventaja de mínima ocupación de memoria y mínimo tiempo de ejecución en comparación con el resultado de la compilación del programa equivalente escrito en otros lenguajes. Los programas en lenguaje ensamblador son más fáciles de modificar que los programas en lenguaje máquina.

Desventajas del lenguaje ensamblador: dependencia total de la maquina lo que impide la transportabilidad de los programas (posibilidad de ejecutar un programa en diferentes máquinas). El lenguaje ensamblador del PC es distinto del lenguaje ensamblador del Apple Machintosh. La formación de los programadores es más compleja que la correspondiente a los programadores de alto nivel, ya que exige no solo las técnicas de programación, sino también el conocimiento del interior de la maquina El programador ha de conocer perfectamente el hardware del equipo, ya que maneja directamente las posiciones de memoria, registros del procesador y demás elementos físicos. Todas las instrucciones son elementales, es decir, en el programa se deben describir con el máximo detalle todas las operaciones que se han de efectuar en la maquina para la realización de cualquier proceso.

Los lenguajes ensamblador tienen sus aplicaciones muy reducidas, se centran básicamente en aplicaciones de tiempo real, control de procesos y de dispositivos electrónico