Informática Aplicada a las Ciencias Sociales
Grado en Ciencia Política y Gestión Pública. Universidad de Murcia
um.es/docencia/barzana > IACCSS > Hardware

Hardware

Bits y sus fundamentos

El término información no es fácil de definir pues tiene varios significados, se podría considerar como "comunicación que tiene valor porque informa", aunque no proporciona una medida unívoca y cuantitativa de la información de una situación dada, bajo esta definición la información es algo personal, cada individuo puede tener una percepción distinta de la información que recibe.

La teoría de la comunicación, propuesta por Claude Shannon (1916-2001), define la información como cualquier cosa que puede ser comunicada, independientemente de su valor. Lo que lees en este momento, las letras y números, son símbolos que representan información.
Ordenador analógico Gear
Actualmente los ordenadores son digitales, se basan en la electrónica digital, lo que implica que la información la gestionan en base a dígitos (de forma discreta), no mediante magnitudes que varían de forma continua (caso de los ordenadores analógicos, por ejemplo uno fabricado en base a tuberías, bombas y agua, que es un ordenador hidráulico, o el mostrado en la imagen). Los ordenadores digitales sólo pueden tratar la información discreta, la unidad de información es el bit, abreviatura de dígito binario, que puede tener uno entre dos valores, cero (0) y uno (1).

Simplificando, se puede imaginar un ordenador como un dispositivo que está constituido por muchos conmutadores microscópicos de dos posiciones, on y off o apagado y encendido, por lo tanto usan el sistema binario. Los ordenadores habitualmente manejan bloques de bits, así que un grupo de 8 bits es un octeto o byte que puede representar 256 (28) símbolos diferentes. En informática una palabra corresponde a 16 bits.

El Sistema Binario

El sistema binario, como el sistema decimal de uso habitual, es un sistema posicional
Que permite representar cualquier número con un conjunto limitado de símbolos o dígitos, que toman distinto valor en función de la posición que ocupan; las posiciones correlativas corresponden a sucesivas potencias de la base de numeración del sistema, que es también el número de símbolos distintos que emplea.
    , pero el valor de la posición viene dado por potencias de 2 (20, 21, 22,…) ya que como base solo se utilizan dos dígitos, el cero y el uno, frente al decimal que se basa en potencias de 10. Este sistema se planteó formalmente en 1679, por el matemático alemán Gottfried Leibniz (1646-1716). El siguiente vídeo de Raúl Ibáñez, muestra de forma sencilla que son los números binarios.



Por lo tanto, si deseamos convertir un número en base 2 (binario) al sistema decimal (base 10), hay que multiplicar el dígito (0 o 1) por la potencia de 2 correspondiente a su posición, como se muestra seguidamente.

Valor posicional 23 22 21 20   Valor decimal

1 en 20

     

1

1 x 20

1

1 en 21

   

1

 

1 x 21

2

0 en 22

 

0

   

0 x 22

0

1 en 23

1

     

1 x 23

8



Como 1 + 2 + 0 + 8 = 11 tenemos que 1011(2 = 11(10.



Si lo que se desea es convertir un número binario a decimal, dividiremos sucesivamente el valor decimal por 2 hasta llegar a 1. Los restos de las divisiones, en orden inverso, indicarán el valor binario, como se muestra en la siguiente tabla

División Cociente Resto

52 / 2

26

0

26 / 2

13

0

13 / 2

6

1

6 / 2

3

0

3 / 2

1

1

1

 

1



Por tanto 52(10 = 110100(2.



Como ya se ha comentado, los ordenadores "utilizan" este sistema de numeración, y en cada posición de memoria almacenan 1 bit (que equivale a un cero o un uno).

El Sistema Hexadecimal

El sistema hexadecimal, como los anteriores, también es posicional. En este caso el valor de la posición viene dado por potencias de 16 (160, 161, 162,…).

Como sólo disponemos de 10 caracteres para representar los posibles dígitos, se añaden las letras A, B, C, D, E y F. Por lo que en base 16 se emplean los siguientes caracteres 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A = 10, B = 11, C = 12, D = 13, E = 14, y F = 15.

Para realizar la conversión al sistema decimal el método es análogo al anterior.

Valor posicional 163 162 161 160   Valor decimal

F en 160

     

F

F x 160

15

2 en 161

   

2

 

2 x 161

32

5 en 162

 

5

   

5 x 162

1280

A en 163

A

     

A x 163

40960



Por lo tanto, como 15 + 32 + 1280 + 40960 = 42287 tenemos que A52F(16 = 42287(10, también se suele representar como A52Fh, indicando la h que se trata de un valor hexadecimal.



Para convertir una magnitud hexadecimal a decimal, el método es similar al utilizado con los valores binarios, teniendo en cuenta que si obtenemos como restos 10, 11, 12, 13, 14 ó 15, se deben sustituir respectivamente por A, B, C, D, E o F.

División Cociente Resto

332 / 16

20

12 = C

20 / 16

1

4

1

 

1


Por lo tanto 332(10 = 14C(16.



El sistema hexadecimal se suele utilizar ampliamente en informática, por ejemplo para indicar direcciones de memoria.

Los números en el antiguo Egipto

Hacia el año 3000 a.n.e., casi en la misma época que los sumerios, los egipcios diseñaron un sistema de escritura, jeroglífica, es decir, basado en pictogramas. El sistema de numeración egipcio era decimal (base 10), pero al contrario que el nuestro que es posicional, era aditivo, que significa que por ejemplo el 5 se representaba como cinco veces 1 o el 90 como nueve veces 10. Como los egipcios representaban números más grandes que un millón, tenían pictogramas para 1, 10, 100, 1000, 10000, 100000 y 1000000, que se muestran en la siguiente imagen.

Pictoggramas números egipcios

La suma era un proceso sencillo que consistía pen acumular las cifras y reagrupar, es decir, cuando se tenían diez líneas verticales (1) se sustituían por una herradura (10) y lo mismo con el resto. Por ejemplo, sumar 1729 con 696.

Sumas egipcios

Para la multiplicación se escriben dos columnas de números, en la primera se situa arriba el número 1 y en la otra uno de los números a multiplicar, por ejemplo el 17. En la segunda fila se multiplican por 2 los números de arriba, los de la primera fila, así que en la primera columna aparece el 2 y en la segunda 34, dos veces 17. En la tercera se obtiene 4 y 68. Y en la cuarta, 8 y 136. Es decir, en cada fila se multiplican por 2 los números de la anterior.

En la primera columna, la que empieza por 1, se obtienen las potencias de dos, 1, 2, 4, 8, y se podría continuar 16, 32, 64, 128, etc. para números más grandes, en la otra columna, la que tiene arriba el número que se vam a multiplicar (17), se tiene el resultado de multiplicar 17 por los números de la primera columna, 17, 34 = 17 x 2, 68 = 17 x 4 y 136 = 17 x 8.



Como el número 13, y este se puede escribir como suma de algunos de números de la primera columna, 13 = 8 + 4 +1, entonces la multiplicación 17 x 13 será igual a la suma de los números de la columna derecha que se corresponden con 8, 4 y 1, es decir, 136 + 68 + 17 = 221. Esto no es más que una consecuencia de la propiedad distributiva.

17x13 = 17x(8+4+1) = 17x8 + 17x4 + 17x1 = 136 + 68 + 17 = 221

Este método se basa en dos aspectos que ya conocían los egipcios, que todo número se puede expresar como suma de distintas potencias de 2 (1 = 20, 2 = 21, 4 = 22, 8 = 23, 16 = 24, 32 = 25, 64 = 26, 128 = 27, ...) y la propiedad distributiva de la suma y el producto, (a + b) x c = a x c + b x c

Los egipcios desarrollaron un método de división, el recíproco del algoritmo de multiplicación. Por ejemplo, para realizar la división de 247 entre 13, se ha de emplear el procedimiento de las dos columnas para calcular “cuántas veces está incluido 13 en 247”. Se escriben dos columnas de números por el método de multiplicar por 2 los números que están en la fila anterior, una columna con el 1 arriba y la otra con el divisor, 13 en este ejemplo, arriba. La diferencia está en que ahora, para saber “cuántas veces está el 13 dentro de 247”, hay que escribir el dividendo, 247, como suma de los números de la columna de la derecha. En este caso, 247 = 208 + 26 + 13, pero en este caso se consideran los números correspondientes de la columna de la izquierda, 16, 2 y 1, ya que 208 = 13 x 16, 26 = 13 x 2 y 13 = 13 x 1, de donde se obtiene que la división de 247 entre 13 es 16 + 2 + 1 = 19. Este procedimiento fue utilizado, con algunas variaciones, por los griegos y continuó utilizándose hasta la Edad Media en Europa.

División egipcios

Microprocesador

El microprocesador también denominado unidad central de procesamiento (CPU) es una parte imprescindible de un ordenador digital, interpreta y ejecuta las instrucciones que se le proporcionan mediante los programas. Una CPU solo está diseñada para procesar operaciones elementales tales como: sumas, restas, multiplicaciones, divisiones y comparaciones, con números enteros y en un rango limitado en función del tipo de microprocesador. Cualquier otra operación más compleja se realiza mediante programas incorporados en la CPU o a través de aplicaciones software.

El microprocesador está ubicado en la placa base (o placa madre) del equipo informático y requiere además un conjunto de circuitos integrados para coordinar el resto de hardware, actualmente con sólo dos chips se logra un sistema totalmente operativo ("chipset sur" y "chipset norte"), junto con la memoria RAM. Para que diversos tipos de ordenadores sean compatibles entre sí por lo que respecta al hardware, es fundamental que posean CPU iguales o compatibles, pues cada fabricante de microprocesadores los desarrolla tanto a nivel físico como lógico según sus propios criterios, no hay un estándar. Por ejemplo una CPU Intel 8088 (la que usaba el primer PC de IBM 
El IBM Personal Computer (en español, computadora personal IBM u ordenador personal IBM), conocido comúnmente como IBM PC, es la versión original y el progenitor de la plataforma de hardware compatible IBM PC. Es el IBM modelo 5150, y fue introducido el 12 de agosto de 1981. Fue creado por un equipo de ingenieros y de diseñadores bajo la dirección de Don Estridge y William C. Lowe del IBM Entry Systems Division en Boca Raton, Florida.
  ) será compatible a nivel lógico en el sentido de que un programa para ella funcionará, por ejemplo, en un Intel CORE i7, pero no es compatible en el sentido de poder cambiar una por otra en una placa base. Y si se compara una Pentium de Intel con una PowerPC de IBM, ya no hay compatibilidad ni tan siquiera a nivel de programación..

El siguiente vídeo muestra una ampliación, tipo zoom, de un chip, elaborado con tecnología de 22 nanometros.



Este otro vídeo muestra un sistema automático de verificación de los circuitos en una placa base de ordenador.



Rendimiento de un ordenador

Desde la comercialización de los primeros microprocesadores (CPU) la velocidad a la que trabajan ha ido en aumento de forma continua, por ejemplo el primer PC de IBM (agosto de 1981) tenía una CPU Intel 8088 a velocidad de 4.77 MHz (millones de vibraciones por segundo), mientras que una CPU Core de Intel actualmente trabaja a más de 3 GHz (un gigahercio es mil millones de vibraciones por segundo) e incorpora varias CPU en un solo chip.

La frecuencia que se suele dar como una característica de potencia de un ordenador, hace mención al reloj interno de la CPU, que sincroniza el funcionamiento de todo el ordenador, una computadora de las que usamos habitualmente es un sistema síncrono, es decir que tiene un reloj que sincroniza todas las operaciones y la circulación de información por todos sus circuitos electrónicos. Actualmente se suelen valorar otros parámetros y no se hace tanta publicidad de la frecuencia, que por otra parte ha dejado de aumentar por motivos técnicos.

Aunque pudiera pensarse que a mayor frecuencia de reloj de la CPU, mayor rendimiento del ordenador, no es siempre así. Por una parte depende del número de bits que gestione (lo que se llama tamaño de palabra), por ejemplo el PC de IBM tenía una CPU de 16 bits internos y 8 externos, mientras que un microprocesador Pentium es de 32 bits y las Intel más modernas son de 64 bits, a mayor número de bits, más rápido es el equipo.

Las prestaciones también dependen de la arquitectura, tanto de la CPU como del resto de circuitería electrónica, así dos microprocesadores que manejen palabras de igual número de bits y semejante frecuencia de reloj, lo habitual es que tengan prestaciones diferentes. También influye mucho cómo está diseñada la placa en la que se ubica la CPU, hay fabricantes con diseños muy optimizados y otros bastante malos (habitualmente usados por los ordenadores clónicos, incluso algunas marcas conocidas que usan componentes de clónicos).

Dado que aumentar la frecuencia de reloj tiene un límite, impuesto por las leyes de la física, actualmente para lograr mayores prestaciones se han empezado a comercializar ordenadores con microprocesadores de doble y cuádruple núcleo (como el Intel® Core i7), que significa que en una CPU se pone el equivalente a dos o cuatro por separado. Investigadores del MIT han diseñado un microprocesador con 36 núcleos. Otra alternativa que desde hace algún tiempo se comercializa es la computación en paralelo, que consiste en usar hasta miles de microprocesadores conectados en paralelo. De esta forma trabajan los mayores ordenadores que se han diseñado. En el futuro en vez de electrónica será posible emplear equipos ópticos, sistemas biológicos y a más largo plazo ordenadores cuánticos.

Memoria RAM

La CPU sólo puede manipular instrucciones con unos pocos datos o código de programa, mientras que las aplicaciones habituales tienen millones de líneas de código de programa. El ordenador, cuando está trabajando, precisa un lugar para almacenar los programas, datos y resultados, con esta finalidad hay una memoria, conocida como RAM o memoria de acceso aleatorio (random access memory).

Está formada por circuitos integrados capaces de conmutar entre dos estados, dando lugar a la posibilidad de almacenar los ceros y unos (bits) del lenguaje binario. Varios tipos de memorias RAMLa memoria se estructura como una serie muy grande de “celdillas” donde se almacenan los datos y los programas, vienen a ser como los buzones que se encuentran en las entradas a los edificios, cada uno pertenece a una vivienda y está claramente identificado.

La principal desventaja de estas memorias es que son volátiles, lo que significa que al desconectar la alimentación eléctrica del ordenador pierden la información. Para estos casos es cuando se necesita una memoria permanente hay de otros tipos aunque ya sea por capacidad o por precio no son rentables para usar en ordenadores de forma masiva, así que su empleo está restringido a casos imprescindibles, como por ejemplo el arranque de un ordenador (la conocida como BIOS, actualmente reemplazada por la denominada UEFI), en los primeros PC era una memoria ROM, que venía grabada de fábrica y no se podía cambiar el contenido, actualmente se usan las conocidas como memorias flash, su contenido es permanente pero se pueden borrar y grabar de nuevo, un ejemplo de uso fuera de los ordenadores son las tan conocidas memorias de las máquinas de fotografiar digitales, llaves electrónicas (pen drive) y dispositivos MP3.

Hay otros tipos de memorias pero están poco difundidos, como las ferroeléctricas (FRAM) y magnéticas (que se usaron en forma de núcleos de ferrita en los primeros ordenadores). Otro tipo, basado en nanotecnología, son las memorias racetrack, propuestas por investigadores de IBM. En el futuro es posible que las memorias se fabriquen a partir de sistemas biológicos, como por ejemplo bacterias o de moléculas orgánicas capaces de funcionar como un transistor, como los rotaxanos (compuestos complejos en los cuales una molécula en forma de pesa está "encirculada" por un macrociclo. Son nombrados por rota "rueda" y axis "eje"; notación con un prefijo usado para indicar el número de componentes entrelazados, han sido hechos con ciclodextrinas y éteres cíclicos). Incluso en el Instituto de Tecnología de Karlsruhe (Alemania) se han logrado memorias de un solo átomo. Otra alternativa a largo plazo, puede ser almacenar la información en moléculas de ADN.

Buses, puertos y periféricos

La información, tanto datos como programas, circula en los ordenadores a través de los denominados buses, que son como unas autopistas con un ancho variable (pueden ser, por ejemplo, de 64 bits), equivalentes a los carriles de circulación de vehículos, así que cuanto más anchos sean, el ordenador funcionará más rápido.

Buses PCI en placa base de PC Los buses no solo conectan el microprocesador con la memoria RAM y el chipset de la placa base, sino que unen los llamados slots o zócalos de expansión, con el resto del ordenador. Estos zócalos, que a lo largo del tiempo han sido diseñados de acuerdo con distintos estándares, son de gran utilidad pues permiten poner placas electrónicas conocidas como tarjetas de ampliación con diversas finalidades, como por ejemplo, en los ordenadores personales primitivos, una controladora de vídeo que es imprescindible para conectar una pantalla de visualización al ordenador. Estos buses también se conectan a buses externos (interfaces que permiten la conexión de los denominados periféricos tales como impresora, escáner, teclado, ratón, ...) y a los llamados puertos.

Un periférico es un dispositivo auxiliar que se conecta al ordenador, ya sea su ubicación interna o externa, por ejemplo una impresora es un periférico, pero también lo es un disco duro, aunque esté dentro de la carcasa del ordenador. Sin periféricos un ordenador no sirve para casi nada, algunos actúan como interface hombre-máquina, otros sirven para comunicación entre ordenadores y/o máquinas en general, mientras que otros posibilitan el almacenamiento permanente de datos.

Dispositivos de entrada

Un ordenador necesita que se le proporcionen los programas con los que vamos a trabajar y también los datos, a procesar. Esta tarea se realiza a través de los dispositivos de entrada, siendo el teclado y el ratón los más habituales.

Teclado

Es un dispositivo análogo al de una máquina de escribir, con una disposición de las teclas QWERTY, que es poco ergonómica. Además incluyen las denominadas teclas de función en la parte superior y teclas numéricas y de desplazamiento en la zona de la derecha. La evidencia ha mostrado que muchas horas seguidas de escritura en estos dispositivos puede dar lugar a problemas médicos, como lesiones por tensión repetitiva, (tendinitis), en consecuencia para evitar daños se han diseñado teclados ergonómicos, que se adaptan mejor a los brazos y manos, aunque respetando la ubicación original de las teclas.

Teclados virtuales que se proyectan Actualmente hay teclados con característica especiales como estar sellados para sus uso en ambientes agresivos (homologados IP67, donde el 6 es el máximo nivel de protección frente al polvo y el 7 significa protección frente a la inmersión en agua), de acuerdo con la norma internacional, EC 60529 Degrees of Protection. Ser plegables (fabricados de silicona); y los más novedosos, teclados virtuales, la imagen de un teclado se proyecta donde deseemos y al hacer como si pulsáramos en él, se captan nuestras pulsaciones. Estos dispositivos también se han diseñado para teléfonos móviles celulares, proyectan el teclado sobre la mano del usuario; e incluso Motorola presentó un teléfono que incorpora este sistema. Otros teclados son muy originales, como por ejemplo los surgidos a consecuencia de la pandemia de gripe A(H1N1), son los dotados con un emisor de radiación ultravioleta (UV) para eliminar microorganismos que se encuentren en el teclado.

Por lo que respecto a las interfaces con la que se transmite la información entre el teclado y el ordenador, hay varios estándares, la más habitual es mediante un cable unido ya sea al conector específico de teclado o a la interface USB, también las hay inalámbricas mediante señales de infrarrojo
  Tipo de radiación electromagnética que es emitida por una fuente de calor y no es visible por el ojo humano por tener una longitud de onda mayor que la que corresponde a la luz visible.
   o de radiofrecuencias
Ondas en la zona menos energética del espectro electromagnético, situadas entre unos tres Hz y unos 300 GHz.
.

Dispositivos de señalización

Con la aparición de las interfaces gráficas de usuario, fue necesaria la creación de un dispositivo que permitiera señalizar y efectuar selecciones desde la pantalla. El ratón es el más usado, hasta hace poco los más habituales consistían en una bola que se hacía girar en un plano y que mediante unos sensores transmitía nuestros movimientos a desplazamientos de un puntero en la pantalla. Los más modernos se basan en la luz reflejada para detectar el movimiento, los hay incluso con láser para generar el haz luminoso.

Una variante son los denominados trackball, en estos la bola es estática y se mueve con la mano, siendo el proceso análogo al del ratón. Tanto en estos dispositivos como en los ratones, hay unos botones, con los que podemos efectuar selecciones diversas en el entorno gráfico que aparece en la pantalla. En los ordenadores portátiles se suele usar un panel sensible a las presiones suaves de los dedos, se conoce como touchpad o trackpad. Cuando se trata de un cilindro vertical pequeño, se denomina pointing stick o trackpoint (nombre comercial de IBM).

Por lo que respecta a la interfaces de conexión, son análogas a las de los teclados, hay una específica de ratón aunque la más usada actualmente es la USB, y las inalámbricas de infrarrojo y de radiofrecuencias.

Dispositivos de lectura

Cuando es necesario proporcionar gran cantidad de información al ordenador, hay diversas alternativas a la introducción manual por el teclado, se describen a continuación:
    Lectores ópticos de marcas. Usan la luz reflejada para determinar la posición de las marcas de lápiz que rellenan formularios, como por ejemplo exámenes de respuestas múltiples.

    Lectores de caracteres de tinta magnética. Leen caracteres impresos con una tinta magnética especial. Suelen ser dispositivos caros y de poco uso, habituales en la lectura de cheques bancarios.

    Lectores de códigos de barras. Se basan en un escáner que detecta la luz reflejada de un haz láser sobre códigos en productos habituales de consumo. Son habituales en los terminales punto de venta (POS), que están sustituyendo a las antiguas cajas registradoras en todo tipo de comercios.

    Escáneres. Son dispositivos que permiten el rastreo de imágenes o documentos impresos, estos últimos se procesan con un programa de reconocimiento óptico de caracteres (OCR) y se genera el texto original en formato de los editores de texto. También hay programas que reconocen la escritura manual, lo incorporan algunos dispositivos como tabletas.

    Esquema escaner plano Hay diversos tipos de escáneres, los más habituales son planos, en los que se pone el documento a rastrear y se desplaza un haz óptico junto con unos sensores; los más completos llevan un alimentador automático de hojas (ADF) y existe la posibilidad de adaptarles un dispositivo para escanear diapositivas. También hay de rodillo, el papel es el que se desplaza, su principal ventaja es el poco espacio que ocupan. También los hay en forma de lápiz y de pistola, que son los habituales en TPV y en general donde se precisa la lectura de códigos de barras.

    Por lo que respecta a la interface de conexión, actualmente la más utilizada es la USB, otras son la centronics (habitual hasta hace algún tiempo en impresoras) y la SCSI.

    Digitalizador de vídeo. Es un sistema que permite capturar la entrada procedente de una cámara de vídeo, televisión, un reproductor o de cualquier otro dispositivo, pasándola a digital con lo que se permite su almacenamiento, transmisión y visualización en el monitor del ordenador. Su utilidad principal es en sistemas multimedia como por ejemplo videoconferencias.

    Digitalizador de audio. Es un dispositivo para registrar sonidos procedentes del micrófono u otro dispositivo de audio, ya sea música o palabras habladas. En este último caso, mediante un programa de reconocimiento de voz, se puede convertir a texto, procesable por cualquier programa. Los más conocidos son, Dragon Naturally Speaking y ViaVoice de IBM, que mediante un aprendizaje previo de la persona que va a usarlo, reconoce la voz, ya sea para darle órdenes a los programas del ordenador o para almacenar lo dictado como un documento. Actualmente es algo habitual en dispositivos móviles, como por ejemplo Google Voice para equipos con sistema operativo Android y Siri para teléfonos Apple iPhone.

    Sensores. Son dispositivos electrónicos diseñados para captar medidas de propiedades físicas, como por ejemplo: temperatura, presión, humedad, ... Suelen usarse en la industria, laboratorios, instrumentación médica, meteorología, entre otras muchas aplicaciones. Incluso ya hay dispositivos que simulan mediante sensores, el sentido del olfato de una persona.

    Sensores en una casa, domótica


Fotografía digital. Es un tipo de dispositivos más reciente, la idea es la misma que las cámaras de fotografiar, con la diferencia de que en vez de obtenerse una imagen latente químicamente (negativo), se obtiene la imagen en una memoria flash, a través de la captura de imágenes mediante un detector que puede ser de tecnología CMOS o CCD. Los fabricantes tradicionales de máquinas analógicas son también los que elaboran las mejores cámaras digitales, aunque han entrado también fabricantes de informática, con productos de poca calidad, como por ejemplo Acer y Airis.

Dispositivos de salida

Un ordenador puede efectuar muchas tareas, pero no serían de utilidad si no existieran dispositivos que mostraran los resultados. Los primeros ordenadores daban los resultados mediante luces parpadeantes y dispositivos de teletipo, actualmente hay dos dispositivos preponderantes, pantalla e impresora.
    Pantallas

    Se les conoce también como monitor o VDT (Video Display Terminal) sirven como una ventana del ordenador hacia el exterior. Hay diversas tecnologías y características, que se describen seguidamente:

      Tubo de rayos catódicos (TRC)

      Hace una década era el tipo más habitual de pantalla en los ordenadores de sobremesa, análoga a los televisores. La imagen se forma al incidir un haz de electrones sobre su superficie interna, recubierta de un material fosforescente, de forma análoga al funcionamiento de un televisor. Un campo electromagnético desplaza el haz de electrones horizontal y en función de la intensidad con la que inciden los electrones en la pantalla así de brillante será cada punto generado. La imagen, para ser visualizada durante un determinado tiempo debe ser refrescada periódicamente (más que 25 veces por segundo). Estas pantallas se denominan pantallas de barrido.

      En las pantallas de TRC se han de considerar unas normas de seguridad, dado que estos dispositivos emiten radiaciones. La más conocida es la de rayos X, problema que está solucionado, pues los monitores llevan cantidad suficiente de plomo en el cristal, como para retenerla. Otro tipo de radiación es la producida por campos electromagnéticos a muy bajas y a extremadamente bajas frecuencias (ELF y VLF, habituales en la comunicación con submarinos). Para evitar este tipo de radiaciones los monitores han de estar homologados MPR, normativa sueca muy restrictiva; hay otra aún más restrictiva, propuesta por los sindicatos suecos, es la TCO. En resumen, un monitor TRC como mínimo debe llevar la homologación alemana (TÜV) o sus equivalentes en EE.UU. (UL) o para Canadá (CSA), aparte si se quiere de baja radiación ha de llevar la MPR II o la TCO. Cualquier monitor que no esté homologado es un peligro potencial para el usuario. Desde el uno de enero de 1996, es obligatoria en los países de la Unión Europea, la certificación CE, que implica unos mínimos de seguridad, aunque no es una marca de calidad, ni implica la homologación MPR II. Una solución empleada hace unos años fue poner filtros para la pantalla, pero actualmente dadas las características de seguridad y ergonomía de los monitores, no son necesarios.

      Cristal líquido

      LCD (Liquid Crystal Display) son las siglas en inglés de "pantalla de cristal líquido", dispositivo inventado por Jack Janning, en NCR. Se trata de un sistema electrónico de presentación de datos formado por dos capas conductoras transparentes y en medio un material especial (cristal líquido) que tienen la capacidad de orientar la luz a su paso. Cuando la corriente circula entre los electrodos transparentes con la forma a representar (por ejemplo, un segmento de un número) el material cristalino se reorienta alterando su transparencia. Los inicios se deben a Friedrich Reinitzer (1858-1927) quien descubrió el cristal líquido natural del colesterol extraído de zanahorias (es decir, la existencia de dos puntos de fusión y la generación de colores), y publicó sus conclusiones en una reunión de la Sociedad Química de Viena el tres de mayo de 1888.

      El material base de un LCD lo constituye el cristal líquido, el cual exhibe un comportamiento similar al de los líquidos y unas propiedades físicas anisotrópicas
      Las sustancias isotrópicas presentan siempre el mismo comportamiento independientemente de la dirección, mientras que en las anisotrópicas las propiedades varían con la dirección. En el caso de la luz, los cristales anisótropos presentan distintos valores de sus índice de refracción en función de la dirección en que vibre la luz al atravesar el cristal.
          similares a las de los sólidos cristalinos. Las moléculas de cristal líquido poseen una forma alargada y son más o menos paralelas entre sí en la fase cristalina. Según la disposición molecular y su ordenamiento, se clasifican en tres tipos: nemáticos, esméticos y colestéricos. La mayoría de cristales responden con facilidad a los campos eléctricos, exhibiendo distintas propiedades ópticas en presencia o ausencia del campo. El tipo más común de visualizador LCD es, con mucho, el denominado nemático de torsión, término que indica que sus moléculas en su estado desactivado presentan una disposición en espiral. La polarización o no de la luz que circula por el interior de la estructura, mediante la aplicación o no de un campo eléctrico exterior, permite la activación de una serie de segmentos transparentes, los cuales rodean al cristal líquido. Según sus características ópticas, pueden también clasificarse como: reflectivos, transmisivos y transreflectivos.

      Esquema funcionamiento pantalla LCD

      Una variante a las pantallas LCD son las conocidas como LED, la diferencia entre una pantalla (o televisor) de LED y que tenga tecnología LED, se puede comprender mediante una comparación, en el primer caso, es el de lo semáforos, señales de tráfico o en faros de modernos coches, se considera pantalla LED cuando en la misma la imagen la conforman diferentes LED. Ese no es el caso de las pantallas anunciadas como LED, en los monitores los LED se encargan de la retroiluminación del panel, al igual que hasta ahora hacían los tubos fluorescentes (CCFL) en los LCD clásicos, esto supone ventajas: menor consumo y evitar productos con mercurio que es tóxico si se rompe el tubo fluorescente, mejora del contraste dinámico y menor espesor. Aunque se denominan de igual forma, básicamente dos son las tecnologías de retroiluminación que dominan el mercado:

        LED de tipo Edge, en la búsqueda por un sistema de iluminación trasera que permitiera jugar más con el diseño y reducir su grosor, surgió la idea de llevar la iluminación LED a los bordes de los equipos. De esta forma el grosor logrado es muy reducido, la luz de los LEDs se distribuye entonces por todo el panel por medio de difusores. El inconveniente de este sistema es que los negros no lo son tanto y que la retroiluminación puede no ser uniforme.

        LED con atenuación local, el otro sistema principal de iluminación de los paneles es el local dimming o atenuación local. En este caso el sistema puede apagar y encender zonas más concretas, consiguiendo mejores contrastes. En los de este tipo también hay un inconveniente destacado llamado efecto blooming, con el que es posible ver un halo en los objetos claros en un fondo negro.

      Una tecnología en desarrollo que puede reemplazar a los LED es la tecnología de puntos cuánticos, fue descubierta en la década de los 80 del pasado siglo por el físico ruso Alexei Ekimov y denominados posteriormente puntos cuánticos por el físico Mark Reed. En esencia, los puntos cuánticos son cristales semiconductores de sólo unos pocos nanómetros de tamaño, cuyas propiedades están entre las de los semiconductores y las de moléculas discretas. Estos cristales se caracterizan por emitir luz al ser excitados por una corriente eléctrica. Sin embargo, a diferencia de otros materiales, los puntos cuánticos son más eficientes emitiendo luz y, al mismo tiempo, emiten diferentes longitudes de onda (diferentes colores) en función de su tamaño. Durante casi dos décadas, el problema fue cómo aplicar estos nanocristales a una lámina de cristal para poder construir una pantalla. Finalmente, los avances de compañías como QD Vision han permitido esta aplicación.

      Pantalla Sony QD Tv de puntos cuánticos La tecnología de los puntos cuánticos (QD) ha empezado a ser usada en pantallas, por Sony (pantallas Triluminos), aunque como un añadido a la tecnología LED, de hecho otro fabricante las denomina QLED. Las pantallas QD pueden reproducir una gama de colores mucho más amplia que las que existen actualmente, hasta un 50% más. más colores suponen imágenes más fieles a la realidad y más compatibles con el ojo humano. Las pantallas actuales reproducen una gama de colores mucho más limitada. Otras ventajas son la flexibilidad, pues los QD son solubles tanto en medios acuosos como no acuosos, lo que permite que sean impresos en pantallas flexibles o rígidas de todos los tamaños, y duración comprobada, pues los QD son inorgánicos, ofreciendo un vida mucho más larga que los LED orgánicos.

      Plasma

      La tecnología de plasma (cuarto estado de la materia) fue desarrollada en1964 en la Universidad de Illinois (EE.UU.) por Donald Bitzer, quién diseñó este dispositivo para un ordenador llamado PLATO. Fue introducida en el mercado en 1992 por la empresa japonesa Fujitsu, cuando se lograron tecnologías asequibles de fabricar y de bajo consumo, en 1997 Pioneer lanzó al mercado los primeros televisores de plasma tal como los conocemos actualmente. Una pantalla de plasma tiene un fundamento análogo a los tubos fluorescentes, es una pantalla plana con muchos alvéolos (uno por pixel) cubierto por un elemento químico del grupo de las tierras raras, para que la luz emitida por el plasma, que es en el rango ultravioleta se reemita en el espectro visible. En base a alvéolos de los tres colores fundamentales (rojo, verde y azul) y mediante la variación rápida del tiempo de iluminación, se logra crear tonos intermedios, de forma análoga al cine digital.

      OLED

      Una tecnología reciente que ha dado lugar a pantallas flexibles, es la denominada OLED (Organic Light Emitting Diode), que en el futuro próximo podrá competir con las de LCD en el negocio multimillonario de los monitores planos. La tecnología OLED no necesita ser retroiluminada, así que que consumen menos y son más delgados que los LCD. Sin embargo, los analistas estiman que pasarán varios años antes de que las pantallas OLED tengan tamaño como para competir con LCD. Actualmente, las pantallas OLED hasta hace poco tiempo se utilizaban en teléfonos móviles y en pequeños dispositivos como maquinillas de afeitar eléctricas. Actualmente se puede encontrar en algunos smartTV, aunque a precios elevados.

      Las pantallas flexibles OLED están atrayendo la atención por la posibilidad de ser enrolladas y transportadas. En un nivel más práctico, también son interesantes para las empresas porque la aplicación de la tecnología OLED a un fondo plástico es un sistema de producción más barato.

      AMOLED

      Desarrollos más recientes han dado lugar a un nuevo tipo de pantalla, creada para los teléfonos móviles celulares, conocida como AMOLED (Active Matrix Organic Light Emitting Diode) habitual en los teléfonos de gama alta. Sus ventajas respecto a las OLED son: más brillo de los colores, mejor contraste, ángulo de visión más amplio y consumo más bajo. Una variante son las conocidas como Super AMOLED, cuyas mejoras destacadas son el ser más delgadas y los colores más vivos y brillantes, además de presentar menos reflejos.

      Papel electrónico (tinta electrónica)

      Está formado por una lámina plástica protectora, un polímero donde se ubica la "tinta" y una malla de microtransistores eléctricos. El fundamento de su funcionamiento son millones de partículas esféricas que se cargan eléctricamente, dando lugar al desplazamiento de los pigmentos negros contenidos en las esferas. La aplicación de una pequeña corriente provoca que se formen las imágenes que componen las letras. Actualmente hay dos tecnologías, Gyricon de la empresa Xerox y E-Ink, una de las más conocidas. Recientemente Sony ha dejado de comercializar sus disositivos ebooks, con esta tecnología, sin embargo ha presentado lo que llama “papel digital” (Digital Paper), un dispositivo fino y ligero que espera que pueda sustituir los miles de folios que podemos llegar a usar en el trabajo o en los estudios.

      La tinta electrónica ofrece ventajas: la ausencia de la retroiluminación en las pantallas permite un tamaño de menos de tres mm de espesor, menor consumo eléctrico, imágenes más brillantes y su visualización apenas depende del ángulo, comportamiento de manera muy aceptable bajo la luz del sol. Sin embargo la lentitud es el mayor problema, junto con la escasa disponibilidad de dispositivos en colores (por ejemplo Flepia, de Fujitsu). En Sidney (Australia) han implantado un sistema de señales de tráfico con tinta electrónica para anunciar mensajes temporales.

      Señales tráfico con tinta electrónica Sidney, Australia


      FDP

      Otra tecnología alternativa a los monitores TRC es la Flat Panel Display (FPD). Estas pantallas son híbridas entre las convencionales de tubo de rayos catódicos y las FED (Field Emission Display). Usan películas de diamante/carbono, resultando unas pantallas planas de alta calidad (más brillo y resolución) y que se pueden fabricar en las plantas que producen TRC.

      Láser

      LCD es la tecnología mayoritaria en los televisores y monitores, sin embargo hay otra, la tecnología láser que promete mejor calidad de imagen, menor consumo y precio más reducido. Mitsubishi Digital Electonics America Inc y Novalux son dos empresas pioneras en este nuevo tipo de monitores.

      Novalux está trabajando en la tecnología de paneles láser, y promete lanzar televisores con varios beneficios apreciables sobre el plasma, como el doble de gama de colores, un tercio de su consumo y un precio de hasta la mitad que el de un plasma o LCD similar. También es ideal para proyectores, y podría reemplazar a los tradicionales con lámpara UHP usados actualmente.

    Pizarras electrónicas

    Una "pizarra digital" (pizarra electrónica), es un sistema que consiste básicamente en un ordenador multimedia conectado a internet con un videoproyector que reproduce las imágenes sobre una pantalla situada en un lugar relevante del aula. Los principales elementos que se integran en la pizarra digital son:

      - Un ordenador multimedia, con DVD, altavoces y micrófono.
      - Una conexión de alta velocidad del ordenador a internet.
      - Una conexión del ordenador a una antena de televisión.
      - Un videoproyector, situado preferentemente en el techo, y accionado con un mando a distancia, de uso sencillo.
      - Escáner y opcionalmente impresora.
      - Una pequeña webcam, que permitirá realizar eventuales videoconferencias y proyectar o digitalizar fotografías, objetos y pequeñas secuencias (puede sustituir al retroproyector y al opascopio).
      - Un magnetoscopio sencillo, que permitirá la utilización didáctica de vídeos y grabaciones de programas de televisión.

    Su utilidad consiste en proyectar sobre una pantalla cualquier información procedente del ordenador, de internet o de otro dispositivo analógico o digital conectado al sistema, como antena de televisión, videoproyector, cámara de vídeo, etc. Así, profesores y alumnos tienen de forma permanente un sistema para visualizar y comentar de manera colectiva toda la información que puede proporcionar internet o la televisión y cualquier otra de que dispongan en cualquier formato: presentaciones multimedia y documentos digitalizados en disco (apuntes, trabajos de clase...), vídeos, documentos en papel (que pueden capturar con una simple webcam), etc.

    Videoproyectores

    Respecto a los videoproyectores, dispositivos muy habituales en las aulas, hay de cuatro tipos en base a la tecnología que usan:

      Videoproyector LCD (matrices de cristal líquido) funciona y se utiliza de la misma manera que un proyector de diapositivas. Para proyectar colores lo más perfectos posible, los videoproyectores utilizan la tecnología Tri LCD. Las luces emitidas por una lámpara pasan por tres matrices denominados píxeles, una por cada color primario, antes de pasar por un bloque óptico. Esta envía la imagen a la pantalla. El píxel es el principal elemento de la imagen, cuanto más píxeles haya, más definición tendrá la imagen y más agradable será.

      Videoproyector DLP. Una lámpara emite luz hacia unos microespejos. Estos son unos miles de cuadritos reflectores, que se orientan hacia la luz para reflejarla o bien en contra de la luz para bloquearla. La ventaja es importante, cuantos menos obstáculos haya entre la lámpara y la pantalla, menos pérdidas de luz y más contraste.

      Videoproyector tritubo, el sistema es simple: tres tubos catódicos de alta luminosidad, acoplados con un sistema óptico, proyectan cada cual uno de las tres colores primarios (Rojo, Verde, Azul). Las imágenes que salen de cada tubo se sobreponen y reconstruyen la imagen sobre la pantalla. Es el mismo principio que el retroproyector.

      Videoproyector LED, con esta tecnología se han logrado dispositivos de bolsillo. Se usan diodos LED en lugar de la lámpara habitual (por ejemplo de mercurio). Las ventajas son su menor tamaño y la inmediatez para el encendido y apagado. Este sistema puede durar hasta 20000 horas, mientras que las lámparas convencionales duran entre 1000 y 5000 horas. Por lo que respecta a inconvenientes, destaca la baja luminosidad, de tan sólo 100 lúmenes, lo cual hace que solo se puedan usar en oscuridad.

    Pantalla táctil

    Una pantalla táctil (touch screen) es una pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo, y a su vez muestra los resultados introducidos previamente; actuando como periférico de entrada y salida de datos.

    Actualmente se comercializan dos tipos:

    Resistivas: Son más baratas y no les afectan el polvo ni el agua salada y, además de ser más precisas, pueden ser usadas con un puntero o con el dedo. Sin embargo, tienen hasta un 25% menos de brillo y son más gruesas, por lo que están siendo sustituidas por otras en los dispositivos móviles que precisan un tamaño y un peso ajustados y mayor brillo en la pantalla por la posibilidad de estar expuestos a la luz directa del sol.

    Capacitivas: Basadas en sensores capacitivos, consisten en una capa de aislamiento eléctrico, como el cristal, recubierto con un conductor transparente, como el ITO (óxido de indio dopado con estaño). Como el cuerpo humano es también un conductor eléctrico, tocando la superficie de la pantalla resulta una distorsión del campo electrostático de la pantalla, la cual es medida por el cambio de capacitancia (capacidad eléctrica). Diferentes tecnologías pueden ser usadas para determinar en qué posición de la pantalla fue hecho el toque. La posición es enviada al controlador para el procesamiento. La calidad de imagen es mejor, tienen mejor respuesta y algunas permiten el uso de varios dedos a la vez (multitouch). Sin embargo, son más caras y no se pueden usar con puntero normal, sino con uno especial para las pantallas capacitivas.

    El siguiente vídeo muestra como funcionan:



Impresoras

La información mostrada en los monitores es temporal, si queremos tener una copia permanente es preciso disponer de un sistema de impresión. Existen múltiples tecnologías de impresión, algunas obsoletas por lo que ya no se comercializan. Seguidamente se describen algunos tipos de impresoras de uso habitual:
    Impresoras de impacto. Su característica fundamental es que originan la impresión mediante el impacto de una especie de martillo sobre una cinta entintada que se sitúa sobre el papel, proceso análogo al de las máquinas de escribir.

    Hay de varios tipos, las llamadas de línea se usaban en los grandes ordenadores, generan cientos de líneas por minuto, pero son ruidosas y de mala calidad, no permitiendo la impresión de gráficos. Las matriciales están formadas por una matriz de agujas de forma que se puede seleccionar el patrón de agujas que impacta sobre la cinta entintada, también generan gráficos. Son ruidosas y de calidad baja, la ventaja es que permiten impresiones en papel de autocalco.

    Impresoras sin impacto. Son las que más se usan en la actualidad, principalmente son de dos tecnologías, inyección de tinta y láser. Su principal ventaja es que son muy silenciosas al imprimir.

    Memejet, impresora de inyección A nivel de usuarios de ordenadores personales las más habituales son las de inyección de tinta. La tecnología consiste en un depósito con tintas de los colores fundamentales, cian, magenta y amarillo (habitualmente también incorporan uno negro, para evitar el generar dicho color por combinación de los otros) y un cabezal con toberas por las que mediante un sistema piezoeléctrico
     El efecto piezoeléctrico, es un fenómeno físico que presentan algunos cristales debido al cual, surge una diferencia de potencial eléctrico (voltaje) entre ciertas caras del cristal cuando éste se somete a una deformación mecánica y se denomina efecto piezoeléctrico directo.
    Este efecto funciona también a la inversa: cuando se aplica un campo eléctrico a ciertas caras de una formación cristalina, esta experimenta distorsiones mecánicas (efecto piezoeléctrico inverso). Pierre Curie y su hermano Jacques descubrieron este fenómeno en el cuarzo y la sal de Rochelle en 1880 y lo denominaron 'efecto piezoeléctrico' (del griego piezein, 'presionar').
    Cuando se comprime el cristal, los átomos ionizados (cargados) presentes en la estructura de cada celda de formación del cristal se desplazan, provocando la polarización eléctrica.
    Debido a la regularidad de la estructura cristalina, y como los efectos de deformación de la celda suceden en todas las celdas del cuerpo del cristal, estas cargas se suman y se produce una acumulación de la carga eléctrica, produciendo una diferencia de potencial eléctrico entre determinadas caras del cristal que puede ser de muchos voltios.
    En el caso contrario, cuando se somete a determinadas caras del cristal a un campo eléctrico externo, los iones de cada celda son desplazados por las fuerzas electrostáticas, produciéndose una deformación mecánica.  
        o análogo se hace salir la tinta, que impacta directamente sobre el papel. La calidad es buena, aunque en función del número de toberas y el gasto es asequible si se rellenan los cartuchos con tinta comprada a granel, si se usan originales es la ruina, especialmente en marcas como Lexmark y Hewlett Packard. El tipo de impresora más reciente es la que fabrica Memjet, con un cabezal de 70000 inyectores estáticos MEMS, del ancho del papel a imprimir.

    Esquema de una impresora láser Las impresoras láser se basan en el mismo principio de las fotocopiadoras, de hecho las modernas fotocopiadoras son análogas a las impresoras. Su fundamento es la creación de una imagen de la página a imprimir en una memoria, habitualmente de la impresora, posteriormente un haz láser genera en un tambor fotoconductor la imagen latente del contenido de la memoria y seguidamente el tóner (polvillo negro) se adhiere al tambor. Este rodillo se pasa al papel cargado electrostáticamente pasando el tóner desde el cilindro. El paso final es de fijación del tener, mediante el paso del papel entre dos rodillos de caucho calientes. Si son en color, se puede hacer en tres pasos o en uno sólo, pero siempre se requiere tóner de los colores fundamentales. La ventaja de estas impresoras es su rapidez y gran calidad, su desventaja es el precio del equipo y del tóner, aunque este se puede usar reciclado o comprarlo a granel.

    Una variante a las impresoras láser habituales, en la impresora que mediante un láser en el rango de infrarrojo quema el papel (desarrollada por investigadores de la universidad tecnológica de Delft, en los Países Bajos), por lo que no se precisa de tóner, que encarece mucho la impresión. Actualmente es un desarrollo, que se espera esté disponible dentro de pocos años.

    Impresoras fotográficas. Se trata de unas impresoras pequeñas y muy especializadas, dedicadas a la impresión de fotografías. Son pequeños dispositivos que permiten lograr impresiones gráficas con calidad fotográfica, siempre que se use un papel especial. Hay dos tecnologías, la sublimación que consiste en el cambio de fase de unas barras de tinta y la de inyección de tinta, descrita previamente. La principal desventaja de estos equipos es que tanto el papel como los consumibles son muy caros y suele salir más barato llevar las fotos tomadas con una cámara digital a que las impriman en los establecimientos habituales de fotografía analógica.

    Equipos multifunción. Son conocidos como dispositivos todo en uno, pues agrupan la impresora con fotocopiadora, escáner y muchos también con telecopia (fax). Se comercializan de muy diversas prestaciones y precio, desde los más baratos, pero por ello malos, de inyección de tinta, hasta los más completos con impresora láser a color y alimentador automático de hojas. También existen 3D, tanto en el proceso de escaneado como el de impresión.

    Impresoras 3D. Son dispositivos capaces de realizar "impresiones" de diseños en 3D, creando piezas o maquetas volumétricas a partir de un diseño hecho por ordenador, o incluso a partir de un escáner tridimensional. Surgieron con la idea de convertir archivos CAD en prototipos reales, existen desde hace algún tiempo, pero no ha sido hasta hace tres años cuando se ha difundiso ampliamente la impresión tridimensional. ¿Y por qué ahora? La respuesta es sencilla, el abaratamiento de las máquinas en el mercado, las cuales hace unos años no bajaban de las cinco cifras, y que en la actualidad se comercializan por menos de mil euros.

    2014 fue el año de la consolidación de las impresoras 3D. En la era de internet, con las entregas en el mismo día y el ímpetu del comercio electrónico, no será sorprendente ver impresoras 3D por casa. Automóvil, defensa, industria aeroespacial, medicina y construcción son los cincos mercados que ya están inmersos en el ámbito de la impresión 3D y ya se perciben sus efectos. El sector del automóvil ha sido el primero en adaptarse a esta novedosa tecnología. La impresión 3D ha supuesto una revolución en los procesos de producción de piezas necesarias para la puesta en marcha y avance del parque móvil actual. Incluso hay quienes ya se atreven incluso a probar la impresión 3D completa de la carrocería de un coche. Las últimas novedades son las impresoras de edificios y las de imanes configurados magnéticamente bajo demanda.

    Impresora 3D Makerbot imprime un tractor en miniatura

    Incluso los conocidos robots de cocina, en el futuro serán reemplazados por impresoras de alimentos. Pablos Holman, un futurista e inventor que trabaja en el Laboratorio Intellectual Ventures en Bellevue, Washington. en su “visión” del futuro predice cómo impresoras 3D serán capaces de ofrecernos la dieta ideal para nuestro día a día, lo que incluiría verduras y carne, “imprimiéndolo” de una manera apetitosa. Avi Reichentall, de 3D Systems, ha logrado configurar sus impresoras 3D para que creen alimentos dulces, como pasteles y bizcochos. En su particular imaginación, ve estas impresoras al lado de las máquinas de café, con la misma tarea que estas, pero ofreciendo productos típicos de confiterías. Actualmente están trabajando de manera activa para continuar haciendo crecer lo que ya ha creado, poniéndose en contacto con reposteros, confiteros y panaderos para conseguir mejorar lo que ya fabrican sus impresoras 3D.

    Hay dos métodos de impresión, por inyección y mediante deposición fundida. El primero consiste en la inyección de un tipo de pegamento sobre una base de polvo. La impresión se hace capa por capa, inyectando en cada una de ellas el pegamento necesario para solidificar el polvo y de esta forma obtener el objeto diseñado. Tan sólo es necesario retirar el polvo para obtener el objeto sólido. El segundo método se basa en el vertido de finos hilos de plástico fundido capa por capa, que progresivamente irá conformando el objeto diseñado. Si bien este es el método más utilizado en la actualidad, nos encontramos con el inconveniente de que la terminación de los objetos es de carácter rugoso y no del todo uniforme, debido a la continua deposición y posterior solidificación del plástico, lo que impide que la pieza se funda por completo en una estructura única.

    Hay otras tecnologías en desarrollo. El laser sintering consiste en la solidificación de una capa de resina en estado líquido. Dicha solidificación se produce por efecto de un haz de láser que dibuja la forma deseada, logrando crear objetos sólidos plenamente lisos y bien estructurados. El mayor inconveniente de este método es el coste de la resina líquida, el cual se encuentra alrededor de los 100 euros el litro, además de tener que ser conservada en frío y sin entrar en contacto con la luz solar. La deposición fundida mencionada previamente tiene un coste mucho menor, cercano a los 20 euros por bobina de plástico.

    En el sitio COOKING IDEAS se indican 10 objetos sorprendentes logrados con impresoras 3D.



    Impresoras 4D

    Imagina un recubrimiento de automóvil que cambia su estructura para adaptarse a un ambiente húmedo o a una carretera cubierta de sal, para proteger mejor el coche de la corrosión. O pensemos en el uniforme de un soldado que podría alterar su camuflaje o proteger más eficazmente contra el gas venenoso o metralla al contacto.

    Tres científicos, en EE.UU., integrarán su experiencia en manipular nano y micro materiales para producir, a través de impresión 3D , materiales que pueden modificar sus estructuras a través del tiempo en el nivel macroscópico. La impresión tridimensional, también conocida como fabricación aditiva, es el proceso previamente visto de crear un objeto en 3D. "En lugar de construir un material estático o uno que simplemente cambia de forma, estamos proponiendo el desarrollo de la adaptación, compuestos biomiméticos que reprograman su forma, propiedades o función de la demanda, en base a estímulos externos", explicó el investigador Balazs. "Mediante la integración de nuestra capacidad para imprimir en tres dimensiones materiales precisos, jerárquicamente estructurados, sintetizar componentes estímulo-respuesta, y predecir el comportamiento temporal del sistema, esperamos sentar las bases para el nuevo campo de la impresión en 4D."
Tarjetas de sonido

Sirven para digitalizar las ondas sonoras captadas a través del micrófono, o convertir los archivos sonoros digitales en un formato analógico para que puedan ser reproducidos por altavoces.

Los sonidos que puede percibir el oído humano abarcan el rango de frecuencias de 20 a 20000 Hz. La tarjeta de sonido recorre estas ondas tomando muestras del tipo de onda (de su frecuencia), esta operación se realiza con valores variables de muestreo, desde 8000 hasta 44100 Hz, a mayor frecuencia de muestreo mayor será la calidad de la grabación. Esta información se guarda en 8 bits (28 = 256 niveles de sonido) o en 16 bits (216 = 65536 niveles de sonido). Y en un canal o mono o dos canales conocido como estéreo. La calidad telefonía corresponde a 11025 Hz, 8 bits y mono. La calidad de la radio a 22050 Hz, 8 bits y mono, ocupando el archivo el doble que el primero. Y la calidad del CD a 44100 Hz, 16 bits y estéreo, ocupando el archivo 16 veces más que el primero. El proceso de reproducción es análogo pero en sentido contrario.

Muchas tarjetas de sonido poseen capacidades MIDI, esto significa que en un circuito integrado de la tarjeta, denominado sintetizador, se encuentran almacenadas las características de diferentes instrumentos musicales, y la grabación o reproducción de un sonido se hace en referencia a éstos y las notas musicales correspondientes.

Sistemas de almacenamiento

Hasta ahora se han visto dispositivos de entrada y salida, además un sistema de almacenamiento, la memoria RAM, sin embargo esta tiene poca capacidad y es volátil, es decir al desconectar la alimentación eléctrica del ordenador, se pierde su contenido. Para solventar esta limitación hay unos dispositivos que sirven para almacenamiento masivo, son conocidos como dispositivos de almacenamiento, pudiendo ser de diversos tipo, aunque los más utilizados son los soportes magnéticos.

    Cintas magnéticas

    Las unidades de cinta son dispositivos de almacenamiento habituales en los grandes ordenadores. La razón de usos son las elevadas capacidades y el precio asequible. Su principal limitación es que la información se graba secuencialmente, por lo que se usan como copias de seguridad, pues darles un uso frecuente no es adecuado, serían muy lentas en los accesos a la información. Recientemente se han empezado a usar bajo virtualización, en soportes de discos magnéticos.

    Discos magnéticos

    Los discos están formados por una superficie metálica cubierta por una sustancia imanable, habitualmente gamma óxido de hierro con cromo y algún dopante
       En la producción de semiconductores, se denomina dopaje al proceso intencionado de agregar impurezas en un semiconductor extremadamente puro (también referido como intrínseco) con el fin de cambiar sus propiedades eléctricas. Las impurezas utilizadas dependen del tipo de semiconductores a dopar. A los semiconductores con dopajes ligeros y moderados se los conoce como extrínsecos. Un semiconductor altamente dopado, que actúa más como un conductor que como un semiconductor, es llamado degenerado.
    El número de átomos dopantes necesitados para crear una diferencia en las capacidades conductoras de un semiconductor es muy pequeña. Cuando se agregan un pequeño número de átomos dopantes (en el orden de uno por cada 100000000 de átomos) entonces se dice que el dopaje es bajo o ligero. Cuando se agregan muchos más átomos (en el orden de uno por cada 10000 átomos) entonces se dice que el dopaje es alto o pesado.  
       . La información se graba imanando los puntos de la superficie (las tecnologías más modernas graban en vertical), a través de unas cabezas que se desplazan sobre el disco, a su vez estas mismas cabezas pueden leer la información. Este sistema es más rápido que las cintas, el acceso es directo (conocido como aleatorio) al punto donde está la información. En los primeros ordenadores de uso doméstico se usaban las cintas habituales de grabar música como sistema de almacenamiento.

    Partes de un disco duro A lo largo de la historia de la informática han evolucionado mucho estos soportes, tanto en disminución de tamaño como en aumento de capacidad, actualmente los hay con capacidades de hasta 10 terabyte. Algunos son internos en el ordenador y son fijos, mientras que también los hay removibles y externos, como fueron los tan famosos ZIP. En estos momentos se ha llegado al límite de capacidad en las tecnologías en uso y se trabaja en nuevos desarrollos, por ejemplo Seagate está investigando en la tecnología HARM, que consiste en calentar con un láser minúsculos puntos en el disco en un tiempo de 150 picosegundos. Algunas empresas, como por ejemplo Hitachi están desarrollando discos en base a la nanotecnología.

    Actualmente hay varios tipos de sistemas de almacenamiento orientado hacia las empresas con grandes volúmenes de información, principalmente debido a las redes de ordenadores, SAN (storage area network), DAS (disk attached storage) y NAS (network attached storage) son las tres tecnologías que se están implantando, estando su precio al alcance de las pequeñas y medianas empresas (PYMES).

    Disquetes

    Los disquetes son pequeños discos intercambiables, cuyos platos son flexibles, ya que están constituidos por un material plástico. Los de 133 mm son también denominados minidisquetes, hasta hace poco tiempo los más empleados eran los de 90 mm, denominados microdisquetes, los nuevos ordenadores ya no incorporan este tipo de dispositivos.

    La superficie se encuentra protegida por una funda recubierta internamente de un material que facilita el deslizamiento rotacional del plato. En la funda hay una abertura radial que abarca a todas las pistas; a través de esta ventana las cabezas de la unidad de disquetes acceden a la información. La grabación, dependiendo del tipo de unidad, puede efectuarse en una única superficie, es decir, en una de la caras, o en doble cara. También se puede efectuar en densidad normal (simple densidad) o doble densidad, alcanzando una capacidad de 1.44 Megaoctetos.

    Los disquetes hasta hace poco tiempo eran un elemento excelente para actuar como memoria masiva auxiliar de microordenadores personales, siendo sustituidos actualmente de forma mayoritaria por las memorias flash conocidas como llaves electrónicas, habituales en dispositivos de música MP3.

    Discos ópticos

    Estos sistemas usan radiación láser para leer y grabar la información en los soportes ópticos, consistentes en una superficie de plástico con una sustancia que cambia de fase en función del haz láser que recibe.

    Los primeros soportes se denominaban CD-ROM y no se podían grabar, se hacían a partir de un máster como los discos de música. Posteriormente surgieron los soportes grabables y posteriormente los regrabables (RW). Actualmente los más difundidos son los DVD (disco digital versátil) con una capacidad de hasta 17 Gigaoctetos, aunque ya empiezan a difundirse de muy elevadas capacidades, basados en el láser violeta de Gan/InGaN, se denominan Blu Ray,desarrollado por Pioneer y Sony. HD-DVD fue otro tipo que acabó en fracaso, siendo dejado de fabricar en febrero de 2008. Estos dispositivos actualmente se suelen usar como un sistema alternativo de almacenamiento, pues su acceso es lento comparado con los discos duros. Su utilidad es para almacenar películas.

    UHD Blu-ray Disc es el nuevo formato de Blu-Ray diseñado para albergar vídeo UHD, no necesita de una nueva tecnología. Son los mismos soportes ópticos, pero con una técnica más depurada y mejoras en el codec (especificación desarrollada en software, hardware o una combinación, capaz de transformar un archivo con un flujo de datos o una señal) de vídeo empleado. Los Blu-ray de 66 GB (doble capa) y los de 100 GB (triple capa) bastarán para almacenar películas con resolución UHD y 60 fps.

    El mínimo punto en el que el láser puede incidir está limitado por la difracción, que depende de la longitud de onda dela luz y la apertura de la lente que lo enfoca. Con una longitud de onda menor, se puede aumentar la apertura, logrando que la capa en la que se escribe sea más fina, impidiendo efectos ópticos no deseados, las empresas tecnológicas pueden hacer que el láser se enfoque en un espacio menor lo que permite más información en el mismo espacio, tal como se muestra en la figura.



    Existe otro tipo de discos ópticos grabables por el usuario, son los conocidos como WORM, se graban una vez pero se pueden leer múltiples veces. Una evolución de estos son los conocidos como discos magnetoópticos, compatibles con los anteriores pero que admiten borrar la información lo cual permite la reescritura. Las capacidades son del orden de gigaoctetos. Actualmente ya no se usan

    En el futuro la tecnología óptica cambiará a sistemas completamente distintos, recientemente han salido al mercado sistemas de almacenamiento holográfico, con capacidades enormes.

    Dispositivos de estado sólido

    Un disco duro tiene algunos problemas, el principal es la fragilidad, son muy sensibles a los golpes, con lo que ello implica de pérdida de información, el que tengan partes móviles (cabezas de lectura/grabación) es una de las principales causas de fallos.

    Pen drive helado de chocolate NestléLos dispositivos de estado sólido o memoria flash es un tipo de memoria basada en electrónica del estado sólido que puede servir como una posible alternativa fiable, de bajo consumo y muy compacta, aunque con una vida limitada. Hasta hace poco tiempo el problema que presentaba era el precio, aunque ahora ya están a precios asequibles (no son baratas), por lo que actualmente es habitual verlas en máquinas de fotografiar, dispositivos de música MP3 y "llaves electrónicas" con interface USB. Las capacidades máximas son del orden de un Terabyte. Actualmente ya se comercializan ordenadores con sistema de almacenamiento híbrido, es decir con disco duro convencional y memoria flash, e incluso sólo con memoria de estado sólido.

    El futuro del almacenamiento

    Se indican algunos desarrollos en el ámbito de la investigación sobre sistemas de almacenamiento, la mayoría de las ideas que surgen en los laboratorios de investgación, no alcanzan el ámbito de la comercialización.

    Una tecnología de almacenamiento, descubierta por investigadores de la universidad japonesa Shizuoka, se basa en esferas de poliestireno
     El poliestireno (PS) es un polímero termoplástico que se obtiene de la polimerización del estireno. Existen cuatro tipos principales: el PS cristal, que es transparente, rígido y quebradizo; el poliestireno de alto impacto, resistente y opaco, el poliestireno expandido, muy ligero, y el poliestireno extrusionado, similar al expandido pero más denso e impermeable.
    ,   dopadas con sustancias fluorescentes como rodamina, de 500 nm de diámetro colocadas sobre una rejilla, dando lugar a una densidad de grabación doble respecto a la de los DVD y en un futuro se espera que llegue a ser 10 veces superior, reduciendo el diámetro de las esferas y apilándolas. Los datos se graban mediante luz verde y se leen mediante el análisis de luz roja reflejada.

    Hay investigaciones con bacterias, la proteína bacteriorodopsina (bR) encontrada en la membrana superficial de halobacterium halobium, y que suele habitar en ambientes salinos, absorbe la luz en un proceso análogo a la fotosíntesis. bR existe en dos estados intercambiables, que absorbe luz azul y verde respectivamente, lo cual permite almacenar información en un código binario. Disponiendo este producto en forma de cubo, y teniendo un láser para acceder a cambiar entre los dos estados, se pueden obtener "discos" con capacidades del orden de teraoctetos. El principal problema es que no aguantan temperaturas superiores a 83 C, otro inconveniente es que no son muy rápidas. En los seres vivos su función es el bombeo de iones de hidrógeno al exterior de las células. Lo cual puede dar origen al desarrollo de productos que ayuden a mejorar la salud de las personas.

    Los siguientes enlaces conducen a desarrollos en el ámbito de la investigación:

    - Implantan en un cerebro la primera memoria artificial
    - Las uñas, sistema de almacenamiento óptico
    - Las nanotecnologías y las nuevas tecnologías de almacenamiento
    - Avances hacia el almacenamiento ultrarrápido de información en soporte magnético
    - Almacenamiento holográfico pentadimensional
    - El ADN podría usarse para almacenar textos
    - Memoria molecular de rotaxano
    - Un mecanismo para la codificación de la memoria humana
Página de inicio