Informática Aplicada a las Ciencias Sociales
Grado en Ciencia Política y Gestión Pública. Universidad de Murcia
iaccss > Que-es-la-informatica.html

Qué es la informática


Introducción

En sentido habitual el término información está relacionado con adquisición de conocimientos, por ejemplo se dice "haber recibido información" cuando se conoce algo que se ignoraba o se había olvidado. Sin embargo la informática como cualquier otra rama de la ciencia necesita de conceptos objetivos y esta noción es subjetiva. Es muy conocida la cita del físico William Thomson (Lord Kelvin) "Lo que no se define no se puede medir. Lo que no se mide, no se puede mejorar. Lo que no se mejora, se degrada siempre." La idea fundamental es: no conocemos aquello que no somos capaces de resumir en un número.

El ordenador no es un dispositivo más de los muchos que ha creado la humanidad, sino que es una herramienta que influye en la forma de pensar, de actuar, en las pautas de conocimiento y en el desarrollo social. La informática ejerce un significativo efecto social y tecnológico, y el influjo que tiene en la sociedad se percibe en una gran cantidad de actividades.

Los primeros ordenadores totalmente operativos surgieron ante la necesidad de realizar grandes cálculos en aplicaciones militares, que superaban a cualquier posibilidad humana. Sin embargo se observó que estas máquinas podían ayudar a resolver problemas en otros entornos, que van desde los puramente científicos hasta el arte, lo cual es la causa de su amplia difusión.

En los inicios del proceso automático de la información por parte de empresas, la informática solo facilitaba los trabajos repetitivos y monótonos del área administrativa. La automatización de dichos procesos trajo como consecuencia una disminución de los costos y un incremento en la productividad.

La informática es una ciencia que estudia métodos, procesos y técnicas, con los objetivos de almacenar, procesar y transmitir los datos y la información bajo formato digital. Se desarrolló rápidamente a partir de la segunda mitad del siglo pasado, con la aparición de tecnologías tales como el circuito integrado
 Un circuito integrado es una pastilla (chip) muy delgada en la que se encuentran millones de dispositivos electrónicos interconectados, principalmente transistores, aunque también componentes pasivos como resistencias y condensadores. Su área puede ser de un cm2 o incluso inferior. Algunos de los circuitos integrados más avanzados son los microprocesadores que controlan múltiples dispositivos, desde ordenadores hasta electrodomésticos, pasando por teléfonos móviles. Otra familia importante de circuitos integrados la constituyen las memorias digitales.    
,     internet y la tan difundida telefonía móvil celular.

En 1957 el físico Karl Steinbuch (1917-2005) acuñó la palabra en alemán Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). El ingeniero ruso, Alexander Ivanovich Mikhailov (1905-1988) fue el primero en utilizar la palabra informatika con el significado de "estudio, organización, y diseminación de la información científica", siendo válida actualmente en dicha lengua. En Francia la palabra informatique, fue propuesta por el ingeniero Philipe Dreyfus (1925-) al inicio de la década de los 60 del siglo pasado. La palabra es, a su vez, un acrónimo de information y automatique.

En inglés, la palabra Informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando cofundó la empresa denominada «Informatics General, Inc.». Esta empresa registró el nombre y actuó contra las universidades que lo utilizaron, forzándolas a utilizar la alternativa computer science. La Association for Computing Machinery, la mayor organización de informáticos del mundo, se dirigió a Informatics General Inc. para poder utilizar la palabra informatics en lugar de computer machinery, pero no cedió. Informatics General Inc. cesó su actividade en 1985, aunque para esa época la denominación computer science ya estaba arraigada. Actualmente los anglosajones emplean el término computer science, traducido como "Ciencias de la computación", para designar el estudio tanto científico como aplicado; mientras que information technology (o data processing, traducido a veces como "tecnologías de la información", que hace mención a las tecnologías que permiten el tratamiento automatizado de la información.

ACM Origen de la palabra informática y ciencias de la computación

En la informática convergen los fundamentos de las ciencias de la computación, programación y metodologías para el desarrollo de software, arquitectura de ordenadores, redes, inteligencia artificial y aspectos relacionados con la electrónica
 La electrónica es la rama de la física y especialización de la ingeniería, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo de los electrones u otras partículas cargadas eléctricamente.
 Utiliza una gran variedad de conocimientos, materiales y dispositivos, desde los semiconductores hasta las válvulas termoiónicas. El diseño y la gran construcción de circuitos electrónicos para resolver problemas prácticos forma parte de la electrónica y de los campos de la ingeniería electrónica, electromecánica y la informática en el diseño de software para su control. El estudio de nuevos dispositivos semiconductores y su tecnología se suele considerar una rama de la física, más concretamente en la rama de ingeniería de materiales.     
    . Se puede entender por informática a la unión sinérgica de este conjunto de disciplinas. Esta disciplina se aplica a numerosas áreas del conocimiento en la actividad humana, como por ejemplo: gestión de empresas, almacenamiento y consulta de información, control y monitorización de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño asistido por ordenador (CAD), aplicaciones/herramientas multimedia, medicina, biología, física, ingeniería, química, meteorología, arte, etc. La informática hace posible facilitar la toma de decisiones tanto a nivel directivo (por ejemplo en una empresa) como permitir el control de procesos críticos. Actualmente es difícil encontrar una actividad que no precise, de alguna forma, el soporte de la informática. Puede cubrir un enorme espectro de funciones, que van desde las cuestiones domésticas más simples hasta los cálculos científicos más complejos.


Existen diversas ramas de conocimiento dentro de la informática como:
  • Algoritmos y estructuras de datos
  • Análisis y desarrollo de sistemas informáticos
  • Arquitectura de ordenadores
  • Bases de datos
  • Comunicaciones y seguridad
  • Computación científica
  • Fundamentos matemáticos de la computación
  • Informática forense
  • Informática gráfica
  • Informática Industrial
  • Inteligencia artificial
  • Lenguajes de programación
  • Metodología de la programación. Ingeniería del software
  • Ofimática
  • Robótica
  • Teoría de la computación

Tecnologías de la Información y la Comunicación

Las tecnologías de la información y la comunicación (TIC), a veces denominadas nuevas tecnologías de la información y la comunicación (NTIC) es un concepto asociado al previamente definido de informática. Si se considera esta última como un conjunto de recursos, procedimientos y técnicas usadas en el procesamiento, almacenamiento y transmisión de información, esta definición se ha visto matizada por las TIC, ya que en la actualidad no es suficiente con hablar de un ordenador cuando se hace referencia al procesamiento de la información.

    "Internet puede formar parte de ese procesamiento que, puede que se efectúe de forma distribuida y remota. Y al hablar de procesamiento remoto, además de incorporar el concepto de telecomunicaciones, se puede estar haciendo referencia a un dispositivo distinto a lo que se entiende por ordenador, podría llevarse a cabo, por ejemplo con un teléfono móvil inteligente o un equipo ultraportátil, con capacidad de operar en red mediante wifi, dispositivos que cada vez incorporan más prestaciones, facilidades y rendimiento. Las tecnologías de la información y la comunicación no son ninguna panacea ni fórmula mágica, pero pueden mejorar la vida de los humanos. Se dispone de herramientas para llegar a los Objetivos de Desarrollo del Milenio, de instrumentos que harán avanzar la causa de la libertad y la democracia y de los medios necesarios para propagar los conocimientos y facilitar la comprensión mutua".

    Kofi Annan (1965-2018), discurso inaugural de la primera fase de la WSIS (Ginebra, 2003).

Ciencias de la Computación frente Ingeniería Informática

Se pueden distinguir dos tipos de conocimientos que se complementan: el conocimiento científico y el conocimiento tecnológico. Tienen propósitos diferentes: el primero trata de ampliar y profundizar el conocimiento de la realidad; el segundo, de proporcionar medios y procedimientos para satisfacer necesidades. El conocimiento científico pretende saber, el conocimiento tecnológico saber hacer. Han sido muy estudiados en la literatura los criterios de validez de una teoría científica
 Una teoría científica es el resumen de una hipótesis o grupo de hipótesis que ha recibido el apoyo de diversas pruebas. Si se llega a acumular suficiente evidencia para apoyar las hipótesis, estas se mueven al siguiente nivel, conocido como teoría, en el método científico y se vuelve aceptada como una explicación válida de un fenómeno tal.
 La palabra teoría, cuando es utilizada en un contexto no científico, implica que algo no ha sido probado o es especulativo. Sin embargo, en el lenguaje científico una teoría es una explicación o un modelo basado en la observación, en la experimentación y en el razonamiento, especialmente una que ha sido probada y confirmada como un principio general que ayude a explicar y predecir un fenómeno natural, como por ejemplo la evolución.      
    . Sin embargo el criterio de validez de una tecnología no es tanto que sea verdadera sino que funcione en la práctica y sea útil. El conocimiento tecnológico está orientado hacia la resolución de problemas complejos y la toma de decisiones en cuestiones que inciden muy directamente en el desarrollo económico de la sociedad.

Es muy importante tener en cuenta que la tecnología no es solo el resultado de la aplicación de la base de conocimiento científico disponible, sino que consta de un cuerpo propio de conocimientos sobre métodos, técnicas, y aplicaciones. Junto a la ciencia, como una fuente complementaria importante de conocimientos está la Ingeniería. De una forma muy general: la ciencia busca el conocimiento científico, la Ingeniería el conocimiento tecnológico.

La informática es una disciplina que surgió en la década de 1950 a partir del desarrollo de la teoría de la computabilidad y la invención del ordenador electrónico de programa almacenado. Las raíces de la informática se extienden profundamente en las matemáticas y la ingeniería. Las matemáticas imparten el análisis, la ingeniería el diseño.

En España, y en bastantes partes del mundo, la informática se creó con una visión científica y en un primer momento no tuvo interés por una visión ingenieril. Se estableció como una licenciatura y posteriormente se convirtió en una ingeniería pero sin cambiar esencialmente el enfoque. En los últimos años se ha producido un cambio acelerado en las universidades españolas hacia el enfoque ingenieril.

La Informática va siendo una ingeniería cada vez más madura. Pero todavía tiene retos: la comprensión clara de las características que comparte con las otras ingenierías, definición de las atribuciones profesionales de los informáticos, el fortalecimiento de las asociaciones profesionales. En Informática hay, también, un conjunto de retos tecnológicos, siendo el más importante la transición de la producción manual (artística) a la producción automatizada del software.

El sector informático representa en España en torno al 4.2 % del PIB, unos 82464 millones de euros al año, por encima de la agricultura y pesca o las actividades financieras y de seguros, y dando empleo a 354480 personas. La siguiente gráfica muestra la evolución reciente del sector.



Un elevado porcentaje de los trabajadores del mismo se encuentra subcontratado en uno o mas niveles (en empresas conocidas como cárnicas), dando lugar a salarios muy bajos. Este procedimeinto es ilegal, y va contra el artículos 43 del Estatuto de los Trabajadores.

¿Qué es un ordenador?

Computadora u ordenador es una máquina capaz de aceptar información de entrada, efectuar operaciones lógicas y aritméticas, y proporcionar la información resultante a través de un dispositivo de salida, todo ello sin intervención de un operador humano y bajo el control de un programa de instrucciones previamente almacenado en él.

Hablando desde el punto de vista puramente físico, un ordenador se define como una máquina que transforma la energía libre en calor
 El calor es una cantidad de energía y es una expresión del movimiento de las moléculas que componen un cuerpo.
 Cuando el calor entra en un cuerpo se produce calentamiento y cuando sale, enfriamiento. Incluso los objetos más fríos poseen algo de calor porque sus átomos se están moviendo.
 La temperatura es la medida del calor de un cuerpo (y no la cantidad de calor que este contiene o puede rendir).     
      y trabajo matemático.

Etimología. La palabra española ordenador proviene del término francés ordinateur, en referencia a un dios que pone orden en el mundo (Dieu qui met de l'ordre dans le monde). En parte por cuestiones de márquetin, puesto que la descripción realizada por IBM para su presentación en Francia en 1954 situaba las capacidades de actuación de la máquina cercanas a la omnipotencia, idea errónea que perdura actualmente al considerar que la máquina universal de Turing es capaz de computar absolutamente todo. En 1984, varios académicos franceses reconocieron, en el debate Les jeunes, la technique et nous, que el uso de este sustantivo es incorrecto, porque la función de un computador es procesar datos, no dar órdenes. Mientras que otros, como el catedrático de filología latina Jacques Perret, conocedores del origen religioso de la palabra, lo consideran más correcto que las otras alternativas.

El uso de la palabra ordinateur se trasladó a algunos idiomas de la península Ibérica, como el aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. El español que se habla en Latinoamérica, así como los demás idiomas europeos, como el portugués, el alemán y el holandés, utilizan términos derivados de computer.

Todos los ordenadores de propósito general requieren los siguientes componentes físicos (hardware):
  • Memoria: Permite almacenar datos y programas, de forma temporal.
  • Dispositivos de almacenamiento masivo: Permiten que el ordenador almacene grandes cantidades de datos de forma permanente. Los discos duros son un ejemplo.
  • Dispositivos de entrada: Generalmente son el teclado, ratón y pantalla táctil, el dispositivo de entrada es el medio a través del cual los datos y las instrucciones se proporcionan al ordenador.
  • Dispositivos de salida: La pantalla, impresora, o cualquier otro componente que permita ver el resultado del trabajo realizado en el ordenador.
  • Unidad central de procesamiento (CPU): Es el “cerebro” del ordenador, es el componente que realmente ejecuta y controla la secuencia de las instrucciones que le indican los programas.

CPU. Esquema de la Unidad Central de Procesamiento

Ventajas de los ordenadores

Rapidez, es una de las principales ventajas. El tiempo de cálculo de un ordenador para operaciones simples es del orden de nanosegundos (1 ns = 10-9 segundos). Para tener una idea del orden de magnitud, si suponemos una operación de suma que el ordenador tarda 1 ns en ejecutarla y un humano tarda 1 s, en una operación que el ordenador realizara en 1 s, una persona tardaría 31.5 años.

Fiabilidad, es otra ventaja del ordenador frente a la operación humana. La mayoría de las veces los errores que se producen al trabajar con un equipo informático, son de índole humana, bien por errores al proporcionarle los datos, o de programación.

Capacidad, en los dispositivos de almacenamiento actuales (magnéticos y ópticos) es muy superior a cualquier medio de los disponibles previamente. Y en el futuro se dispondrá de innovadoras tecnologías con capacidades muy superiores a las actuales, como por ejemplo el ADN.

Precio, hasta no hace mucho tiempo, era un impedimento para la difusión de los ordenadores, sin embargo ha bajado de forma vertiginosa (aunque en muchos casos también ha disminuido la calidad, sobre todo en ordenadores personales) conforme se han ido abaratando los procesos de fabricación de los componentes electrónicos de que constan y las factorías se han trasladado a países con salarios muy bajos y con los trabajadores sin casi ningún derecho.

Dada la amplia difusión de la informática, se ha incorporado en los currícula de muchas universidades, enseñanzas relacionadas con el uso de los ordenadores, en todo tipo de estudios, aunque no tengan relación directa con la informática, como es el caso de esta asignatura, Informática Aplicada a las Ciencias Sociales.

Las grandes empresas y los organismos oficiales han sido hasta la década de los 90 del siglo XX los grandes consumidores de productos informáticos, sin embargo actualmente los equipos informáticos se han popularizado en el sector de consumo y hasta es habitual su comercialización en tiendas de electrodomésticos y grandes superficies comerciales.

Clasificación de los ordenadores

1. Clasificación de los ordenadores atendiendo al uso o propósito para el que fueron diseñados y construidos:

- Ordenador de propósito general: Puede utilizarse para muchos tipos de aplicaciones. Tales como gestión administrativa, cálculo científico, juegos, etc.

- Ordenador de propósito específico: Es el que únicamente puede utilizarse para una aplicación concreta. Por ejemplo, el que contiene un robot, control del tráfico, empotrados en electrodomésticos, etc.

2. Clasificación según tipo de procesador:

Atendiendo a cómo se procesan los datos hay dos tipos de ordenadores:

- Ordenador Analógico: Los datos se representan por señales físicas tales como magnitudes eléctricas, mecánicas o hidráulicas. Se utilizan para resolver ecuaciones matemáticas por simulación, un ejemplo son las reglas de cálculo, un dispositivo actualmente obsoleto. Otro es la pantómetra, empleada para efectuar cálculos y resolver problemas de proporción, así como para la trigonometría, multiplicación, división, y otras funciones, como cuadrados y raíces cúbicas. Su uso se extendió desde el siglo XVI a principios del siglo XIX. Deltar fue utilizado entre 1960 y 1984 para predecir los efectos de las presas, diques y barreras para mareas en los estuarios de los ríos Rin, Mosa y Escalda. Históricamente destaca el conocido como “Mecanismo de Antikythera” que consiste en un reloj astronómico de dos mil años de antigüedad.

Antikythera. Ejemplo de ordenador analógico


- Ordenador digital: Los datos se representan por señales eléctricas discretas (no son continuas) y solo pueden tomar dos valores. A este tipo pertenecen los ordenadores que se emplean habitualmente.

3. Clasificación según capacidad y tipo de proceso:

- Superordenadores: Pueden operar simultáneamente para muchos usuarios, en cálculos científicos o de simulación como por ejemplo en meteorología como el superordenador de la Aemet, fabricado por la empresa francesa Bull. Su coste es por lo general es de decenas de millones de euros y su velocidad es enorme. Para ver la relación de los ordenadores más potentes a nivel mundial, se recomienda visitar la página Top500 supercomputers sites.

Posición Sistema Núcleos Rmax (TFlop/s) Rpico (TFlop/s) Potencia (kW)
1 Sunway TaihuLight - Sunway MPP, Sunway SW26010 260C 1.45GHz, Sunway , NRCPC
National Supercomputing Center in Wuxi
China
10649600 93014.6 125435.9 15371
2 Tianhe-2 (MilkyWay-2) - TH-IVB-FEP Cluster, Intel Xeon E5-2692 12C 2.200GHz, TH Express-2, Intel Xeon Phi 31S1P , NUDT
National Super Computer Center in Guangzhou
China
3120000 33862.7 54902.4 17808
3 Piz Daint - Cray XC50, Xeon E5-2690v3 12C 2.6GHz, Aries interconnect , NVIDIA Tesla P100 , Cray Inc.
Swiss National Supercomputing Centre (CSCS)
Suiza
361760 19590.0 25326.3 2272
4 Titan - Cray XK7, Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20x , Cray Inc.
DOE/SC/Oak Ridge National Laboratory
EE.UU.
560640 17590.0 27112.5 8209
5 Sequoia - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom , IBM
DOE/NNSA/LLNL
EE.UU.
1572864 17173.2 20132.7 7890
6 Cori - Cray XC40, Intel Xeon Phi 7250 68C 1.4GHz, Aries interconnect , Cray Inc.
DOE/SC/LBNL/NERSC
EE.UU.
622336 14014.7 27880.7 3939
7 Oakforest-PACS - PRIMERGY CX1640 M1, Intel Xeon Phi 7250 68C 1.4GHz, Intel Omni-Path , Fujitsu
Joint Center for Advanced High Performance Computing
Japón
556104 13554.6 24913.5 2719
8 K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect , Fujitsu
RIKEN Advanced Institute for Computational Science (AICS)
Japón
705024 10510.0 11280.4 12660
9 Mira - BlueGene/Q, Power BQC 16C 1.60GHz, Custom , IBM
DOE/SC/Argonne National Laboratory
EE.UU.
786432 8586.6 10066.3 3945
10 Trinity - Cray XC40, Xeon E5-2698v3 16C 2.3GHz, Aries interconnect , Cray Inc.
DOE/NNSA/LANL/SNL
EE.UU.
301056 8100.9 11078.9 4,233


En junio de 2016 estos eran los ordenadores más potentes:

Posición Lugar Sistema Núcleos Rmáx (TFlop/s) Rpico (TFlop/s) Potencia (kW)
1 National Supercomputing Center in Wuxi
China
Sunway TaihuLight - Sunway MPP, Sunway SW26010 260C 1.45 GHz, Sunway
NRCPC
10649600 93014.6 125435.9 15371
2 National Super Computer Center in Guangzhou
China
Tianhe-2 (MilkyWay-2) - TH-IVB-FEP Cluster, Intel Xeon E5-2692 12C 2.200 GHz, TH Express-2, Intel Xeon Phi 31S1P
NUDT
3120000 33862.7 54902.4 17808
3 DOE/SC/Oak Ridge National Laboratory
EE.UU.
Titan - Cray XK7 , Opteron 6274 16C 2.200 GHz, Cray Gemini interconnect, NVIDIA K20x
Cray Inc.
560640 17590.0 27112.5 8209
4 DOE/NNSA/LLNL
EE.UU.
Sequoia - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
IBM
1572864 17173.2 20132.7 7890
5 RIKEN Advanced Institute for Computational Science (AICS)
Japón
K computer, SPARC64 VIIIfx 2.0 GHz, Tofu interconnect
Fujitsu
705024 10510.0 11280.4 12660
6 DOE/SC/Argonne National Laboratory
EE.UU.
Mira - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
IBM
786432 8586.6 10066.3 3945
7 DOE/NNSA/LANL/SNL
EE.UU.
Trinity - Cray XC40, Xeon E5-2698v3 16C 2.3 GHz, Aries interconnect
Cray Inc.
301056 8100.9 11078.9
8 Swiss National Supercomputing Centre (CSCS)
Suiza
Piz Daint - Cray XC30, Xeon E5-2670 8C 2.600 GHz, Aries interconnect , NVIDIA K20x
Cray Inc.
115984 6271.0 7788.9 2325
9 HLRS - Höchstleistungsrechenzentrum Stuttgart
Alemania
Hazel Hen - Cray XC40, Xeon E5-2680v3 12C 2.5 GHz, Aries interconnect
Cray Inc.
185088 5640.2 7403.5
10 King Abdullah University of Science and Technology
Arabia Saudí
Shaheen II - Cray XC40, Xeon E5-2698v3 16C 2.3 GHz, Aries interconnect
Cray Inc.
196608 5537.0 7235.2 2834


Estos eran los 10 superordenadores más potentes en noviembre de 2015:
  1. Tianhe-2: R.P. China, con 3.12 millones de núcleos y rendimiento de 33.86 petaflops/s.
  2. Titan: en EEUU, 560640 núcleos, 17.59 petaflops/s.
  3. Sequoia: en EEUU, 1.57 millones de núcleos, 17.17 petaflops/s.
  4. K Computer: en Japón, 705024 núcleos, 10.51 petaflops/s.
  5. Mira: en EEUU, 786432 núcleos, 8.58 petaflops/s.
  6. Piz Daint: en Suiza, 115984 núcleos, 6.27 petaflops/s.
  7. Shaheen II: en Arabia Saudí, 196608 núcleos, 5.53 petaflops/s.
  8. Stampede: en EEUU, 462462 núcleos, 5.16 petaflops/s.
  9. JUQUEEN: en Alemania, 458752 núcleos, 5.00 petaflops/s.
  10. Vulcan: en EEUU, 393216 núcleos, 4.29 petaflops/s.

Como ejemplo se puede indicar una simulación del núcleo de una estrella colapsada y de rotación rápida, ejecutada en el supercomputador Blue Waters, una potente máquina patrocinada por la Fundación Nacional de Ciencia y situada en el Centro Nacional para Aplicaciones de Supercomputación en la Universidad de Illinois (EE.UU.). Blue Waters es famoso por su capacidad de proporcionan un cálculo mantenido de alto rendimiento para problemas que generan grandes cantidades de información. La simulación de mayor resolución del equipo necesitó 18 días para completarse en aproximadamente 130000 procesadores para simular apenas 10 milisegundos de la evolución del núcleo.

Fujitsu K


- Mainframes o grandes ordenadores: Son equipos dedicados a gestión, por lo que admiten gran cantidad de trabajos simultáneos, como por ejemplo controlar una red de terminales en las sucursales de una empresa, o una red de cajeros automáticos de un banco.

- Superminiordenadores: Fueron equipos dedicados a tareas departamentales dentro de una empresa. El término fue utilizado desde mediados de la década de 1970 para distinguir los minis de 32 bits que se empezaban a comercializar de los miniordenadores de 16 bits clásicos. El término actualmente es obsoleto, pero sigue siendo de interés para los estudiosos e investigadores de la historia de la informática.

- Miniordenadores: Eran equipos que admitían unas cuantas terminales, orientados a la gestión. Se difundieron en la década de 1960, durante el curso de su vida de dos década (1965-1985), casi 100 empresas los fabricaban, que con la desaparición de este tipo de ordenadores fueron adquiridas por otras o quebraron.

- Estaciones de trabajo (Workstations): Son equipos monousuario, dotados de gran capacidad de cálculo y con enormes prestaciones gráficas. Se utilizan principalmente en la investigación científica y en aplicaciones técnicas, como por ejemplo la simulación. Son competitivas en precio con los microordenadores de gama alta. Estos equipos no están diseñados para aplicaciones de gestión.

- Ordenadores personales o microordenadores: Son equipos ampliamente difundidos, de bajo precio y prestaciones suficientes no sólo para el nivel personal, sino para empresas. Actualmente se están conectando entre sí, formando grandes redes lo cual los hace adecuados para entornos más exigentes, habiendo desplazado a equipos de gama superior. La tendencia actual son los equipos de dimensiones muy reducidas, con consumos energéticos optimizados, un ejemplo son los Esprimo de Fujitsu, que se conocen como Nettop. La versión que actualmente se comercializa masivamente son los denominados portátiles o notebooks, bajando mucho las ventas de los equipos con formato de sobremesa y minitorre.

- Chromebook: Se trata de ordenadores personales que trabajan con el sistema operativo Google Chrome OS, basado en Linux. Los dispositivos son de una clase distinta a los ordenadores personales, todos los programas se ejecutan en servidores de Google (en la nube). Los primeros dispositivos que se comercializaron con este sistema operativo fueron fabricados por Acer y Samsung, anunciados oficialmente durante el congreso de desarrolladores "Google I/O" en mayo de 2011. Posteriormente se han incorporado otros fabricantes como HP, ASUS, Toshiba y Google con su modelo Pixel.

- Netbooks: son equipos de tamaño subportátil, es decir una categoría de ordenador de bajo costo y reducidas dimensiones, lo cual aporta una mayor movilidad y autonomía. Son utilizadas principalmente para navegar por internet y realizar funciones básicas como proceso de texto y de hojas de cálculo. El término fue creado por la empresa británica Psion para utilizarlo en una gama de ordenadores portátiles similares a un equipo tipo PDA (asistente digital), lanzada en 1999. Psion obtuvo el registro de la marca en los Estados Unidos en noviembre del año 2000. El término fue reintroducido por Intel en febrero de 2008 con su actual significado. Sin embargo es un tipo de equipo informático que no cumplió con las expectativas de los clientes, a pesar de su bajo coste, se esperaba que fueran tan potentes como los notebooks, lo cual era imposible de lograr. Sus ventas han disminuido mucho.

- Tabletas: son ordenadores portátiles de mayor tamaño que un teléfono inteligente, integrado en una pantalla táctil (sencilla o multitáctil) con la que se interactúa primariamente con los dedos o una pluma stylus (pasiva o activa), sin necesidad de teclado físico ni ratón. Estos últimos se ven reemplazados por un teclado virtual y, en determinados modelos, por un mini-trackball integrado en uno de los bordes de la pantalla.

- Phablet: (contracción de phone y tablet), es un dispositivo electrónico móvil o portátil, con pantalla táctil de dimensiones entre 12 y 17 cm, aproximadamente, y con múltiples prestaciones. Un ejemplo es el Nexus 6 de Google, fabricado por Motorola (Lenovo).

- Smartphones: o teléfonos inteligentes, es un dispositivo que ofrece más funciones que un teléfono móvil celular común. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil (lo más habitual, denominándose en este caso "teléfono móvil táctil"), o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menús, teclas, atajos, etc.

- Consolas de juego: A esta categoría pertenecen equipos con elevadas prestaciones gráficas, orientadas principalmente al entretenimiento doméstico. Como ejemplo se pueden citar la Wii de Nintendo y la PlayStation de Sony.

- Sistemas empotrados: son los sistemas informáticos más habituales, del orden del 90% de la producción de microprocesadores va dirigida a sistemas empotrados (a veces denominados incrustados). Aunque no los vemos, están en dispositivos de la vida cotidiana, como electrodomésticos, teléfonos móviles celulares, coches, sistemas de control, equipos de música, y muchos más productos. Estos sistemas suelen llevar el software en circuitos electrónicos denominados firmware.

4. Clasificación según el ámbito de uso:

Se considera el ámbito de aplicabilidad para el cual cada máquina concreta ha sido diseñada y comercializada.

- Ordenador de bolsillo: Hasta hace unos años los más difundidos eran los conocidos como PDA (Personal Digital Assistant). Palm fue pionera en la fabricación de estos aparatos, con su propio sistema operativo, el Palm OS y con mucho software disponible tanto de pago como de código libre. Actualmente se ha producido una fusión con los teléfonos móviles celulares, dando lugar a los smartphones.

- Ordenador doméstico: Pensado para juegos, aprendizaje asistido por ordenador de diversas materias, gestión de agendas, pequeñas contabilidades domésticas, etc.

- Ordenador profesional: Diseñado para satisfacer las necesidades informáticas de una amplia gama de profesionales y también de pequeñas oficinas técnicas o empresas familiares.

- Ordenador departamental: Ordenador con capacidad local para abordar con autosuficiencia la mayoría de necesidades de un departamento, pero vinculado a un ordenador de mayor potencia y capacidad de archivos para aquellos procesos que requieren una mayor potencia en el procesador.

- Ordenador central: Ordenador central de la empresa al cual pueden recurrir todos los usuarios cuando la capacidad local está desbordada.

- Red de ordenadores: Conjunto de ordenadores vinculados entre sí para ofrecer un mismo tipo de servicio a todo un conjunto muy amplio de usuarios de forma repartida para evitar sobrecargas y evitar que la caída de un ordenador único central represente la caída de todo el servicio.

Tendencias de futuro

Entre las opciones que manejan los científicos, los ordenadores cuánticos, sugeridos como una posibilidad teórica por Richard Feynman (1918-1988), premio Nobel de Física, es la que cuenta con más posibilidades de hacerse realidad a medio plazo. Se han desarrollado programas específicos para estos ordenadores que permitirán, por ejemplo, buscar información en una base de datos, solo que en vez de indagar verificando uno por uno todos los elementos como en un ordenador convencional, un ordenador cuántico los comprobaría todos a la vez.

Los ordenadores cuánticos almacenan la información en forma de bits cuánticos, denominados cubits (o qubits), que son estados cuánticos que representan unos y ceros. En un ordenador cuántico el cero y el uno podrían corresponder al estado del espín (el espín, vía el teorema de la física CPT, explica por qué estamos aquí, por qué existimos, por qué hay estructuras materiales complicadas en el universo) de un átomo o de un electrón. Lo diferente es que el átomo puede encontrarse en una superposición de ambos estados, es decir, se encuentra en situación 0 y 1 a la vez. Esta propiedad permite realizar varias operaciones en paralelo, lo que incrementa enormemente la capacidad de cálculo para resolver algoritmos de forma mucho más rápida. Se estima que un ordenador cuántico de 30 cubits equivaldría a un procesador convencional de 10 teraflops (10 millones de millones de operaciones elementales por segundo), cuando las equipos actuales trabajan en magnitudes de gigaflops (miles de millones de operaciones por segundo).

El siguiente vídeo muestra una conferencia impartida por el físico Juan Ignacio Cirac Sasturain (1965-), reconocido por sus investigaciones en computación cuántica y óptica cuántica, enmarcadas en la teoría cuántica y en la física teórica. Desde 2001 es director de la División Teórica del Instituto Max-Planck de Óptica Cuántica (Max-Planck-Institut für Quantenoptik) en Garching, Alemania.



Este otro vídeo explica de forma muy sencilla el experimento del gato de Schrödinger.



Y este otro vídeo muestra de forma muy sencilla, la evolución de la informática hasta los ordenadores cuánticos.



La empresa canadiense D-Wave (fundada por el físico Geordie Rose) dio lugar a una polémica, al comercializar a partir de 2007 ordenadores anunciados como cuánticos, uno de ellos adquirido por Google y la NASA. Sin embargo las evidencias indican que no se tratan de ordenadores cuánticos en el sentido habitual de la física. Consiste en un ordenador montado a base de conectar 512 cubits superconductores. Para ser un ordenador cuántico además debería demostrar que durante su operación estos cubits están entrelazados
El fenómeno más importante de los sistemas cuánticos, primero por ser algo totalmente diferente a lo que ocurre en el mundo macroscópico (el de todos los días), después porque tiene unas implicaciones filosóficas muy profundas y por último porque tiene muchas y muy variadas aplicaciones prácticas.
La definición matemática del entrelazamiento es bastante complicada de entender. No está basada en principios muy complejos, basta con el álgebra que se enseña en el instituto, pero no es nada intuitiva.
Los estados cuánticos de dos o más objetos se deben describir mediante un estado único que involucra a todos los objetos del sistema, aún cuando los objetos estén separados espacialmente. Esto lleva a correlaciones entre las propiedades físicas observables. Por ejemplo, es posible preparar (enlazar) dos partículas en un solo estado cuántico de espín nulo, de forma que cuando se observe que una gira hacia arriba, la otra automáticamente recibirá una "señal" y se mostrará como girando hacia abajo, pese a la imposibilidad de predecir, según los postulados de la mecánica cuántica, qué estado cuántico se observará.
     entre sí; si no lo están, estos cubits se comportan como bits probabilísticos y es un ordenador clásico no determinista sin paralelismo cuántico. Más aún, ni siquiera es un ordenador de propósito general, capaz de ejecutar un algoritmo no determinista arbitrario; se trata de un ordenador de propósito específico que ejecuta un único algoritmo, el recocido cuántico, la versión con cubits del recocido simulado, para otras aplicaciones es más rápido un PC.

Otra posibilidad son los ordenadores ópticos, se basan en que cambian los electrones de las señales eléctricas por los fotones de luz. Éstos últimos serían la unidad básica para enviar datos y sus propiedades harían que los equipos dieran un salto considerable en lo que se refiere a rendimiento. Por el momento solo se ha experimentado con algunos prototipos, pero ninguno ha salido del laboratorio. En 2009, investigadores de la Universidad de Bristol (Reino Unido) ya anunciaron la puesta en marcha de un sistema óptico. Un chip que utilizaba partículas de luz para hacer cálculos sencillos. El ejemplo que ofrecieron fue una simple multiplicación, 3×5. El dispositivo fue capaz de dar la respuesta 15. “Esta tarea puede ser llevada a cabo mucho más rápido por cualquier escolar”, comentó uno de los impulsores del experimento, “pero esto es realmente una importante demostración que prueba un principio”, añadió. Es una de las muestras más primitivas de la investigación sobre computación basada en fotones.

También frente a la electrónica digital se esta investigando la espintrónica. Un electrón se caracteriza por tres propiedades físicas, carga, masa y espín; de las que la electrónica solo utiliza la carga y la masa. La espintrónica opera con las propiedades de espín de un electrón, en lugar o en adición con las propiedades dependientes de la carga. Algunos de los posibles usos de la espintrónica son: memorias magnetorresistivas de acceso aleatorio, transistores de espín, escáneres en medicina (por ejemplo para detectar células cancerosas) e incluso en ordenadores cuánticos.

Otra alternativa más reciente consiste en la creación de una corriente mediante la caracterización del efecto de muchos cuerpos en el transporte de los átomos (del tipo conocido como “bosónicos ultrafríos”) a lo largo de una red periódica, conocida como atomtrónica. Los innovaciones más recientes se debe a Anton Ivanov y sus colaboradores del Instituto de Física Teórica de la Universidad de Heidelberg (Alemania).

Atomtronica, condensados de bosones


También se ha investigado en ordenadores cuyo procesador central está basado enteramente en nanotubos de carbono, una forma de carbono con notables propiedades electrónicas. El ordenador es lento y simple, pero sus creadores, un grupo de ingenieros de la Universidad de Stanford (EE.UU.), aseguran que demuestra que la electrónica de nanotubos de carbono supone un potencial reemplazo viable para el silicio cuando alcance su límite en los circuitos electrónicos, que cada vez son más pequeños. El procesador de nanotubos de carbono es comparable en capacidad al Intel 4004, el primer microprocesador de dicha compañía lanzado en 1971. El procesador de nanotubos se compone de 142 transistores, cada uno de los cuales contiene nanotubos de carbono de alrededor de 10 a 200 nanómetros de largo. El grupo de Stanford afirma que ha creado seis versiones de ordenadores de nanotubos de carbono, entre ellos uno que puede ser conectado a hardware externo, como un teclado numérico para introducir números a sumar.

El grafeno consiste en láminas de un átomo de un espesor de carbono con propiedades físicas sorprendentes, ha sido promocionado como un posible reemplazo del silicio. Los electrones se mueven a su través con facilidad, por lo que puede parecer una elección ideal como reemplazo de los semiconductores actualmente en uso en la electrónica de teléfonos y ordenadores. Sin embargo, el grafeno tiene un gran problema: no se puede generar el “off” (apagado) como en el silicio. Los electrones fluyen continuamente, lo que es un gran obstáculo que debe superarse antes de que el grafeno tenga la oportunidad de desafiar al silicio como un material que pueda generar el 0 (“off”) y 1 (“on”), que son la base de la electrónica digital. Investigadores de la Universidad de California-Riverside (EE.UU.) han llegado a una posible solución. “Hemos decidido tomar un enfoque alternativo”, dijo el profesor de ingeniería eléctrica Alexander Balandin en un comunicado. “En lugar de tratar de cambiar el grafeno, cambiamos la forma en que la información se procesa en los circuitos”. La capacidad del silicio para iniciar y detener el flujo de electrones funciona bien con la lógica booleana, un medio de procesamiento de la información; la información se codifica y se procesa como una serie de 0 y 1, cuando los electrones fluyen, un ordenador registra un 1, y cuando no están fluyendo, registra un 0.

Como el grafeno no puede apagar la corriente, la lógica booleana no funciona. Así que los investigadores inventaron un tipo diferente de lógica que se aprovecha de las propiedades únicas del grafeno. En su lugar manipularon el voltaje y la corriente para representar diferentes valores. Como resultado de ello, no importa si los electrones están fluyendo constantemente. La construcción fuera de grafeno podría conducir a transistores de un único átomo de espesor, lo que hipotéticamente permitiría fabricar ordenadores más potentes.

En un futuro próximo llegará la revolución de los materiales bidimensionales, tales como el grafeno, que es un semimetal, por lo que en muchas aplicaciones son preferibles los semiconductores planos tales como el fosforeno y el disulfuro de molibdeno. En el 2014 se publicaron unos 15000 artículos científicos sobre el grafeno, por otra parte el número de artículos sobre los semiconductores planos está creciendo exponencialmente, en 2014 se publicaron más de 1500 sobre el disulfuro de molibdeno y casi 200 sobre el fosforeno.Todo apunta a que estos materiales dominarán el mundo de la nanoelectrónica, relegando al grafeno a un papel casi irrelevante. Incluso en muchas aplicaciones donde el grafeno se suponía que era una apuesta firme hoy en día no se puede descartar que el siliceno, el germaneno o el estaneno acaben dando mejores resultados prácticos.

En los medios de comunicación no especializada surgió en febrero de 2016 la noticia sobre una empresa de Yecla (Murcia) que presentó unas baterías de grafeno con características muy superiores a las que se comercializan habitualmente (por ejemplo las del fabricante de coches Tesla). Esta compañía se denomina Graphenano (el nombre parece mezcla de dos palabras de moda, grafeno y nanotecnología), aunque la supuesta ‘revolución’ podría ser en realidad una de las grandes historias de "humo" y opacidad del sector tecnológico español, para lograr subvenciones de las administraciones públicas.

Especulaciones sobre el futuro

La ley de Moore expresa que aproximadamente cada dos años se duplica el número de transistores en un circuito integrado. Se trata de una ley empírica, formulada por el cofundador de Intel, el químico Gordon E. Moore (1929-), el 19 de abril de 1965, cuyo cumplimiento aproximado se ha podido constatar hasta hoy. En 1965, Gordon Moore afirmó que la tecnología tenía futuro, que el número de transistores por unidad de superficie en circuitos integrados se duplicaba cada año y que la tendencia continuaría durante las siguientes dos décadas. Más tarde, en 1975, la modificó al corroborar que el ritmo bajaría, y que la capacidad de integración se duplicaría aproximadamente cada 18 meses. Esta progresión de crecimiento exponencial, duplicar la capacidad de los circuitos integrados cada cierto tiempo, es lo que se denomina ley de Moore. Sin embargo, el propio Moore determinó una fecha de caducidad para su ley: "Mi ley dejará de cumplirse dentro de 10 o 15 años -desde 2007-", según aseguró durante la conferencia en la que afirmó, no obstante, que una nueva tecnología vendría a suplir a la actual; la realidad es que el año 2016 ha supuesto el inició el fin de la ley de Moore. Existe la posibilidad de alcanzar circuitos electrónicos con tecnología del nanómetro con fosforeno, cuando los más diminutos fabricados actualmente tiene una dimensión de 10 nanómetros.

La consecuencia directa de la ley de Moore es que los precios de los componentes electrónicos bajan al mismo tiempo que las prestaciones suben: el ordenador que hoy vale 3000 euros, costará la mitad al año siguiente y estará obsoleto en dos años. En 26 años el número de transistores en un chip se ha incrementado unas 3200 veces.

Si la ley de Moore se sigue cumpliendo, y la potencia de los ordenadores sigue aumentando exponencialmente (ya sea a través del ingenio humano o aunque parezca sorprendente, por sus propios medios), ¿hay un momento en que se detendrá el progreso? Los físicos Lawrence Krauss y Glenn Starkman dicen "". Se ha calculado que la ley de Moore sólo puede mantenerse hasta que los ordenadores en realidad se queden sin materia y energía en el universo, para utilizar como bits. En última instancia, los ordenadores no podrán ampliarse aún más, ya que no serán capaces de lograr el material suficiente para duplicar el número de bits cada dos años.

Ley de Moore. Variación con el tiempo de la densidad de transistores en chips


Por lo tanto, si la ley de Moore sigue cumpliéndose con igual precisión que hasta ahora, ¿según Krauss y Starkman cuándo los ordenadores deben dejar de crecer? Las proyecciones indican que el equipamiento informático abarcará todo el universo accesible, convirtiendo cada bit de materia y energía en una parte de su circuito, dentro de unos 600 años. Esto puede parecer muy pronto. "Sin embargo, la ley de Moore es una ley exponencial" afirmó Starkman físico de la Universidad Case Western, no se puede duplicar el número de bits tantas veces se precise sin llegar a requerir el universo entero. Personalmente, Starkman piensa que ley de Moore dejará de cumplirse mucho antes de que el último ordenador se “coma” el universo. De hecho, cree que los ordenadores dejarán de ser más poderosos en unos 30 años. En última instancia, no se sabe qué va a pasar. Podríamos llegar a la singularidad - el punto en que los ordenadores se vuelven conscientes, asumirlo y, a continuación, empezar una automejora. O tal vez no lo haremos.

Actualmente hay unas 25 tecnologías alternativas a la usada en los semiconductores que emplea la electrónica digital (CMOS, Complementary Metal–Oxide–Semiconductor). La que ofrece más ventajas es la MESO (MagnetoElectric Spin-Orbit) que se basa en la transducción espín-órbita (dado que el momento angular y el momento lineal del electrón están acoplados) combinado con un conmutador magnetoeléctrico; empleando materiales cuánticos avanzados que muestren estados topológicos de la materia. La lógica MESO permite energías de conmutación entre 10 y 30 veces menores que la CMOS, voltajes de conmutación 5 veces menores y una densidad de integración unas 5 veces menor.

Lawrence Krauss. Cada átomo de tu cuerpo viene de una estrella


Predecir el futuro es algo que muchas personas han tratado de hacer y han fracasado. Incluso la mayoría de las veces se puede caer en la pseudociencia
 Disciplina, determinada por un conjunto de prácticas, creencias, conocimientos y metodologías no científicos, pero que reclaman dicho carácter. Algunos ejemplos son: la astrología, la homeopatía, la ufología, el psicoanálisis, el feng shui, el tarot, la numerología, la parapsicología, etc. (Hay disciplinas que no tienen base científica pero tampoco la reclaman implícita ni explícitamente, por lo cual no se consideran pseudociencias).
    . Así que la realidad es que no sabemos cómo será el futuro de la informática y sus límites.

Un caso real fue la predicción que auguraba que se acabaría el trabajo. En 1956, investigadores financiados por la Fundación Rockfeller, en la conferencia de Darthmounth predijeron que en el plazo de 25 años todo el trabajo sería desarrollado por máquinas, Una vez transcurrido más del doble de años previstos, solo se recuerda dicha conferencia por haber acuñado el término "Inteligencia artificial" y haber fijado las bases de la investigación en dicho campo. La realidad es que no hemos dejado de trabajar, sino que gracias a la tecnología (ordenadores e internet) ahora se trabaja también desde casa. A pesar de este y otros fracaso respecto a las predicciones, hay quienes siguen ejerciendo de futurólogos con afirmaciones tales como "las máquinas someterán a la humanidad y nos reemplazarán en la cadena evolutiva... salvo que los desenchufemos. En 1999 Roman Ikonicoff en su libro "La conciencia y la máquina" augura la existencia de máquinas inteligentes entre el 2049 y 2060. Por lo que se ve, el optimismo está de moda entre los seguidores de Turing, Von Neumann y Wiener.

Las predicciones habitualmente tienden a indicar que desparecerán por obsoletos distintos productos habituales en la vida real, aunque sean de mucha utilidad. Por ejemplo, con la llegada de la informática se decía que el papel iba a desaparecer como soporte de textos, sin embargo hasta hace poco tiempo los manuales y libros sobre informática gastaban papel en abundancia. Ya en 1971 se daba una década de vida a la prensa escrita, y la realidad es que ha sobrevivido a la digitalización de los periódicos.

Sin embargo, los fabricantes e investigadores, actúan a veces diseñando productos con poca visión de futuro. Por ejemplo el IBM PC, un equipó comercializado en 1981 y que provocó una revolución en la informática personal, fue un equipo diseñado para uso empresarial, y además en aquella época se comercializaban ordenadores de otras marcas, con prestaciones superiores y precio inferior. Además el crecimiento de complementos hardware para el PC de IBM no fue seguido por el software, el sistema operativo MS-DOS era muy rudimentario y se usó durante muchos años, sin apenas mejoras.

Sin embargo hay casos como el precursor de la ciencia ficción, el escritor Julio Verne, que hablaba de viajes imposibles y de mundos insólitos, nadie pudo creer, en aquellos momentos, que todas aquellas “fantasías” serían una realidad en el futuro más o menos lejano. Todo lo que él imaginó hace tiempo que se hizo realidad y, en algunos casos, aquellas realidades fantásticas, han sido sobrepasadas como podemos contemplar, en nuestras vidas cotidianas. Ingenios espaciales surcan los espacios siderales y, otros, lo hacen por el misterioso fondo oceánico como fue predicho hace ahora más de un siglo.

A continuación se muestra un vídeo de la conferencia impartida en Naukas 2016 por Pablo Rodriguez, "De profesión futurólogo".



En el ámbito de los ordenadores cuánticos se ha propuesto una ley análoga a la de Moore, conocida como Ley de Rose's. El gráfico indica la posible evolución de los ordenadores cuánticos según esta nueva ley:

Evolución ordenadores cuánticos

Por qué el universo no es un ordenador, después de todo


Artículo publicado el cuatro de diciembre de 2012 en The Physics ArXiv Blog.

"La idea de que nuestro universo es un ordenador cósmico gigante, impregna la ciencia moderna. Ahora, un físico dice que esta suposición es peligrosamente incorrecta.

Una de las fuerzas motrices de la ciencia moderna es la idea de que el universo “calcula” el futuro, tomando algunos estados iniciales como entrada y genera los estados futuros como salida. Este es un potente enfoque que ha producido mucho conocimiento. Algunos científicos van más allá, y dicen que el universo es un ordenador gigante.

¿Es razonable esta suposición? Ken Wharton de la Universidad Estatal de San José, en California, hace una importante defensa sobre que no lo es. Su miedo es que la idea del universo como un ordenador es preocupantemente antropocéntrica. “Es, básicamente, la suposición de que la forma en que los humanos resolvemos problemas de física, debe ser la forma en que realmente funciona en universo”, señala. Es más, la idea se ha extendido a través de la ciencia si la consideración adecuada sobre su validez, o algún examen de las alternativas. “Esta suposición… es tan sólida que muchos físicos ni siquiera pueden imaginar qué otro tipo de universo podría ser conceptualmente posible”, señala Wharton.

Defiende que una visión más de cerca a la idea del cosmos como un ordenador, revela importantes problemas. Wharton analiza varios. Por ejemplo, un cálculo implica tres pasos. Primero, el mundo físico debe correlacionarse con un estado matemático. Luego, este estado matemático evoluciona a un nuevo estado. Y, finalmente, el nuevo estado vuelve a correlacionarse con el mundo físico.

En la mecánica cuántica, esto solo puede suceder si este paso final es probabilístico. Tal como escribe Wharton: “Ni siquiera el universo sabe qué salida concreta se producirá”. Y aún más, cuando se mide el universo, se produce una salida específica. El funcionamiento de un ordenador no puede tener esto en cuenta. Para Wharton, este es un error clave que la mayor parte de los físicos simplemente pasan por alto.

También es una pista importante el hecho de que la idea del universo como un ordenador sea una simple suposición, y una que nadie ha cuestionado rigurosamente. “Es la suposición menos cuestionada (y más fundamental) que tiene el mayor potencial de llevarnos por el camino equivocado”, comenta. Las consecuencias son profundas. “Gracias a este profundo sesgo, es posible que hayamos pasado por alto la descripción real; las pruebas, cada vez más sólidas, de que las leyes fundamentales que gobiernan nuestro universo no pueden expresarse en términos de una computación tradicional”.

Para demostrar esta afirmación, Wharton pasa una parte significativa de su artículo explicando una visión alternativa del cosmos que no depende de la computación tradicional. Es la formulación de Lagrange de las leyes de la física, basadas en el principio de mínima acción.

Un ejemplo es el principio de que la luz viaja a través de la distancia más corta entre dos puntos. El método de Lagrange es, básicamente, definir el punto inicial y final, examinar todos los posibles caminos, y elegir el más corto. “Desde este enfoque, la razón por la que la luz se dobla en el punto de contacto entre el aire y el agua no es debido a una cadena algorítmica de causa y efecto, sino debido a que, globalmente, es más eficiente”, explica Wharton.

Cualquiera que esté familiarizado con este enfoque sabrá de su elegancia y belleza. Pero los críticos se preguntan cómo puede saber el rayo de luz su punto de destino cuando empieza su viaje. Wharton dice que estas críticas usan un argumento como este: “Sí, [el método de Lagrange] puede ser hermoso, puede ser potente, pero no es realmente como funciona nuestro universo. Solo es un truco útil que hemos descubierto”. Pero este argumento es, en sí mismo, profundamente antropocéntrico, dice Wharton. Asume que el universo debe funcionar de la misma forma que nosotros resolvemos problemas – que el universo está tan “a oscuras” sobre el futuro como nosotros.

Desde luego, hay muchos buenos argumentos para pensar que el universo funciona como un ordenador convencional. El punto que señala Wharton es que también hay otras formas de pensar sobre el cosmos que podrían proporcionar importante conocimiento nuevo. Si lo ignoramos es bajo nuestro propio riesgo."


Charla del profesor de la Universidad Politécnica de Valencia J. M. Mulet, en NAUKAS 2015 (Bilbao). Lo mejor de la charla fueron los primeros minutos donde, literalmente, no dice nada.



Página de inicio