¿Llegarán las máquinas a pensar? Quizás el secreto esté en definir correctamente lo que significa pensar.
Esta pregunta se empezó a tomar en serio a principios de la década de los 50 del pasado siglo XX. El matemático inglés, Alan Turing, manifestó su convencimiento de que algún día las máquinas llegarían a tener un comportamiento inteligente como las personas. Años después, Marvin Minsky, uno de los fundadores de la llamada inteligencia artificial, dijo que los seres humanos llegarían a crear computadoras mucho más inteligentes que ellos mismos. Ordenadores que seguirían inventado cosas, haciendo ciencia, hablando como seres humanos, poseyendo incluso una personalidad propia y una conciencia moral como el mismo hombre. A tales máquinas inteligentes, según Minsky, habría que considerarlas desde todos los sentidos como auténticas personas. Finalmente, Frank J. Tipler, en La física de la inmortalidad escribe la misma idea mediante las siguientes palabras:
“Por consiguiente, es abrumadora la evidencia a favor de que dentro de unos treinta años se podrá construir una máquina tan inteligente o más que un ser humano. ¿Se debería permitir esto? Mi opinión es que es una actitud poco meditada, producida por el miedo y la ignorancia, la de no dejar que aquellos hombres y mujeres capacitados para ello construyan un robot inteligente. [...] Pero la razón básica para permitir la creación de máquinas inteligentes es que sin su ayuda la especie humana está condenada a desaparecer. Con su auxilio podremos sobrevivir para siempre, y desde luego que lo haremos.”[1]
Según estos autores, el cerebro humano sería sólo una computadora hecha de carne y la diferencia existente entre ambos tendría carácter cuantitativo, no cualitativo. Es decir, que aunque nuestro cerebro es hoy mucho más complejo que cualquier ordenador conocido, en el futuro será posible fabricar uno que sea más inteligente incluso que nosotros. Esta afirmación constituye la llamada hipótesis fuerte de la inteligencia artificial. Un punto de vista profundamente reduccionista ya que reduce la mente (ese sistema capaz de sentir el propio yo, de tener ideas, sentimientos, deseos y recuerdos), así como el cerebro (órgano formado por tejido nervioso con volumen y peso) a los simples átomos materiales que lo integran. La mente sería así como un exudado del cerebro. La conciencia, pura sudoración cerebral.
Entendida de esta manera, la comparación entre cerebro y computadora genera otras analogías. El cerebro equivaldría al hardware, la base material, y la mente al software, la base lógica o conjunto de programas que pueden ser ejecutados. El problema de la dualidad mente-cerebro se soluciona así de un plumazo y todo parece entenderse a la perfección.
Sin embargo, este problema no es tan sencillo. En principio, no todos los científicos se han dejado convencer tan fácilmente por el optimismo de estos autores. Por ejemplo, J. R. Lucas se opuso desde el principio a Turing, defendiendo precisamente la postura contraria con argumentos basados en el teorema de Gödel. Más tarde, el físico de Oxford, Roger Penrose, famoso por su contribución al tema de los agujeros negros, escribió el libro La nueva mente del emperador (1996) con el fin principal de refutar la pretensión de los defensores de la inteligencia artificial, en el sentido de que los ordenadores podrían algún día replicar todos los atributos de los seres humanos, incluida la conciencia. El fundamento de su argumento se basa también en el teorema de la incompletitud de Gödel.
Este teorema dice que más allá de cierto nivel de complejidad, todo sistema de axiomas consistentes genera afirmaciones que no pueden ni probarse ni desmentirse con tales axiomas. De ahí que el sistema sea siempre incompleto. En opinión de Penrose, esto significa que ningún modelo “computable” podrá jamás imitar los poderes creativos de la mente humana. Ni la física, ni la informática, ni la neurociencia serán capaces de fabricar una máquina capaz de igualar la conciencia del hombre porque las computadoras trabajan siguiendo algoritmos, pero la mente humana no.
Un algoritmo es una sucesión de operaciones elementales, ordenadas y especificadas para hacer algo concreto. Por ejemplo, si se quisiera programar un robot para freír un huevo, habría que darle el siguiente algoritmo: 1. pon la sartén con aceite sobre el fuego; 2. toma un huevo del frigorífico; 3. rómpelo con suavidad; 4. colócalo dentro de la sartén; 5. espera durante un minuto; 6. recógelo con la espumadera; 7. apaga el fuego. El algoritmo es una especie de receta. El robot que lo recibe puede realizar tareas como pintar un auto, enroscar tornillos, inflar ruedas o freír huevos. Esto es todo lo que puede hacer una computadora, a la que se le dan ciertos algoritmos, pero si ocurre algo imprevisto, pronto se pone de manifiesto su incapacidad para dar una respuesta. Si el huevo no está en la nevera, en vez de pintura hay agua, el tornillo está demasiado oxidado o la rueda se pinchó, las máquinas no saben cómo reaccionar porque carecen de sentido común. Todos los intentos de programar el sentido común, el humor, la intuición y las analogías han fracasado.
Según Penrose, el misterio de la conciencia no puede ser explicado por medio de las leyes corrientes de la física actual. La mente tiene que extraer su poder de algún fenómeno más sutil, probablemente relacionado con la mecánica cuántica, que todavía no ha sido descubierto. Una computadora capaz de pensamiento tendría que basarse en mecanismos relacionados, no con la mecánica cuántica que se conoce hoy, sino con una teoría más profunda aún no conocida. Por lo tanto, sugiere que los efectos cuánticos observados en los microtúbulos de las neuronas podrían ser el lugar donde se crea la conciencia a nivel celular.
Sin embargo, ésta última sugerencia es una mera conjetura, pues lo cierto es que Penrose no ha construido una auténtica teoría sobre la manera como todo esto debería funcionar. Simplemente se ha limitado a decir que tal vez su hipótesis podría ser un elemento a tomar en consideración. Pero, la mayoría de sus colegas piensan que se trata de un planteamiento bastante débil. El filósofo de la ciencia, Karl R. Popper, manifestó también lo siguiente:
“Hasta ahora no he dicho nada de un problema que ha sido objeto de un amplio debate, el de si llegará el día en que construyamos una máquina que pueda pensar. Es algo que se ha discutido mucho bajo el título «¿Pueden pensar las computadoras?» Diría sin dudarlo un momento que no, a pesar de mi ilimitado respeto hacia A. M. Turing, quien pensaba lo contrario. Quizá podamos enseñar a hablar a un chimpancé (de manera muy rudimentaria). Y si la humanidad sobrevive lo suficiente, incluso podemos llegar a acelerar la selección natural y criar por selección artificial algunas especies que pueden competir con nosotros. Quizá también podamos, andando el tiempo, crear un microorganismo artificial, capaz de reproducirse en un medio adecuado de enzimas. Han ocurrido ya tantas cosas increíbles, que sería burdo afirmar que esto es imposible. Pero predigo que no podremos construir computadoras electrónicas con experiencia subjetiva consciente.”[2]
¿Qué podemos decir ante esta polémica que mantiene divididos a los especialistas y estudiosos del cerebro humano? ¿Llegarán las máquinas a pensar? Quizás el secreto esté en definir correctamente lo que significa pensar. Darle forma en la mente a las ideas, es una manera de definir el pensamiento. Pero pensar es también tener intuición, sentido común, sentido del humor y saber comparar o realizar analogías. Y aquí es donde fracasan estrepitosamente las computadoras electrónicas. Contar, pesar, medir, realizar tareas que exijan mucha rapidez, almacenar datos, hacer análisis, operar aritmética y geométricamente, aplicar reglas, etc., son actividades que las computadoras hacen muy bien. Y, probablemente, cada vez harán con mayor velocidad. Pero no pidamos peras al olmo. Hay cosas que nunca podrán hacer. El pensamiento humano es mucho más que aplicar reglas.
Una computadora no es más que un lápiz sofisticado que puede escribir con miles de letras distintas, jugar bien al ajedrez o analizar líquidos orgánicos, pero que carece de sentido común. No sabe hacer chistes, ni los entiende. No puede intuir cualquier solución que previamente no le haya sido codificada. Es incapaz de improvisar o de hacer comparaciones entre cosas muy diferentes. No acierta a crear obras de arte. Cuando no tiene un marco de referencia adecuado, se queda muda. No posee la suficiente creatividad para solucionar situaciones inesperadas. A pesar de tantas novelas y películas de ciencia ficción en las que las computadoras se revelan contra sus creadores y se convierten así en una amenaza para el ser humano, lo cierto es que la máquina no sabe ni puede liberarse de las normas que le han sido impuestas. Los ordenadores no piensan, únicamente potencian el pensamiento de sus creadores.
Es imposible que surja la libertad de un montón de circuitos electrónicos. Quien cree en la libertad humana no puede aceptar las pretensiones de la inteligencia artificial. El sentido común es un ejercicio de esa libertad, mediante el cual el hombre puede liberarse de la norma, reinterpretar cualquier situación inesperada y decidir qué hacer por sí mismo. Incluso es capaz de crear información nueva a partir de las circunstancias. De ahí que, si existe la libertad, nunca podrá haber computadoras verdaderamente inteligentes.
Y, sobre todo, la diferencia fundamental entre cualquier máquina cibernética que se pueda crear y un ser humano es de naturaleza espiritual. Cada parte de un ordenador puede ser medida, pesada, observada, fotografiada, etc., sin embargo, el ser humano no puede reducirse sólo a la materia de que está hecho. El hombre es más que lo que se ve. Posee conciencia de sí mismo, capacidad de abstracción y espiritualidad. La neurofisiología actual no sabe cómo reducir la conciencia humana a las simples causas naturales. Y este es el verdadero problema.
Tanto los investigadores que creen que algún día el hombre será capaz de crear máquinas más inteligentes que él mismo, como Turing, Minsky o Tipler, como aquellos otros que niegan tal posibilidad, a no ser que se descubran otras leyes de la física cuántica, como postula Penrose, Lucas y Popper, se basan en un error fundamental propio del naturalismo. Dicho error consiste en creer que la mente humana, y en general el hombre, no es más que un montón de neuronas conectadas entre sí. Algo que puede ser observado y medido a la perfección. Y nada más que eso. Esta manera de razonar es típica del reduccionismo naturalista.
Pero, lo cierto es que la actividad inteligente del ser humano no puede ser reducida a la actividad de ninguna computadora. Decir que el hombre no es más que el producto de las entradas de estímulos sensoriales y las salidas de comportamientos que responden a ellos, es un acto de fe imposible de demostrar en la realidad. La reducción de la mente a la máquina no es, ni mucho menos, la conclusión de un argumento evidente basado en alguna experiencia científica, sino sólo la consecuencia de un acto de fe en el naturalismo. Éste cree que el hombre es solamente una máquina pensante, pero no es capaz de demostrar semejante afirmación. Sin embargo, recientes desarrollos de la teoría del diseño inteligente están confirmando que la acción inteligente no puede ser reducida a las solas causas naturales. En contra de lo que habitualmente se afirma, las causas naturales son demasiado estúpidas como para originar aquello que sólo pueden crear las causas inteligentes.
La robótica que pretende imitar a los seres vivos, y por supuesto al ser humano, se encuentra hoy ante un auténtico callejón sin salida. Rodney Brooks, que es director del laboratorio de inteligencia artificial del Massachussets Institute of Technology (MIT), ha manifestado que:
“ [...] es preciso reconocer que los artefactos producidos por la robótica comportamental y la imitación biológica no están tan “vivos” como cabría esperar. La modelización en biología no da ni de lejos los mismos resultados que en física. Sabemos simular muy bien la dinámica de fluidos, la trayectoria de los planetas o las explosiones nucleares. Pero en biología no obtenemos unos resultados tan concluyentes. Algo va mal. Pero ¿qué? Hay muchas respuestas posibles. Tal vez todo se reduce a que nuestros parámetros son erróneos. O a que nuestros modelos no han alcanzado el nivel de complejidad necesaria. O a que no disponemos de suficiente potencia informática. Pero podría ser también que nos faltara algún concepto fundamental que todavía no hemos imaginado en los modelos biológicos.”[3]
La inteligencia artificial y la vida artificial son dos disciplinas modernas que están a medio camino entre la ciencia y la tecnología. Ambas persiguen un mismo fin: estudiar los seres vivos para construir sistemas artificiales que los imiten, con el propósito de que sean útiles para el ser humano. Los investigadores de la inteligencia artificial se esfuerzan por comprender mejor la mente humana simulándola en una computadora, mientras que los defensores de la vida artificial esperar comprender los entresijos de los seres vivos por medio también de simulaciones informáticas. Pues bien, ninguna de estas dos disciplinas ha conseguido su objetivo. Sólo se ha generado retórica ceremoniosa en vez de resultados tangibles. Y los investigadores no se explican por qué. ¿No será, sencillamente, porque los objetivos que se buscan son imposibles de alcanzar?
La ciencia actual es incapaz de demostrar que la mente pueda reducirse al cerebro. Ni la inteligencia, ni la conciencia humana, pueden simularse adecuadamente por medio de algoritmos. La facultad de distinguir entre verdad y falsedad, bondad y maldad, belleza y fealdad, etc., es algo característico del hombre que no se puede transmitir a las computadoras. Como tampoco el propósito, la motivación, la intuición moral o la fe en el Creador. La Biblia y el cristianismo colisionan forzosamente contra las pretensiones de la inteligencia artificial, por la sencilla razón de que ninguna máquina llegará jamás a ser imagen de Dios.
Notas
[1] Tipler, F. J. 1996, La física de la inmortalidad, Alianza, Madrid, p. 84.
[2] Popper, K. R. & Eccles, J. C. 1993, El yo y su cerebro, Labor, Barcelona, p. 232.
[3] Brooks, R. 2002, Robots: simular organismos vivos, Mundo Científico, Barcelona, 233: 52.
La conmemoración de la Reforma, las tensiones en torno a la interpretación bíblica de la sexualidad o el crecimiento de las iglesias en Asia o África son algunos de los temas de la década que analizamos.
Estudiamos el fenómeno de la luz partiendo de varios detalles del milagro de la vista en Marcos 8:24, en el que Jesús nos ayuda a comprender nuestra necesidad de ver la realidad claramente.
Causas del triunfo de Boris Johnson y del Brexit; y sus consecuencias para la Unión Europea y la agenda globalista. Una entrevista a César Vidal.
Analizamos las noticias más relevantes de la semana.
Algunas imágenes del primer congreso protestante sobre ministerios con la infancia y la familia, celebrado en Madrid.
Algunas fotos de la entrega del Premio Jorge Borrow 2019 y de este encuentro de referencia, celebrado el sábado en la Facultad de Filología y en el Ayuntamiento de Salamanca. Fotos de MGala.
Instantáneas del fin de semana de la Alianza Evangélica Española en Murcia, donde se desarrolló el programa con el lema ‘El poder transformador de lo pequeño’.
José era alguien de una gran lealtad, la cual demostró con su actitud y acciones.
Celebración de Navidad evangélica, desde la Iglesia Evangélica Bautista Buen Pastor, en Madrid.
Madrid acoge el min19, donde ministerios evangélicos de toda España conversan sobre los desafíos de la infancia en el mundo actual.
Las opiniones vertidas por nuestros colaboradores se realizan a nivel personal, pudiendo coincidir o no con la postura de la dirección de Protestante Digital.
Si quieres comentar o