No estoy de acuerdo en afirmaciones que comparan la inteligencia de humanos con máquinas, ni con otros seres vivos tampoco.
El concepto de inteligencia no está bien definido.
Cierto, pero el hecho de que no esté bien definido no significa que no exista. Es obvio que hay cosas que puede hacer un ser humano que no puede hacer un mono y que la diferencia consiste precisamente en eso impreciso llamado inteligencia. Y, dentro de los seres humanos, también se da el caso de que hay unos a los que les explicas algo y lo entienden en profundidad, y otros a los que no hay manera de conseguir que lo entiendan, y a esa diferencia también se le llama inteligencia.
Imagina que coges a 100 estudiantes y les pones 100 problemas a cada uno de una materia que han estudiado. Problemas no mecánicos, sino que requieren eso indefinido llamado inteligencia, que ahí está, quieras que no. Si resulta que uno de ellos los resuelve todos y los demás no pasan de resolver 60, puedes decir objetivamente que el primero es más inteligente que el resto, al menos en una faceta en concreto de la inteligencia, la relacionada con resolver problemas de matemáticas de cierto tipo.
Es verdad que alguien puede ser muy inteligente y no ser capaz de resolver un tipo de problemas porque carece de la formación y el entrenamiento adecuado, pero yo me pongo en el caso de 100 personas que han recibido esencialmente la misma formación y entrenamiento. Si a pesar de ello surgen diferencias de rendimiento, a esas diferencias se las llama (o las llamo yo aquí) inteligencia.
Ahora imagina que alguien dice:
Los negros son mucho menos inteligentes que los blancos. Si pones 100 problemas de matemáticas a 100 alumnos blancos y a 100 negros que hayan recibido la misma formación, con total seguridad los blancos obtendrán resultados mucho mejores que los negros. Más aún, el peor de los blancos lo hará mejor que el mejor de los negros.
Eso, en principio, se llama racismo. El caso en el que sería más disculpable que alguien creyera eso sería que lo afirmara basándose en una experiencia de trato con alumnos blancos y negros, que en realidad no partieran de una igualdad de formación, sino que la formación de los negros hubiera sido mucho peor que la de los blancos por razones socioeconómicas (incluso por el propio racismo de la sociedad). En tal caso, el que afirma tal cosa tendría un fundamento empírico, pero aun así se equivocaría al atribuir la diferencia a la raza y no a la formación previa condicionada por la raza.
Para dilucidar si es cierto o no que los negros son menos inteligentes que los blancos habría que analizar la capacidad de negros y blancos educados en condiciones realmente equiparables. Ahora imagina que entrevistas a un matemático y quieres formarte una idea de su capacidad intelectual. Pongamos que lo entrevistas por teléfono (para no verlo), pero que te responde sin ninguna ayuda externa.
Sería razonable que le preguntaras: ¿cuál es tu especialidad? Porque si te dice que su especialidad es la topología y le haces una pregunta muy técnica de estadística, puede que no te sepa responder por falta de formación en esa rama. Y una vez tengas concretada el área matemática que se supone que domina, los libros que ha estudiado, etc., podrás plantearle problemas que una persona inteligente podría resolver con esa base, y en función de cuántos sepa resolver te podrás formar una idea de su inteligencia.
Ahora la pregunta es: ¿sería pertinente que, a la hora de evaluar lo inteligente que es, le preguntaras si es negro? ¿Puede influir en algo tu estimación de la inteligencia de una persona que sepas si es blanca o negra? Creo que estaremos de acuerdo en que evidentemente no.
Pues el paso siguiente es: ¿necesitas saber si la persona en cuestión es un ser vivo o una máquina para estimar su inteligencia? ¿Puedes asegurar que una máquina —OJO, no una máquina de las que conocemos hoy en día, sino una posible máquina que exista en el futuro— no pueda presentarse ante ti a una entrevista y que te resuelva problemas complejos sobre los que no tiene información previa de modo que concluyas que es un ser muy inteligente?
Más precisamente: ante una serie de respuestas, ¿dirías que si son de un humano es que es muy inteligente, pero que si son de una máquina entonces son un fraude? ¿Cualquier estimación que hagas de la inteligencia de un ser con el que puedes dialogar queda invalidada desde el momento en que descubras que es una máquina?
La inteligencia, sea lo que sea, es algo que uno tiene o no tiene, no algo que dependa de quién te ha creado. ¿Si has sido creado por un proceso biológico natural puedes ser inteligente, pero si te ha creado un humano ya tienes el estigma indeleble de tonto que parece listo? Eso es una especie de aristocracia: si eres hijo de un noble, vales mucho, pero si eres hijo de un plebeyo, da igual lo que hagas, que no vales nada.
Decía don Quijote que cada cual es hijo de sus obras, es decir, que a cada cual hay que juzgarlo por lo que hace, no por la nobleza de sus antepasados. Igualmente, si estás ante un ser con el que puedes conversar, tendrás que juzgar si es inteligente o no por lo que diga, no por quién lo ha hecho o de qué está hecho.
Por ejemplo, si conversas con ChatGPT no tardas en darte cuenta que es inteligente en el sentido etimológico de que es capaz de entender el lenguaje y expresarse con fluidez, pero no es inteligente en absoluto en el sentido de ser eficiente relacionando información que le sea nueva y sobre la que no pueda consultar opiniones previas. Vamos, que NO es inteligente en absoluto igual que un negro analfabeto no será muy inteligente (y un blanco tampoco, pero por analfabeto, no por negro o blanco). ¿Pero puedes afirmar a priori que es imposible construir una máquina que se comporte como un ser inteligente, hablando de temas sobre los que no tiene información previa (como problemas que no ha resuelto, etc.) o que, si fuera posible, eso no sería auténtica inteligencia equiparable a la humana?
Esa es la cuestión.
Así que por eso me chirrían los dichos de Carlos sobre la inteligencia de las máquinas y los algoritmos.
Un algoritmo es algo expresable mediante el modelo de una máquina de Turing.
Pero no se sabe si el funcionamiento de la mente humana se puede expresar de esa forma.
Un ser inteligente no es (sólo) un algoritmo, porque la inteligencia no depende únicamente del proceso con el que se relacionan los datos, sino también con los datos que se reciben. Un mismo algoritmo programado en un ordenador para permitirle interactuar con otras personas y ordenadores podría dar lugar a un ser inteligente o a un tonto en función de la formación que reciba y de entradas aleatorias. Si acaba siendo inteligente, lo será por el algoritmo de partida y por la forma en que ha ido encajando los datos que ha recibido, donde por datos incluyo el que en un momento dado haya visto o no pasar una mosca por delante. Además, un algoritmo que permita a un ordenador aprender instrucciones es en realidad un algoritmo de algoritmos, porque el ordenador puede aprender a ejecutar nuevos algoritmos que no estaban presentes en su programa inicial. Por ello, reducir la inteligencia a un algoritmo es simplista.
La mente humana es la actividad del cerebro humano, y un cerebro no tiene nada de mágico o sobrenatural, es una máquina que procesa unos datos y obtiene respuestas. El procesado es muy complejo. Incluso no podríamos descartar que en él intervinieran fenómenos cuánticos (no me parece plausible, pero en principio es posible), pero da igual lo que sea: es un objeto físico que sigue las leyes de la física. La cuestión es que existen las mismas posibilidades de vincular el comportamiento inteligente de los seres humanos al hecho de que su cerebro está hecho de neuronas y no de circuitos impresos como de vincularlo al color blanco de su piel o a que sus neuronas tengan cromosoma Y.
¿Qué característica del cerebro humano no va a poder reproducir nunca un ordenador? Y ojo que no se trata de construir una imitación de un cerebro humano. Los aviones vuelan como los pájaros, pero no lo hacen agitando las alas. El vuelo de un avión no imita el vuelo de un pájaro, sino que consigue por otra vía el mismo efecto. Igualmente, no se trata de entender cómo funciona el cerebro humano con todo detalle (eso es imposible sin experimentar cruelmente con seres humanos), sino de lograr el mismo efecto por otros medios. ¿Quién nos dice que eso es imposible? ¿Es tan imposible como se creía imposible que un objeto más pesado que el aire pudiera volar?
Tampoco la inteligencia artificial es un algoritmo, porque las decisiones que toma no son deterministas, ya que aparece el factor aleatorio en el entrenamiento de de ellas.
Efectivamente, una máquina inteligente tiene que ser capaz de realizar asociaciones de ideas con una componente aleatoria. No sirve de nada tener mucha información en la memoria si no se sabe a cuál acceder en cada momento, por lo que tiene que haber mecanismos que relacionen contenidos concretos de memoria con los contenidos de la "conciencia" en un instante dado, para que si, por ejemplo, la máquina en un instante dado está pensando en "mariposas", salte un mecanismo que le recuerde que el otro día vio unos pasteles en forma de mariposa, lo cual luego tendrá que juzgarse si es relevante o si se puede olvidar. Buena parte de la inteligencia humana se basa en generar cientos de ideas tontas que son filtradas, parte inconscientemente, parte conscientemente, hasta barajar unas pocas relevantes (como cuando un jugador de ajedrez descarta en décimas de segundo jugadas tontas y se para a analizar unas pocas) y en ese proceso son esenciales los elementos aleatorios. Lo que hoy llamamos IA podría ser una pieza esencial para esta función de crear asociaciones entre "elementos en la conciencia" y "elementos en la memoria", que a su vez se traduzcan en un pensamiento creativo, pero son sólo una parte que no es en sí misma inteligencia propiamente dicha.
El software de nuestros días de inteligencia artificial se enfoca en reconocimiento del lenguaje, cosa que algunos llaman "un loro estadístico".
Cierto. Pero no es descartable que un montón de loros estadísticos no sean una pieza esencial dentro de una inteligencia artificial en sentido pleno, por lo que decía antes, porque la creatividad tiene una fuerte componente de encontrar asociaciones, aunque sean tontas, entre lo que se piensa y lo que se sabe, para reunir material relevante sobre el que operar.
Eso no alcanza para decir que la inteligencia artificial "entiende' el lenguaje,
o que el software da muestras de entendimiento,
pues para empezar, no está bien definido lo que significa "entender algo".
Esto ya es una cuestión menor, pero yo diría que es correcto decir que entiende el lenguaje, dejando claro que es posible hablar de entendimiento sin (auto)conciencia. ChatGPT entiende, pero no sabe que entiende. En cualquier caso, creo que es más una cuestión de lenguaje. Estamos de acuerdo en qué es lo que hace, tanto si lo llamamos "entender" como si no.
Por otra parte, tanto las computadoras en general, como los programas de inteligencia artificial, tienen un diseño que podemos entender (hasta cierto punto),
pero el funcionamiento del cerebro de los seres vivos no se puede disecar de la misma manera.
Dos cosas: en efecto, no podemos entender el funcionamiento del cerebro humano, porque para ello nos haría falta un nuevo Hitler (o un nuevo Imperio Japonés, para ser justos, que unos se llevan la fama...), pero eso no invalida el problema de si es posible conseguir los mismos resultados que consigue el cerebro humano de alguna otra forma (o la misma, aunque eso no lo sepamos). Es como si ves una aplicación que hace algo interesante, pero no conoces su código. Nada te impide plantearte diseñar otra que haga lo mismo, o parecido, sin que importe si tu código se parecerá en mucho o en nada al de la aplicación que quieres imitar. Sería absurdo que lo lograras y te dijeran que tu aplicación no vale, porque hace lo mismo, pero no es de la marca adecuada.
Pues lo mismo. Si construyes un ordenador que se comporta como un cerebro humano, ¿qué importa si no está hecho de neuronas?
La segunda cosa es que no es necesariamente cierto que una máquina pensante tenga un diseño que podamos entender. Para eso me remito al ejemplo que puse en la
respuesta #23. Ahí planteo el caso de un informático que crea unos robots inteligentes y que se va de vacaciones mientras sus robots generan varias generaciones de robots inteligentes, de modo que en el proceso son cruciales hechos casuales sin los cuales los algoritmos no habrían llegado a nada. El resultado final es una máquina J uyo programa no es conocido por el creador inicial H, y, si los robots destruyen toda la información usada para diseñar J, resulta que J está exactamente en las mismas condiciones que un cerebro humano. Nadie sabe cómo funciona, ni siquiera J tiene por qué saberlo. Si abrimos su "cerebro", veremos una ristra enorme de código ensamblador sin ninguna pista sobre cómo desentrañarlo, y reproducir el algoritmo inicial tampoco llevará a nada, porque sería necesaria la conjunción de inputs causales que han terminado dando lugar al diseño de J.
Ahí tienes un ser J del que no tienes más información sobre su capacidad que la que puedas obtener hablando con él. No tienes forma de saber cómo opera, y la cuestión es si puedes decirle: tú no eres inteligente, ni tienes conciencia, simplemente porque no tienes ADN.
Es como los sabios que se negaban a mirar por el telescopio de Galileo porque Aristóteles no había hablado de satélites de Júpiter. Da igual lo que veamos, que va a ser que no.
La única manera de decir que un software tiene "inteligencia" es que al interactuar con él nos engaña haciéndonos creer que es humano.
Pues igualmente puedo yo decir que los negros no son personas, no tienen conciencia ni entienden nada, pero al hablar con ellos nos engañan y nos hacen creer que son humanos. Más aún, lo mismo podría decir yo de ti (y tú de mí, claro). Lo que estás diciendo es que da igual lo que veas, que al final lo que cuenta para decidir es quién o qué eres. Si tú juzgas que un negro es persona porque tiene ADN humano y a partir de ahí ya puedes aceptar que pueda ser inteligente, pero un ordenador no, porque, aunque haga lo mismo que un negro, el negro sí que será inteligente y el ordenador será un estafador, tu criterio no se diferencia técnicamente del de un racista que simplemente pone la frontera que tu pones en tener o no tener ADN, en tener o no tener ADN blanco. ¿Por qué la frontera está bien donde tú la pones y no donde la pone el racista?
Imagina que aterriza un platillo volante delante de tu casa, y sale de él un ser cubierto por una armadura metálica, que te explica que viene del planeta Melmak y que lleva esa armadura para protegerse de la letal atmósfera terrestre, pues el oxígeno es venenoso. Pongamos que sabes de algún modo que es un ser autónomo, es decir, que no está teledirigido de ningún modo. Hablas con él y te encuentras con que sabe mucha física, muchas matemáticas, entiende lo que le dices, resuelve los problemas que le planteas, incluso aunque al principio no sepa de que van y te haga muchas preguntas... ¿necesitarás preguntarle de qué está hecho para decicdr si es inteligente? ¿Tendrás que colarte en su platillo volante para ver si come ratas melmakianas o si se enchufa a una batería?
Pero de otro modo, no sabríamos cómo reconocer que algo tiene inteligencia,
porque la inteligencia no está bien definida como concepto.
Eso es una excusa muy mala. En efecto, la inteligencia no está bien definida, pero se puede decir objetivamente que Albert Einstein era muy inteligente y que un terraplanista es bastante tonto. Y no acabo de entender lo que quieres decir con esto:
Si tienes que juzgar si una persona es más o menos inteligente, ¿estás diciendo que es imposible? (No digo hacer un juicio categórico y definitivo, sino estimar si es más o menos inteligente en una faceta concreta del conocimiento con la que se supone que está bien familiarizado.) ¿Tú no puedes hacerte una idea aproximnada y orientativa de cuáles de tus alumnos son más o menos inteligentes sólo porque la inteligencia no está bien definida (que no lo está)?
En cualquier caso, la cuestión es: si tienes delante a 10 humanos y 10 robots y hablas con ellos de lo que quieras, ¿no te servirán sus reacciones para determinar si hay alguna diferencia significativa entre unos y otros o si se comportan igual? ¿Puedes decir a priorio que los robots parecen lo que no son, mientras que los humanos son lo que parecen? Me extraña en ti tal rotundidad.
No creo que merezca la pena responder a Manooooh, porque lo que podría decirle es un subconjunto de lo que he dicho aquí, pero, Manooooh, si crees que algo que has dicho ha quedado sin responder, me lo recuerdas.