Autor Tema: Intuición metamatemática del concepto de tiempo

0 Usuarios y 1 Visitante están viendo este tema.

29 Marzo, 2024, 12:48 pm
Respuesta #100

Carlos Ivorra

  • Administrador
  • Mensajes: 11,114
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
No estoy de acuerdo en afirmaciones que comparan la inteligencia de humanos con máquinas, ni con otros seres vivos tampoco.
El concepto de inteligencia no está bien definido.

Cierto, pero el hecho de que no esté bien definido no significa que no exista. Es obvio que hay cosas que puede hacer un ser humano que no puede hacer un mono y que la diferencia consiste precisamente en eso impreciso llamado inteligencia. Y, dentro de los seres humanos, también se da el caso de que hay unos a los que les explicas algo y lo entienden en profundidad, y otros a los que no hay manera de conseguir que lo entiendan, y a esa diferencia también se le llama inteligencia.

Imagina que coges a 100 estudiantes y les pones 100 problemas a cada uno de una materia que han estudiado. Problemas no mecánicos, sino que requieren eso indefinido llamado inteligencia, que ahí está, quieras que no. Si resulta que uno de ellos los resuelve todos y los demás no pasan de resolver 60, puedes decir objetivamente que el primero es más inteligente que el resto, al menos en una faceta en concreto de la inteligencia, la relacionada con resolver problemas de matemáticas de cierto tipo.

Es verdad que alguien puede ser muy inteligente y no ser capaz de resolver un tipo de problemas porque carece de la formación y el entrenamiento adecuado, pero yo me pongo en el caso de 100 personas que han recibido esencialmente la misma formación y entrenamiento. Si a pesar de ello surgen diferencias de rendimiento, a esas diferencias se las llama (o las llamo yo aquí) inteligencia.

Ahora imagina que alguien dice:

Los negros son mucho menos inteligentes que los blancos. Si pones 100 problemas de matemáticas a 100 alumnos blancos y a 100 negros que hayan recibido la misma formación, con total seguridad los blancos obtendrán resultados mucho mejores que los negros. Más aún, el peor de los blancos lo hará mejor que el mejor de los negros.

Eso, en principio, se llama racismo. El caso en el que sería más disculpable que alguien creyera eso sería que lo afirmara basándose en una experiencia de trato con alumnos blancos y negros, que en realidad no partieran de una igualdad de formación, sino que la formación de los negros hubiera sido mucho peor que la de los blancos por razones socioeconómicas (incluso por el propio racismo de la sociedad). En tal caso, el que afirma tal cosa tendría un fundamento empírico, pero aun así se equivocaría al atribuir la diferencia a la raza y no a la formación previa condicionada por la raza.

Para dilucidar si es cierto o no que los negros son menos inteligentes que los blancos habría que analizar la capacidad de negros y blancos educados en condiciones realmente equiparables. Ahora imagina que entrevistas a un matemático y quieres formarte una idea de su capacidad intelectual. Pongamos que lo entrevistas por teléfono (para no verlo), pero que te responde sin ninguna ayuda externa.

Sería razonable que le preguntaras: ¿cuál es tu especialidad? Porque si te dice que su especialidad es la topología y le haces una pregunta muy técnica de estadística, puede que no te sepa responder por falta de formación en esa rama. Y una vez tengas concretada el área matemática que se supone que domina, los libros que ha estudiado, etc., podrás plantearle problemas que una persona inteligente podría resolver con esa base, y en función de cuántos sepa resolver te podrás formar una idea de su inteligencia.

Ahora la pregunta es: ¿sería pertinente que, a la hora de evaluar lo inteligente que es, le preguntaras si es negro? ¿Puede influir en algo tu estimación de la inteligencia de una persona que sepas si es blanca o negra? Creo que estaremos de acuerdo en que evidentemente no.

Pues el paso siguiente es: ¿necesitas saber si la persona en cuestión es un ser vivo o una máquina para estimar su inteligencia? ¿Puedes asegurar que una máquina —OJO, no una máquina de las que conocemos hoy en día, sino una posible máquina que exista en el futuro— no pueda presentarse ante ti a una entrevista y que te resuelva problemas complejos sobre los que no tiene información previa de modo que concluyas que es un ser muy inteligente?

Más precisamente: ante una serie de respuestas, ¿dirías que si son de un humano es que es muy inteligente, pero que si son de una máquina entonces son un fraude? ¿Cualquier estimación que hagas de la inteligencia de un ser con el que puedes dialogar queda invalidada desde el momento en que descubras que es una máquina?

La inteligencia, sea lo que sea, es algo que uno tiene o no tiene, no algo que dependa de quién te ha creado. ¿Si has sido creado por un proceso biológico natural puedes ser inteligente, pero si te ha creado un humano ya tienes el estigma indeleble de tonto que parece listo? Eso es una especie de aristocracia: si eres hijo de un noble, vales mucho, pero si eres hijo de un plebeyo, da igual lo que hagas, que no vales nada.

Decía don Quijote que cada cual es hijo de sus obras, es decir, que a cada cual hay que juzgarlo por lo que hace, no por la nobleza de sus antepasados. Igualmente, si estás ante un ser con el que puedes conversar, tendrás que juzgar si es inteligente o no por lo que diga, no por quién lo ha hecho o de qué está hecho.

Por ejemplo, si conversas con ChatGPT no tardas en darte cuenta que es inteligente en el sentido etimológico de que es capaz de entender el lenguaje y expresarse con fluidez, pero no es inteligente en absoluto en el sentido de ser eficiente relacionando información que le sea nueva y sobre la que no pueda consultar opiniones previas. Vamos, que NO es inteligente en absoluto igual que un negro analfabeto no será muy inteligente (y un blanco tampoco, pero por analfabeto, no por negro o blanco). ¿Pero puedes afirmar a priori que es imposible construir una máquina que se comporte como un ser inteligente, hablando de temas sobre los que no tiene información previa (como problemas que no ha resuelto, etc.) o que, si fuera posible, eso no sería auténtica inteligencia equiparable a la humana?

Esa es la cuestión.

Así que por eso me chirrían los dichos de Carlos sobre la inteligencia de las máquinas y los algoritmos.
Un algoritmo es algo expresable mediante el modelo de una máquina de Turing.
Pero no se sabe si el funcionamiento de la mente humana se puede expresar de esa forma.

Un ser inteligente no es (sólo) un algoritmo, porque la inteligencia no depende únicamente del proceso con el que se relacionan los datos, sino también con los datos que se reciben. Un mismo algoritmo programado en un ordenador para permitirle interactuar con otras personas y ordenadores podría dar lugar a un ser inteligente o a un tonto en función de la formación que reciba y de entradas aleatorias. Si acaba siendo inteligente, lo será por el algoritmo de partida y por la forma en que ha ido encajando los datos que ha recibido, donde por datos incluyo el que en un momento dado haya visto o no pasar una mosca por delante. Además, un algoritmo que permita a un ordenador aprender instrucciones es en realidad un algoritmo de algoritmos, porque el ordenador puede aprender a ejecutar nuevos algoritmos que no estaban presentes en su programa inicial. Por ello, reducir la inteligencia a un algoritmo es simplista.

La mente humana es la actividad del cerebro humano, y un cerebro no tiene nada de mágico o sobrenatural, es una máquina que procesa unos datos y obtiene respuestas. El procesado es muy complejo. Incluso no podríamos descartar que en él intervinieran fenómenos cuánticos (no me parece plausible, pero en principio es posible), pero da igual lo que sea: es un objeto físico que sigue las leyes de la física. La cuestión es que existen las mismas posibilidades de vincular el comportamiento inteligente de los seres humanos al hecho de que su cerebro está hecho de neuronas y no de circuitos impresos como de vincularlo al color blanco de su piel o a que sus neuronas tengan cromosoma Y.

¿Qué característica del cerebro humano no va a poder reproducir nunca un ordenador? Y ojo que no se trata de construir una imitación de un cerebro humano. Los aviones vuelan como los pájaros, pero no lo hacen agitando las alas. El vuelo de un avión no imita el vuelo de un pájaro, sino que consigue por otra vía el mismo efecto. Igualmente, no se trata de entender cómo funciona el cerebro humano con todo detalle (eso es imposible sin experimentar cruelmente con seres humanos), sino de lograr el mismo efecto por otros medios. ¿Quién nos dice que eso es imposible? ¿Es tan imposible como se creía imposible que un objeto más pesado que el aire pudiera volar?

Tampoco la inteligencia artificial es un algoritmo, porque las decisiones que toma no son deterministas, ya que aparece el factor aleatorio en el entrenamiento de de ellas.

Efectivamente, una máquina inteligente tiene que ser capaz de realizar asociaciones de ideas con una componente aleatoria. No sirve de nada tener mucha información en la memoria si no se sabe a cuál acceder en cada momento, por lo que tiene que haber mecanismos que relacionen contenidos concretos de memoria con los contenidos de la "conciencia" en un instante dado, para que si, por ejemplo, la máquina en un instante dado está pensando en "mariposas", salte un mecanismo que le recuerde que el otro día vio unos pasteles en forma de mariposa, lo cual luego tendrá que juzgarse si es relevante o si se puede olvidar. Buena parte de la inteligencia humana se basa en generar cientos de ideas tontas que son filtradas, parte inconscientemente, parte conscientemente, hasta barajar unas pocas relevantes (como cuando un jugador de ajedrez descarta en décimas de segundo jugadas tontas y se para a analizar unas pocas) y en ese proceso son esenciales los elementos aleatorios. Lo que hoy llamamos IA podría ser una pieza esencial para esta función de crear asociaciones entre "elementos en la conciencia" y "elementos en la memoria", que a su vez se traduzcan en un pensamiento creativo, pero son sólo una parte que no es en sí misma inteligencia propiamente dicha.

El software de nuestros días de inteligencia artificial se enfoca en reconocimiento del lenguaje, cosa que algunos llaman "un loro estadístico".

Cierto. Pero no es descartable que un montón de loros estadísticos no sean una pieza esencial dentro de una inteligencia artificial en sentido pleno, por lo que decía antes, porque la creatividad tiene una fuerte componente de encontrar asociaciones, aunque sean tontas, entre lo que se piensa y lo que se sabe, para reunir material relevante sobre el que operar.

Eso no alcanza para decir que la inteligencia artificial "entiende' el lenguaje,
o que el software da muestras de entendimiento,
pues para empezar, no está bien definido lo que significa "entender algo".

Esto ya es una cuestión menor, pero yo diría que es correcto decir que entiende el lenguaje, dejando claro que es posible hablar de entendimiento sin (auto)conciencia. ChatGPT entiende, pero no sabe que entiende. En cualquier caso, creo que es más una cuestión de lenguaje. Estamos de acuerdo en qué es lo que hace, tanto si lo llamamos "entender" como si no.

Por otra parte, tanto las computadoras en general, como los programas de inteligencia artificial, tienen un diseño que podemos entender (hasta cierto punto),
pero el funcionamiento del cerebro de los seres vivos no se puede disecar de la misma manera.

Dos cosas: en efecto, no podemos entender el funcionamiento del cerebro humano, porque para ello nos haría falta un nuevo Hitler (o un nuevo Imperio Japonés, para ser justos, que unos se llevan la fama...), pero eso no invalida el problema de si es posible conseguir los mismos resultados que consigue el cerebro humano de alguna otra forma (o la misma, aunque eso no lo sepamos). Es como si ves una aplicación que hace algo interesante, pero no conoces su código. Nada te impide plantearte diseñar otra que haga lo mismo, o parecido, sin que importe si tu código se parecerá en mucho o en nada al de la aplicación que quieres imitar. Sería absurdo que lo lograras y te dijeran que tu aplicación no vale, porque hace lo mismo, pero no es de la marca adecuada.

Pues lo mismo. Si construyes un ordenador que se comporta como un cerebro humano, ¿qué importa si no está hecho de neuronas?

La segunda cosa es que no es necesariamente cierto que una máquina pensante tenga un diseño que podamos entender. Para eso me remito al ejemplo que puse en la respuesta #23. Ahí planteo el caso de un informático que crea unos robots inteligentes y que se va de vacaciones mientras sus robots generan varias generaciones de robots inteligentes, de modo que en el proceso son cruciales hechos casuales sin los cuales los algoritmos no habrían llegado a nada. El resultado final es una máquina J uyo programa no es conocido por el creador inicial H, y, si los robots destruyen toda la información usada para diseñar J, resulta que J está exactamente en las mismas condiciones que un cerebro humano. Nadie sabe cómo funciona, ni siquiera J tiene por qué saberlo. Si abrimos su "cerebro", veremos una ristra enorme de código ensamblador sin ninguna pista sobre cómo desentrañarlo, y reproducir el algoritmo inicial tampoco llevará a nada, porque sería necesaria la conjunción de inputs causales que han terminado dando lugar al diseño de J.

Ahí tienes un ser J del que no tienes más información sobre su capacidad que la que puedas obtener hablando con él. No tienes forma de saber cómo opera, y la cuestión es si puedes decirle: tú no eres inteligente, ni tienes conciencia, simplemente porque no tienes ADN.

Es como los sabios que se negaban a mirar por el telescopio de Galileo porque Aristóteles no había hablado de satélites de Júpiter. Da igual lo que veamos, que va a ser que no.

La única manera de decir que un software tiene "inteligencia" es que al interactuar con él nos engaña haciéndonos creer que es humano.

Pues igualmente puedo yo decir que los negros no son personas, no tienen conciencia ni entienden nada, pero al hablar con ellos nos engañan y nos hacen creer que son humanos. Más aún, lo mismo podría decir yo de ti (y tú de mí, claro). Lo que estás diciendo es que da igual lo que veas, que al final lo que cuenta para decidir es quién o qué eres. Si tú juzgas que un negro es persona porque tiene ADN humano y a partir de ahí ya puedes aceptar que pueda ser inteligente, pero un ordenador no, porque, aunque haga lo mismo que un negro, el negro sí que será inteligente y el ordenador será un estafador, tu criterio no se diferencia técnicamente del de un racista que simplemente pone la frontera que tu pones en tener o no tener ADN, en tener o no tener ADN blanco. ¿Por qué la frontera está bien donde tú la pones y no donde la pone el racista?

Imagina que aterriza un platillo volante delante de tu casa, y sale de él un ser cubierto por una armadura metálica, que te explica que viene del planeta Melmak y que lleva esa armadura para protegerse de la letal atmósfera terrestre, pues el oxígeno es venenoso. Pongamos que sabes de algún modo que es un ser autónomo, es decir, que no está teledirigido de ningún modo. Hablas con él y te encuentras con que sabe mucha física, muchas matemáticas, entiende lo que le dices, resuelve los problemas que le planteas, incluso aunque al principio no sepa de que van y te haga muchas preguntas...  ¿necesitarás preguntarle de qué está hecho para decicdr si es inteligente? ¿Tendrás que colarte en su platillo volante para ver si come ratas melmakianas o si se enchufa a una batería?

Pero de otro modo, no sabríamos cómo reconocer que algo tiene inteligencia,
porque la inteligencia no está bien definida como concepto.

Eso es una excusa muy mala. En efecto, la inteligencia no está bien definida, pero se puede decir objetivamente que Albert Einstein era muy inteligente y que un terraplanista es bastante tonto. Y no acabo de entender lo que quieres decir con esto:

Si tienes que juzgar si una persona es más o menos inteligente, ¿estás diciendo que es imposible? (No digo hacer un juicio categórico y definitivo, sino estimar si es más o menos inteligente en una faceta concreta del conocimiento con la que se supone que está bien familiarizado.) ¿Tú no puedes hacerte una idea aproximnada y orientativa de cuáles de tus alumnos son más o menos inteligentes sólo porque la inteligencia no está bien definida (que no lo está)?

En cualquier caso, la cuestión es: si tienes delante a 10 humanos y 10 robots y hablas con ellos de lo que quieras, ¿no te servirán sus reacciones para determinar si hay alguna diferencia significativa entre unos y otros o si se comportan igual? ¿Puedes decir a priorio que los robots parecen lo que no son, mientras que los humanos son lo que parecen? Me extraña en ti tal rotundidad.

No creo que merezca la pena responder a Manooooh, porque lo que podría decirle es un subconjunto de lo que he dicho aquí, pero, Manooooh, si crees que algo que has dicho ha quedado sin responder, me lo recuerdas.

29 Marzo, 2024, 12:54 pm
Respuesta #101

manooooh

  • $$\Large \color{#9c57a6}\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 4,391
  • País: ar
  • Karma: +1/-0
  • Sexo: Masculino
Hola

No he leído con detalle las últimas respuestas, pero lanzo lo siguiente:

Si efectivamente Carlos tiene razón y la computadora es más inteligente que el ser humano, que me explique por qué con tan solo cortar el suministro eléctrico, la computadora "muere" (o quitarle alguno de sus componentes). ¿Acaso sería homicidio?

¿O es que para que algo sea considerado "inteligente" no tiene por qué aguantarse que el ser humano (insisto, su creador) no pueda desconectarlo de la red eléctrica, sacarle las pilas (quitarle alguno de sus componentes), etcétera y esto no sea motivo suficiente para decir: la máquina es tan pero tan torpe que con sólo desenchufarla demuestro que nunca será más inteligente que su creador?

Saludos

29 Marzo, 2024, 01:04 pm
Respuesta #102

RDC

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 454
  • País: es
  • Karma: +0/-0
  • Nunca te creas a quién te hable del futuro
    • Privatum. Blog de ideas

Sí, se me ocurrió a mi. Pero supongo que ya existía. De hecho no es más que una forma algebraica simple de cribaje. Y me parece más fácil como demostración de que hay infinitos primos (que no puede haber una lista finita de primos).

Lo he enseñado a algunos niños que empiezan a conocer los números primos y les gusta mucho.

Pongo algunos ejemplo que me hacen gracia en base, sólo, a la resta:

\( 2·5-3=7 \)
\( 3·5-2^2=11 \)
\( 3·5-2=13 \)
\( 2^2·5-3=17 \)
\( 5^2-2·3=19 \)
\( 2·5^2-3^3=23 \)
\( 5·3^2-2^4=29 \)
\( 2^2·3^2-5=31 \)
\( 2^3·5-3=37 \)
\( 3^2·5-2^2=41 \)
\( 3^2·5-2=43 \)
\( 2·5^2-3=47 \)
\( 2·3^3-5=49 \) Ya es múltiplo de 7. Por eso el resultado siempre debe ser menor que el cuadrado del primo siguiente usado.

Nota: es cierto que la mayoría de primos se pueden obtener mediante otra combinación, porque al final hagamos la combinación que hagamos, mientras el resultado sea menor que 49 siempre nos dará un primo.

Pero en fin, no deja de ser una curiosidad y quizás se pudiera perfeccionar. No sé..

Un saludo

Hola, RDC.

Ayer estuve mirando a ver si tu idea servía para hallar primos muy grandes (con el factorial en vez del primorial) y creo que sí se podría usando primos de Mersenne, pero no es tan fácil.

Una cosa que he descubierto mirando ahora es que parece cumplirse que \( n|P_{n}\# \), no sé si esto se sabrá, supongo que sí. Quiere decir que si tienes el primorial \( P_{n}\# \), esto es, el producto ordenado de primos desde el 2, que hace el primo 1, hasta el primo que hace el “n”, entonces dicho producto

\( 2*3*5*7*...*P=P_{1}*P_{2}*P_{3}*P_{4}*...*P_{n} \)

es divisible por “n”, por la cantidad de primos (o eso parece probando, no sé si fallará, pero me da que no va a fallar).

*(Esto ya no tiene que ver con el tema del tiempo, si encuentro alguna curiosidad más abro un hilo nuevo).

Ah, no, primorial de 4 no es divisible entre 4, por ejemplo, no sé que había visto yo

Buenas noches.

He creado otro hilo para continuar un poco este tema. Te respondo ahí, y seguiré más tarde comentando cosas:

https://foro.rinconmatematico.com/index.php?topic=126340.msg516998;topicseen#msg516998
Nunca nadie comprende nada exactamente de la misma manera

29 Marzo, 2024, 01:12 pm
Respuesta #103

Carlos Ivorra

  • Administrador
  • Mensajes: 11,114
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
Me estabas pidiendo un ejemplo de en qué clase de teorías físicas estoy pensando que puedan ofrecer alguna dificultad a que se modelice un universo globalmente, a eso se aplica el ejemplo. \( \mathbb R^4 \) exótico no es sólo una variedad topológica,es diferenciable pero no difeomorfa a \( \mathbb R^4 \) estandar.

Si tomamos esta última como la que se utiliza para modelar un espaciotiempo globalmente, creo que la exótica es un ejemplo que solo es localmente difeomorfa a \( \mathbb R^4 \). Si me dices que no quieres o no puedes imaginarte tal teoría física no compatible con \( \mathbb R^4 \) estandar yo lo entiendo, pero es un ejemplo concreto.

¿Pero por qué llamas a eso una teoría no compatible con el  \( \mathbb R^4 \) estándar? ¿Qué tendría de peculiar esa teoría? ¿Por qué dices que no permite modelar un espacio-tiempo globalmente? Lo tienes modelado con la propia variedad que indicas, con la variedad \( \mathbb R^4 \) exótica que estés considerando. Esa variedad representa todo el espacio-tiempo.

El modelo más sencillo de universo con una singularidad inicial corresponde a una esfera \( S^4 \), ahí también tienes una variedad diferencial en la que cada punto tiene un entorno difeomorfo al \( \mathbb R^4 \) estándar, sin que todo el espacio-tiempo sea difeomorfo al \( \mathbb R^4 \) estándar, y eso no tiene nada de particular. Ahí tienes el universo entero modelizado en \( S^4 \).

Si quieres una teoría en la que el universo entero sea homeomorfo a \( \mathbb R^4 \), pues bien, entonces no hay big bang, pero bien. Para que sirva como modelo físico relativista sólo necesitarás que sea una variedad diferencial dotada de una métrica riemanniana y poco más. ¿Que es un \( \mathbb R^4 \) exótico? Pues bien, ¿cuál es el problema?

¿A qué llamas "física no compatible con el \( \mathbb R^4 \) estándar? Si te refieres a que el espacio-tiempo no sea homeomorfo a  \( \mathbb R^4 \) eso ya le pasa a \( S^4 \) y a cualquier espacio-tiempo compacto que consideres.

Los \( \mathbb R^4 \) son peculiares desde el punto de vista topológico porque son rarezas que sólo se dan en cuatro dimensiones, pero desde un punto de vista físico no les veo nada de particular. ¿Qué diferencia ves, desde un punto de vista físico entre una variedad de Riemann difeomorfa a un \( \mathbb R^4 \) exótico y otra compacta, por ejemplo? Obviamente hay diferencias, como que una es compacta y la otra no, pero me refiero a qué diferencia ves que vuelva a una problemática en algún sentido y a la otra no.

Es verdad que la cosmología actual se enfrenta a preguntas como la que citas. Pero en cualquier caso la cosmologia actual se modela en\( \mathbb R^4 \) standar y en mi ejemplo uso otro espacio no difeomorfo a ese o sea que no me refería a eso.

No entiendo qué quieres decir cuando dices que la cosmología actual se modela en \( \mathbb R^4 \) estándar. La cosmología actual se modela en variedades riemannianas y, sin saber mucho del tema, diría que \( \mathbb R^4 \) es una de las menos plausibles, entre otras cosas porque en un espacio-tiempo homeomorfo a \( \mathbb R^4 \) no hay big bang.

El uso de \( \mathbb R^4 \) en el contexto de las variedades riemannianas es local, es decir, que cada punto del espacio-tiempo tendrá un entorno difeomorfo a un abierto de \( \mathbb R^4 \) que puedes tomar arbitrariamente pequeño, y los abiertos suficientemente pequeños de \( \mathbb R^4 \) estándar son difeomorfos a los abiertos suficientemente pequeños de cualquier  \( \mathbb R^4 \)  exótico, por lo que daría igual cambiar un  \( \mathbb R^4 \) por otro en ese contexto, así que sigo sin ver sentido a nada de lo que dices.

29 Marzo, 2024, 01:20 pm
Respuesta #104

RDC

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 454
  • País: es
  • Karma: +0/-0
  • Nunca te creas a quién te hable del futuro
    • Privatum. Blog de ideas
Hola

No he leído con detalle las últimas respuestas, pero lanzo lo siguiente:

Si efectivamente Carlos tiene razón y la computadora es más inteligente que el ser humano, que me explique por qué con tan solo cortar el suministro eléctrico, la computadora "muere" (o quitarle alguno de sus componentes). ¿Acaso sería homicidio?

¿O es que para que algo sea considerado "inteligente" no tiene por qué aguantarse que el ser humano (insisto, su creador) no pueda desconectarlo de la red eléctrica, sacarle las pilas (quitarle alguno de sus componentes), etcétera y esto no sea motivo suficiente para decir: la máquina es tan pero tan torpe que con sólo desenchufarla demuestro que nunca será más inteligente que su creador?

Saludos

En general estoy bastante de acuerdo con lo que dice Carlos, aunque no es cierto que él defienda unitaleralmente eso. He entendido que su postura es la de: de momento todas las opciones están abiertas y ya veremos qué puede y no puede hacer la AI con el tiempo, pero que negar rotundamente que lleguen a desarrollar inteligencia es muy precipitado (si no que me corrija él mismo).

Creo que debatir sobre la inteligencia, de por sí, es desviarnos un poco del foco. Para mi la pregunta no es si las AI son o podrán ser inteligentes, tener consciencia, etc, sino lo que hacen y podrán llegar hacer. Solemos idealizar y sobrevalorar nuestra inteligencia porque somos así de engreídos, y nos pensamos que eso nos hace especiales, pero viendo lo que ya a día de hoy empiezan hacer las máquinas hay que empezar a comprender lo que se nos viene encima. Especialmente en todo ámbito que, hoy en día, esté soportado por un entorno computabilizable.

En cualqueir caso, creo que el hecho de que las AI alucinen y tengan paraidolias es, precisamente, un signo de inteligencia, creatividad y un precursor de la consciencia.

-------------------------------------------------------------------

Por otro lado, sobre el tiempo ordenado, la relatividad general, etc.

Ya sabemos que la relatividad general está mal. No sabemos hasta qué punto está mal, pero está claro que falla. Por eso se buscan nuevos modelos. Mientras tanto es lo que mejor que tenemos para modelar un poco lo que observamos. Y ciertamente, comparado con lo que teníamos en el s.XIX la relatividad implica un salto muy destacado.

En este sentido en inglaterra se ha propuesto un modelo para sintetizar la relatividad con la cuántica. Precisamente la propuesta es desordenar el continuo espacio-tiempo, es decir, dotar el continuo espacio-tiempo, en escalas muy pequeñas, de aleatoriedad.

https://www.elconfidencial.com/tecnologia/novaceno/2023-12-04/einstein-relatividad-mecanica-cuantica_3787074/

Por otro lado, a nivel puramente matemático, asumimos por los axiomas ZFC, que la recta de los reales es ordenada.  Me he encontrado un artículo de un tio que lo interpreta de otro modo y lo pone en duda. Más tarde lo compartiré a ver qué os parece.

Un saludo

 
Nunca nadie comprende nada exactamente de la misma manera

29 Marzo, 2024, 01:24 pm
Respuesta #105

Carlos Ivorra

  • Administrador
  • Mensajes: 11,114
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
    • Página web personal
Si efectivamente Carlos tiene razón y la computadora es más inteligente que el ser humano, que me explique por qué con tan solo cortar el suministro eléctrico, la computadora "muere" (o quitarle alguno de sus componentes). ¿Acaso sería homicidio?

Ante todo, ¿de qué máquina hablas? Porque actualmente no existe ninguna máquina inteligente en el pleno sentido de la palabra. Lo que planteo es que, a priori, no hay ninguna razón por la que pueda afirmarse que es imposible crear una máquina que sea consciente como lo es un ser humano y que tenga un nivel de inteligencia que podrá ser inferior o muy superior al de un ser humano. ¿Por qué no?

No entiendo la relación entre la inteligencia de alguien y la facilidad de matarlo. Si a ti te quitan el hígado te mueres. ¿Eso te hace menos inteligente?

Ciertamente, si se pudiera construir una máquina dotada no sólo de inteligencia, sino también de voluntad propia y de sentimientos y en particular con deseo de conservarse, eso plantearía problemas éticos, sin duda. Pero actualmente no existe nada parecido y esos problemas no existen.

¿O es que para que algo sea considerado "inteligente" no tiene por qué aguantarse que el ser humano (insisto, su creador) no pueda desconectarlo de la red eléctrica, sacarle las pilas (quitarle alguno de sus componentes), etcétera y esto no sea motivo suficiente para decir: la máquina es tan pero tan torpe que con sólo desenchufarla demuestro que nunca será más inteligente que su creador?

No entiendo nada. ¿La inteligencia de Albert Einstein depende de lo fácil que resultara matarlo? ¿Un nazi podía decir que los judíos no eran inteligentes porque les decían que iban a ducharlos y los gaseaban?

Imagina un robot autónomo, como C3PO en la Guerra de las Galaxias, que necesite enchufarse a una batería igual que tú necesitas comer, que tenga más o menos capacidad para resistir un ataque violento igual que tu capacidad para ello tendrá también sus limitaciones. ¿Qué tiene que ver eso con si es inteligente o no o con si es consciente o no? Si A tiene poder de vida o muerte sobre B eso significa que A es más inteligente que B o sólo que A es más bruto que B?

Lee, por favor mi respuesta #23, concretamente el ejemplo en el que describo quién es J. ¿Quién dices tú que es el creador de J? Nadie sabe cómo funciona J igual que nadie sabe cómo funcionas tú, cualquiera puede matar a J igual que cualquiera puede matarte a ti. ¿Qué diferencia esencial ves entre J y tú? Obviamente tú existes y J no existe, pero ¿qué te hace estar tan seguro de que J no puede existir?

29 Marzo, 2024, 01:54 pm
Respuesta #106

feriva

  • $$\Large \color{#a53f54}\pi\,\pi\,\pi\,\pi\,\pi\,\pi\,\pi$$
  • Mensajes: 11,326
  • País: es
  • Karma: +1/-0
  • Sexo: Masculino


en efecto, no podemos entender el funcionamiento del cerebro humano, porque para ello nos haría falta un nuevo Hitler

No con otro Hitler; yo creo que para saber eso falta mucho, quizá nos extingamos antes de saberlo

https://www.lavanguardia.com/vida/20160628/402820678482/cerebro-genio-matematico-excepcional-sin-cerebro.html

https://www.bbc.com/mundo/noticias-58330004

29 Marzo, 2024, 02:25 pm
Respuesta #107

Restituto

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 479
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Ah, pues mira. No sabía yo que la relatividad se modela en \( \mathbb{R^4} \) exótico. Entonces todo arreglado. Ya está el hilo resuelto. Dile eso a un físico que le darás una sorpresa. A propósito ¿cómo se complejifica un \( \mathbb{R^4} \) exótico?

29 Marzo, 2024, 02:32 pm
Respuesta #108

Restituto

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 479
  • País: es
  • Karma: +0/-0
  • Sexo: Masculino
Esto me parece una exageración injusta y una falsedad. Hemos hablado de ejemplos concretos como la causalidad clásica ejemplificando un orden total y la relatividad de Einstein como un orden parcial(aunque yo al principio intentara separar un subconjunto como orden total seguía siendo algo concreto) . Acabo de ver en la entrada de Wikipedia en inglés de "partial ordering" en el apartado de ejemplos que figura la relatividad como un ejemplo de orden parcial.

Pero ese ejemplo no lo pusiste tú, lo puse yo, y no como ejemplo, sino como contraejemplo. Tú hablas —si es que entiendo algo— de posibles dificultades a la hora de formalizar universos en los que no todos los sucesos estén ordenados en el tiempo. Entonces yo te puse el ejemplo del espacio de Minkowski para mostrarte que ahí tienes un caso en concreto en el que no hay ningún problema en formalizarlo y tú me decías que no era un contraejemplo, que podíamos restringirnos a un orden total. Pero si ahora admites que no hay orden total que valga, entonces estás admitiendo que, en efecto NO es un ejemplo de lo que estás planteando, y seguimos sin tener ninguno.

He puesto ejemplos

¿Cuál? El espacio de Minkowski —aparte de que lo he puesto yo— NO es un ejemplo de lo que planteas. ¿O sí? Si lo es, plantea el problema en este caso en concreto: tenemos el espacio de Minkowski. Bien. ¿Qué es lo que quieres plantear sobre él? ¿En qué se concreta lo que quieres plantear en este hilo sobre él?

A ver, he hablado de exageración e incluso falsedad porque al margen de que los ejemplos luego hayan sido válidos o no(estoy aquí para aprender y me puedo equivocar y luego corregir) porque tú has afirmado que no se había hablado de ejemplos en todo el hilo, y sí se ha hablado.Es verdad que tu introdujiste el espacio de minkowski como orden parcial para corregirme el que yo lo tratara como total, pero el caso es que de cosas concretas se ha hablado y se han puesto ejemplos. Que tú los consideres válidos o no es otra cosa pero se han puesto, aunque no fueran finalmente ejemplos de lo que yo planteo(que por otra parte cuando empezé el hilo no tenía una idea acabada, precisamente pensé ingenuamente que podía construir algo más concreto en el intercambio de ideas. Si esto no está bien visto aquí o choca con las normas pues yo obedezco.)
Eso sí, estoy empezando a notar en tus respuestas un tono de troleo(te lo digo cordialmente) parecido al que usas a veces con ancape o con DCM, y honestamente no creo ser merecedor de tal honor. Un tono que también detecto en tú ultima contestación y creo que te está haciendo caer en afirmaciones ridículas.

29 Marzo, 2024, 02:40 pm
Respuesta #109

RDC

  • $$\Large \color{#5e8d56}\pi\,\pi\,\pi$$
  • Mensajes: 454
  • País: es
  • Karma: +0/-0
  • Nunca te creas a quién te hable del futuro
    • Privatum. Blog de ideas
No estoy de acuerdo en afirmaciones que comparan la inteligencia de humanos con máquinas, ni con otros seres vivos tampoco.
El concepto de inteligencia no está bien definido.

Cierto, pero el hecho de que no esté bien definido no significa que no exista. Es obvio que hay cosas que puede hacer un ser humano que no puede hacer un mono y que la diferencia consiste precisamente en eso impreciso llamado inteligencia. Y, dentro de los seres humanos, también se da el caso de que hay unos a los que les explicas algo y lo entienden en profundidad, y otros a los que no hay manera de conseguir que lo entiendan, y a esa diferencia también se le llama inteligencia.

Imagina que coges a 100 estudiantes y les pones 100 problemas a cada uno de una materia que han estudiado. Problemas no mecánicos, sino que requieren eso indefinido llamado inteligencia, que ahí está, quieras que no. Si resulta que uno de ellos los resuelve todos y los demás no pasan de resolver 60, puedes decir objetivamente que el primero es más inteligente que el resto, al menos en una faceta en concreto de la inteligencia, la relacionada con resolver problemas de matemáticas de cierto tipo.

Es verdad que alguien puede ser muy inteligente y no ser capaz de resolver un tipo de problemas porque carece de la formación y el entrenamiento adecuado, pero yo me pongo en el caso de 100 personas que han recibido esencialmente la misma formación y entrenamiento. Si a pesar de ello surgen diferencias de rendimiento, a esas diferencias se las llama (o las llamo yo aquí) inteligencia.

Ahora imagina que alguien dice:

Los negros son mucho menos inteligentes que los blancos. Si pones 100 problemas de matemáticas a 100 alumnos blancos y a 100 negros que hayan recibido la misma formación, con total seguridad los blancos obtendrán resultados mucho mejores que los negros. Más aún, el peor de los blancos lo hará mejor que el mejor de los negros.

Eso, en principio, se llama racismo. El caso en el que sería más disculpable que alguien creyera eso sería que lo afirmara basándose en una experiencia de trato con alumnos blancos y negros, que en realidad no partieran de una igualdad de formación, sino que la formación de los negros hubiera sido mucho peor que la de los blancos por razones socioeconómicas (incluso por el propio racismo de la sociedad). En tal caso, el que afirma tal cosa tendría un fundamento empírico, pero aun así se equivocaría al atribuir la diferencia a la raza y no a la formación previa condicionada por la raza.

Para dilucidar si es cierto o no que los negros son menos inteligentes que los blancos habría que analizar la capacidad de negros y blancos educados en condiciones realmente equiparables. Ahora imagina que entrevistas a un matemático y quieres formarte una idea de su capacidad intelectual. Pongamos que lo entrevistas por teléfono (para no verlo), pero que te responde sin ninguna ayuda externa.

Sería razonable que le preguntaras: ¿cuál es tu especialidad? Porque si te dice que su especialidad es la topología y le haces una pregunta muy técnica de estadística, puede que no te sepa responder por falta de formación en esa rama. Y una vez tengas concretada el área matemática que se supone que domina, los libros que ha estudiado, etc., podrás plantearle problemas que una persona inteligente podría resolver con esa base, y en función de cuántos sepa resolver te podrás formar una idea de su inteligencia.

Ahora la pregunta es: ¿sería pertinente que, a la hora de evaluar lo inteligente que es, le preguntaras si es negro? ¿Puede influir en algo tu estimación de la inteligencia de una persona que sepas si es blanca o negra? Creo que estaremos de acuerdo en que evidentemente no.

Pues el paso siguiente es: ¿necesitas saber si la persona en cuestión es un ser vivo o una máquina para estimar su inteligencia? ¿Puedes asegurar que una máquina —OJO, no una máquina de las que conocemos hoy en día, sino una posible máquina que exista en el futuro— no pueda presentarse ante ti a una entrevista y que te resuelva problemas complejos sobre los que no tiene información previa de modo que concluyas que es un ser muy inteligente?

Más precisamente: ante una serie de respuestas, ¿dirías que si son de un humano es que es muy inteligente, pero que si son de una máquina entonces son un fraude? ¿Cualquier estimación que hagas de la inteligencia de un ser con el que puedes dialogar queda invalidada desde el momento en que descubras que es una máquina?

La inteligencia, sea lo que sea, es algo que uno tiene o no tiene, no algo que dependa de quién te ha creado. ¿Si has sido creado por un proceso biológico natural puedes ser inteligente, pero si te ha creado un humano ya tienes el estigma indeleble de tonto que parece listo? Eso es una especie de aristocracia: si eres hijo de un noble, vales mucho, pero si eres hijo de un plebeyo, da igual lo que hagas, que no vales nada.

Decía don Quijote que cada cual es hijo de sus obras, es decir, que a cada cual hay que juzgarlo por lo que hace, no por la nobleza de sus antepasados. Igualmente, si estás ante un ser con el que puedes conversar, tendrás que juzgar si es inteligente o no por lo que diga, no por quién lo ha hecho o de qué está hecho.

Por ejemplo, si conversas con ChatGPT no tardas en darte cuenta que es inteligente en el sentido etimológico de que es capaz de entender el lenguaje y expresarse con fluidez, pero no es inteligente en absoluto en el sentido de ser eficiente relacionando información que le sea nueva y sobre la que no pueda consultar opiniones previas. Vamos, que NO es inteligente en absoluto igual que un negro analfabeto no será muy inteligente (y un blanco tampoco, pero por analfabeto, no por negro o blanco). ¿Pero puedes afirmar a priori que es imposible construir una máquina que se comporte como un ser inteligente, hablando de temas sobre los que no tiene información previa (como problemas que no ha resuelto, etc.) o que, si fuera posible, eso no sería auténtica inteligencia equiparable a la humana?

Esa es la cuestión.

Así que por eso me chirrían los dichos de Carlos sobre la inteligencia de las máquinas y los algoritmos.
Un algoritmo es algo expresable mediante el modelo de una máquina de Turing.
Pero no se sabe si el funcionamiento de la mente humana se puede expresar de esa forma.

Un ser inteligente no es (sólo) un algoritmo, porque la inteligencia no depende únicamente del proceso con el que se relacionan los datos, sino también con los datos que se reciben. Un mismo algoritmo programado en un ordenador para permitirle interactuar con otras personas y ordenadores podría dar lugar a un ser inteligente o a un tonto en función de la formación que reciba y de entradas aleatorias. Si acaba siendo inteligente, lo será por el algoritmo de partida y por la forma en que ha ido encajando los datos que ha recibido, donde por datos incluyo el que en un momento dado haya visto o no pasar una mosca por delante. Además, un algoritmo que permita a un ordenador aprender instrucciones es en realidad un algoritmo de algoritmos, porque el ordenador puede aprender a ejecutar nuevos algoritmos que no estaban presentes en su programa inicial. Por ello, reducir la inteligencia a un algoritmo es simplista.

La mente humana es la actividad del cerebro humano, y un cerebro no tiene nada de mágico o sobrenatural, es una máquina que procesa unos datos y obtiene respuestas. El procesado es muy complejo. Incluso no podríamos descartar que en él intervinieran fenómenos cuánticos (no me parece plausible, pero en principio es posible), pero da igual lo que sea: es un objeto físico que sigue las leyes de la física. La cuestión es que existen las mismas posibilidades de vincular el comportamiento inteligente de los seres humanos al hecho de que su cerebro está hecho de neuronas y no de circuitos impresos como de vincularlo al color blanco de su piel o a que sus neuronas tengan cromosoma Y.

¿Qué característica del cerebro humano no va a poder reproducir nunca un ordenador? Y ojo que no se trata de construir una imitación de un cerebro humano. Los aviones vuelan como los pájaros, pero no lo hacen agitando las alas. El vuelo de un avión no imita el vuelo de un pájaro, sino que consigue por otra vía el mismo efecto. Igualmente, no se trata de entender cómo funciona el cerebro humano con todo detalle (eso es imposible sin experimentar cruelmente con seres humanos), sino de lograr el mismo efecto por otros medios. ¿Quién nos dice que eso es imposible? ¿Es tan imposible como se creía imposible que un objeto más pesado que el aire pudiera volar?

Tampoco la inteligencia artificial es un algoritmo, porque las decisiones que toma no son deterministas, ya que aparece el factor aleatorio en el entrenamiento de de ellas.

Efectivamente, una máquina inteligente tiene que ser capaz de realizar asociaciones de ideas con una componente aleatoria. No sirve de nada tener mucha información en la memoria si no se sabe a cuál acceder en cada momento, por lo que tiene que haber mecanismos que relacionen contenidos concretos de memoria con los contenidos de la "conciencia" en un instante dado, para que si, por ejemplo, la máquina en un instante dado está pensando en "mariposas", salte un mecanismo que le recuerde que el otro día vio unos pasteles en forma de mariposa, lo cual luego tendrá que juzgarse si es relevante o si se puede olvidar. Buena parte de la inteligencia humana se basa en generar cientos de ideas tontas que son filtradas, parte inconscientemente, parte conscientemente, hasta barajar unas pocas relevantes (como cuando un jugador de ajedrez descarta en décimas de segundo jugadas tontas y se para a analizar unas pocas) y en ese proceso son esenciales los elementos aleatorios. Lo que hoy llamamos IA podría ser una pieza esencial para esta función de crear asociaciones entre "elementos en la conciencia" y "elementos en la memoria", que a su vez se traduzcan en un pensamiento creativo, pero son sólo una parte que no es en sí misma inteligencia propiamente dicha.

El software de nuestros días de inteligencia artificial se enfoca en reconocimiento del lenguaje, cosa que algunos llaman "un loro estadístico".

Cierto. Pero no es descartable que un montón de loros estadísticos no sean una pieza esencial dentro de una inteligencia artificial en sentido pleno, por lo que decía antes, porque la creatividad tiene una fuerte componente de encontrar asociaciones, aunque sean tontas, entre lo que se piensa y lo que se sabe, para reunir material relevante sobre el que operar.

Eso no alcanza para decir que la inteligencia artificial "entiende' el lenguaje,
o que el software da muestras de entendimiento,
pues para empezar, no está bien definido lo que significa "entender algo".

Esto ya es una cuestión menor, pero yo diría que es correcto decir que entiende el lenguaje, dejando claro que es posible hablar de entendimiento sin (auto)conciencia. ChatGPT entiende, pero no sabe que entiende. En cualquier caso, creo que es más una cuestión de lenguaje. Estamos de acuerdo en qué es lo que hace, tanto si lo llamamos "entender" como si no.

Por otra parte, tanto las computadoras en general, como los programas de inteligencia artificial, tienen un diseño que podemos entender (hasta cierto punto),
pero el funcionamiento del cerebro de los seres vivos no se puede disecar de la misma manera.

Dos cosas: en efecto, no podemos entender el funcionamiento del cerebro humano, porque para ello nos haría falta un nuevo Hitler (o un nuevo Imperio Japonés, para ser justos, que unos se llevan la fama...), pero eso no invalida el problema de si es posible conseguir los mismos resultados que consigue el cerebro humano de alguna otra forma (o la misma, aunque eso no lo sepamos). Es como si ves una aplicación que hace algo interesante, pero no conoces su código. Nada te impide plantearte diseñar otra que haga lo mismo, o parecido, sin que importe si tu código se parecerá en mucho o en nada al de la aplicación que quieres imitar. Sería absurdo que lo lograras y te dijeran que tu aplicación no vale, porque hace lo mismo, pero no es de la marca adecuada.

Pues lo mismo. Si construyes un ordenador que se comporta como un cerebro humano, ¿qué importa si no está hecho de neuronas?

La segunda cosa es que no es necesariamente cierto que una máquina pensante tenga un diseño que podamos entender. Para eso me remito al ejemplo que puse en la respuesta #23. Ahí planteo el caso de un informático que crea unos robots inteligentes y que se va de vacaciones mientras sus robots generan varias generaciones de robots inteligentes, de modo que en el proceso son cruciales hechos casuales sin los cuales los algoritmos no habrían llegado a nada. El resultado final es una máquina J uyo programa no es conocido por el creador inicial H, y, si los robots destruyen toda la información usada para diseñar J, resulta que J está exactamente en las mismas condiciones que un cerebro humano. Nadie sabe cómo funciona, ni siquiera J tiene por qué saberlo. Si abrimos su "cerebro", veremos una ristra enorme de código ensamblador sin ninguna pista sobre cómo desentrañarlo, y reproducir el algoritmo inicial tampoco llevará a nada, porque sería necesaria la conjunción de inputs causales que han terminado dando lugar al diseño de J.

Ahí tienes un ser J del que no tienes más información sobre su capacidad que la que puedas obtener hablando con él. No tienes forma de saber cómo opera, y la cuestión es si puedes decirle: tú no eres inteligente, ni tienes conciencia, simplemente porque no tienes ADN.

Es como los sabios que se negaban a mirar por el telescopio de Galileo porque Aristóteles no había hablado de satélites de Júpiter. Da igual lo que veamos, que va a ser que no.

La única manera de decir que un software tiene "inteligencia" es que al interactuar con él nos engaña haciéndonos creer que es humano.

Pues igualmente puedo yo decir que los negros no son personas, no tienen conciencia ni entienden nada, pero al hablar con ellos nos engañan y nos hacen creer que son humanos. Más aún, lo mismo podría decir yo de ti (y tú de mí, claro). Lo que estás diciendo es que da igual lo que veas, que al final lo que cuenta para decidir es quién o qué eres. Si tú juzgas que un negro es persona porque tiene ADN humano y a partir de ahí ya puedes aceptar que pueda ser inteligente, pero un ordenador no, porque, aunque haga lo mismo que un negro, el negro sí que será inteligente y el ordenador será un estafador, tu criterio no se diferencia técnicamente del de un racista que simplemente pone la frontera que tu pones en tener o no tener ADN, en tener o no tener ADN blanco. ¿Por qué la frontera está bien donde tú la pones y no donde la pone el racista?

Imagina que aterriza un platillo volante delante de tu casa, y sale de él un ser cubierto por una armadura metálica, que te explica que viene del planeta Melmak y que lleva esa armadura para protegerse de la letal atmósfera terrestre, pues el oxígeno es venenoso. Pongamos que sabes de algún modo que es un ser autónomo, es decir, que no está teledirigido de ningún modo. Hablas con él y te encuentras con que sabe mucha física, muchas matemáticas, entiende lo que le dices, resuelve los problemas que le planteas, incluso aunque al principio no sepa de que van y te haga muchas preguntas...  ¿necesitarás preguntarle de qué está hecho para decicdr si es inteligente? ¿Tendrás que colarte en su platillo volante para ver si come ratas melmakianas o si se enchufa a una batería?

Pero de otro modo, no sabríamos cómo reconocer que algo tiene inteligencia,
porque la inteligencia no está bien definida como concepto.

Eso es una excusa muy mala. En efecto, la inteligencia no está bien definida, pero se puede decir objetivamente que Albert Einstein era muy inteligente y que un terraplanista es bastante tonto. Y no acabo de entender lo que quieres decir con esto:

Si tienes que juzgar si una persona es más o menos inteligente, ¿estás diciendo que es imposible? (No digo hacer un juicio categórico y definitivo, sino estimar si es más o menos inteligente en una faceta concreta del conocimiento con la que se supone que está bien familiarizado.) ¿Tú no puedes hacerte una idea aproximnada y orientativa de cuáles de tus alumnos son más o menos inteligentes sólo porque la inteligencia no está bien definida (que no lo está)?

En cualquier caso, la cuestión es: si tienes delante a 10 humanos y 10 robots y hablas con ellos de lo que quieras, ¿no te servirán sus reacciones para determinar si hay alguna diferencia significativa entre unos y otros o si se comportan igual? ¿Puedes decir a priorio que los robots parecen lo que no son, mientras que los humanos son lo que parecen? Me extraña en ti tal rotundidad.

No creo que merezca la pena responder a Manooooh, porque lo que podría decirle es un subconjunto de lo que he dicho aquí, pero, Manooooh, si crees que algo que has dicho ha quedado sin responder, me lo recuerdas.

Largo e interesante Carlos...

En principio asociamos la inteligencia a la capacidad de generar y dominar instrumentos ya físicos ya simbólicos, como el lenguaje, las armas y trampas, las estrategias, etc. Es decir, llamamos inteligencia a la capacidad de tercerizar nuestras capacidades físicas más básicas hacia instrumentos para lograr deseos. Por ejemplo, ¿por qué usar la fuerza bruta y ciega para intentar apropiarnos de algo que nos gusta, pero que posee otro, si podemos usar el lenguaje para persuadirlo para que él mismo desee, o al menos acepte, entregárnoslo por las milongas inventadas que le contamos?

Que la inteligencia tenga algo de innefable, de mental y oculto, no deja de ser una suposición. Es como suponer que cuando un cuerpo cae en caída libre hay una hipotética fuerza imaginaria que lo tira para abajo simplemente porqué atribuímos la noción de fuerza a una aceleración y nos creemos, ingenuamente, nuestras propias invenciones. Con la intel·ligencia hacemos lo mismo: a ciertas acciones, conductas, etc le atribuímos una supuesta e imaginaria facultad llamada inteligencia como causa para poder hablar mejor de eso. Pero luego nos lo creemos.

Por eso decía, que lo importante no es si la AI es o no es inteligente, porque así dicho no tiene sentido. Lo importante es lo que es capaz de hacer. Si empieza a realizar tareas típicamente humanas de forma más rápida, eficaz y barata que lo que hacemos los humanos, ya no en general sino incluso los mejores entre nosotros, entonces ahí se aplicará la AI aunque luego muchos vengan a chistar -Pero yo lo hago usando la consciencia y la inteligencia, que no tienen estas máquinas-.

Ante esta "rabieta" se nos dará una palmadita en la espalda y se nos dirá: -Muy bien, quedaros en casa pensando en vuestras cosas inteligentes, que aquí tiramos de AI. 

De hecho, es algo que no se habla mucho pero el 90% de los trabajos, incluso que requieren de un alto grado de formación técnica, son automatizables de algún modo porque son de algún modo rutinarios (consisten en saber usar instrumentos ya físicos como simbólicos). En eso las AI entrarán de lleno a lo largo de los próximos 10 años.

Quizás lo que tarden aún un poco es en generar instrumentos propios para resolver sus cuestiones d eforma más rápida y eficiente, aunque ya hay indicio de que lo intentan.

En fin, que las AI bajarán nuestro viejo orgullo racionalista e intelectualsita al suelo de un plumazo. Y supongo que eso va a doler, y da un poco de miedo porque del mismo modo que los humanos hemos sabido como dominar a la resta de animales a través de trampas, estratégias, etc, si las máquinas terminan dominando este ámbito mejor que nosotros estamos vendidos. Nos van a torear a gusto.

Un saludo
 









Nunca nadie comprende nada exactamente de la misma manera