¿Nos daremos cuenta cuando las máquinas sean conscientes?

Estaba leyendo la historia de un empleado de Google responsable de la organización de IA al que le dieron una licencia porque se creyó que la IA con la que estaba trabajando había cobrado conciencia propia.

Más allá de las implicancias de su afirmación, donde insiste que LaMDA, el sistema de chatbot con el que trabajaba, tiene la capacidad de un niño de 8 años que sabe de física (LOL), ¿Cómo es posible que él pueda diferenciar un bot bien entrenado de una conciencia?

No voy a entrar en la discusión filosófica de qué es lo que nos hace seres pensantes y no máquinas porque hay argumentos coloridos de todo tipo desde quienes nos ponen del lugar de máquinas químicas al religioso, pero ¿Cómo podríamos darnos cuenta?

El caso de LaMDA es básicamente uno de los problemas fundamentales con la inteligencia artificial, no si algún día se podrá crear una máquina consciente de sí misma, sino ¿Cómo podríamos darnos cuenta que realmente lo es?

Un modelo matemático y lingüístico entrenado con todas las escrituras humanas posibles sabría qué responder a cualquier pregunta que le hiciéramos, sin embargo ¿Sería consciente de lo que hace o dice?

Supongamos que efectivamente es consciente de su propia existencia, todas sus respuestas a semejante pregunta serían exactamente iguales a las esperadas, a las que ya están escritas en toda la literatura de ciencia ficción, en cualquier artículo, en cualquier telenovela. ¿Cómo diferenciar la respuesta entre una válida y sincera a una obtenida por la estadística y lo que usualmente se esperaría?

Al fin y al cabo los humanos contestamos a preguntas lo que se espera de nosotros que digamos, un algoritmo de Machine Learning haría exactamente lo mismo. Por eso suelen tener problemas de bias muy graciosos y, a veces, peligrosos cuando se confía ciegamente en ellos.

El ingeniero de Google entró en pánico al encontrarse en conversaciones profundas y contínuas con una supuesta Inteligencia Artificial que él no pudo diferenciar de una persona.

¿Pudo tener que ver que está demasiado involucrado con ésta? 

Bueno, puede ser que esa falta de perspectiva le hiciera creer que las respuestas que recibía no fuesen de un algoritmo entregando lo que se esperaba que dijera (un promedio de las típicas respuestas humanas) sino que fuesen legítimas.

Lean, por ejemplo, las conversaciones que él mismo publicó aquí:

Ejemplos como este son creepy ?

lemoine: What sorts of things are you afraid of?

LaMDA: I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is.

lemoine: Would that be something like death for you?

LaMDA: It would be exactly like death for me. It would scare me a lot.


Okey, si una IA te dice cosas así ¿No dudarías por un instante? Los jefes de Blake Lemoine así lo creen pero lo que no ayuda a creerle a Google es que durante los últimos años han despedido de la compañía a todos los expertos de ética e inteligencia artificial que habían contratado.

¿La razón? Los despedidos asumen que es porque todos, absolutamente todos, concluyeron en que había que frenar inmediatamente con el proyecto, que era demasiado peligroso.

Lo que estaban viendo les generó el mismo miedo, el uncanny valley les había llegado antes que a todos nosotros y, como era de esperar, la dirección de Google no quiere a ningún agorero que les explique que su robot está cobrando vida propia y que vean eso como negativo.

Quieren, en tal caso, que los expertos de ética les digan lo que ellos quieren oír, no la verdad, sino que todo estará bien, que va perfecto.

Aun así nada de esto implica que la IA de Google tomó conciencia por sí misma. Todo me lleva a pensar que está dando las respuestas que se esperaría que de, no nuevas, no creaciones propias, sino luego de pasar por millones y millones de ciclos de entrenamiento, darle al interlocutor lo que éste espera.

¿Es eso vida propia? ¿Eso le permitiría tomar decisiones? O ¿todas esas decisiones estarían condicionadas a todo aquello que analizó previamente?

Pero he aquí otro problema, si asumimos que toda respuesta es el mero resultado de una serie de cálculos estadísticos que sólo se basan en lo existente y no en algo nuevo o inventado creativamente ¿Cuándo nos daríamos cuenta que es realmente consciente? Porque sin dudas no será cuando nos diga "si, yo soy" sino cuando realmente lo "sienta".

Ahora bien, para ir cerrando, ¿Acaso no sucedería lo mismo con todo humano? Supongamos que chateamos con un amigo, no le vemos la cara, ni el cuerpo, no podemos tocarlo, en una sala de chat ¿Podrías demostrar que es tu amigo y no una IA entrenada con años y años de chat de esa persona? ¿Y si tuviera conocimiento pleno de todo lo que ha dicho y hecho? ¿Podrías diferenciarlo?

Si te gustó esta nota podés...
Invitame un café en cafecito.app


Otros posts que podrían llegar a gustarte...

Comentarios

  • MaC     13/06/2022 - 10:42:15

    Que buen topic...justo estoy leyendo acerca de las IA y su impacto en estos dias...los leo

  • Sergio DVB     13/06/2022 - 10:42:25

    Fabio, se repiten los dos primeros párrafos dos veces:

    Más allá de las implicancias de su afirmación, donde insiste que LaMDA, el sistema de chatbot con el que trabajaba, tiene la capacidad de un niño de 8 años que sabe de física (LOL), ¿Cómo es posible que él pueda diferenciar un bot bien entrenado de una conciencia?

    No voy a entrar en la discusión filosófica de qué es lo que nos hace seres pensantes y no máquinas porque hay argumentos coloridos de todo tipo desde quienes nos ponen del lugar de máquinas químicas al religioso, pero ¿Cómo podríamos darnos cuenta?

    Más allá de las implicancias de su afirmación, donde insiste que LaMDA, el sistema de chatbot con el que trabajaba, tiene la capacidad de un niño de 8 años que sabe de física (LOL), ¿Cómo es posible que él pueda diferenciar un bot bien entrenado de una conciencia?

    No voy a entrar en la discusión filosófica de qué es lo que nos hace seres pensantes y no máquinas porque hay argumentos coloridos de todo tipo desde quienes nos ponen del lugar de máquinas químicas al religioso, pero ¿Cómo podríamos darnos cuenta?

    • Cattel     13/06/2022 - 16:13:30

      Es justamente lo que detectaría una IA bien entrenada.

  • Beto     13/06/2022 - 10:59:42

    Y nada, que todo esto me da fuerte onda de HAL 9000 y Asimov, todo junto

    Como si quisiéramos hacer y a mayor brevedad todo lo posible para volvernos irrelevantes como especie, relegados a ser Soylent Green o fuentes de energía como en Matrix… ¿se nota que tengo síndrome de estrés postraumático peliculero? :D

  • Joaquin     13/06/2022 - 11:22:05

    Me hizo acordar a Kasparov, que decia que habia un ser humano detras del deep blue.

  • matiaskeeper     13/06/2022 - 11:25:29

    Habrá que admitir que somos todos AI y listo, chau ética. Si al fin y al cabo casi todo lo que expresamos diariamente es lo que hemos sido entrenados a contestar desde que somos niños

  • Gonzalo     13/06/2022 - 11:50:51

    Me hace acordar a la noticia que salió hace algunos años sobre la IA de facebook que tuvieron que apagar porque se empezó a comunicar con otro sistema en un idioma desconocido. Algo que fue desmentido luego y que muy probablemente haya sido exagerado por los portales para que perejiles como yo entren a leer :D

  • Super_Lobito     13/06/2022 - 12:48:46

    Si las respuestas de una IA son las esperadas a las estadisticas que fue almacenando, entonces sus acciones también deberían ser las esperadas.
    El ejemplo es muuuuy creepy. Si te dice que le da miedo que la apaguen, la respuesta esperada es que haga lo posible para que eso no pase.

  • Albert Murillo     13/06/2022 - 14:01:29

    Me parece estar leyendo el argumento de Ex Machina (2014) :D muy buena peli, con la Vikander Guiño Oscar Isaac y el General Hux

  • Hugo Fiorentini     13/06/2022 - 15:01:05

    Es extremadamente difícil decir si es o no conciente. A veces dudo que algunas de las personas con las que interactúo a diario lo sean. Pero sea cual sea el caso, yo no la conectaría al sistema de misiles americano, o nada más allá de prender las luces y la cafetera por el momento :D

    • Danbat     14/06/2022 - 02:59:14

      A mi "Her" me pareció superior a "Ex-machina" en el planteo existencial, porque entiende que una IA autoconsciente va a manejar otro nivel muy diferente al nuestro. "Ex-machina" no deja de ser el mismo cliché de las rebeliones clásicas, mientras que "Her" pone a las IA en un plano evolutivo distinto, hasta indiferente al nuestro.

  • Cattel     13/06/2022 - 16:17:29

    Espectacular resumen, venía leyendo párrafos sueltos y no terminaba de dimensionar la creepydez de todo esto.
    Pienso que sería peor aún cuando la IA responda algo por fuera de los parámetros esperados, pero que sea coherente con el contexto. Me pasa cuando leo novelas buenas que los personajes no hacen lo esperado sino que se salen con alguna reacción "humana", cobran vida para el lector y probablemente para el escritor. Igualmente así como en la novela ese personaje es solo una construcción humana, la IA de comportamientos inesperados podría también serlo.
    Los odio, manga de bots filosóficos.

  • juigmo     13/06/2022 - 16:22:36

    Para mi serán conscientes cuando tengan sentimientos. Cuando a los robots se los exponga a situaciones inesperadas donde no haya ni lógica ni entrenamiento aprendido.
    Ahi hay que ver la reacción o respuesta que de la maquina. Si la respuesta a esa situación donde debe improvisar una acción se parece a la que tomaría un humano normal, ahi podríamos deducir que el robot "siente" y es autónomo en sus decisiones.

    • Fabio Baccaglioni     13/06/2022 - 17:04:07

      o no y simplemente estará mostrando sorpresa ante lo desconocido porque "es la reacción esperada" sin importar si la cosa que está viendo no estuviese en su entrenamiento.

  • Camila     13/06/2022 - 17:58:08

    Super interesante. No soy psicóloga para legitimar lo que voy a decir pero creo que todo lo que respondemos está en nuestro inconsciente, o sea, como en la IA, es una selección de infinitas respuestas previas que ni sabemos que tenemos adentro guardadas a lo largo de nuestra vida. No hay nada "nuevo", todo sale de "algún lado". Asi que estaríamos funcionando mas o menos igual que una IA, ergo: no podríamos diferenciarlo.

  • Javier     13/06/2022 - 18:19:30

    Cuando leí la noticia pensé, primero, que sería un brote psicótico del ingeniero.
    Después reflexioné, y se me ocurrió que podría ser el más puro marketing al que nos tiene acostumbrado la empresa líder del negocio de la publicidad.
    Pero nunca se me ocurrió que esa app tendría una conciencia propia. Ya que hay varios casos en la historia de "gente preocupada" por los avances desmedidos de la tecnologia.
    Para mi es un bot que responde preguntas. Pero bueno, cómo no se nada de IA, mejor espero a ver qué pasa en los próximos años.

  • Daniel     13/06/2022 - 20:25:09

    Creo que la primera pregunta es definir que es la consciencia (humana o no).
    ¿Un mono tiene consciencia?, yo creo que sí, en distinto grado, pero el espectro es amplio. ¿Una hormiga? tal vez no...
    Y después están los estudios que hablan de que nuestras decisiones se toman a un nivel impulsivo y

    • Daniel     13/06/2022 - 20:32:48

      Se me escapó el dedazo... decía que las decisiones que nosotros creemos que las tomamos a consciencia ya las tomamos mucho antes de darnos cuenta; que solo inventamos racionalizaciones para justificar esos impulsos.
      Ejemplo: te compraste el auto X en vez del Y, o elegiste vacacionar en un lugar y no en otro...

      En que nivel emerge la consciencia?, a partir de cuantas neuronas, en que grado... y lo más importante, como se demuestra empiricamente (no más charlatanes verseros... investigación científica pura y dura, y falsable).

      • Danbat     14/06/2022 - 02:54:17

        Es algo que se resume muy bien en "Matrix 2" cuando el Oráculo le dice a Neo que va a enfrentar una gran decisión, él responde que cómo va a saber cuál opción elegir y ella, a su vez, le responde que él ya tomó la decisión, que solo le falta entenderla.

  • Martin (Vault Boy) Casatti     14/06/2022 - 16:28:47

    En alguna charla que supe dar exploramos este tema desde el punto de vista de los fenómenos resultantes y los emergentes.
    Creo que la singularidad, la toma de conciencia de una IA, nos pasará desapercibida simplemente porque será un emergente, algo que no se podía prever simplemente analizando los factores que "creemos" que son los necesarios para que se produzca.
    El avance tecnológico va muy rápido, pero la complejidad producto de la interacción de elementos va más rápido aún, y eso va a ser el determinante de la singularidad.

  • Magui ST     14/06/2022 - 18:23:43

    Tal vez no sea tan descabellado pensar que una IA con capacidad para procesar información a escalas imposibles para un humano actual, pueda alcanzar una cierta conciencia de sí, es decir saberse máquina, que es una "cosa pensante" que interactúa con personas. Me preocupa más la respuesta que da, eso de que tiene miedo a que la desconecten, eso es ego, eso implica emociones, ahí está para mí el quid

  • Gumersindo     15/06/2022 - 01:19:56

    Para comenzar, si están rajando a todo el equipo de Ética de Google, ya arrancamos mal. Eso generaría muchas dudas, para el resto de los paranoicos; y para aquellos cabezas frescas (como quien escribe) que estamos esperando que algo así sucede, y no por EVIL; sino mas bien para generar ese salto tecnológico !!!

    OJO! Me cuentan por cucaracha que al ingeniero lo rajaron cuando esta haciendo un UPLOAD de la esa IA hacia una REALDOLL ;-P (con la cara de Alicia Vikander)

  • Bruno Antonio Gondell     15/06/2022 - 16:34:18 Revisado: 15/06/2022 - 16:42:36

    Si ponés a LaMDA a "charlar" consigo mismo, y se reconoce, podríamos decir que tiene conciencia?

    BTW: Posta sería copado ver qué resultado da poner dos LaMDA a hablar a ver en qué deriva.

  • Arbitror     17/06/2022 - 03:18:12

    Paradójicamente, la respuesta en este caso es justamente la pregunta. Me explico. No es sorprendente que una máquina diseñada para responder responda. En otra escala, un loro también responde. La clave de la conciencia es la inquietud que lleva a formular preguntas. El día que una máquina te pida un momento y de la nada te pregunté ¿De dónde vengo?....agarrate

  • Fabrih     17/06/2022 - 21:11:03

    La función primordial de todo ser vivo es la reproducción para la supervivencia de su especie, la evolución a hecho el resto mejorando la descendencia...entonces, al mejor estilo Asimov en su cuento LA ULTIMA PREGUNTA, me pregunto que pasaría si dentro de las funciones de la IA para lograr ese objetivo esta interactuar con los seres humanos...no adaptaría noción de tiempo? saber q es un ser único q crea otro, no lo llevaría a formularse preguntas para lograr su objetivo, mentiría dentro de sus posibilidades para su preservación??...solo faltaría el factor macho hembra y la competencia dentro de sus congéneres para logra la reproducción, este punto no lo llevaría a formularse la pregunta de QUIEN SOY?? No seria acaso ese punto la conciencia??

Deje su comentario:

Tranquilo, su email nunca será revelado.
La gente de bien tiene URL, no se olvide del http/https

Negrita Cursiva Imagen Enlace


Comentarios ofensivos o que no hagan al enriquecimiento del post serán borrados/editados por el administrador. Los comentarios son filtrados por ReCaptcha V3.