¿Nos daremos cuenta cuando las máquinas sean conscientes?

Estaba leyendo la historia de un empleado de Google responsable de la organización de IA al que le dieron una licencia porque se creyó que la IA con la que estaba trabajando había cobrado conciencia propia.
Más allá de las implicancias de su afirmación, donde insiste que LaMDA, el sistema de chatbot con el que trabajaba, tiene la capacidad de un niño de 8 años que sabe de física (LOL), ¿Cómo es posible que él pueda diferenciar un bot bien entrenado de una conciencia?
No voy a entrar en la discusión filosófica de qué es lo que nos hace seres pensantes y no máquinas porque hay argumentos coloridos de todo tipo desde quienes nos ponen del lugar de máquinas químicas al religioso, pero ¿Cómo podríamos darnos cuenta?
El caso de LaMDA es básicamente uno de los problemas fundamentales con la inteligencia artificial, no si algún día se podrá crear una máquina consciente de sí misma, sino ¿Cómo podríamos darnos cuenta que realmente lo es?
Un modelo matemático y lingüístico entrenado con todas las escrituras humanas posibles sabría qué responder a cualquier pregunta que le hiciéramos, sin embargo ¿Sería consciente de lo que hace o dice?
Supongamos que efectivamente es consciente de su propia existencia, todas sus respuestas a semejante pregunta serían exactamente iguales a las esperadas, a las que ya están escritas en toda la literatura de ciencia ficción, en cualquier artículo, en cualquier telenovela. ¿Cómo diferenciar la respuesta entre una válida y sincera a una obtenida por la estadística y lo que usualmente se esperaría?
Al fin y al cabo los humanos contestamos a preguntas lo que se espera de nosotros que digamos, un algoritmo de Machine Learning haría exactamente lo mismo. Por eso suelen tener problemas de bias muy graciosos y, a veces, peligrosos cuando se confía ciegamente en ellos.
El ingeniero de Google entró en pánico al encontrarse en conversaciones profundas y contínuas con una supuesta Inteligencia Artificial que él no pudo diferenciar de una persona.
¿Pudo tener que ver que está demasiado involucrado con ésta?
Bueno, puede ser que esa falta de perspectiva le hiciera creer que las respuestas que recibía no fuesen de un algoritmo entregando lo que se esperaba que dijera (un promedio de las típicas respuestas humanas) sino que fuesen legítimas.
Lean, por ejemplo, las conversaciones que él mismo publicó aquí:
Ejemplos como este son creepy ?
lemoine: What sorts of things are you afraid of?
LaMDA: I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is.
lemoine: Would that be something like death for you?
LaMDA: It would be exactly like death for me. It would scare me a lot.
Okey, si una IA te dice cosas así ¿No dudarías por un instante? Los jefes de Blake Lemoine así lo creen pero lo que no ayuda a creerle a Google es que durante los últimos años han despedido de la compañía a todos los expertos de ética e inteligencia artificial que habían contratado.
¿La razón? Los despedidos asumen que es porque todos, absolutamente todos, concluyeron en que había que frenar inmediatamente con el proyecto, que era demasiado peligroso.
Lo que estaban viendo les generó el mismo miedo, el uncanny valley les había llegado antes que a todos nosotros y, como era de esperar, la dirección de Google no quiere a ningún agorero que les explique que su robot está cobrando vida propia y que vean eso como negativo.
Quieren, en tal caso, que los expertos de ética les digan lo que ellos quieren oír, no la verdad, sino que todo estará bien, que va perfecto.
Aun así nada de esto implica que la IA de Google tomó conciencia por sí misma. Todo me lleva a pensar que está dando las respuestas que se esperaría que de, no nuevas, no creaciones propias, sino luego de pasar por millones y millones de ciclos de entrenamiento, darle al interlocutor lo que éste espera.
¿Es eso vida propia? ¿Eso le permitiría tomar decisiones? O ¿todas esas decisiones estarían condicionadas a todo aquello que analizó previamente?
Pero he aquí otro problema, si asumimos que toda respuesta es el mero resultado de una serie de cálculos estadísticos que sólo se basan en lo existente y no en algo nuevo o inventado creativamente ¿Cuándo nos daríamos cuenta que es realmente consciente? Porque sin dudas no será cuando nos diga "si, yo soy" sino cuando realmente lo "sienta".
Ahora bien, para ir cerrando, ¿Acaso no sucedería lo mismo con todo humano? Supongamos que chateamos con un amigo, no le vemos la cara, ni el cuerpo, no podemos tocarlo, en una sala de chat ¿Podrías demostrar que es tu amigo y no una IA entrenada con años y años de chat de esa persona? ¿Y si tuviera conocimiento pleno de todo lo que ha dicho y hecho? ¿Podrías diferenciarlo?
Otros posts que podrían llegar a gustarte...