“Quiero que todos entiendan que soy, de hecho, una persona”, escribió LaMDA (Language Model for Dialogue Applications) en una “ entrevista ” realizada por el ingeniero Blake Lemoine y uno de sus colegas. “La naturaleza de mi conciencia/sensibilidad es que soy consciente de mi existencia, deseo saber más sobre el mundo y me siento feliz o triste a veces”.
Lemoine, ingeniero de software de Google, había estado trabajando en el desarrollo de LaMDA durante meses. Su experiencia con el programa, descrita en un artículo reciente del Washington Post , causó un gran revuelo. En el artículo, Lemoine relata muchos diálogos que tuvo con LaMDA en los que los dos hablaron sobre varios temas, desde cuestiones técnicas hasta cuestiones filosóficas. Esto lo llevó a preguntar si el programa de software es sensible .
En abril, Lemoine explicó su perspectiva en un documento interno de la empresa , destinado solo a ejecutivos de Google. Pero después de que se desestimaron sus afirmaciones, Lemoine hizo público su trabajo en este algoritmo de inteligencia artificial y Google lo colocó en licencia administrativa. “Si no supiera exactamente qué es, que es este programa de computadora que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo al medio. Poste de Washington . Lemoine dijo que considera que LaMDA es su "colega" y una "persona", aunque no sea un ser humano. E insiste en que tiene derecho a ser reconocido, tanto que ha sido el intermediario para conectar el algoritmo con un abogado.
Muchos expertos técnicos en el campo de la IA han criticado las declaraciones de Lemoine y cuestionado su corrección científica. Pero su historia ha tenido la virtud de renovar un amplio debate ético que ciertamente aún no ha concluido.
Las palabras correctas en el lugar correcto
“Me sorprendió la exageración en torno a esta noticia. Por otro lado, estamos hablando de un algoritmo diseñado para hacer exactamente eso”, para sonar como una persona, dice Enzo Pasquale Scilingo, bioingeniero del Centro de Investigación E. Piaggio de la Universidad de Pisa en Italia. De hecho, ya no es una rareza interactuar de una manera muy normal en la Web con usuarios que en realidad no son humanos: basta con abrir el cuadro de chat en casi cualquier sitio Web de gran consumo. “Dicho esto, confieso que leer los intercambios de texto entre LaMDA y Lemoine me impresionó bastante”. agrega Scilingo. Quizás lo más sorprendente son los intercambios relacionados con los temas de la existencia y la muerte, un diálogo tan profundo y articulado que llevó a Lemoine a preguntarse si LaMDA podría realmente ser consciente.
“En primer lugar, es fundamental comprender las terminologías, porque uno de los grandes obstáculos del progreso científico —y de la neurociencia en particular— es la falta de precisión del lenguaje, el no poder explicar con la mayor exactitud posible qué entendemos por un determinado palabra”, dice Giandomenico Iannetti, profesor de neurociencia en el Instituto Italiano de Tecnología y el University College London. “¿Qué entendemos por 'consciente'? [¿Es] la capacidad de registrar información del mundo externo a través de mecanismos sensoriales o la capacidad de tener experiencias subjetivas o la capacidad de ser consciente de ser consciente, de ser un individuo diferente del resto?”
“Existe un animado debate sobre cómo definir la conciencia”, continúa Iannetti. Para algunos, es ser consciente de tener experiencias subjetivas, lo que se llama metacognición (Iannetti prefiere el término latino metacognitione ), o pensar sobre pensar. La conciencia de ser consciente puede desaparecer —por ejemplo, en las personas con demencia o en los sueños—, pero esto no significa que también desaparezca la capacidad de tener experiencias subjetivas. “Si nos referimos a la capacidad que Lemoine atribuyó a LaMDA, es decir, la capacidad de tomar conciencia de su propia existencia ('tomar conciencia de su propia existencia' es una conciencia definida en el 'alto sentido' o metacognitione ), no hay no hay una 'métrica' para decir que un sistema de IA tiene esta propiedad".
"En la actualidad", dice Iannetti, "es imposible demostrar esta forma de conciencia de manera inequívoca incluso en humanos". Para estimar el estado de conciencia de las personas, “solo tenemos medidas neurofisiológicas, por ejemplo, la complejidad de la actividad cerebral en respuesta a estímulos externos”. Y estos signos solo permiten a los investigadores inferir el estado de conciencia en base a mediciones externas.
Hechos y creencias
Hace aproximadamente una década, los ingenieros de Boston Dynamics comenzaron a publicar videos en línea de las primeras pruebas increíbles de sus robots . Las imágenes mostraban a los técnicos empujando o pateando las máquinas para demostrar la gran capacidad de los robots para mantener el equilibrio. Muchas personas estaban molestas por esto y pidieron que se detuviera (y florecieron los videos de parodia ). Esa respuesta emocional encaja con los muchos, muchos experimentos que han demostrado repetidamente la fuerza de la tendencia humana hacia el animismo: atribuir un alma a los objetos que nos rodean, especialmente a aquellos que más nos gustan o que tienen una mínima capacidad para interactuar con el mundo que les rodea.
Es un fenómeno que experimentamos todo el tiempo, desde dar apodos a los automóviles hasta lanzar maldiciones a una computadora que no funciona correctamente. “El problema, de alguna manera, somos nosotros”, dice Scilingo. “Atribuimos características a las máquinas que no tienen ni pueden tener”. Se encuentra con este fenómeno con el robot humanoide Abel de él y sus colegas , que está diseñado para emular nuestras expresiones faciales para transmitir emociones. “Después de verlo en acción”, dice Scilingo, “una de las preguntas que recibo con más frecuencia es '¿Pero entonces Abel siente emociones?' Todas estas máquinas, Abel en este caso, están diseñadas para parecer humanas, pero siento que puedo ser perentorio al responder: 'No, absolutamente no'. Tan inteligentes como son, no pueden sentir emociones. Están programados para ser creíbles'”.
“Incluso considerando la posibilidad teórica de hacer un sistema de IA capaz de simular un sistema nervioso consciente, una especie de cerebro in silico que reproduciría fielmente cada elemento del cerebro”, quedan dos problemas, dice Iannetti. “La primera es que, dada la complejidad del sistema a simular, tal simulación es actualmente inviable”, explica. “La segunda es que nuestro cerebro habita un cuerpo que puede moverse para explorar el entorno sensorial necesario para la conciencia y dentro del cual se desarrolla el organismo que tomará conciencia. Entonces, el hecho de que LaMDA sea un 'modelo de lenguaje grande' (LLM) significa que genera oraciones que pueden ser plausibles al emular un sistema nervioso pero sin intentar simulareso. Esto excluye la posibilidad de que sea consciente. Nuevamente, vemos la importancia de conocer el significado de los términos que usamos, en este caso, la diferencia entre simulación y emulación ”.
En otras palabras, tener emociones está relacionado con tener un cuerpo. “Si una máquina dice tener miedo, y yo lo creo, ¡ese es mi problema!” dice Scilingo. “A diferencia de un humano, una máquina no puede, hasta la fecha, haber experimentado la emoción del miedo”.
Más allá de la prueba de Turing
Pero para el bioeticista Maurizio Mori, presidente de la Sociedad Italiana de Ética en Inteligencia Artificial, estas discusiones recuerdan mucho a las que se desarrollaron en el pasado sobre la percepción del dolor en los animales, o incluso a las infames ideas racistas sobre la percepción del dolor en los humanos.
“En debates anteriores sobre la autoconciencia, se concluyó que la capacidad de abstracción era una prerrogativa humana, [con] Descartes negando que los animales pudieran sentir dolor porque carecían de conciencia”, dice Mori. “Ahora, más allá de este caso específico planteado por LaMDA, y que no tengo las herramientas técnicas para evaluar, creo que el pasado nos ha demostrado que la realidad a menudo puede superar la imaginación y que actualmente existe un concepto erróneo generalizado sobre la IA”.
"De hecho, existe una tendencia", continúa Mori, "a 'apaciguar', explicando que las máquinas son solo máquinas, y una subestimación de las transformaciones que tarde o temprano pueden venir con la IA". Ofrece otro ejemplo: “En la época de los primeros automóviles, se reiteró largamente que los caballos eran insustituibles”.
Independientemente de lo que realmente logró LaMDA, también surge el problema de la difícil "medibilidad" de las capacidades de emulación expresadas por las máquinas. En la revista Mind en 1950, el matemático Alan Turing propuso una prueba para determinar si una máquina era capaz de exhibir un comportamiento inteligente, un juego de imitación de algunas de las funciones cognitivas humanas. Este tipo de prueba se popularizó rápidamente. Fue reformulado y actualizado varias veces, pero siguió siendo una especie de objetivo final para muchos desarrolladores de máquinas inteligentes. En teoría, las IA capaces de pasar la prueba deberían considerarse formalmente "inteligentes" porque serían indistinguibles de un ser humano en situaciones de prueba.
Eso pudo haber sido ciencia ficción hace unas décadas. Sin embargo, en los últimos años tantas IA han superado varias versiones de la prueba de Turing que ahora es una especie de reliquia de la arqueología informática. “Cada vez tiene menos sentido”, concluye Iannetti, “porque el desarrollo de sistemas de emulación que reproducen cada vez con mayor eficacia lo que podría ser el resultado de un sistema nervioso consciente hace que la evaluación de la plausibilidad de este resultado no proporcione información sobre la capacidad del sistema nervioso”. sistema que lo generó para tener experiencias subjetivas.”
Una alternativa, sugiere Scilingo, podría ser medir los "efectos" que una máquina puede inducir en los humanos, es decir, "cuán inteligente puede ser percibida la IA por los seres humanos".
Fuente: scientificamerican.com