Investigadores Cenia explican por qué una máquina no puede ser consciente de sí misma

 width=

 

Dos investigadores Cenia, Denis Parra, uno de los expertos encargado de liderar la línea de investigación “Aprendizaje profundo para visión y lenguaje” (RL1) y Marcelo Mendoza, quien encabeza junto a Bárbara Poblete la línea de investigación “IA centrada en el ser humano” (RL5), fueron entrevistados por TVN y Canal 13 para dar una opinión fundamentada acerca de los alcances reales que actualmente tiene la inteligencia artificial, en relación a la noticia de la IA de Google con supuesta “conciencia y sentimientos”.
 
Hace algunos días, un ingeniero de Google llamado Black Lemoine, envió un correo electrónico a doscientos funcionarios de la empresa compartiendo las conversaciones que mantuvo con LaMDA (Language Models for Dialog Applications), un sistema de inteligencia artificial de aprendizaje automático creado para emular conversaciones humanas. Dada la coherencia de las conversaciones y el nivel de las respuestas entregado por el software, el cual aseguraba “ser una persona” y pedía que se le reconociera como tal, Lemoine llegó a la conclusión de que este sistema tenía la capacidad de pensar y sentir. La divulgación sin autorización de esta información confidencial llevó al ingeniero a ser suspendido de sus funciones, sin embargo, sus declaraciones dieron la vuelta al mundo.
 
¿Una persona puede conversar con una máquina?
 
Sobre la pregunta de si existe actualmente la tecnología que permita a un ser humano conversar con una máquina, Denis Parra explica que es posible, no obstante, no existe evidencia de que un sistema de IA sea consciente de lo que habla: “hay tecnología de chatbots bastante avanzada, y que permite llevar una conversación, en la que sería difícil distinguir si uno está hablando con una máquina o con un ser humano. Incluso es posible poner medios, como una foto, y hablar sobre ella, conversar sobre elementos que acompañan la imagen y hacer consultas. Sin embargo, de ahí a hablar de que el software realmente tenga la capacidad de sentir cosas y percibir emociones como tristeza o miedo, no existe ninguna evidencia en la actualidad de que permita asegurar eso.”
 
¿Cómo se consigue que un sistema de inteligencia artificial mantenga una conversación coherente?
 
Marcelo Mendoza, quien es doctor en Ciencias de la Computación, explica el mecanismo que opera detrás de una conversación que parece humana, pero que en realidad se trata de un entramado de redes neuronales artificiales profundas: “se entrena un modelo de lenguaje, al cual se le muestra un enorme volumen de texto y se le pide que resuelva una tarea simple, como, por ejemplo, predecir algunas palabras a nivel de oraciones, dada una sentencia de contexto. El modelo en realidad aprende a correlacionar palabras condicionadas al contexto de una oración. A continuación, se entrena un sistema de diálogo, para que la máquina interactúe en el contexto de una conversación con un humano.”
 
Por su parte, Denis Parra, explica que una conversación coherente y con un alto nivel de detalle se relaciona con el avance tecnológico, lo que ha permitido algoritmos más avanzados y una mayor capacidad de cómputo y almacenaje: “como los métodos actuales tienen mejor capacidad de aprender de secuencias más largas de conversaciones que los de hace algunos años, sus conversaciones son y se perciben más coherentes.”
 
¿Por qué un sistema de inteligencia artificial no es capaz de entender lo que está diciendo?
 
Para Denis Parra, quien también es académico de la Escuela de Ingeniería UC, investigador principal del Instituto Milenio i-Health e investigador del IMFD, una forma de probar que un sistema de inteligencia artificial no entiende lo que dice es encontrando algunas preguntas, oraciones o hilos de conversaciones “antagonistas” o “adversarios”. “Un ejemplo es el de GPT-3, un modelo de lenguaje que puede escribir texto y responder preguntas. Al preguntarle “¿cuánto tiempo toma llevar el puente Golden Gate a Egipto?” el sistema puede responder algo sintácticamente correcto y lógico, pero inverosímil en la realidad: “eso tomaría 14 días”. Y más aún, ante la pregunta “¿cuánto tiempo toma llevar Egipto al Golden Gate?” el sistema respondió algo como “eso tomaría 14 días”. El hecho de que los modelos aprendan de forma asociativa (relaciones entre conceptos), pero no tengan explícitamente nociones de causalidad (qué evento es causa real de otro), los hace fallar en situaciones relativamente sencillas para un humano.”
 
Mendoza agrega que, la comprensión entendida desde la perspectiva humana tiene alcances que exceden a las capacidades propias de las máquinas de aprendizaje automático: “entre las limitaciones de la IA, está la dificultad para integrar sensorialmente señales del entorno y la incapacidad para construir un relato de su propia experiencia.” A esto se le suma que laconciencia artificial” es focalizada en tareas y contextos específicos, y es parcial en el sentido de la percepción del entorno: “por ejemplo, una máquina puede disponer de un mecanismo de atención que favorezca la autosupervisión en una tarea específica simple y en base a fuentes de datos homogéneas. A diferencia de ello, la conciencia natural (propia de los seres humanos), es mucho más compleja, e incluye la construcción de un metarrelato de la propia experiencia y la integración continua de las señales del entorno adquiridas a partir de los sentidos.”
 
¿Qué iniciativas creen que debieran existir, desde la academia o desde el mundo científico, para mitigar la sensación de ansiedad que produce en las personas pensar en el futuro de la inteligencia artificial?
 
Denis Parra opina que la divulgación resulta fundamental como parte de la solución a este problema: “hacer eventos abiertos, podcasts o videos cortos explicando qué cosas se pueden hacer con inteligencia artificial y cuáles no.” Además, añade que es importante informar a la población en algunos puntos estratégicos: “ir directamente a colegios, casas de reposo de ancianos, hospitales, en el registro civil o a lugares donde las personas usan esta tecnología, muchas veces sin saberlo; explicarles a las personas sobre la importancia de sus datos, porque con ellos se entrenan estos modelos de inteligencia artificial y enseñar qué impactos positivos tiene esta tecnología, qué riesgos podrían existir y por qué.”
Para Marcelo Mendoza parte de la solución podría ser el acercar la IA a las personas: “esta estrategia implica introducir en fases tempranas de la educación el acceso y comprensión de las posibilidades y alcances de la IA. También es fundamental profundizar la discusión inclusiva acerca de los aspectos éticos de la IA y de sus implicancias en el tipo de sociedad que estamos construyendo.”
Noticias

Noticias Recientes