Cheol-Ung Je, Profesor de la Universidad de Hanyang (Seúl, Corea) y asesor experto en discapacidad para la Comisión de Derechos Humanos de Corea visitó el Centro Nacional de Inteligencia Artificial (Cenia), para conversar junto a Gabriela Arriagada, investigadora del centro y quien ocupó un rol de anfitriona y mediadora de la jornada.
Como tema central se discutió acerca del cómo se está pensando desarrollar inteligencias artificiales que ayudan a la neuro divergencia o a otras discapacidades, desde qué aristas se aborda, cómo se piensa, cómo se puede complementar la vida de personas discapacitadas o cómo se puede ayudar a personas discapacitadas a entender el mundo en el que están y/o sus contextos.
Un concepto clave del que habló el profesor Cheol-Ung Je, es el criterio del reconocimiento mutuo, el cual profundiza en la idea de cómo se diseña inteligencia artificial al servicio de las personas, porque esta idea no solo piensa en cómo acomodar razonablemente a personas discapacitadas sino también, en cómo personas no discapacitadas que conviven en la misma comunidad pueden aprender a entender las dificultades de las personas discapacitadas, cómo poder ayudar para lograr un reconocimiento mutuo.
Educar a la comunidad-sociedad, también es dimensionar las diferentes limitaciones que tienen algunas personas para desenvolverse cotidianamente y para la cual se podría usar la inteligencia artificial, dado que esta herramienta (asistente) puede ayudar a una mejor interpretación de diferentes realidades. Y en este sentido, el profesor Je, plantea el concepto de Acomodación Razonable, que tiene que ver con criterios de acomodación que se le dan a ciertas personas en sus trabajos, en su área de estudio o familiares, pero son razonables para sus funcionamientos, pero las personas con discapacidad tienen diferentes niveles de funcionamiento, entonces a lo que invita este concepto, es a cómo se está abordando este último punto. Si bien las personas neuro divergentes tienen rasgos en común, pero sólo es la punta del iceberg de la cantidad de diversidades y niveles en las que las personas viven.
Entonces, entender esas limitaciones y modelarlas para poder tener una mejor noción, más rica y específica de cuáles podrían ser, ayudaría a contextualizar lo que necesitan con razones vitales y reales de por medio.
Finalmente Cheol-Ung y el panel de conversación, hablaron del “área legal”, que desemboca en la propuesta por el profesor de: Reconocer las capacidades legales.
Por ejemplo, se piensa cómo podría aportar la IA a las personas discapacitadas, sobre todo personas discapacitadas que tengan algún tipo de limitación cognitiva, o en poder tomar ciertas decisiones y según el académico coreano “mientras no hagan daño a otros o a ellos mismos, tienen la libertad de equivocarse”.
En esta línea, la investigadora Gabriela Arriagada comenta: “Yo creo que también ese es un tema muy importante. Cómo poder mediar a través de la inteligencia artificial simulaciones que nos permitan generar resiliencias y capacidades de error en personas discapacitadas, para que puedan entender y aprender de sus errores. Muchas veces no se les deja cometer errores porque hay un excesivo cuidado, que les hace ver como si fuesen personas no autónomas o que no tienen capacidad de tomar decisiones y sí la tienen, el tema radica en que quizás el entrenamiento que necesitan para aprender a tomar buenas decisiones es diferente”.
Cheol-Ung Je, marcó un puntapié inicial a un área que se quiere abordar en Cenia y en la cabecera está la investigadora Gabriela Arriagada, quien pone en marcha la dirección de empujar una integración de la IA al servicio de las personas e incrementar el respeto y la autonomía de ellas. Sin pensarles como un objeto de protección, en donde tengan que mantenerse en una burbuja aislado/as y sobreprotegido/as, sino que usar la tecnología para validar a las personas como sujetos que merecen respeto y que pueden autodeterminarse.
Por: Pía Cassone