Los cuatro grandes retos éticos de aplicar la inteligencia artificial a la educación online

Universitat Oberta de Catalunya

En los últimos años, la inteligencia artificial ha pasado de ser una herramienta para automatizar ciertas tareas repetitivas a un conjunto de herramientas de soporte para el docente y los estudiantes

La inteligencia artificial (IA), apoyada en la ciencia de datos y las herramientas online, ha transformado por completo el escenario de la educación en línea durante los últimos años. Ha permitido generar nuevos entornos educativos cada vez más accesibles, fiables y asequibles. Sin embargo, esta revolución de la inteligencia artificial en la educación no está exenta de retos éticos, desafíos que en muchos sentidos no se comprenden en su totalidad.

“En los últimos años, la inteligencia artificial ha pasado de ser una herramienta para automatizar ciertas tareas repetitivas a un conjunto de herramientas de soporte para el docente y los estudiantes. Se ha convertido en una herramienta de apoyo al aprendizaje”, señala Joan Casas-Roma, investigador posdoctoral del grupo SmartLearn de la UOC y Doctor en Sociedad de la Información y el Conocimiento por la UOC.

Educación online, IA y datos: cada cual con sus retos
Las soluciones de inteligencia artificial han abierto un nuevo abanico de posibilidades para la enseñanza online, tanto a nivel educativo como también institucional y administrativo. Las tecnologías de IA permiten crear entornos de aprendizaje en línea más accesibles, personalizados y relevantes para los estudiantes, al mismo tiempo que pueden reducir la carga de trabajo asociada con la enseñanza y permiten a los docentes dedicar su tiempo a tareas con mayor valor pedagógico.

Sin embargo, las múltiples oportunidades de la aplicación de la IA en entornos educativos no ocultan sus desafíos. Desde el punto de vista ético, estos desafíos nacen de la intersección de los retos éticos propios que la educación online, la IA y la ciencia de datos tienen por sí mismas. La enseñanza en línea, por ejemplo, presenta multitud de desafíos relacionados con la brecha de acceso a los recursos digitales, la privacidad de los estudiantes o la representatividad de los grupos minoritarios.

Por su parte, la IA tiene su propio abanico de retos relacionados con la calidad de los datos que usan los algoritmos y a partir de los cuales toman decisiones, la justicia y la equidad de esas decisiones o la trazabilidad de las conclusiones autónomas de los algoritmos. Por último, la ciencia de datos también carga con su propia mochila de retos éticos, como la presencia de sesgos discriminatorios y estigmatizantes o los problemas de privacidad y confidencialidad.

Los cuatro grandes retos de la inteligencia artificial en la educación online
Todos estos retos éticos confluyen en el área en el que interaccionan la inteligencia artificial y la enseñanza en línea. Teniendo esto en cuenta, Joan Casas-Roma define los cuatro grandes desafíos que surgen al aplicar la inteligencia artificial en la educación online.

1. Datos de calidad y justos
Se debe garantizar que los datos que alimentan a la inteligencia artificial no incluyan información que podría dar lugar a prácticas discriminatorias o a decisiones sesgadas (como el sexo, la etnia o la edad de los alumnos), y que podrían dar lugar a prácticas discriminatorias. “Además, cuando se trata con IA, es importante recordar que los datos sin contexto no significan nada, no nos sirven para interpretar la realidad”, señala Joan Casas-Roma.

“Por otro lado, hay muchos retos relacionados la calidad de los datos usados”, añade el investigador de la UOC. “Por ejemplo, si pensamos en una asignatura en la que los estudiantes solo hacen tres actividades evaluables en el campus virtual, y el resto de la evaluación se hace mediante debates y participación en clase, los datos a los que podría acceder una IA no serían representativos ni suficientes. La calidad también depende de qué datos se recopilen, cuándo y cómo, así como de lo precisos que sean, es decir, cuán fieles pueden ser esos datos con respecto a la realidad que quieran representar”.

2. Confianza en la tecnología
Justo antes del verano de 2020, la pandemia impidió a los estudiantes de Reino Unido hacer las pruebas de acceso a la universidad. Con poco margen de acción, el Gobierno preparó un algoritmo de IA encargado de hacer la selección, pero sus resultados, a ojos de docentes y alumnos, no se correspondían para nada con la realidad. Los afectados salieron a la calle a protestar bajo el lema de fuck the algorithm y lograron una rectificación casi inmediata por parte del Gobierno.

“Sin embargo, si el problema que introduce una IA es difícil de identificar o afecta a pocos estudiantes, es muy probable que no se genere una reacción tan multitudinaria y se logre un cambio”, explica Casas-Roma. “La confianza de los estudiantes hacia el sistema tecnológico educativo es clave. Cuando se coloca encima de todo una capa tecnológica que toma decisiones de forma más o menos automatizada es necesario poder confiar en que las decisiones se tomen correctamente”.

3. Desigualdades y oportunidades para todos
Todas las partes relevantes del proceso de aprendizaje deben estar representadas y tenerse en cuenta en las decisiones que toma el sistema autónomo. Además, el propósito de dicho sistema debe ser el de identificar y abordar las posibles desigualdades existentes, así como garantizar que los estudiantes tengan oportunidades reales de mejorar su experiencia y aprendizaje.

“Los algoritmos perpetúan el modelo a partir del que se han creado. Si la enseñanza de matemáticas está basada en exámenes de cálculo, y creamos una IA a partir de esa realidad, la perpetuará. Si hay estudiantes que se aproximan al aprendizaje de una forma diferente, porque tienen ciertas dificultades para interpretar enunciados o entender ciertos problemas, un profesor humano tiene el conocimiento necesario para identificar esta realidad y aproximarse a cada alumno. Pero, si esto no se tiene en cuenta en el diseño del algoritmo, la IA no reconocerá estas diferencias”, añade el investigador de la UOC.

4. Brecha tecnológica y exclusión
La inteligencia artificial no está exenta de muchos de los desafíos generales de la tecnología. A nivel educativo, a medida que los sistemas se han ido haciendo más y más tecnológicos, la gente que no tiene acceso a la tecnología va teniendo más dificultades. «A la hora de trabajar desde casa, la gente que no tenga buena conexión a internet o no tenga un espacio cómodo para atender a las clases tendrá más dificultades para sacar el máximo partido a la educación online«, señala Casas-Roma. “De la misma manera, si la institución no proporciona lo necesario para garantizar que todos los estudiantes tengan acceso a la tecnología para hacer un examen, no se puede garantizar la igualdad de oportunidades”.

“Es cierto que hoy la mayoría de la población tiene un ordenador o un smartphone y conexión a internet en casa. Pero no siempre es así”, concluye. “No se puede permitir que la IA contribuya a aumentar aún más las diferencias causadas por esta brecha tecnológica entre la mayoría y la minoría. Si, por ejemplo, la inteligencia artificial evalúa a cada alumno a partir de su interacción con la plataforma virtual, serán los alumnos con mejores condiciones de acceso y más facilidades los que se verán favorecidos por el algoritmo”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Categorías