( ! ) Warning: The magic method Vc_Manager::__wakeup() must have public visibility in /Users/asedano/Sites/campusfad/wp-content/plugins/js_composer_salient/js_composer.php on line 227
Call Stack
#TimeMemoryFunctionLocation
10.0010362272{main}( ).../index.php:0
20.0012363544require( '/Users/asedano/Sites/campusfad/wp-blog-header.php ).../index.php:17
30.0017373256require_once( '/Users/asedano/Sites/campusfad/wp-load.php ).../wp-blog-header.php:13
40.0020383048require_once( '/Users/asedano/Sites/campusfad/wp-config.php ).../wp-load.php:50
50.0036461456require_once( '/Users/asedano/Sites/campusfad/wp-settings.php ).../wp-config.php:99
Educación e IA: la intolerable soberanía del algoritmo - Campus FAD
20 February, 2024

En el momento de la vida en el que cualquiera decide trasladar la dirección de su pensamiento desde su Pepito Grillo particular –esa conciencia basada en la experiencia personal y el aprendizaje ético individual- a los algoritmos de una Inteligencia Artificial, cede también el control sobre sus elecciones, sus gustos, su mirada, y hasta sus decisiones mercantiles.

Si aceptamos una sociedad invadida por los primeros planos de personas ajenas a nuestra vida real en dispositivos móviles, en pantallas en las grandes avenidas, en cualquier lugar al que miremos. Si aceptamos los tiempos acelerados que imponen los mensajes encadenados, cortos, sesgados. Si aceptamos eso, estamos aceptando, además, un entorno -cada vez más grande y menos dominable- en el que la desinformación nos exige una verificación continuada, y los consejos, recibidos desde no se sabe muy bien dónde, un contraste permanente.

¿La aceptamos? Quizá no. Quizá no todo sea así.

Trasladar de nuestro interior al de un dispositivo tecnológico las decisiones sobre nuestro día a día resulta a todas luces una pérdida de autonomía personal. Cedida, además, a no se sabe muy bien quién. Una dirección de conciencia que tal vez maneje Strómboli o tal vez el hada azul.

Por esto, también en educación, como en el resto de ámbitos de la vida, la IA, puede jugarnos buenas y malas pasadas.

Como la IA es creada, no olvidemos, por la IH (Inteligencia Humana), cabría esperar de los y las Eldon Tyler reales (recordemos Blade Runner) la creación de una inteligencia no exenta de ética; una IA que no mienta, que no manipule los datos, que, por poner un ejemplo sencillo de entender, no utilice un momento de bajón de quien se fía de ella para recomendarle un medicamento en lugar de recomendarle acudir a una consulta médica.

 La IA ha entrado con mucha fuerza en el ámbito de la educación:

Tanto es así, que en noviembre de 2021,la UNESCO vio oportuno publicar el documento La ética de la inteligencia artificial con recomendaciones en once ámbitos, el octavo está dedicado íntegramente a la educación e investigación.

En 2022, la Comisión Europea publicó otro: Directrices éticas sobre el uso de la IA y los datos en la educación y formación para los educadores, una guía con directrices éticas, dentro del Plan de Acción de Educación Digital (2021-2027).

 ¿Qué podemos sacar en consecuencia de estos excelentes trabajos?

Si tuviésemos que resumir en dos conceptos las recomendaciones de uso ético de las IA en educación, éstos podrían ser: respeto a los derechos humanos y sentido común.

Muy fácil de decir, quizá no tanto de hacer, puesto que, a veces, sin siquiera saberlo, podemos fallar clamorosamente en estos dos conceptos.

Porque una cosa es segura, la IA en educación se ha ido incorporando a oleadas, y ahora está viviendo un momento de gran implantación, impactando en el trabajo del profesorado, -desde la programación hasta la evaluación, pasando por la impartición de los contenidos-; como en el alumnado, que la utiliza abiertamente como ayuda y apoyo, y en ocasiones, y aquí encontramos una de sus debilidades, como jugador o jugadora suplente a la hora de preparar trabajos personales.

La IA ayuda al alumnado y al profesorado, eso es incuestionable, utilizarla de modo que favorezca al aprendizaje depende en gran medida de la aceptación individual de un planteamiento ético.

Tanto para quien educa como para quien está en la fase de formación, conviene pararse a pensar si el proceso de enseñanza-aprendizaje se está llevando a cabo con la ayuda de la IA o se está haciendo dirigido a dominar la futurible (aunque tal vez inexistente) “era de la IA”.

El equilibrio entre el uso de la tecnología y la interacción humana –que es el fundamento de la educación de calidad- es la clave.

La utilización como apoyo de la IA está aportando beneficios como la posibilidad de conseguir una mayor personalización del aprendizaje, aun trabajando con grupos numerosos, a través del análisis de datos de cada alumno o alumna.

A partir de esos datos la IA puede recomendar contenidos y recursos: lecturas, ejercicios, materiales audiovisuales, que se adaptan a las inquietudes y preferencias de cada persona.

Para el alumnado también es una buena ayuda a la hora de desarrollar tareas: presentaciones, ensayos, mapas mentales, artículos… y aquí nos encontramos con una de las encrucijadas, puesto que, trabajando fuera de los límites de la ética, se puede utilizar no sólo como un apoyo más, sino como un sustituto, y se puede presentar como propio el desarrollo que ha realizado, a demanda, una IA.

Esto último, evidentemente, afecta a la integridad académica, tanto como el plagio del trabajo de otras personas. Y sobre ello hay que alertar a quien cree que así se beneficia y a quienes tienen que valorar y evaluar ese trabajo.

Así que, estimando los usos, cabe indicar que los grandes elementos de controversia ética están en tres ámbitos:

 1.- Los datos.

La privacidad, la protección de datos. Esos análisis necesarios para sacar rendimiento a la IA necesitan grandes volúmenes de datos de los y las estudiantes. Y esto abre un campo a la especulación sobre el uso de información personal que debería ser confidencial y exclusivamente utilizada para el fin para el que se entregan.

 2.- El respeto a los derechos de autoría.

Por delante de los detectores de plagio y de las IA entrenadas para detectar trabajos realizados por otras IA, que no dejan de ser medidas de reacción. Conviene convencer y formar en la autodisciplina y los planteamientos éticos a quienes la utilizan.

 3.- El contenido falso.

Con la misma facilidad con la que una IA elabora un ensayo sobre cualquier tema, puede incluir en él contenido manipulado, tergiversado o simplemente falso. De ahí que el uso de las IA tenga que ser continuamente revisado, desde la óptica de la duda, por quienes se apoyan en ella .

En términos generales, y para terminar esta serie de reflexiones, conviene, siempre que se utiliza una IA, pararse a hacer un análisis posterior, tanto de la oportunidad de la utilización como de la autenticidad personal del resultado.

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.