Desde chatbots y asistentes virtuales a vehículos autónomos, la inteligencia artificial (IA) está ganando terreno lentamente en nuestra vida diaria.
Para el estadounidense Salman Khan, pionero de la educación a distancia y fundador de Khan Academy, la tecnología ya es tan robusta que no hay forma de escapar de ella.
«La tecnología ya existe y algunas personas pueden optar por ignorarla, pero no creo que sea una buena estrategia», dijo Khan en una entrevista con BBC News Brasil.
Graduado del Instituto Tecnológico de Massachusetts (MIT) y de la Universidad de Harvard, en Estados Unidos, Khan dejó una carrera en el mercado financiero para fundar Khan Academy, la escuela virtual más grande del mundo.
La plataforma cuenta con videos y ejercicios traducidos a más de 36 idiomas que enseñan, de forma gratuita, desde aritmética básica hasta cálculo vectorial.
Ahora, con el desarrollo de nuevas tecnologías con inteligencia artificial y su infiltración en la educación, Khan Academy está desarrollando su propia IA generativa. La idea es que la herramienta sirva como tutor para los estudiantes y asistente para los profesores.
Para Khan, la tecnología es la salida para evitar el mal uso de la IA en la educación.
“Si usamos bien la tecnología, tendremos menos aulas donde los niños se sienten perdidos o aburridos y donde el maestro dé cátedra a los estudiantes, que es básicamente lo que sucedió en muchas escuelas durante la pandemia, con clases a través de Zoom”, dice.
Respecto a los cuestionamientos que muchos plantean sobre el machine learning o aprendizaje automático y la exhibición de comportamientos parciales o prejuiciosos, el empresario dijo que a menudo esos problemas pueden ser imposibles de evitar, especialmente en las humanidades.
Pero señala que, con las clases en línea, es mucho más fácil monitorear cualquier irregularidad.
«Si se descubre que una IA generativa dice algo sesgado, alguien puede fácilmente hacer una captura de pantalla, publicarla en las redes sociales y desacreditar a la organización que desarrolló la tecnología», afirma Khan.
“Esto no podría hacerse en un aula tradicional, en la que si un educador dice algo sesgado, es más difícil demostrar que eso sucedió”.
Puedes leer a continuación los principales extractos de la entrevista de Salman Khan con BBC News Brasil, editados para mayor brevedad y claridad:
¿Todavía podemos detener el avance de la tecnología de IA en la educación o ya hemos superado ese punto?
La tecnología ya existe y algunas personas pueden optar por ignorarla, pero no creo que sea una buena estrategia.
De hecho, será utilizada por personas con malas intenciones, por delincuentes para realizar fraudes o por gobiernos autoritarios para vigilar a la gente. Y en mi opinión, depende de aquellos con buenas intenciones tomar el control primero.
Toda tecnología es sólo una extensión de la intención del usuario, no importa si hablamos de IA, internet, energía nuclear o una máquina de vapor. Si hay gente que quiere utilizar la energía nuclear para el mal y no para el bien, el efecto será negativo.
En mi opinión, la mejor manera de abordar la IA en este momento es que las personas con buenas intenciones la utilicen correctamente, piensen de manera proactiva en nuevos medios de protección y traten de minimizar los riesgos. En otras palabras, no debemos escondernos sino involucrarnos más.
Muchos temen que las nuevas herramientas de IA que se han vuelto populares en los últimos años puedan menoscabar el proceso de aprendizaje, ayudando a los estudiantes a hacer trampa y devaluando el papel de los profesores en la educación. Pero tienes una perspectiva diferente, ¿no?
Sí. Creo que tenemos que resolver algunos problemas, pero hay muchas oportunidades por explorar.
Obviamente, el mayor desafío es la posibilidad (y la realidad, de hecho, ya que esto ya está sucediendo) de utilizar la IA generativa para copiar, escribir ensayos y resolver problemas matemáticos.
Pero creo que hay soluciones para esto. ChatGPT no fue creado con fines educativos y lo que tenemos que hacer es desarrollar herramientas específicas para los estudiantes.
En Khan Academy creamos Khanmigo, nuestra propia IA que funciona como un buen tutor socrático. No da respuestas, sino comentarios y sugerencias.
La idea es que la IA y los estudiantes trabajen juntos para escribir un ensayo, por ejemplo. Es decir, el profesor da la tarea a través de Khanmigo y los alumnos deben trabajarla allí mismo.
La tecnología puede señalar errores y sugerir que el estudiante reformule oraciones y argumentos y, al final, los profesores pueden acceder a la transcripción del chat.
La IA también puede evaluar el proceso, informando cuántas horas pasó el alumno trabajando en ese texto y cuáles fueron las principales dificultades, además de sugerir al profesor una calificación para ese texto.
Y, por supuesto, algunas personas dirán: «¿pero qué impide que un estudiante use ChatGPT de todos modos?». En nuestra plataforma, si un estudiante usa una IA para escribir el ensayo y simplemente copia y pega el texto final en Khanmigo, nuestra IA le dirá al profesor: «No sé de dónde vino este ensayo, simplemente apareció aquí de repente».
Y cualquiera que afirme haber desarrollado herramientas para detectar texto creado por una IA generativa miente.
Por lo tanto, centrarse en el proceso y no sólo en el resultado es la principal forma de resolver el problema de copiar.
En una encuesta reciente, UNESCO destacó la importancia de la interacción social en el proceso de aprendizaje y señaló que durante la pandemia muchos estudiantes se vieron perjudicados por la educación a distancia. ¿No podría un tutor de IA, en lugar de un humano, repetir este patrón?
Para ser claros, no veo a la IA como un sustituto de la interacción humana. De hecho, la tecnología debería utilizarse para facilitar la interacción humana o apoyar al alumno cuando los humanos no estén disponibles.
Todos recordamos alguna vez cuando éramos estudiantes y estábamos a las 11 de la noche antes de un examen tratando de entender un concepto, sin nadie que nos ayudara. Ahí es donde entra la tecnología.
O si a un estudiante le da vergüenza hacer una pregunta frente a una sala llena de gente, puede preguntarle a la IA, que, de hecho, notificará al maestro sobre esa pregunta y todas las demás, sugiriéndole que, por ejemplo, explique nuevamente un concepto en el aula.
Si utilizamos bien la tecnología, tendremos menos clases donde los niños se sientan perdidos o aburridos y donde el profesor esté dando cátedra a los alumnos, que es básicamente lo que ocurrió en muchas escuelas durante la pandemia con clases vía Zoom.
¿Y los profesores? En Brasil, ésta ya es una profesión poco valorada. ¿El uso de la IA no podría empeorar aún más la situación?
No lo creo. Nuestra propuesta es utilizar también la IA como asistente de enseñanza para los profesores, ayudando a desarrollar planes de lecciones, redactar informes de progreso e incluso evaluar los trabajos. Los profesores dedican mucho tiempo a tareas administrativas y, de esta manera, pueden dedicar más tiempo a estar con los estudiantes.
Contar con las herramientas más modernas en cualquier profesión es señal de que esa profesión es valorada.
Y aquí existe una oportunidad para que los educadores comiencen a aprovechar la IA generativa de manera significativa mucho antes que otras profesiones, incluso ingenieros de software, programadores o científicos.
No se trata de sustituir lo que hace el profesor, sino de permitirle desempeñarse a un nivel aún mayor. Sabemos que los profesores no son tan valorados ni tan bien remunerados como deberían y, al mismo tiempo, casi siempre tienen exceso de trabajo. Así que si puedes hacerles la vida más fácil, será como un regalo.
Hay un gran debate sobre la capacidad de la IA para salirse de conceptos preconcebidos, aprendidos a través de interacciones humanas. ¿Cómo garantizar que los estudiantes no tengan acceso a contenidos sesgados o prejuiciosos?
Siempre digo que es muy difícil que algo sea completamente imparcial. Quizás las matemáticas o las ciencias, pero en humanidades es casi imposible.
Por lo tanto, el estándar para la IA debe ser el material que sigue el status quo. En el caso de Khanmigo, todo está anclado en contenidos y ejercicios que han sido previamente escritos por nuestros profesores y que siguen altos estándares.
Pero lo interesante de esto es que, si se descubre que una IA generativa dice algo sesgado, alguien puede fácilmente tomar una captura de pantalla, publicarla en las redes sociales y desacreditar a la organización que desarrolló la tecnología.
Esto no se podría hacer en un aula tradicional. Si un educador dice algo sesgado es más difícil analizarlo minuciosamente y demostrar que eso sucedió. En otras palabras, con la IA tenemos 10 millones de personas examinando ese punto de vista.
Centrándonos en lo más práctico, vivimos en un mundo muy desigual y estas soluciones pueden funcionar en países más desarrollados, pero ¿qué pasa en otros lugares? ¿No pueden esas soluciones profundizar las desigualdades en oportunidades y en la calidad de la educación entre los países más pobres y los más ricos?
Creo que, de hecho, ayudará a reducir la desigualdad. Quizás no ahora, pero sí a largo plazo.
Hoy en día, una persona que vive en Brasil y proviene de una familia rica, por ejemplo, puede contratar un gran tutor para ayudarle con sus estudios, mientras que los estudiantes más pobres no tienen esta posibilidad y necesitan estudiar solos y entender todo el material en un aula abarrotada, a veces con otros 40 estudiantes.
Pero con el paso de los años, tal vez en unos cinco años, creo que los tutores de IA podrían estar disponibles para más y más personas y a un costo mucho más asequible. Esto puede ayudar a cerrar la brecha que existe entre las escuelas privadas costosas y las públicas o más baratas.
¿Debería el sector educativo dejar la regulación de las tecnologías de IA en manos de las empresas que las desarrollan?
Los educadores deben asegurarse de que todo lo que utilizan tenga medidas de seguridad y privacidad aceptables. Khanmigo solo almacena datos de usuario para mejorar la experiencia de los estudiantes y eso, en mi opinión, es un requisito. Se debe garantizar que los datos de los usuarios no se almacenen ni se vendan.
Por lo tanto, los educadores, administradores escolares y formuladores de políticas deben establecer pautas a nivel de cada región antes de elegir qué herramientas quieren utilizar.
El mismo estudio de la Unesco que mencioné anteriormente señala que, en la mayoría de los países, se necesitan muchas más autorizaciones y pasos para aprobar un nuevo libro de texto que para validar el uso de tecnologías de IA en escuelas y aulas.
Esto ocurre en un escenario en el que menos del 10% de las escuelas y universidades de todo el mundo han desarrollado políticas institucionales o directrices con respecto al uso de la IA. ¿Corremos el peligro de bajar los estándares de la educación con la IA?
No lo creo. Creo que la mayoría de las personas razonables ve que hay mucha política involucrada en la burocracia para aprobar un libro de texto. Y al final, la efectividad no tiene nada que ver con la elección del material A o B.
Puedo hablar de Estados Unidos, donde diferentes distritos eligen diferentes libros de texto. Pero en los últimos 50 años no ha habido evidencia de que un material tenga resultados diferentes que otro.
Y si estas nuevas herramientas, ya sea la inteligencia artificial generativa o Khan Academy, han producido evidencia de que están teniendo un impacto significativo en los estudiantes, entonces debería ser más fácil analizarlas, probarlas y tomar una decisión. Cuanto menos desgaste haya en el proceso, mejor.
Muchos colegios independientes o privados eligen su material didáctico de una forma menos burocrática y más rápida. Entonces, si queremos reducir la desigualdad, no podemos aumentar la burocracia, sino permitir que la toma de decisiones se realice más rápidamente y esté a cargo de personas que conocen a los estudiantes, personas dentro de las escuelas.
BBC News Mundo