Connect with us

Noticias

Más allá de ChatGPT: Rollins redefine el papel de la IA en la educación superior

Published

on

Gráfico de Ivelisse Rodríguez

A medida que la inteligencia artificial continúa creciendo a un ritmo exponencial, surge un debate sobre cómo implementar la nueva tecnología en la educación superior.

ChatGPT se ha convertido en gran medida en sinónimo del uso de la IA en el aula, pero este es sólo un pequeño uso del software. ChatGPT es un tipo de LLM, un modelo de lenguaje grande, que utiliza datos de texto para generar y traducir texto, resumir documentos y realizar análisis de opiniones.

Llegó a su punto máximo en enero de 2023, acumulando más de 100 millones de usuarios en los primeros dos meses de su lanzamiento. Entre esos usuarios se encontraban estudiantes universitarios que utilizaban la plataforma como un servicio de escritura gratuito para completar tareas. Pero un semestre después, Rollins adaptó sus cursos para incorporar una política de IA para abordar este uso sin precedentes de la tecnología.

Los profesores de Rollins College se encuentran entre los muchos educadores que trabajan para desarrollar enfoques nuevos e informados para la integración de la IA en todo el plan de estudios de artes liberales.

“En lugar de estar atrasado en esto, Rollins en realidad está preparado para ser un líder dentro de nuestro grupo de instituciones pares”, dijo Matthew Forsythe, profesor asociado de inglés en Rollins College.

A pesar de algunas dudas iniciales sobre lo que este software podría significar para la educación superior, los educadores rápidamente comenzaron a estudiar y colaborar para encontrar usos para la IA en el aula.

“Tenemos que lamentarnos por algo que solíamos hacer y que ahora se puede hacer más rápido con la IA”, dijo Anne Murdaugh, profesora asociada de Física en Rollins College. “Podemos estar tristes por eso pero también seguir adelante”.

Murdaugh, junto con el profesor asociado de Ciencias de la Computación Dan Myers, presentó en la conferencia Enseñanza y aprendizaje con IA celebrada en la Universidad de Florida Central. Compartieron con otros educadores las formas en que han estado implementando la IA en sus clases en Rollins.

“Parte del objetivo era practicar el uso de la IA para trabajar en diferentes fases del proceso de investigación”, dijo Myers. “Tuvimos la idea de hacer un trabajo de investigación bastante estándar, pero estaba muy estructurado en términos de fases discretas de entregables para cada fase”.

Myers había implementado este proyecto de investigación asistido por IA en un curso de programación de nivel 400 y un curso de Honores. Se animó a los estudiantes a utilizar la IA para rebotar durante el proceso de investigación y escritura. Myers y Murdaugh encontraron que este tutor de IA era particularmente eficaz para ampliar la investigación interdisciplinaria de los estudiantes que trascendía su experiencia.

“Más allá de buscar cosas en los libros de la biblioteca, más allá de simplemente buscar en Internet para tratar de encontrar información relevante, ahora tenemos una herramienta muy poderosa para ayudarlo a trabajar en proyectos interdisciplinarios independientes”, dijo Myers.

Si bien Rollins implementó rápidamente una política de IA, esta política no fue necesariamente específica en sus parámetros. La escuela asignó a los profesores la responsabilidad de delinear las políticas que consideraran adecuadas para el uso de LLM generativos en el aula.

“Estamos tratando de hacer esto de una manera consciente y deliberada, sabiendo que el uso de la IA en todas las clases será diferente”, dijo Murdaugh.

La dificultad radica en abordar: “¿Cómo nos aseguramos de tener una política que aproveche la IA de manera positiva y, al mismo tiempo, brinde a las personas la agencia que necesitan para tener la política que funcione mejor para sus aulas?” dijo Murdaugh.

“Una de las cosas que estoy enfatizando a los estudiantes es que deben pensar en usar la IA como un asistente realmente entusiasta que nunca se quedará sin energía”, dijo Forsythe.

Muchos educadores han expresado su preocupación por el hecho de que la IA sustituya el proceso de aprendizaje de los estudiantes. Con tecnología que puede generar artículos o obras de arte en cuestión de segundos, los educadores se preguntan cómo pueden garantizar que los estudiantes desarrollen habilidades de pensamiento crítico.

“Si estás usando IA para hacer el trabajo, eso significa que eres reemplazable por IA”, dijo Murdaugh. “Pero, si estás utilizando la IA para aumentarte y mejorarte a ti y a tus habilidades de pensamiento, ahora la IA te ha hecho mejor”.

La IA se está volviendo poco a poco ineludible, por lo que los educadores están empezando a tener que trabajar para descubrir cómo convertirla en una herramienta como cualquier otra habilidad de preparación profesional para los estudiantes.

Myers es un defensor “radical” declarado de la IA y uno de los principales líderes en la utilización de la IA en el campus de Rollins y prevé que la IA se integre en todos los aspectos de la vida del campus.

“Debido a que la IA te da acceso a una gama más amplia de información, te permite pensar y acceder a habilidades que antes habrían estado ocultas detrás de cursos de requisitos previos”, dijo Myers. “Tal vez deberíamos pensar en un plan de estudios más plano en el que estemos más orientados a ser agresivos, a ser ambiciosos en términos de cómo los desafiamos a todos a hacer cosas y qué esperamos de ustedes en los niveles anteriores del plan de estudios”.

Myers no imagina que este cambio resulte en una revisión completa de la educación actual.

“La estructura fundamental de nuestros programas es sólida”, dijo Myers. “Las cosas que queremos enseñar, como el pensamiento crítico, la alfabetización informacional y las habilidades de comunicación escrita, seguirán siendo relevantes porque esas son exactamente las habilidades que se necesitan para utilizar la IA de manera efectiva”.

La IA ha comenzado a impulsar el lugar de trabajo, por lo que al enseñar a los estudiantes cómo usarla de manera efectiva, los estudiantes se convertirán en candidatos laborales más comercializables.

“El mundo al que estamos entrando es un mundo en el que los estudiantes utilizarán la IA en diversas formas, de diversas y emocionantes maneras”, dijo Forsythe.

Eso no quiere decir que la IA tenga desafíos o preocupaciones.

“Como director docente del Consejo de Honor, muchos de nuestros casos de este semestre son estudiantes que no prestan atención a las reglas de la clase”, dijo Forsythe.

Al igual que en el lugar de trabajo, los estudiantes deberán mantenerse actualizados sobre las pautas de IA para cada una de las aulas de sus profesores.

Además, la IA plantea cuestiones éticas en cuanto a la cantidad de energía que consume y la falta de transparencia en sus algoritmos.

Según el Foro Económico Mundial, formar un LLM, como ChatGPT, requiere tanta energía como para alimentar 130 hogares en los Estados Unidos. El gasto energético plantea la cuestión de cuán sostenible podría ser la utilización de dichas tecnologías convencionales.

La IA también es entrenada por empresas que pueden carecer de transparencia en los algoritmos que utilizan, lo que genera posibles sesgos en la programación.

Hay mucho que considerar para los educadores al sopesar los efectos duraderos de la IA en la remodelación de los procedimientos que rodean la educación superior. Sin embargo, los profesores de Rollins siguen siendo receptivos frente a las nuevas tecnologías y continúan buscando usos innovadores de la IA en su plan de estudios.

Forsythe dijo: “Creo que va a cambiar muchas cosas sobre la forma en que brindamos educación no solo y cómo los estudiantes preparan su trabajo, sino también para el lugar de trabajo para el que los estamos preparando”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Una nueva estrategia de Google AI podría interrumpir el dominio de Openai

Published

on

Hay tantos trabajos de investigación de IA en estos días que es difícil destacarse. Pero un artículo ha programado mucha discusión en toda la industria tecnológica en los últimos días.

“Esto es lo más inspirador que he leído en IA en los últimos dos años”, escribió el fundador de inicio Suhail Doshi en X este fin de semana. Jack Clark, cofundador de Anthrope, presentó el periódico en la edición del lunes de su boletín de importación AI, que es leída de cerca por miles de investigadores de la industria.

Escrito por el investigador de Google David Silver y el científico informático canadiense Rich Sutton, el documento anuncia audazmente una nueva era de AI.

Los autores identifican dos épocas de IA modernas anteriores. El primero fue personificado por Alphago, un modelo de Google AI que aprendió a jugar el juego de mesa “Go” mejor que los humanos en 2015. El segundo es el que estamos en este momento, definido por ChatGPT de Opensei.

Silver y Sutton dicen que ahora estamos entrando en un nuevo período llamado “La era de la experiencia”.


Un gráfico del trabajo de investigación "Bienvenido a la era de la experiencia, 'por David Silver y Richard Sutton

Un gráfico del documento de investigación “Bienvenido a la Era of Experience”, de David Silver y Richard Sutton

David Silver, Richard Sutton



Para mí, esto representa un nuevo intento de Google de abordar uno de los problemas más persistentes de la IA, la escasez de datos de entrenamiento, al tiempo que va más allá de un enfoque tecnológico que OpenAi básicamente ganó.

La era de la simulación

Comencemos con la primera época, que, según los autores, era la “era de la simulación”.

En este período, aproximadamente a mediados de la década de 2010, los investigadores utilizaron simulaciones digitales para que los modelos de IA jueguen repetidamente para aprender a actuar como humanos. Estamos hablando de millones y millones de juegos, como ajedrez, póker, atari y “gran turismo”, jugados una y otra vez, con recompensas colgadas por buenos resultados, enseñando así a las máquinas lo que es bueno versus malo e incentivándolos para seguir mejor estrategias.

Este método de aprendizaje de refuerzo, o RL, produjo Alphago de Google. Y también ayudó a crear otro modelo de Google llamado Alphazero, que descubrió nuevas estrategias para el ajedrez y “ir”, y cambió la forma en que los humanos juegan estos juegos.

El problema con este enfoque: las máquinas entrenadas de esta manera funcionaban bien en problemas específicos con recompensas definidas con precisión, pero no podían abordar problemas más generales y abiertos con pagos vagos, según los autores. Entonces, probablemente no sea realmente completo.

La era de los datos humanos

La siguiente área fue lanzada por otro artículo de investigación de Google publicado en 2017. “La atención es todo lo que necesita” propuesta que los modelos de IA deben ser entrenados en montañas de datos creados por humanos de Internet. Simplemente permitiendo que las máquinas presten “atención” a toda esta información, aprenderían a comportarse como los humanos y desempeñarse tan bien como nosotros en una amplia variedad de tareas diferentes.

Esta es la era en la que estamos ahora, y ha producido ChatGPT y la mayoría de los otros potentes modelos y herramientas de IA generativos que se utilizan cada vez más para automatizar tareas como el diseño gráfico, la creación de contenido y la codificación de software.

La clave de esta época ha sido acumular la mayor calidad posible de datos generados por los humanos, y usar eso en el entrenamiento masivo y intensivo de cómputo se extiende a los modelos IMBue AI con una comprensión del mundo.

Mientras que los investigadores de Google iniciaron esta era de datos humanos, la mayoría de estas personas abandonaron la empresa y comenzaron sus propias cosas. Muchos fueron a OpenAI y trabajaron en tecnología que Ultimate produjo ChatGPT, que es, con mucho, el producto de IA generativo más exitoso de la historia. Otros comenzaron Anthrope, otra startup de IA generativa líder que ejecuta Claude, un poderoso agente de chatbot y IA.

¿Un google dis?

Muchos expertos en la industria de la IA, y algunos inversores y analistas en Wall Street, piensan que Google puede haber dejado caer la pelota aquí. Se le ocurrió este enfoque de IA, pero OpenAi y Chatgpt se han escapado con la mayoría de los botines hasta ahora.

Creo que el jurado todavía está fuera. Sin embargo, no puede evitar pensar en esta situación cuando los autores parecen estar disgustando la era de los datos humanos.

“Se podría argumentar que el cambio en el paradigma ha tirado al bebé con el agua del baño”, escribieron. “Si bien RL centrado en el ser humano ha permitido una amplitud de comportamientos sin precedentes, también ha impuesto un nuevo techo al rendimiento del agente: los agentes no pueden ir más allá del conocimiento humano existente”.

Silver y Sutton tienen razón sobre un aspecto de esto. La oferta de datos humanos de alta calidad ha sido superado por la demanda insaciable de los laboratorios de IA y las grandes compañías tecnológicas que necesitan contenido fresco para capacitar nuevos modelos y hacer avanzar sus habilidades. Como escribí el año pasado, se ha vuelto mucho más difícil y más costoso hacer grandes saltos en la frontera de IA.

La era de la experiencia

Los autores tienen una solución bastante radical para esto, y está en el corazón de la nueva era de la experiencia que proponen en este documento.

Sugieren que los modelos y los agentes deberían salir y crear sus propios datos nuevos a través de interacciones con el mundo real.

Esto resolverá el problema de suministro de datos persistente, argumentan, mientras ayudan al campo a alcanzar AGI, o inteligencia general artificial, un santo grial técnico donde las máquinas superan a los humanos en la mayoría de las actividades útiles.

“En última instancia, los datos experimentales eclipsarán la escala y la calidad de los datos generados por los humanos”, escriben Silver y Sutton. “Este cambio de paradigma, acompañado de avances algorítmicos en RL, desbloqueará en muchos dominios nuevas capacidades que superan a las que poseen cualquier humano”.

Cualquier padre moderno puede pensar en esto como el equivalente a decirle a su hijo que salga del sofá, deje de mirar su teléfono y salga afuera y juegue con sus amigos. Hay experiencias mucho más ricas, satisfactorias y más valiosas para aprender.

Clark, el cofundador antrópico, quedó impresionado por la chutzpah de esta propuesta.

“Documentos como este son emblemáticos de la confianza que se encuentra en la industria de la IA”, escribió en su boletín el lunes, citando “el sentido común de dar a estos agentes la independencia y la latitud suficientes para que puedan interactuar con el mundo y generar sus propios datos”.

Ejemplos y un posible disco final

Los autores flotan algunos ejemplos teóricos de cómo esto podría funcionar en la nueva era de la experiencia.

Un asistente de salud de IA podría fundamentar los objetivos de salud de una persona en una recompensa basada en una combinación de señales como su frecuencia cardíaca en reposo, duración del sueño y niveles de actividad. (Una recompensa en la IA es una forma común de incentivar a los modelos y agentes para que funcionen mejor. Al igual que podrías molestar a tu pareja para hacer más ejercicio diciendo que se fortalecerán y se verán mejor si van al gimnasio).

Un asistente educativo podría usar los resultados del examen para proporcionar un incentivo o recompensa, basado en una recompensa fundamentada por el aprendizaje de idiomas de un usuario.

Un agente científico con el objetivo de reducir el calentamiento global podría usar una recompensa basada en observaciones empíricas de los niveles de dióxido de carbono, sugiere Silver y Sutton.

En cierto modo, este es un retorno a la era anterior de simulación, que Google podría liderar. Excepto esta vez, los modelos y agentes de IA están aprendiendo del mundo real y recopilando sus propios datos, en lugar de existir en un videojuego u otro ámbito digital.

La clave es que, a diferencia de la era de los datos humanos, puede no haber límite para la información que se puede generar y recopilar para esta nueva fase de desarrollo de IA.

En nuestro período de datos humanos actuales, se perdió algo, argumentan los autores: la capacidad de un agente para autodescubrir su propio conocimiento.

“Sin esta base, un agente, sin importar cuán sofisticado, se convertirá en una cámara de eco del conocimiento humano existente”, escribieron Silver y Sutton, en una posible final final para OpenAi.