Noticias
Morris: La verdad detrás de chatgpt

En el término de primavera de mi primer año de universidad, finalmente cedí a usar plataformas de inteligencia artificial para ayudarme a comprender algunos de mis cursos más difíciles. Nunca lo usé con éxito hasta que comencé a tomar clases de ciencias aquí en la Universidad de Oregon. Pero, tan pronto como estaba atrapado tratando de descifrar una de mis tareas complicadas para mi conferencia de antropología, pedí una conversación para explicar los criterios en términos simples.
Desde entonces, he usado plataformas AI para verificar algunas de mis tareas y ensayos, resumir las instrucciones para las tareas, ayudarme a crear declaraciones de tesis para ensayos y generar ideas para mis artículos argumentativos. Para mí, ha llegado a un punto en el que lo uso al menos una vez al día. Hoy en día, rara vez paso y verifíquelo gramatical mi trabajo yo mismo.
Creo que hay muchos beneficios para ChatGPT, Grammarly, Gemini y otras plataformas de IA, especialmente en un entorno académico. AI a menudo se conoce como un “Enfoque moderno para el aprendizaje” Permitiéndonos acceder a una amplia gama de herramientas para ciertos aspectos de nuestro trabajo de clase.
No me refiero a hacer trampa. Sin embargo, sé que yo y otros estudiantes de UO tenemos una tendencia a apoyarme demasiado en la IA para obtener ayuda, y hay negativos en eso. Un estudio realizado por el Dr. Mohammed Ahmed, que trabajó como unProfesor Asistente de Gestión de Ingeniería en la Universidad Eastern Michigan, demostró que NOt SOLO está reduciendo nuestro pensamiento crítico Las habilidades, también conocidas como descarga cognitiva, pero la IA de acceso abierto no siempre es confiable.
Leanne Fan, periodista del Nexus informó los hallazgos del Dr. Ahmed. “Los datos de la encuesta de 285 estudiantes encontraron que el 68.9% de la pereza y el 27.7% de la pérdida de habilidades para tomar decisiones fueron el resultado del uso de inteligencia artificial”.
Jessica Talisman, una arquitecta de información senior para Adobe, trabaja principalmente con plataformas de IA. Ella ha producido varios podcasts relacionados con el tema de la IA, como “El Digest de AI” así como “Diálogos de datos” Un podcast sobre navegar el panorama de datos y “La democracia de los datos, “Un podcast sobre neurociencia educativa.
Le pregunté a Talismán cuáles pensaba que las mayores preocupaciones eran para los estudiantes de UO que usaban plataformas de IA y de qué deberían ser cautelosos.
“Es un modelo de lenguaje grande, (o) lo que se conoce como LLM. Es un modelo estadístico, no un modelo numérico. Es notoriamente Terrible con los númerosLa seguridad, los datos, el análisis de datos y de manera realista es solo un estudiante de segundo año para el nivel junior cuando se trata de la codificación de datos ”, dijo Talisman.
“La IA como el chatgpt tiene mucha desinformación, información errónea y sesgo. Tenga cuidado con la verificación de hechos; Se sabe que tiene alucinaciones. En otras palabras, puede verse como la agencia creativa de AI, lo que significa que puede ser muy creativo y hacer cosas que no son objetivas “, dijo Talisman.
Talisman también habló sobre el uso excesivo de los estudiantes de ChatGPT y otras plataformas relacionadas con la IA, lo que puede reducir su capacidad para aprender.
“Hay muchas publicaciones académicas académicas que demuestran que hay una amplia gama de descarga cognitiva. El pensamiento crítico es uno de los principales objetivos de la educación. Es la misión de la universidad. Si el pensamiento crítico está obstruido, entonces su cerebro no desarrolla conocimientos, maneja las tareas y sintetiza el conocimiento ”, dijo Talisman.
Según Talisman, ChatGPT es una plataforma de IA de acceso abierto rentable, que es un factor que contribuye a por qué no es tan confiable. Además, tiene sus problemas de privacidad, como la recopilación de datos confidenciales, la recopilación de datos sin consentimiento, el uso de datos sin permiso, vigilancia y sesgo sin control, exfiltración de datos y fuga de datos.
Me dio curiosidad sobre cómo se sienten los profesores de UO sobre ChatGPT y su uso en el aula. Le pregunté al profesor Mark Blaine, quien trabaja en el departamento de SOJC enseñando clases de periodismo y es conocido por su trabajo documental, sobre IA. Dijo que cree que la IA es un atributo académico positivo y tiene algunas caídas importantes.
Blaine discutió la dependencia estudiantil de las herramientas de IA y las formas en que esto afecta la educación.
“Si te apoyas demasiado cuando no estás ejerciendo los músculos que se supone que debes usar mientras estás aquí, no puedes esperar convertirte en un mejor escritor. Puede darle las respuestas correctas, pero eso no es lo que estamos buscando aquí ”, dijo Blaine.
Blaine habló sobre los problemas que los estudiantes pueden enfrentar cuando buscan trabajo en el futuro, especialmente con la construcción de cartera. “Va a ser juzgado por lo que produce. Si esa producción sufre del uso de IA, lo hará menos competitivo, no más competitivo “.
Blaine también pensó en cómo ha visto a los estudiantes usar plataformas de IA, especialmente cuando se trataba de escribir documentos para sus clases.
“Algunos fueron buenos, algunos fueron un dolor de leer, pero cuando tienes que entregar un informe muy largo y seco o algún tipo de material técnico, te lleva a una respuesta muy rápido. En otros casos, eso no pasa la prueba de olfateo ”, dijo Blaine.
Personalmente, he visto a los estudiantes que usan ChatGPT y otras plataformas de IA en clase para ayudar a comprender las tareas, ayudar con la tarea, pedirle a la IA que resume los artículos, etc. No estoy ‘disrinando’ a estas personas porque entiendo cuán difíciles y estresantes pueden ser las clases. Cuando se trata de mi experiencia personal con estas plataformas de inteligencia artificial, noté que una vez que comencé a usar IA para asistencia académica, comenzó a ser difícil no usarlo para asistencia básica.
El estudiante de segundo año de UO Campbell Schlecht habló sobre su uso de herramientas de IA.
Le pregunté a Campbell para qué usa ChatGPT u otras plataformas AI. “El área principal de mi vida que no yo y probablemente nunca usaría es para mi trabajo actual como asistente de promociones”, dijo Schlecht.
“Probablemente uso chatgpt en demasiadas áreas en mi vida. Si me siento atrapado en el trabajo escolar o en necesidad de inspiración, le pregunto rápidamente a ChatGPT, que creo que siempre ayuda a que las ruedas creativas se vuelvan para mí. Definitivamente siento que la mayoría de los estudiantes lo usan en exceso, y eso podría ser perjudicial para el aprendizaje, pero al mismo tiempo, creo que es inteligente usar los recursos que están a nuestra disposición “, dijo Schlecht.
Si bien hay muchos beneficios para ChatGPT y otras plataformas de IA para estudiantes en términos de suministro de recursos, parece que el uso de la IA de la IA no se gestiona correctamente. Aun así, sería difícil de manejar.
Mi objetivo es reducir la cantidad de asistencia que confío en la IA para cuando se trata de comprender una tarea y ayudarme a encontrar una tesis, y conozco a muchos otros estudiantes demasiado por eso también por muchas razones diferentes. Si bien hay muchos positivos de redes sobre estas plataformas, también hay muchos pecados de red que pueden afectarlo personalmente y hacer que las plataformas no sean confiables.
Noticias
Una nueva estrategia de Google AI podría interrumpir el dominio de Openai
Hay tantos trabajos de investigación de IA en estos días que es difícil destacarse. Pero un artículo ha programado mucha discusión en toda la industria tecnológica en los últimos días.
“Esto es lo más inspirador que he leído en IA en los últimos dos años”, escribió el fundador de inicio Suhail Doshi en X este fin de semana. Jack Clark, cofundador de Anthrope, presentó el periódico en la edición del lunes de su boletín de importación AI, que es leída de cerca por miles de investigadores de la industria.
Escrito por el investigador de Google David Silver y el científico informático canadiense Rich Sutton, el documento anuncia audazmente una nueva era de AI.
Los autores identifican dos épocas de IA modernas anteriores. El primero fue personificado por Alphago, un modelo de Google AI que aprendió a jugar el juego de mesa “Go” mejor que los humanos en 2015. El segundo es el que estamos en este momento, definido por ChatGPT de Opensei.
Silver y Sutton dicen que ahora estamos entrando en un nuevo período llamado “La era de la experiencia”.
Un gráfico del documento de investigación “Bienvenido a la Era of Experience”, de David Silver y Richard Sutton
David Silver, Richard Sutton
Para mí, esto representa un nuevo intento de Google de abordar uno de los problemas más persistentes de la IA, la escasez de datos de entrenamiento, al tiempo que va más allá de un enfoque tecnológico que OpenAi básicamente ganó.
La era de la simulación
Comencemos con la primera época, que, según los autores, era la “era de la simulación”.
En este período, aproximadamente a mediados de la década de 2010, los investigadores utilizaron simulaciones digitales para que los modelos de IA jueguen repetidamente para aprender a actuar como humanos. Estamos hablando de millones y millones de juegos, como ajedrez, póker, atari y “gran turismo”, jugados una y otra vez, con recompensas colgadas por buenos resultados, enseñando así a las máquinas lo que es bueno versus malo e incentivándolos para seguir mejor estrategias.
Este método de aprendizaje de refuerzo, o RL, produjo Alphago de Google. Y también ayudó a crear otro modelo de Google llamado Alphazero, que descubrió nuevas estrategias para el ajedrez y “ir”, y cambió la forma en que los humanos juegan estos juegos.
El problema con este enfoque: las máquinas entrenadas de esta manera funcionaban bien en problemas específicos con recompensas definidas con precisión, pero no podían abordar problemas más generales y abiertos con pagos vagos, según los autores. Entonces, probablemente no sea realmente completo.
La era de los datos humanos
La siguiente área fue lanzada por otro artículo de investigación de Google publicado en 2017. “La atención es todo lo que necesita” propuesta que los modelos de IA deben ser entrenados en montañas de datos creados por humanos de Internet. Simplemente permitiendo que las máquinas presten “atención” a toda esta información, aprenderían a comportarse como los humanos y desempeñarse tan bien como nosotros en una amplia variedad de tareas diferentes.
Esta es la era en la que estamos ahora, y ha producido ChatGPT y la mayoría de los otros potentes modelos y herramientas de IA generativos que se utilizan cada vez más para automatizar tareas como el diseño gráfico, la creación de contenido y la codificación de software.
La clave de esta época ha sido acumular la mayor calidad posible de datos generados por los humanos, y usar eso en el entrenamiento masivo y intensivo de cómputo se extiende a los modelos IMBue AI con una comprensión del mundo.
Mientras que los investigadores de Google iniciaron esta era de datos humanos, la mayoría de estas personas abandonaron la empresa y comenzaron sus propias cosas. Muchos fueron a OpenAI y trabajaron en tecnología que Ultimate produjo ChatGPT, que es, con mucho, el producto de IA generativo más exitoso de la historia. Otros comenzaron Anthrope, otra startup de IA generativa líder que ejecuta Claude, un poderoso agente de chatbot y IA.
¿Un google dis?
Muchos expertos en la industria de la IA, y algunos inversores y analistas en Wall Street, piensan que Google puede haber dejado caer la pelota aquí. Se le ocurrió este enfoque de IA, pero OpenAi y Chatgpt se han escapado con la mayoría de los botines hasta ahora.
Creo que el jurado todavía está fuera. Sin embargo, no puede evitar pensar en esta situación cuando los autores parecen estar disgustando la era de los datos humanos.
“Se podría argumentar que el cambio en el paradigma ha tirado al bebé con el agua del baño”, escribieron. “Si bien RL centrado en el ser humano ha permitido una amplitud de comportamientos sin precedentes, también ha impuesto un nuevo techo al rendimiento del agente: los agentes no pueden ir más allá del conocimiento humano existente”.
Silver y Sutton tienen razón sobre un aspecto de esto. La oferta de datos humanos de alta calidad ha sido superado por la demanda insaciable de los laboratorios de IA y las grandes compañías tecnológicas que necesitan contenido fresco para capacitar nuevos modelos y hacer avanzar sus habilidades. Como escribí el año pasado, se ha vuelto mucho más difícil y más costoso hacer grandes saltos en la frontera de IA.
La era de la experiencia
Los autores tienen una solución bastante radical para esto, y está en el corazón de la nueva era de la experiencia que proponen en este documento.
Sugieren que los modelos y los agentes deberían salir y crear sus propios datos nuevos a través de interacciones con el mundo real.
Esto resolverá el problema de suministro de datos persistente, argumentan, mientras ayudan al campo a alcanzar AGI, o inteligencia general artificial, un santo grial técnico donde las máquinas superan a los humanos en la mayoría de las actividades útiles.
“En última instancia, los datos experimentales eclipsarán la escala y la calidad de los datos generados por los humanos”, escriben Silver y Sutton. “Este cambio de paradigma, acompañado de avances algorítmicos en RL, desbloqueará en muchos dominios nuevas capacidades que superan a las que poseen cualquier humano”.
Cualquier padre moderno puede pensar en esto como el equivalente a decirle a su hijo que salga del sofá, deje de mirar su teléfono y salga afuera y juegue con sus amigos. Hay experiencias mucho más ricas, satisfactorias y más valiosas para aprender.
Clark, el cofundador antrópico, quedó impresionado por la chutzpah de esta propuesta.
“Documentos como este son emblemáticos de la confianza que se encuentra en la industria de la IA”, escribió en su boletín el lunes, citando “el sentido común de dar a estos agentes la independencia y la latitud suficientes para que puedan interactuar con el mundo y generar sus propios datos”.
Ejemplos y un posible disco final
Los autores flotan algunos ejemplos teóricos de cómo esto podría funcionar en la nueva era de la experiencia.
Un asistente de salud de IA podría fundamentar los objetivos de salud de una persona en una recompensa basada en una combinación de señales como su frecuencia cardíaca en reposo, duración del sueño y niveles de actividad. (Una recompensa en la IA es una forma común de incentivar a los modelos y agentes para que funcionen mejor. Al igual que podrías molestar a tu pareja para hacer más ejercicio diciendo que se fortalecerán y se verán mejor si van al gimnasio).
Un asistente educativo podría usar los resultados del examen para proporcionar un incentivo o recompensa, basado en una recompensa fundamentada por el aprendizaje de idiomas de un usuario.
Un agente científico con el objetivo de reducir el calentamiento global podría usar una recompensa basada en observaciones empíricas de los niveles de dióxido de carbono, sugiere Silver y Sutton.
En cierto modo, este es un retorno a la era anterior de simulación, que Google podría liderar. Excepto esta vez, los modelos y agentes de IA están aprendiendo del mundo real y recopilando sus propios datos, en lugar de existir en un videojuego u otro ámbito digital.
La clave es que, a diferencia de la era de los datos humanos, puede no haber límite para la información que se puede generar y recopilar para esta nueva fase de desarrollo de IA.
En nuestro período de datos humanos actuales, se perdió algo, argumentan los autores: la capacidad de un agente para autodescubrir su propio conocimiento.
“Sin esta base, un agente, sin importar cuán sofisticado, se convertirá en una cámara de eco del conocimiento humano existente”, escribieron Silver y Sutton, en una posible final final para OpenAi.