Connect with us

Noticias

Latest OpenAI Announcement Showcases How Reinforcement Fine-Tuning Makes Quick Work Of Turning Generative AI Into Domain-Specific Wizards

Published

on

In today’s column, I examine the recently revealed feature augmenting OpenAI’s advanced o1 AI model that was briefly showcased during the second day of the “12 Days Of OpenAI” video-streamed announcement. The feature is referred to as reinforcement fine-tuning (RFT).

Much of the media has been clamoring that this is “new” as though nobody has ever thought of RFT before.

Sad and silly.

There has indeed been AI research on reinforcement fine-tuning, sometimes labeled as RFT or ReFT. In any case, yes, this is ostensibly new in the sense that it is an additional capability for OpenAI o1 and thus a new feature for the product. That is surely exciting. Please note that OpenAI may have opted to establish RFT in ways differently than others have – right now, their version of RFT is only available on a limited preview basis, and they often keep the nitty-gritty technical details under wraps since they consider their AI models proprietary.

So, one must do a modicum of armchair AI-soothsaying detective work to know what it’s all about.

Let’s talk about it.

This analysis of an innovative proposition is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my analysis of the key features and vital advancements in the OpenAI o1 AI model, see the link here and the link here, covering various aspects such as chain-of-thought reasoning, reinforcement learning, and the like.

The Overarching Aim Of Reinforcement Fine-Tuning

Here’s how RFT is typically conceived.

First, suppose you want to take a generic generative AI or large language model (LLM) and turn it into a domain-specific wizard of sorts.

This is a big trend these days. Most AI is rather generic and a jack-of-all-trades. Some refer to this as AI being an inch deep and a mile long. The aim is to apply generative AI to particular domains such as legal, finance, medical, and the like. Doing so requires going from a mile long and an inch deep to becoming at least many feet deep in a narrow niche of interest.

In case you are interested in how domain-specific instances are derived, I’ve discussed extensively the adaptation of generative AI for performing legal advisement, see the link here, while another domain that I’ve explored in-depth is the use of generative AI for mental health guidance, see the link here. The usual method or technique employed consists of in-context modeling, or retrieval-augmented generation (RAG), which you can read about in my explanation at the link here.

There is a kind of pursuit of the Holy Grail when it comes to finding the best way to push a generic generative AI into achieving domain-specific proficiency.

RFT Is One Such Method For Domain-Specificity

Voila, that takes us to the grand promise and hope of using reinforcement fine-tuning or RFT.

The deal is this.

RFT is a method or technique that leans into fine-tuning a generic generative AI model to become domain-specific in some respects. You can accomplish this by putting together data that pertains to the domain of interest, feeding it into the generative AI, and using the RFT approach to guide the AI toward “learning” about the domain.

The AI model is incrementally fine-tuned by providing a semblance of reinforcement to the AI. When AI gets things right, it is instructed that it’s doing well and should adjust toward producing future answers similarly (essentially, being given a reward for being correct). When the AI during this data training gets something wrong, it is instructed that the response was incorrect, and therefore the AI ought to steer away from that approach in the future (a penalty for being incorrect).

That’s how reinforcement works.

Note that I earlier put the word “learning” into quotes. I did so because we are excessively anthropomorphizing AI by using terminology that applies to humans and then outstretching those words to suggest the same applies to AI. The type of “learning” that the AI is doing should not be considered on par with human learning, see my discussion at the link here. It is a form of mathematical and computational reformulation and adjustment.

The Balance Of Generic Versus Specific

Keep in mind that you usually retain the generic aspects that are within the AI model and aren’t necessarily reducing those when trying to bring the AI up to speed on a particular domain. That being said, if you don’t especially need the full breadth of generic generative AI, you might strip down the AI to some barebones and then apply RFT, or possibly do the RFT first and then strip down the resultant AI. It all depends on what your goals are.

Why strip out some of the generic stuff?

Most generative AI is large in size and won’t run natively on smartphones, ergo requiring you to access the AI online. This means you need a reliable online connection. It is also costly due to your accessing expensive servers in the cloud. All in all, a movement toward small language models (SLM) is being avidly pursued so that a reduced-sized and likely reduced functionality version of generative AI can run on a standalone basis on everyday devices, see my analysis at the link here.

The same is often the case when producing domain-specific AI models. You are likely to want it to run on smartphones and not have to depend on the cloud. Thus, you can potentially hack out all sorts of generic aspects that don’t seem relevant to the domain at hand (does AI need to know for example about Abraham Lincoln to dispense medical advice on say a particular disease?).

The downside is that the AI won’t be able to respond well to across-the-board prompts and could be seen as weaker than the larger-sized AI.

The Fundamental Steps For Performing RFT

My way of depicting reinforcement fine-tuning is to say that RFT consists of five major steps:

  • (1) Dataset Preparation: Put together a suitable custom dataset for the chosen domain and format the prepared data into a common structured format (e.g., JSONL).
  • (2) Grader Formation: Devise a computer-based grader capability and/or leverage existing automated grading systems, which will be used to evaluate the model outputs. The evaluations usually include scoring the AI responses for correctness (topmost priority) and possibly also scoring for quality and reasoning.
  • (3) Reinforcement Fine-Tuning: The AI model receives iterative feedback through computational rewards for accurate reasoning (considered providing incentives) and penalties for errors (known as disincentives), gradually improving performance. During RFT, feed in a selected portion of the prepared datasets and retain other portions for later use during validation.
  • (4) Validation Process. Make use of the held-back or unseen dataset portions to validate and assess the AI model’s ability to generalize effectively. This is the validation process and is tremendously crucial for ascertaining whether the RFT has made a positive significant difference in the AI model’s domain specificity. Iterate as needed.
  • (5) Optimization and Roll-out: Finalize the RFT to ensure that the AI model is suitably efficient and effective, determine if the footprint is sized well (usually, smallness is preferred), and whether the AI is sufficiently specialized for the chosen targeted domain. Deploy the completed AI model. Keep tabs on ongoing usage and feedback. Make updates to the AI model including performing maintenance as required.

Those five steps capture the essence of what needs to be undertaken for RFT. Variations exist that have six steps, seven steps, and even ten steps. My indicated five steps pretty much cover the gamut and do so in a tidy way.

Importance Of The Grading

One aspect that might have caught your eye is step #2, grader formation.

Allow me to elaborate on this.

I had already noted that the reinforcement process consists of telling the AI when it is right and when it is wrong, doing so during the RFT overall endeavor. Parlance amongst AI insiders is that the AI is being graded, almost like getting a letter grade in school.

An “A” grade in school means things went well. The dreaded “F” grade means the answers were incorrect. Instead of assigning letter grades during RFT, a numeric value is usually used. The common practice is to assign a score of zero for a wrong response, and a score of 1 for a response that is correct. Since not all answers will be completely right or completely wrong, a value between 0 and 1 is used to suggest how right or wrong the response was.

For example, go ahead and envision that I am data training a generic generative AI by using RFT. It is being tuned to the legal domain. I’ve fed in a bunch of legal content consisting of various laws, regulations, and so on. During the RFT process, I feed in a prompt asking the AI to decide whether a given legal clause is legally sound. The AI churns through the computational assessment and comes back with an answer that the clause is good to go.

If that was a correct answer, the grade given would be a 1, while if incorrect the grade would be a 0. But the world isn’t always quite so binary. Suppose the AI indicated that the clause is legally correct in certain circumstances but has loopholes in other circumstances. Perhaps that is a relatively fair answer, though in some ways correct and some ways incorrect. The grade given might be 0.60, suggesting that the response was mostly right (because it is assigned a score above 0.50 and inching toward a full 1.0), though it also was partially incorrect (thus it isn’t a full 1.0 and only given a score of 0.60).

How is the grading determined?

You could employ a human during the RFT that doles out grades. This is laborious, tends to be slow, and can be expensive. Generally, the grading component is usually some form of automation. It could be a specialized program that was developed for a particular domain. It could be a generic grading system that can be used across various domains. You can even use another generative AI as a grader, such as having a second generative AI standing there that does the grading during the RFT.

The bottom line is that the grader is vital and if you don’t get that setup properly, the rest of the RFT is going to be kaput.

Grand Twist Is The Introduction Of Chain-Of-Thought

I’ve got an important twist for you.

An ongoing assumption that is subject to heated debate is that the use of RFT will notably shine when the generative AI contains advanced AI features such as chain-of-thought reasoning (CoT), see my discussion about CoT at the link here.

Chain-of-thought refers to the conception that when the AI is trying to solve a problem or come up with an answer, the AI is instructed to perform a series of logical steps when doing so. If trying to diagnose a patient, the AI might first assess basic patient data such as age, weight, health, etc. The second step might be to examine medical tests like a blood test. The third step might be to then review what kinds of aliments seem to fit that patient. The fourth step might be to reach a medical diagnosis and explain how that diagnosis was determined.

Let’s bring RFT back into the picture.

A generative AI that leverages a chain of thought could be exercised and fine-tuned with reinforcement processes in the following way. We let the AI proceed trying to diagnose a patient based on data that we’ve collected for data training purposes. A particular chain-of-thought is derived. Great, that’s what we want to have happen.

Lots And Lots Of CoTs Make For Choosiness

It turns out that like the old saw, there are more ways than one to skin a cat (sorry, that’s a bit dour), we could have the AI take another shot at the diagnosis. The second time around the chain-of-thought might differ. We do this a third time and keep getting the AI to try out a wide variety of CoTs. For each of the attempts, we assign a grade to the derived answer, using whatever grader or grading system we’ve established.

What does this accomplish?

Aha, the hope is that by telling the AI which answers were right, and which were wrong, this also sheds light on which of the chain of thoughts were right and wrong. The AI is going to presumably mathematically begin to lean toward CoTs that are being rewarded and shift away from CoTs that are being penalized or disincentivized.

The act of this reinforcement fine-tuning is indirectly guiding the generative AI toward hopefully stronger and better chain-of-thought approaches and steering it from CoTs that aren’t as good.

If this is done well, we are not merely arriving at the right answers, we are also in a sense shaping the nature of the chain of thoughts that the AI is going to use. A cheeky way to express this is the famous adage that if you give a person a fish, you feed them for a day, but if you teach them how to fish, they will be fed for a lifetime.

Boom, drop the mic.

OpenAI Has Opened The Door To RFT

Previously, OpenAI had embraced the use of supervised fine-tuning (SFT), which I describe at the link here. SFT as adopted by OpenAI was mainly about tuning the AI tone and style of responses. That was handy. RFT is aimed at digging into specific domains and getting the AI up-to-speed on answering domain-specific prompts. It is a different angle on fine-tuning.

Both techniques have their particular aims.

OpenAI’s RFT is considered available only on a limited preview basis right now and will be more widely accessible sometime next year. Meanwhile, OpenAI has also indicated that they are earnestly seeking to identify ripe domains to use RFT on. AI researchers and domain experts who want to have ready access to the preview capability can submit their keen interest to OpenAI (see the OpenAI official log for details).

Here’s what OpenAI officially said about RFT in their formal announcement as noted in “OpenAI’s Reinforcement Fine-Tuning Research Program”, OpenAI blog, December 6, 2024 (excerpts):

  • “This new model customization technique enables developers to customize our models using dozens to thousands of high-quality tasks and grade the model’s response with provided reference answers.”
  • “This technique reinforces how the model reasons through similar problems and improves its accuracy on specific tasks in that domain.”
  • “We’ve seen promising results in domains like Law, Insurance, Healthcare, Finance, and Engineering because Reinforcement Fine-Tuning excels at tasks where the outcome has an objectively “correct” answer that most experts would agree with.”
  • “We’re expanding our Reinforcement Fine-Tuning Research Program to enable developers and machine learning engineers to create expert models fine-tuned to excel at specific sets of complex, domain-specific tasks.”
  • “We encourage research institutes, universities, and enterprises to apply, particularly those that currently execute narrow sets of complex tasks led by experts and would benefit from AI assistance.”

If you are versed in a specific domain and believe that generative AI would be a boon, and if you are intrigued with RFT as a potential approach, you might want to consider putting your hat in the ring to make use of this latest OpenAI o1 model augmentation.

The Future Is Bright With More Approaches

A final comment for the moment.

There is a fascinating twist upon the twist that I earlier brought to your attention. It goes like this. The prevailing approach of RFT is usually that the grades are only assigned based on the AI responses. My point is that the chain of thought is not being directly graded. The CoT is only indirectly being graded.

An interesting next step consists of grading the actual CoT and even pieces or slices of the CoT.

Let me frame this in human terms, cautiously so. Imagine that a student gives me their completed test and they were instructed to write down the logic for their answers on the test, immediately adjacent to each question. One means of grading would be to simply look at the answer and assign a grade. As a grader, I utterly ignore the logic the student has displayed.

Another form of grading would be to look at how they came up with the answer and assign a grade based on both the answer and the logic used.

Mull over that approach to grading.

Maybe that’s a lot better means of grading since the student will have some semblance of where or how their logic went awry. If they only know that the answer is merely right or wrong, they aren’t getting much feedback about how they arrived at the answer. You could persuasively argue that doing grading at a more granular level could significantly enhance their capabilities.

There are tradeoffs. The grader must do a lot more work. The grader has to be a lot better at grading since they are no longer simply comparing one answer against an answer key. Also, suppose the grader messes up and gives foul guidance about the logic that the student used. Oops, that could frazzle a student, and they are worse off than they were beforehand. Etc.

If we do proceed to further enhance RFT in that manner, should we refer to that as some kind of super RFT, perhaps noted as SRFT or SURFT?

You never know what nomenclature catches hold.

Let’s end with a famous proverb: “Learning is a treasure that will follow its owner everywhere.” I suppose we can say that this motto applies to humans and perhaps even applies to the advancement and future of AI.

Keep on learning.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El movimiento más impresionante de Openai no tiene nada que ver con AI

Published

on

Sebastian Gollnow/Picture Alliance a través de Getty Images

Chatgpt, Sora, operador y el nuevo generador de imágenes son geniales, pero no son las cosas más impresionantes que Operai ha hecho.

Antes de que me comprometieras, escúchame. 😩

Estos productos son increíbles. Personalmente, han mejorado mi flujo de trabajo y desbloqueado eficiencias que finalmente generaron más ingresos.

También: la IA ha crecido más allá del conocimiento humano, dice la unidad DeepMind de Google

Entonces, ¿qué es lo más impresionante de lo que nadie está hablando? La clase magistral absoluta que es la estrategia de mercado de OpenAI. 🙌

De hecho, el 31 de marzo de 2025, el CEO de Openai, Sam Altman, anunció que ChatGPT ganó un millón de nuevos usuarios en solo una hora, impulsado por una gran demanda de su función de generación de imágenes recientemente lanzada.

a través de Sam Altman

En este artículo, no hablaremos sobre puntos de referencia o cuántos mil millones de puntos de datos se usaron para construir un modelo de idioma grande.

Estamos profundizando en la estrategia de ir al mercado de OpenAI. (GTM) 🤓☝️

Además: la visión de copilot de Microsoft ahora es gratuita para todos los usuarios de borde, así es como funciona

Si eres nuevo en mi trabajo Mi nombre es Lester, Pero no dudes en llamarme Les. Soy fundador con una exitosa salida, presidente ejecutivo de varias marcas DTC y un galardonado vendedor de rendimiento. En mi carrera, he creado campañas que hicieron millones y campañas que fracasaron con fuerza. Confía en mí cuando digo que si estás tratando de crecer o lanzar un negocio, hay mucho que aprender de Openai.

Por cierto, si le gusta las ideas de marketing basadas en datos y las formas prácticas de usar IA, consulte mi boletín gratuito, Sin pelusa solo hechos. Desgloso lo que funciona en el marketing en este momento y las innovaciones de IA valen su atención. 🤓

Pero suficiente sobre mí. Necesitamos hablar sobre Openai y cómo borró absolutamente la competencia.

Comprender el paisaje competitivo de IA

Para comprender lo que podemos aprender del GTM de OpenAi, primero tenemos que comprender cuán intensa se ha vuelto la competencia en este espacio.

Las startups se están financiando a un ritmo extraordinario, algunas sin un producto, simplemente diciendo “Sí, tenemos IA”. Incluso he visto TAESTERS AI, pero esa es una historia para otro día. 😔

Además: ¿podría ser esta la razón por la que cancela su suscripción de chatgpt?

Fuera de eso, Who’s Who of Big Tech también está haciendo un empuje masivo en el espacio y lucha por el primer lugar. ¿Pero puedes culparlos? El espacio se estima en USD $ 757.58 mil millones en 2025, con proyecciones para alcanzar USD $ 3.6 billones en 2034, creciendo a una tasa de crecimiento anual compuesta de 19.20%. Sí, eso es billón con una T.

Pero a pesar de que todos y sus mamá están compitiendo por ese primer lugar, cuando piensas en AI, crees que Chatgpt.

Deje que eso se hunda … una startup está aplastando a algunas de las compañías más grandes y financiadas del mundo. 🤯

Ahora podríamos discutir hasta que estemos azules en la cara sobre qué modelo es mejor, quien superó qué punto de referencia, bla, bla, bla. ¿Pero sabes lo que no está para el debate?

Quién es el claro “ganador” cuando se trata de usuarios y crecimiento de los usuarios. 🏆

Además: estás sentado en una idea de negocio de un millón de dólares, y ni siquiera lo sabes

En 27 meses, Operai ha capturado la participación del león en el mercado de IA, y se ha logrado solo con cada anuncio de productos. Lo que hace que esto sea aún más impresionante es que no fue el primero en comercializar, y en algunos casos, ni siquiera es la mejor solución. Es muy parecido a cuando el iPhone despegó, excepto que esto se siente aún más grande.

OpenAi se ha vuelto imposible de ignorar, y en caso de que te lo hayas perdido, ¡esta es una startup! 🚀

Lecciones para fundadores y vendedores

Ahora que hemos cubierto cómo llegamos aquí, hablemos de cómo Operai logró esto. Algunas cosas tuvieron que seguir su camino, pero la mayor parte se redujo a las cosas que no ves en los números, como la contratación inteligente, arreglando los errores rápidamente y manteniendo a todos en la misma página. Solo puedo imaginar cuán drenado debe estar el equipo. Parece que ha sido un sprint largo desde el lanzamiento.

Todo eso es importante, pero para la conversación de hoy, centrémonos en las estrategias públicas de GTM que me llamaron la atención. 📌

También: la mejor IA para codificar en 2025 (y qué no usar)

Cada vez que se anuncia una nueva cosa de IA, las empresas siempre hablan de puntos de referencia. Me recuerda a esos viejos anuncios de ‘I’m A Mac, soy una PC’. PC nunca lo consiguió. La gente se preocupa por las características, pero solo hasta cierto punto. Claro, algunas personas tienen que ver con las especificaciones, pero la mayoría de las personas no se dan cuenta o no les importa.

Lo que les importa es si la cosa funciona y si resuelve su problema. 🤓☝️

Tenemos un dicho en la oficina: ‘La gente no quiere un ejercicio; Quieren un agujero en la pared. Ese es precisamente el enfoque que Operai toma cuando lanza algo nuevo. Se centra en lo que hace el producto por las personas. Claro, dejará caer un punto de referencia aquí y allá, pero el mensaje siempre se centra en casos de uso real.

No digo que los puntos de referencia no importen, pero este equipo claramente sabe cómo adquirir usuarios y mantenerlos comprometidos. 🤝

Otra parte clave del libro de jugadas de OpenAi que no obtiene suficiente crédito es cómo abiertamente Sam Altman y su equipo están construyendo OpenAi. Altman tiene esta forma de hacernos sentir que somos parte del viaje. Si has seguido mi trabajo, sabes que he estado diciendo que construir una marca personal es el futuro de los negocios.

Además: por qué debes ignorar el 99% de las herramientas de IA, y cuáles uso todos los días

Eche un vistazo al tipo que lidera la revolución de la IA. Es un historial increíble que se inclina en ser humano. Ese solo debería ser su señal para comenzar a construir en público. Todo está disponible para que el mundo la vea, desde reforzar con Elon Musk hasta lanzar nuevas características.

De todo lo que Operai ha hecho, las asociaciones e integraciones como meter el chatgpt en Azure y Bing podrían ser mi movimiento favorito. 🤜 🤛

En el fondo, OpenAi aprovechó el público de otras personas para atraer a los usuarios. Llámalo marketing de afiliación, colaboraciones de influencers o empresas conjuntas.
Todo es credibilidad prestada. 🎯

Como cuando tu amigo te presenta a un nuevo grupo y dice: “Son geniales”. Ahora eres bueno, justo fuera de la fuerza de esa introducción.

Además: ¿Chatgpt Plus vale sus $ 20? Así es como se compara con los planes gratuitos y profesionales

Dicho todo esto, el GTM no es elegante. Operai hace lo básico excepcionalmente bien:

  1. Centrarse en los beneficios, no las características. No digas: “Entrenado en 1.8 billones de parámetros”. Diga “escribe toda su publicación de blog en 30 segundos”.
  2. Construir una comunidad. El edificio Operai y Altman en público hace que la experiencia se sienta personal.
  3. Colaborar para crecer. Como profesionales de negocios, a menudo sentimos que tenemos que hacerlo solos, pero eso no podría estar más lejos de la verdad.

Mis dos centavos

Operai está construyendo productos muy impresionantes, pero como profesionales de negocios, debemos tener en cuenta que la compañía de inteligencia artificial no usa la IA como una muleta, sino como una herramienta para mejorar los principios de marketing “buenos” al centrarse en la comunicación clara y ser identificable. 💪

Entonces, mientras se forja en el futuro de la IA, no olvides los conceptos básicos.

😇 Espero que esto ayude. ¡Te estoy apoyando!

PD: Si desea consejos y trucos de IA más fáciles y útiles, regístrese para mi boletín gratuito, Sin hechos de pelusa, solo hechos.

Continue Reading

Noticias

Reyen | El estudio cualitativo revela chatgpt, pensamiento crítico

Published

on

El jueves, Openai anunció que ChatGpt Plus se volvería libre para los estudiantes universitarios hasta finales de mayo. Con esta suscripción, los usuarios tendrán acceso a GPT-4O, generación de imágenes, modo de voz avanzado y otras herramientas de investigación.

Durante mucho tiempo sospeché que el incomparable grado de acceso a la información que nos otorgó Internet, y ahora, la inteligencia artificial, viene con una pérdida de función de memoria interna.

Un estudio de 2019 no solo sugiere esta preocupación, sino que lo respalda, descubriendo que las constantes “distracciones” de Internet y la capacidad de “descargar” tareas mentales obstaculizan el desarrollo del pensamiento crítico de nivel superior durante las etapas clave del crecimiento cerebral en niños y adolescentes.

En Cornell, es seguro decir que he visto los efectos de primera mano. Recientemente, le pregunté a la comunidad de Cornell Sidechat con qué frecuencia usan CHATGPT para completar las tareas. De 324 encuestados, el 43% respondió “la mayor parte del tiempo”. ¿Es esta una función de exceso de estudiantes, o de una tendencia hacia la conveniencia?

Otro 22% respondió “cuando no sé cómo hacer el trabajo”. En otras palabras, el chat está sirviendo como un sustituto para aprender a sí mismo.

Forbes informa que aproximadamente 1 de cada 3 estadounidenses entre las edades de 18 y 24 usan la plataforma.

Si bien es innegablemente conveniente, tengo que preguntarme si este segundo cerebro de acceso listo está en silencio y el nuestro. Al arreglar mi computadora portátil la semana pasada, el empleado consultó a GPT para responder mis preguntas sobre la vida útil de mi computadora. Y al ayudar a un grupo de colegas con problemas de impresora, miré sobre sus hombros para ver lo familiar “¿con qué puedo ayudar?” En la interfaz minimalista de ChatGPT.

Con la esperanza de evaluar cuán generalizado es el uso de GPT en el campus, he hecho conversar con mis compañeros. Una estudiante que entrevisté estaba trabajando en un ensayo para el cual su profesor permitió el uso de Chatgpt.

“Solo me hará daño si lo uso”, dijo el estudiante: la tarea era crear muestras de trabajo para solicitudes de empleo.

Inicialmente le pide a ChatGPT que genere un ensayo utilizando el aviso y sus notas, luego refina secciones de reducción incómoda antes de pedirle a GPT a mejorar el ensayo una vez más.

Colaborativo? O subcontratación?

GPT puede parecer la solución del estudiante ocupado para administrar cargas de cursos pesados, aplicaciones de empleo y actividades de clubes. Pero, ¿qué habilidades de escritura tendremos si la herramienta se convierte en el primer y final en el borrador? El uso de GPT como una muleta elimina el proceso de formación de conexiones y patrones mientras escribe, minimizando la capacidad de aprender de escribir comentarios y mejoras académicas.

Otro estudiante usa ChatGPT para convertir las notas de clase y un ensayo en un esquema, que luego se convierte en un documento cohesivo. (Y, ella me informó, la clave para la eficiencia de la aplicación de empleo es perfeccionar el ligero ajuste de una carta de presentación preparada en AI).

Trabajando para ajustar la tarea, se preguntó en voz alta: “¿Cómo consigo chatgpt para mejorar este ensayo sin acortarlo?”

“¿Corriste eso a través de un detector de IA?” Otra estudiante agregó, mirando sobre su hombro.

Pero tal vez no hay necesidad.

Los profesores intentan adaptarse, con cláusulas de citas GPT incluidas en cada programa de estudios después de la calderera de integridad académica estándar.

Sin embargo, la prevalencia de uso y la falta de audiencias de integridad académica correspondientes demuestra que el estado actual de la IA, agravado con el conocimiento de los estudiantes, está evadiendo cualquier salvaguardia que los profesores puedan tener en su lugar. Para la enseñanza de los académicos, seguramente debe ser frustrante asumir el papel del ejecutor antiplagiarismo.

Un graduado TA dijo que dirige cada tarea de escritura de estudiantes a través de un detector de IA. Aún así, incluso cuando aparentemente obvio de que un estudiante ha usado IA para una tarea de escritura, a menos que las citas alucinadas estén presentes, siente que no hay evidencia concreta que pueda usarse como prueba de trampa ante un tablero de audiencias de integridad académica.

(Me entristece que mi puntuador favorito, el Emdash, ahora aparentemente se considera una señal de escritura de IA. ¿Un detector de IA también marcará mi trabajo?)

Mis amigos y yo hemos notado la introducción de tareas de lectura anotadas sobre hipótesis y lecturas cercanas marcadas para las tareas de ensayos, posiblemente un esfuerzo para exigir “mostrar su trabajo” en los cursos de humanidades.

Como estudiante de inglés, estoy en sintonía con cuánto de nuestro aprendizaje proviene de escribir: no solo expresar ideas sino también llegar a ellas. (Para que conste, aún no me he impresionado los intentos de ChatGPT de defender la prosa de calidad y autora de calidad).

Acepto que los estudiantes deben adaptarse a los tiempos cambiantes, que una mentalidad ludita solo nos dejará atrás en el mercado laboral fluctuante. Sin embargo, advierto la “descarga” de las tareas académicas a expensas del pensamiento crítico.

No estoy tratando de ser más sagrado que tú de ninguna manera. Es objetivamente un desperdicio de nuestros dólares de matrícula para dejar atrás las habilidades blandas que Chatgpt a menudo interviene. Y no solo estamos perdiendo el desarrollo de habilidades; Cada vez que la IA ayuda con una tarea, estamos enseñando a GPT cómo reemplazarnos de manera más efectiva.

El cambio de la universidad hacia el preprofesionalismo (consultoría, tecnología, etc.) puede estar acelerando esta disminución. A medida que capacitamos a los estudiantes para trabajos, GPT se convierte en un atajo y más en un símbolo de una tendencia de pensar por pensar en el bien. Me preocupa que el objetivo principal de la educación superior se convierta en robots corporativos.

¿Están a salvo los campos STEM de la corrupción de IA por ahora? Un estudiante lamentó que GPT no pudo responder una pregunta de tarea de codificación debido a la especificidad de las bibliotecas requeridas.

En mi clase de neurobiología y comportamiento, nuestro profesor nos advirtió sobre la tendencia de la IA a la escritura científica de Butcher al resumir mal, alucinando citas inexistentes y omitiendo la palabra “no”, falsificando así la información.

Sí, el uso de chat en Cornell puede ser sintomático de los estudiantes con exceso de trabajo que comprenden cualquier método que pueda ayudarlos a pasar el semestre. Pero recordando a otro profesor a la conversación, me dijo que los estudiantes rara vez asisten al horario de oficina. El fácil acceso a GPT también puede permitir a los estudiantes deslizarse a través de sus cuatro años de universidad evitando la voz de preguntas a los recursos humanos en el campus o construyendo relaciones significativas con la facultad.

Quizás, entonces, esta es otra de las razones del rechazo de la academia. El aprendizaje automático no solo puede completar las funciones básicas del curso y reducir el trabajo de parto, sino que los estudiantes están revisando su trabajo, sino que no hay incentivos para hacerlo ellos mismos cuando un asistente virtual 24/7 espera ansiosamente en las pantallas de la computadora para transformar las indicaciones de tareas en entregables.

Ya sea que me guste o no, los titulares del otoño pasado confirman que “ChatGPT viene para la educación superior”. La Universidad Estatal de Arizona, por su parte, ha estado trabajando con OpenAI desde principios de 2024 para desarrollar el chatgpt edu, con funciones como la tutoría individual de los estudiantes.

El CEO de OpenAI ha dicho que ChATGPT creará nuevos conocimientos y proporcionará peldaños para responder problemas insoluble, alterando el mercado laboral actual de alguna manera positiva.

¿Podemos confiar en este testimonio? Dudo que esté solo en mi escepticismo. Varios estudiantes compartieron mi letargo para conseguir con los tiempos, ai, en cuanto a AI.

“Nunca lo uso”, dijo un estudiante.

Tengo la esperanza de que el requisito de GPT Plus Deal de una dirección de correo electrónico de la universidad fomentará el compromiso con las tareas, con un miedo saludable a las violaciones de integridad académica y la vigilancia universitaria que impide hacer trampa real.


Carlin Reyen

Carlin Reyen es un estudiante de cuarto año en la Facultad de Artes y Ciencias. Su columna quincenal simplemente Carlin, como si fuera se centre en la vida estudiantil, los problemas sociales, los hacks de la vida de Cornell y las interacciones de la universidad con la comunidad en general. Se puede contactar a Carlin en creyen@cornellsun.com.


Leer más

Continue Reading

Noticias

Operai, antrópico y 10 de las principales compañías de IA para trabajar para trabajar

Published

on

Trabajando a la vanguardia de la innovación tecnológica, los profesionales de IA tienen una gran demanda. Únase a nosotros mientras desempaquetamos 10 principales compañías de IA que dan forma al futuro en 2025, según lo clasificado por Forbes

El surgimiento de la automatización e inteligencia artificial (IA) está transformando rápidamente el mundo de los negocios. Está reestructurando cómo trabajamos al reducir las tareas administrativas, aumentar la productividad de los empleados y aumentar la eficiencia organizacional.

Dicho esto, la IA es una espada de doble filo. Si bien crea nuevas oportunidades emocionantes, también está cada vez más claro que hará que algunos roles tradicionales obsoleten. Según el Foro Económico Mundial (WEF), para 2030 AI se espera que desplaza a 92 millones de empleos a nivel mundial, al tiempo que crea simultáneamente 170 millones de nuevos. Por lo tanto, para los ambiciosos estudiantes de la escuela de negocios que buscan preparar sus carreras en el futuro, ahora es el momento perfecto para unirse a una compañía de IA y adelantarse a la curva.

Entonces, ¿qué compañías de IA deberían tener en cuenta los estudiantes de las escuelas de negocios al buscar oportunidades?

Después de un llamado público para nominaciones y un divulgación dirigida a miles de nuevas empresas elegibles, Forbes, que participa con Meritech Capital y Sequoia Capital, ha lanzado su lista de las 50 principales compañías de IA de 2025. Presentado alfabéticamente, la séptima lista anual destaca a algunas de las compañías de IA IT más prometedores en el mundo.

De esa lista, hemos seleccionado a 10 compañías destacadas que son especialmente adecuadas para los graduados de la escuela B que buscan dejar su huella en el espacio de IA.


Metodología:

Antes de revelar las 10 compañías sobre las que cada estudiante de MBA y Masters Business debe conocer, echemos un vistazo a cómo se seleccionaron los 50 mejores.

Este año fue el más competitivo hasta ahora, con 1.860 presentaciones que destacan el crecimiento explosivo de la IA solo durante el año pasado.

Para reducirlos, Forbes evaluó a cada compañía en función de la promesa comercial, el talento técnico y el uso de la IA, utilizando un algoritmo cuantitativo y un panel juzgador cualitativo. El resultado: 50 principales compañías de IA que Forbes consideró las más innovadoras e impactantes.

Entonces, aquí hay 10 de esas empresas que deberían ser de particular interés para los estudiantes y graduados de la escuela B.


10 mejores compañías de IA para trabajar | Forbes


1. OpenAi

Una de las más destacadas entre las principales compañías de IA a conocer es OpenAI, un gigante de $ 300 mil millones centrado en desarrollar IA de propósito general que beneficie a la humanidad.

Con más de 500 millones de personas que ahora usan CHATGPT, propiedad e impulsada por Operai, y más de 2 millones de usuarios empresariales, unirse al equipo de Operai significa ser parte de algo transformador.

OpenAI tiene una variedad de adecuados para los titulares de MBA y Masters Business, incluidos puestos de marketing, operaciones, recursos legales y humanos.

La compañía también consiguió el 13 ° lugar en las mejores nuevas empresas de Forbes para trabajar en 2025 ‘, reforzando la idea de que cada graduado de la escuela de negocios debería tener OpenAi en la parte superior de su lista al explorar oportunidades de carrera.


LEER: 7 compañías iniciales líderes que patrocinan visas H1B

27564E8C7865E0C2EF0F4EDCAE1AE467324AB7CA.PNG © Databricks / Facebook


2. Antrópico

Fundada en 2020, la compañía de seguridad e investigación de IA Anthrope es ampliamente considerada como el retador más cercano a OpenAi en este espacio emergente.

Una corporación de beneficios públicos dedicados al desarrollo de IA ética alineada con los valores humanos, Anthrope ofrece una carrera profesional gratificante y satisfactoria, especialmente para los graduados de las escuelas de negocios que buscan aplicar su perspicacia comercial y sus habilidades técnicas para impulsar un cambio positivo.

Acogiendo con la bienvenida a los solicitantes de una variedad de antecedentes académicos, Anthrope alienta a los estudiantes de la escuela de negocios interesados ​​en la IA a solicitar su programa Fellows para la investigación de seguridad de IA. En el transcurso de seis meses, los becarios reciben tutoría individual de expertos mientras exploran problemas críticos en seguridad de IA.


3. Databricks

Con 6,000 profesionales ya en su equipo, Databricks es un líder mundial en datos, análisis e IA.

Para los graduados de la escuela de negocios que buscan una exposición valiosa al mundo de los negocios, Databricks ofrece excelentes oportunidades. Por ejemplo, tanto los pasantes como los nuevos graduados tienen la oportunidad de trabajar en proyectos de alta visibilidad, ganando experiencia práctica en un entorno dinámico.


4. Noción

Una aplicación de trabajo colaborativa popular diseñada para individuos y equipos pequeños, la noción ofrece una amplia gama de oportunidades adecuadas para graduados de las escuelas de negocios en todo el mundo. Los roles como el gerente de marketing y el director de ventas, por ejemplo, hacen un uso fuerte de las habilidades estratégicas, analíticas y de liderazgo desarrolladas en los programas de MBA y Masters Business.

Para aquellos que todavía están en la escuela de negocios, la noción también es una herramienta valiosa para mantenerse organizado. Se puede usar para programar, tomar notas y administrar cursos.


5. Perplejidad ai

La perplejidad del motor de búsqueda de IA gratuita, IA, conocida por entregar respuestas conversacionales a las consultas de los usuarios, obtuvo un lugar en la lista Forbes AI 50 en 2025.

Para los graduados de la escuela de negocios, Perplexity AI ofrece varias oportunidades de carrera prometedoras, con roles como gerente de contenido, gerente de redes sociales y especialista en atención al cliente empresarial que actualmente contratan.

En un movimiento que destaca aún más su compromiso con la comunidad de educación empresarial, Perplexity AI se asoció recientemente con la Escuela de Negocios Kogod de la Universidad Americana para proporcionar a los estudiantes acceso a Perpleity Enterprise Pro AI, lo que lo convierte en no solo un empleador potencial, sino también un recurso valioso para los graduados de B-School.


LEER: Los 10 empleadores más grandes y más grandes de los Estados Unidos | Ranking de Forbes

f8d827e4f99bf4d3c91fee2c836ec49c115472c6.png


6. Decágono

Decagon AI es una compañía que proporciona agentes de atención al cliente con IA para empresas. Se ubica entre las principales compañías de IA para trabajar.

Después de haber presentado muchas marcas conocidas como Duolingo, Hertz y Decagon, Decagon ofrece una excelente oportunidad para que los estudiantes de las escuelas de negocios que buscan una valiosa exposición a la industria.


7. Deepl

Llegador a la Forbes AI 50 por segundo año consecutivo, DeepL es una plataforma de idioma IA integral utilizada para la traducción.

DeepL ofrece a los empleados una variedad de beneficios, incluido el trabajo híbrido, eventos regulares en equipo en persona, seguro de salud, licencia parental y un presupuesto anual de capacitación para el desarrollo personal.

A menudo considerado superior al traductor de Google, DeepL presenta una oportunidad emocionante y enriquecedora para los graduados de la escuela B.


8. Grandes datos

Reconociendo que las infraestructuras de datos tradicionales no estaban preparadas para satisfacer las necesidades de datos de la IA, un vasto fundador y CEO de datos, Renen Hallak, estableció la compañía para proporcionar soluciones avanzadas de almacenamiento de datos para las empresas.

Con clientes como la NASA, Zoom y Pixar, los vastos datos continuarán creciendo, por lo que es un excelente lugar para los graduados de las escuelas de negocios que buscan conseguir un trabajo con potencial de crecimiento futuro.


9. Abrida

Hacer olas en la industria de la salud es Abridge, una herramienta de IA diseñada para optimizar el proceso de documentación en entornos médicos, lo que permite a los profesionales de la salud más tiempo para concentrarse en ayudar a otros.

Para los MBA con especializaciones en la atención médica, Abridge sería una gran opción, lo que les permite poner en acción su perspicacia comercial y su conocimiento de salud.


10. Cascarrabias

Harvey, la plataforma de IA generativa hecha específicamente para profesionales legales, ha crecido rápidamente desde su fundación en 2022, expandiendo de 40 a 235 clientes, incluidas las principales firmas de abogados de EE. UU. Esto hace que Harvey sea una de las principales compañías de IA a conocer hoy.

Habiendo obtenido $ 300 millones en fondos de la Serie D, ahora es un momento fantástico para unirse al equipo y ser parte del crecimiento de Harvey.


10 mejores compañías de IA para trabajar | Forbes



Estas 10 compañías que aparecen en el ranking de AI 50 Forbes de este año destacan una variedad de oportunidades emocionantes e innovadoras para estudiantes de escuela de negocios y graduados que buscan preparar sus carreras en el futuro y entrar en el mundo dinámico de la IA.


*Las compañías enumeradas en este artículo se ordenan al azar y no se clasifican.

Continue Reading

Trending