Noticias
Latest Features, Pros, and Cons
ChatGPT’s Fast Facts
Our product rating: 4/5
Pricing: Free version; $20 monthly for paid plan
Key features:
- Analyzing uploaded images
- Generating high-quality generative content
- Creating videos with third-party applications
- Generating scripts, articles, and other text
- Automating tasks with ChatGPT-powered applications
ChatGPT is an advanced conversational AI developed by OpenAI to act as a functional assistant in a range of activities, including answering questions and generating creative content. It uses a large language model (LLM) trained on diverse datasets to engage in sophisticated conversations, provide technical help, and tell stories. Its ability to identify context and nuance helps it stand out from other chatbots, with human-like responses.
ChatGPT’s Pricing
ChatGPT has a free version that allows users to access most of its integrated applications within the platform. Users have full access to GPT-4o mini and limited access to GPT-4. ChatGPT’s paid version costs $20 per month and includes new features plus access to OpenAI o1-preview, OpenAI o1-mini, GPT-4o, GPT-4o mini, and GPT-4; up to five times more messages for GPT‑4o; access to data analysis, file uploads, vision, web browsing, and image generation; and advanced voice mode.
ChatGPT’s Key Features
ChatGPT provides a set of robust features aimed at increasing efficiency and creativity across a variety of jobs. It can create and analyze images, making it an excellent choice for visual projects and data insights. ChatGPT allows you to create detailed plans and strategies, brainstorm ideas, and generate actionable solutions. It can write code for technical tasks, saving developers time and creating clear, compelling writing for every occasion. ChatGPT can also summarize long texts into shorter and more digestible information.
Creating Images
ChatGPT’s generative AI feature lets you create images using text prompts like other AI art tools. For the image below, I asked ChatGPT to create an image of a beach during sunset with a hammock tied to coconut trees and dogs chasing a Phoenix around the shore. It generated an image almost instantly with visuals close to what I pictured. More specific prompts would likely have fine-tuned the image even further.
Analyzing Images
To test the tool’s ability to use its multimodal nature to analyze images it did not create, I uploaded an image of a cigarette-smoking fish with a chicken’s body and asked ChatGPT for its interpretation. It described the image as a “humorous, surreal creation… likely intended as a piece of absurdist humor or social commentary” and identified it as possibly a meme.
Writing Code for Programming
ChatGPT’s ability to generate programming code can be both effective and, occasionally, challenging. It frequently generates useful code that may be directly applied to tasks ranging from simple scripts to sophisticated programs, but in some cases, the initial result may require extra prompts or revisions to match the specific needs of your application or project. In short, ChatGPT-generated code may function properly out of the box in some circumstances, but it may also require refining or debugging to solve specific edge cases, maximize efficiency, or before being integrated into a broader codebase. This iterative method can lead to good code solutions but may require some back-and-forth to obtain the desired results.
Writing Short and Long-Form Content
Content writing is one of ChatGPT’s specialties. This includes long-form content like articles, book chapters, and case studies or shorter content like social media descriptions, templates, and newsletter items. The clarity of this content will hinge on the accuracy of your prompts. In the example below, I gave a simple prompt with a topic and word count. You’ll want to proofread or fact-check ChatGPT’s work to avoid potential plagiarism, correct inaccuracies, and make the content sound more human in origin.
Writing Product Descriptions
ChatGPT’s ability to create product descriptions can be used for a social media campaign or a product page on an e-commerce site. I tested its ability to create product descriptions by uploading a mock image of a dog food brand and asking it to create a description with information about health benefits and flavors. In addition, I prompted it to make the description sound more informative so that it could be easily understood. ChatGPT’s generated response turned out better than I expected by far. It gave me a good hook, body, and dog food flavors, and a call to action at the end of the description.
Analyzing Complex Context
ChatGPT can analyze contextual data and make suggestions based on different scenarios, making it useful for various tasks. Its responses are generated using the vast dataset on which it was trained. This dataset comprises a wide range of human language subjects and patterns up to the knowledge cutoff date of October 2023.
ChatGPT uses its basic understanding to identify patterns and replicate conversational context, allowing it to make assumptions about human intention, provide clarifications, and participate in interactive discussions. However, it does not have real-time access to current events or personal user information. As a result, ChatGPT’s generated answers are created using general knowledge rather than real-time changes, making it particularly suited for static information, creative brainstorming, problem-solving, and explaining concepts in depth.
Making Travel Plans
I tested ChatGPT by asking it to plan a trip to Siargao in the Philippines. In one scenario, I will work the first week while on the island; in the second, I have time off work with full flexibility regarding activities. ChatGPT generated itineraries suitable for both scenarios. The places it suggested I visit are all real and still in existence and all the activities are doable and popular with Siargao visitors.
During the work week, ChatGPT suggested famous places for morning or evening visits so that I could still commit to my working hours. ChatGPT organized activities like island hopping, surfing, and exploring scenic places (including the Sugba Lagoon and Secret Island) for the fully flexible week.
Summarizing Long Texts
In addition to writing articles and descriptions, ChatGPT can help summarize long-form content into shorter, easy-to-read paragraphs. I asked it to summarize eWeek’s 10 Best AI Art Prompts article, and in a few seconds, it narrowed down the prompts and examples and gave me a concise summary. This function saves time and is useful for quickly understanding complex or extensive information. ChatGPT helps readers focus on important takeaways, making it valuable for professionals, students, and creatives who need to quickly absorb knowledge from several sources. It can be applied to various research papers, instructional articles, and creative resources.
Turning Texts into a Video
ChatGPT’s video production feature is powered by an app from the ChatGPT application store that links smoothly to the api.adzedek.com API. Provide a brief description of your intended video, and the app will create a proposed script and walk you through the video creation process. First, it will direct you to InVideo to see the generated video, which includes high-quality, human-like voice narration over carefully selected stock images and internet footage. This integration provides an excellent, simplified experience for effortlessly making interesting, professional-quality videos.
Automating Tasks Using Internal GPT Applications
ChatGPT now provides Custom GPTs, or customized versions of the platform for specific activities or applications. OpenAI maintains a growing list of various GPTs. Some are available via the ChatGPT app, and others are built by users for specific purposes. These GPTs are intended to assist with common activities like scheduling, note-taking, brainstorming, idea generating, content creation, business and data analysis, programming and development, teaching and tutoring, and creative arts.
Productivity GPTs aid with day-to-day tasks such as scheduling and task management, whereas content creation GPTs assist writers, marketers, and creatives in content generation. Business and data analysis GPTs examine and evaluate statistics, collect information on industry trends, and make recommendations for business choices. Programming and development GPTs assist developers with writing code samples, troubleshooting issues, and creating technical documentation.
Education and Tutoring GPTs facilitate learning and teaching in various topics, including arithmetic, science, history, and language learning. Creative Arts GPTs assist artists, designers, and musicians in pursuing artistic interests like design and art conceptions, music and lyrics composing, and food and meal planning. Users can design their GPTs by specifying instructions and uploading appropriate documents or data.
ChatGPT Pros and Cons
The table below summarizes this popular tool’s main pros and cons to help you decide whether it’s the best application for your needs.
Pros | Cons |
---|---|
Free version offers an extensive list of extra GPT applications | Free version can’t access real-time information from the internet |
Generative content abilities can help speed up day-to-day tasks | Generative content may hallucinate from time to time |
Customizable generative content is possible through its Customize ChatGPT setting | Lacks emotional empathy for complex situations |
Alternatives to ChatGPT
ChatGPT is among the most popular AI chatbots, but it’s not the only one. Other chatbots, including Claude, Perplexity, and Meta AI, have different strengths and weaknesses that may better meet your needs. The table below shows how they compare at a high level, or read on for more detailed information about each application.
ChatGPT | Claude | Perplexity | Meta AI | |
---|---|---|---|---|
Starting price | • Free • $20 per month |
• Free • $20 per month for Pro • $25 per person/ month for Team |
• Free • $20 per month with one month free |
• Free |
Real-time access to the internet | Yes (with subscription) | No | Yes | Limited |
Generate Images | Yes | Yes | No | Yes |
Respond in a human-like tone | Yes | Yes | Yes | Yes |
Analyze uploaded images | Yes | Yes | No | No |
Claude
Anthropic’s Claude AI is a large language model that focuses on providing safe, reliable conversational AI and natural language understanding. Claude AI is known for its alignment and safety-first strategy, which strives to reduce harmful or biased answers, making it suitable for sensitive applications and use cases requiring ethical AI interactions. One of Claude’s distinguishing qualities is its capacity to manage long conversations. It has a memory that can retain past conversations and details, making interactions smoother and more consistent over time. It also provides configurable user control, allowing users to tailor Claude’s “personality” to meet their requirements and tastes. Claude AI provides both free and paid options, with the Claude Pro plan beginning at roughly $20 per month. Enterprise pricing is available for organizations requiring tailored solutions.
Perplexity
Perplexity is an AI-powered search-and-answer assistant that provides users with fast, conversational responses to complicated questions. Its real-time access to the internet replicates a search engine but with more context-driven responses. Perplexity AI gives summary information from various reliable sources, allowing users to acquire direct and brief responses without having to go through search engine results. It is beneficial for research and general questions, integrating search engine features with conversational AI to provide a more user-friendly experience. Perplexity provides free and paid plans, with the premium Perplexity Pro starting at $20 monthly. The Pro subscription contains additional features such as quicker reaction times, priority access to new features, and potentially improved accuracy for professional and heavy users.
Meta AI
Meta AI is Meta’s chatbot platform, which includes a wide range of AI models and tools targeted at enhancing both practical AI applications and basic AI research. Meta AI’s solutions include the open-source LLaMA (Large Language Model Meta AI) focused on natural language processing (NLP) and creation. This is intended to work smoothly across Meta’s ecosystem of platforms, including WhatsApp, Facebook, and Instagram. Meta AI’s multimodal features allow it to handle tasks such as image, video, and text generation, making it adaptable and applicable to a wide range of applications. Meta AI is free to use and can be accessed online through its website or Meta’s popular messaging apps such as Messenger, Instagram DMs, and WhatsApp.
How I Evaluated ChatGPT
I placed the highest weights on features, price, and ease of use, followed by integrations, intelligence, and regulatory compliance.
- Core Features (25 Percent): ChatGPT’s core features should suffice for every user. The general purpose of using an AI chatbot is to create and analyze images and generate outputs that sound personalized to each user. I found the feature set to be strong and deep, offering a wide range of capabilities for many common user applications.
- Price (20 Percent): I looked into ChatGPT’s pricing information and whether or not they offer a free trial or free version of the chatbot. Users are more inclined to use AI if it is free or doesn’t cost much for its monthly subscription to access its advanced features.
- Ease of Use (20 Percent): I tested ChatGPT’s web and mobile application versions to see how convenient their navigation is, how quickly they respond to my prompts, and how long their loading time is.
- Integrations (15 Percent): In addition to generating different types of AI content on its own chatbox, ChatGPT also has integrated applications within its interface. I tested a few of these GPT-powered applications, and each is designed for a specific task, such as brainstorming, writing, video and image generator, and more.
- Intelligence (10 Percent): Users are using ChatGPT for research purposes, which is why I added intelligence in this category. I tested ChatGPT’s knowledge base by asking questions related to recent events. As a result, ChatGPT can generate generic answers or information as of its knowledge cut-off date of October 2023.
- Regulatory Compliance (10 Percent): AI chatbots, such as ChatGPT, use large amounts of data for model training. This data may contain personal information, and users must be aware of how their data is being used. I found out that ChatGPT’s compliance with GDPR is complex and not fully established, but its API is complying with DPA for OpenAI’s APIs.
FAQ
ChatGPT is a versatile tool with a wide range of uses in personal, professional, and educational spaces. Users often take advantage of Chatgot to generate blog entries, articles, social media captions, and image and video generation. It can also be used to do general research and build business strategies since it can help brainstorm and simplify complex situations. Many businesses also benefit from ChatGPT since it can write code for a website or application, automate emails, generate customer service chatbots, draft marketing materials, and optimize workflows.
Even though ChatGP is convenient for general research and generating content, it occasionally shows signs of hallucinations. It sometimes needs to be more consistent with its responses, making it difficult to validate the accuracy of its generated information. Social biases included in its training data may be reflected in its outputs, potentially causing harm. Users relying too much on ChatGPT may be unable to think critically and be less likely to double-check facts or apply their judgment when needed.
Understanding what you need from ChatGPT will allow you to know whether you need to pay for its subscription or take advantage of its free version. ChatGPT is worth subscribing to if you need a faster response time, access to OpenAI’s image generator DALL-E, and access to real-time information on the internet. But if you use ChatGPT for its basic features, the free version of ChatGPT is more than enough to help you with anything that you need.
Bottom Line: ChatGPT Excels at General Generative Content Creation and Research
ChatGPT is a great tool for brainstorming, creating generative content, and carrying out research quickly. It is a useful tool for individuals and professionals and even helps writers because of its fast adaptation to a variety of tasks. Users must approach its outputs thoughtfully, verifying facts and guaranteeing authenticity to avoid potential issues such as inaccuracies or inadvertent plagiarism. The best outcomes are achieved by combining ChatGPT’s automation with human contribution, even while it speeds up workflows and fosters creativity. It can be a transformative tool for addressing intellectual and artistic obstacles when used properly.
To learn more about the artificial intelligence tools for help with day-to-day tasks, read our guide to the best generative AI chatbots.
Noticias
Lo que hace y no hace el PD para profesores de OpenAI
¿Qué es lo primero que deberían hacer los profesores que se sumergen en la inteligencia artificial generativa?
¿Deberían aprender a aprovechar la IA para crear el plan de lección perfecto? ¿Utilizar la herramienta para generar preguntas para un cuestionario? ¿O deberían aprender primero sobre los posibles sesgos y la desinformación que a menudo se introducen en el contenido generado por IA antes de utilizarlo en su trabajo diario?
Deberían comenzar con lo básico, según OpenAI, creador de ChatGPT y una de las empresas de investigación de inteligencia artificial más destacadas del mundo. El mes pasado, la empresa lanzó un curso en línea de una hora de duración y a su propio ritmo. para profesores de K-12 sobre la definición, el uso y los daños de la IA generativa en el aula. Se lanzó en colaboración con Common Sense Media, una organización nacional sin fines de lucro que califica y revisa una amplia gama de contenido digital según su idoneidad para la edad.
Desde su lanzamiento el 20 de noviembre, alrededor de 10.000 educadores han tomado el curso, y el 98 por ciento de los docentes “compartieron que el curso ofrecía nuevas ideas o estrategias que podrían aplicar a su trabajo”, dijo Robbie Torney, director senior de programas de IA. en Common Sense Media, en un correo electrónico.
Para Eric Curts, entrenador de IA para distritos escolares del noreste de Ohio, el curso es una “buena introducción” para los educadores que aún no han experimentado con ChatGPT o cualquier otro chatbot de IA generativa.
“No se trata sólo de hablar de los beneficios que aporta la IA. También aborda cuestiones como la necesidad de privacidad de los datos”, dijo. “Menciona varias veces que no se debe incluir información de identificación personal sobre los estudiantes”.
El curso también cubre “incitar” a la IA a realizar las tareas que usted desea, dijo Drew Olssen, coordinador de tecnología del distrito escolar de Agua Fría en Avondale, Arizona. El curso viene con una “biblioteca de indicaciones” con ejemplos de indicaciones que los maestros pueden uso: desde redactar correos electrónicos hasta crear un cuestionario para la clase.
“Es una plantilla básica y agradable de lo que harías si ingresaras a ChatGPT por primera vez”, dijo.
Formar a los profesores para que utilicen la IA requiere recursos y tiempo que muchos distritos escolares no tienen, afirmó Olssen, por lo que un curso como este, junto con otros cursos introductorios gratuitos, puede ser un buen punto de partida.
Una encuesta representativa a nivel nacional Un estudio de más de 700 profesores, realizado por el Centro de Investigación EdWeek este otoño, indicó que el 58 por ciento no había recibido ningún desarrollo profesional sobre IA generativa. Esto fue una disminución del 13 por ciento desde la última vez que el Centro de Investigación EdWeek encuestó a los maestros en la primavera. Hubo solo un aumento del 1 por ciento (del 5 al 6 por ciento) en los docentes que dijeron que recibían formación profesional continua en IA generativa.
“Estamos en las primeras etapas de adopción de la IA en K-12. Nuestra primera prioridad es equipar a los educadores con recursos fundamentales para utilizar las herramientas de inteligencia artificial de manera reflexiva y modelar un uso eficaz y responsable en el aula. Este curso, intencionadamente simple, breve y accesible, fue diseñado para comenzar a construir esa base. Estamos entusiasmados de que los educadores quieran recursos más detallados sobre estos temas”, dijo un portavoz de OpenAI.
Un curso intensivo sobre IA generativa necesita más detalles, dicen los expertos
No todo el mundo está de acuerdo con la cantidad de temas nuevos introducidos en el curso de una hora de OpenAI (que le llevó a este reportero unos 30 minutos completar) y el ritmo al que se tratan.
“Para meter tanto, [a teacher] Está garantizado que lo superará rápidamente”, dijo Eryk Salvaggio, investigador del meta(LAB) de la Universidad de Harvard, que ha trabajado en pedagogía basada en IA.
Salvaggio dijo que si bien el curso brinda a los docentes consejos sobre el uso de la IA para ahorrar tiempo y ser más productivos, aún enfatiza que los docentes deben seguir “iterando” los resultados de una consulta solicitada.
“¿La IA realmente ahorra más tiempo a los docentes que si hicieran la tarea ellos mismos?” dijo Salvaggio.
El curso OpenAI se divide en tres secciones: una explicación de la IA, consejos prácticos sobre cómo los profesores pueden usar la IA para preparar lecciones o enseñar y una lección sobre los riesgos que implica el uso de ChatGPT en el aula. Cada módulo tiene secciones de videos y cuestionarios asociados para que los profesores prueben sus conocimientos a medida que avanzan en el curso.
El principal mecanismo de capacitación es crear indicaciones sólidas para ChatGPT para que los profesores obtengan los resultados que buscan. A través de diferentes ejemplos, el curso detalla qué constituye la “mejor” indicación en comparación con una indicación “OK” o menos detallada.
Sin embargo, los ejemplos no cubren varias tareas comunes en el aula, dijo Curts, como nivelar un texto, hacer adaptaciones para estudiantes con discapacidades o idear actividades para la clase.
En las sesiones de formación del propio Curts, que duran tres horas, dedica una hora a abordar los riesgos del uso de IA generativa, que incluyen plagio, “deepfakes”y preocupaciones sobre la privacidad de los datos. La sección de OpenAI sobre daños es mucho más breve y no analiza el plagio ni los deepfakes.
“A [cover risks] correctamente, merece mucho más tiempo del que se puede dedicar en un curso introductorio como este, pero al menos pone estos temas en el radar de los profesores, lo cual creo que es importante”, dijo Curts.
El curso no explica en profundidad cómo funciona la IA, lo que otros expertos en IA identificaron como una oportunidad perdida.
“Gastan una frase en ello [at the beginning]. No se unen [how AI works] a sus limitaciones”, dijo Pat Yongpradit, director académico de Code.org y líder de TeachAI, una iniciativa que apoya a las escuelas en el uso y la enseñanza de la tecnología.
Por ejemplo, dijo, la razón por la que una herramienta como ChatGPT está sesgada es porque refleja los prejuicios del mundo que nos rodea.
Existe la suposición subyacente de que es demasiado técnico para que un consumidor medio (como un profesor) comprenda cómo funciona la IA generativa. Pero los profesores deberían tener al menos un nivel “medio” de conocimiento para entender por qué la IA funciona como lo hace, afirmó.
Además, “es importante lograr que la gente tome buenas decisiones sobre el uso de la IA”, añadió Yongpradit. El curso podría haber agregado ejemplos de sesgos específicos, o incluso ejemplos en los que no es apropiado usar IA debido a sus sesgos, dijo.
Torney, de Common Sense, dijo que el curso es una manera para que “los profesores ocupados adquieran habilidades esenciales en poco tiempo”.
Los detalles complejos y técnicos sobre cómo funciona ChatGPT se dividieron en partes manejables para que los profesores los abordaran a su propio ritmo, dijo. “Anticipamos que se necesitará más capacitación”, añadió Torney.
Los distritos pueden aprovechar este rumbo, pero tienen que trazar un camino a seguir
Yongpradit espera que el curso introductorio de OpenAI despierte el apetito de los profesores por aprender más sobre la IA.
“Lo peor sería si los profesores pensaran que este curso es todo el desarrollo profesional que necesitan”, dijo. “Tampoco creo que los creadores crean que esto sea suficiente. Esta es una pequeña porción de una oportunidad más grande”.
Yongpradit sugiere el desarrollo profesional continuo a través de comunidades de aprendizaje profesional, donde los profesores puedan compartir sus experiencias sobre el uso de la IA en sus aulas y aprender unos de otros.
El distrito escolar de Agua Fría ha implementado una versión de esta capacitación desde 2022, poco después del lanzamiento de ChatGPT por primera vez, dijo Olssen, coordinador de tecnología del distrito. Olssen reunió a un grupo de profesores, bibliotecarios, formadores de alfabetización y administradores que se reúnen todos los meses para discutir cómo utilizar la IA en las aulas.
“Es un tipo de modelo de formación de formadores”, dijo Olssen, “en el que estos embajadores dirigen sesiones de formación con otros educadores cada trimestre”.
El mes pasado, el grupo discutió cómo ir más allá del uso de la IA para realizar tareas simples como generar hojas de trabajo y, en cambio, se centró en cómo se podría usar la IA para crear experiencias de aprendizaje “más profundas” para los estudiantes, a través de proyectos o trabajos de investigación.
Cuando se trata de abordar los sesgos inherentes de la IA generativa y el potencial de desinformación, Olssen dijo que el distrito capacita a maestros y estudiantes, al comienzo del año escolar, sobre cómo evaluar el rendimiento de la IA. La capacitación del distrito es “muy explícita en cuanto a verificar la claridad, precisión, relevancia y ética de lo que escupe una plataforma de IA”, dijo.
El curso OpenAI presenta una comprensión superficial de estos riesgos, dijo Olssen, pero más allá de cualquier curso introductorio, corresponde a los distritos escolares hacer que los maestros sean plenamente conscientes de los daños de “confiar demasiado” en cualquier tecnología.
“Los educadores también están ávidos de más contenido; un tema importante en la retroalimentación ha sido el deseo de un curso más largo”, dijo Torney.
¿Quiere leer más sobre cómo los profesores pueden utilizar (y aprender sobre) la IA? Estén atentos al nuevo informe especial de la Semana de la Educación que se publicará el lunes.
Noticias
Ya nadie habla de ChatGPT
Sam Altman niega que el acuerdo de OpenAI con Microsoft se esté desmoronando y se burla del lanzamiento de productos
El director ejecutivo de OpenAI, Sam Altman, fue entrevistado hoy por Andrew Ross Sorkin en la Cumbre DealBook del New York Times y dijo algunas cosas interesantes sobre la relación de su empresa con su socio Microsoft, la nueva influencia política de Elon Musk y los límites teóricos del escalamiento de la IA. Altman también adelantó el próximo lanzamiento de productos “12 días de OpenAI”.
Se le preguntó a Altman sobre los informes de que el acuerdo de 13 mil millones de dólares de OpenAI con Microsoft está en peligro de desmoronarse:
“No creo que nos estemos desenredando. No pretenderé que no haya desajustes ni desafíos. Obviamente hay algunos. Pero en general, creo que ha sido algo tremendamente positivo para ambas empresas”.
Con respecto a la carrera armamentista de la computación con IA, se le preguntó a Altman si OpenAI necesitaba desarrollar sus propios recursos informáticos, en lugar de depender de socios (como NVIDIA y microsoft):
“No… Creo que debemos asegurarnos de tener suficiente computación del tipo que queremos, en la que podamos confiar y todo eso. Y puede haber razones por las que tenemos algunas ideas muy locas sobre cosas que nos gustaría construir que son, ya sabes, de alto riesgo y alta recompensa. Pero ciertamente no necesitamos que OpenAI se vuelva realmente bueno en la construcción de centros de datos a gran escala similares a computadoras”.
Sorkin le preguntó a Altman sobre el hecho de que nunca recibió ninguna participación en OpenAI, que busca pasar de una entidad sin fines de lucro a una empresa principal con fines de lucro.
“Mira, es raro que no obtuviera capital… No lo quería… Si pudiera retroceder en el tiempo, lo habría tomado… sólo un poquito, sólo para nunca tenerlo. para responder a esta pregunta”.
De cara a cómo serán los próximos uno o dos años de progreso en la IA, Altman dijo:
“Los agentes son de lo que todo el mundo habla… ya sabes, esta idea de que puedes darle a un sistema de IA una tarea bastante complicada, como un tipo de tarea que le asignas a un humano muy inteligente y que tarda un tiempo en ponerse en marcha y realizarla. y utilizar un montón de herramientas y crear algo de valor. Ese es el tipo de cosas que esperaría el próximo año… Si funciona tan bien como esperamos, realmente puede transformar las cosas”.
Algunas de las cosas más interesantes que dijo Altman estaban relacionadas con el cofundador de OpenAI, Elon Musk, y su startup xAI, que compite directamente con ChatGPT. Refiriéndose a xAI, Altman dijo: “Supongo que serán un competidor realmente serio… Tremendo respeto por la rapidez con la que construyeron ese centro de datos”, refiriéndose a Colossus, el enorme clúster de supercomputación de xAI impulsado por 100.000 GPU Nvidia H100.
Luego, la conversación giró hacia la nueva influencia política de Elon Musk que surge de su estrecha relación con el presidente electo Donald Trump, y cómo Musk podría usar esa influencia para beneficiar a su imperio y castigar a sus competidores:
“Sería profundamente antiestadounidense utilizar el poder político (en la medida en que lo tiene Elon) para perjudicar a sus competidores… No creo que Elon lo hiciera”.
Altman reflexionó sobre su relación personal con Musk, que se ha deteriorado: “Crecí con él como un megahéroe… Todavía me alegro de que exista”.
Cuando se le preguntó si los informes sobre las leyes de escala de la IA podrían estar chocando contra una pared, Altman no se lo creyó:
“Siempre me ha llamado la atención lo mucho que a la gente le encanta especular: ¿hay un muro? ¿Seguirá escalando? En lugar de simplemente mirar la curva de progreso y decir: ‘Tal vez no debería apostar una exponencial contra otra exponencial como esa’”.
Altman adelantó una serie de lanzamientos y demostraciones diarias de OpenAI que se llevarán a cabo durante las próximas semanas:
“Tenemos un montón de cosas nuevas y geniales… Haremos ’12 días de OpenAI’ a partir de mañana, pero lanzaremos algo o haremos una demostración todos los días durante los próximos 12 días de la semana”.
Esta publicación se ha actualizado para aclarar una cita de Sam Altman.
Se le preguntó a Altman sobre los informes de que el acuerdo de 13 mil millones de dólares de OpenAI con Microsoft está en peligro de desmoronarse:
“No creo que nos estemos desenredando. No pretenderé que no haya desajustes ni desafíos. Obviamente hay algunos. Pero en general, creo que ha sido algo tremendamente positivo para ambas empresas”.
Con respecto a la carrera armamentista de la computación con IA, se le preguntó a Altman si OpenAI necesitaba desarrollar sus propios recursos informáticos, en lugar de depender de socios (como NVIDIA y microsoft):
“No… Creo que debemos asegurarnos de tener suficiente computación del tipo que queremos, en la que podamos confiar y todo eso. Y puede haber razones por las que tenemos algunas ideas muy locas sobre cosas que nos gustaría construir que son, ya sabes, de alto riesgo y alta recompensa. Pero ciertamente no necesitamos que OpenAI se vuelva realmente bueno en la construcción de centros de datos a gran escala similares a computadoras”.
Sorkin le preguntó a Altman sobre el hecho de que nunca recibió ninguna participación en OpenAI, que busca pasar de una entidad sin fines de lucro a una empresa principal con fines de lucro.
“Mira, es raro que no obtuviera capital… No lo quería… Si pudiera retroceder en el tiempo, lo habría tomado… sólo un poquito, sólo para nunca tenerlo. para responder a esta pregunta”.
De cara a cómo serán los próximos uno o dos años de progreso en la IA, Altman dijo:
“Los agentes son de lo que todo el mundo habla… ya sabes, esta idea de que puedes darle a un sistema de IA una tarea bastante complicada, como un tipo de tarea que le asignas a un humano muy inteligente y que tarda un tiempo en ponerse en marcha y realizarla. y utilizar un montón de herramientas y crear algo de valor. Ese es el tipo de cosas que esperaría el próximo año… Si funciona tan bien como esperamos, realmente puede transformar las cosas”.
Algunas de las cosas más interesantes que dijo Altman estaban relacionadas con el cofundador de OpenAI, Elon Musk, y su startup xAI, que compite directamente con ChatGPT. Refiriéndose a xAI, Altman dijo: “Supongo que serán un competidor realmente serio… Tremendo respeto por la rapidez con la que construyeron ese centro de datos”, refiriéndose a Colossus, el enorme clúster de supercomputación de xAI impulsado por 100.000 GPU Nvidia H100.
Luego, la conversación giró hacia la nueva influencia política de Elon Musk que surge de su estrecha relación con el presidente electo Donald Trump, y cómo Musk podría usar esa influencia para beneficiar a su imperio y castigar a sus competidores:
“Sería profundamente antiestadounidense utilizar el poder político (en la medida en que lo tiene Elon) para perjudicar a sus competidores… No creo que Elon lo hiciera”.
Altman reflexionó sobre su relación personal con Musk, que se ha deteriorado: “Crecí con él como un megahéroe… Todavía me alegro de que exista”.
Cuando se le preguntó si los informes sobre las leyes de escala de la IA podrían estar chocando contra una pared, Altman no se lo creyó:
“Siempre me ha llamado la atención lo mucho que a la gente le encanta especular: ¿hay un muro? ¿Seguirá escalando? En lugar de simplemente mirar la curva de progreso y decir: ‘Tal vez no debería apostar una exponencial contra otra exponencial como esa’”.
Altman adelantó una serie de lanzamientos y demostraciones diarias de OpenAI que se llevarán a cabo durante las próximas semanas:
“Tenemos un montón de cosas nuevas y geniales… Haremos ’12 días de OpenAI’ a partir de mañana, pero lanzaremos algo o haremos una demostración todos los días durante los próximos 12 días de la semana”.
Esta publicación se ha actualizado para aclarar una cita de Sam Altman.
Noticias
🔮 De ChatGPT a mil millones de agentes
Hola, soy Azeem.
Estoy en la Cumbre DealBook en Nueva York hoy y acabo de escuchar a Sam Altman hablar sobre su visión sobre los próximos años:
Espero que en 2025 tengamos sistemas que la gente mire, incluso aquellos que son escépticos sobre el progreso actual, y digan: ‘Vaya, no esperaba eso’. Los agentes son de lo que todo el mundo habla y por una buena razón. Esta idea de que puedes darle a un sistema de IA una tarea bastante complicada, el tipo de tarea que le darías a un ser humano muy inteligente, que lleva un tiempo implementar y usar un montón de herramientas y crear algo de valor. Ese es el tipo de cosas que esperaría el próximo año. Y eso es un gran problema. Si eso funciona tan bien como esperamos, realmente puede transformar las cosas.
Los agentes han estado en mi hoja de ruta por un tiempo. El año pasado hablé de nuestra mil millones de agentes futuros e invirtió en un par de nuevas empresas que construyen sistemas agentes. En la publicación de hoy, analizamos cómo pensamos que pasaremos de asistentes de inteligencia artificial como ChatGPT a miles de millones de agentes que nos respaldan en segundo plano. ¡Disfrutar!
Por
y
En un futuro muy cercano, los trabajadores del conocimiento podrían contar con el apoyo de miles de agentes de IA, todos operando en paralelo. Esto no es futurismo especulativo. Jensen Huang de Nvidia habló recientemente sobre el papel de los agentes Ya juega en Nvidia y cómo ve su futuro:
Puntilla: ¿Ya estás utilizando cadenas de razonamiento y herramientas como o1 en nuestro propio negocio para mejorarlo?
Jensen: Absolutamente. Nuestro sistema de ciberseguridad actual no puede funcionar sin nuestros propios agentes. Contamos con agentes de IA que ayudan a diseñar chips: Hopper no sería posible, Blackwell no sería posible y ni siquiera pensamos en Rubin. Contamos con diseñadores de chips de IA, ingenieros de software de IA e ingenieros de verificación de IA, y los construimos todos internamente. Tenemos la capacidad y preferiríamos aprovechar la oportunidad para explorar la tecnología nosotros mismos. Espero que Nvidia algún día sea una empresa de 50.000 empleados con 100 millones de asistentes de IA […] Las IA reclutarán a otras IA para resolver problemas […] Por lo tanto, seremos simplemente una gran base de empleados, algunos de ellos digitales y otros biológicos.
De manera similar, Sam Altman anticipa el surgimiento de una unicornio unipersonal—Una empresa de mil millones de dólares administrada por un solo individuo que aprovecha un ejército de agentes de IA.
Los asistentes de IA actuales, como ChatGPT, requieren una participación humana constante: son copilotos, no actores autónomos. La próxima evolución, que ya está en marcha, es la de agentes que ejecutan tareas de forma independiente una vez que se les asigna un objetivo, muy parecido a delegar a un equipo experimentado y dar un paso atrás mientras ellos se encargan del resto. Y no hay límite para el tamaño de este equipo.
Para ayudarle a entender esto, nos asociamos con
ingeniero de aprendizaje automático, escritor y editor en jefe de .
Juntos, exploraremos tres áreas en la publicación de hoy:
-
El estado actual de los agentes de IA y sus aplicaciones en el mundo real.
-
¿Por qué su adopción generalizada se está volviendo inevitable?
-
Cómo esta transición podría conducir a un futuro en el que miles de millones de agentes aumenten el trabajo humano.
Los agentes han sido una prioridad para los científicos informáticos durante décadas, pero hasta hace poco se lograron pocos avances. Lo lejos que hemos llegado se refleja mejor en una cita de un artículo de 1997 por los científicos informáticos Christopher Welty y Louis Hoebel, quienes luego escribieron
Cualquiera que tenga conocimientos sobre “agentes” no puede evitar reconocer que, como tecnología de inteligencia artificial, normalmente hay muy poca inteligencia real involucrada. En cierto sentido, los Agentes pueden definirse como IA a pequeña escala que funciona.
La era ChatGPT introdujo sistemas basados en LLM que actualmente consideramos “agentes de IA”. Los primeros prototipos como BebéAGIpor ejemplo, demostró que la planificación de tareas podría permitir a los LLM actuar de forma autónoma.
Ejemplo de Yohei Nakajima
Las últimas mejoras se han capturado en puntos de referencia (consulte la Informe sobre el estado de la IA 2024 para profundizar) e investigaciones que demuestran que los LLM existentes se pueden utilizar para crear agentes que aprenden continuamente en entornos abiertos (como Minecraft).
Lanzamiento de DeepMind gatoun “agente generalista” que utiliza la misma idea subyacente en los LLM para realizar tareas, desde apilar bloques con un brazo robótico real hasta subtitular imágenes. Joon Park y sus colegas propusieron Agentes generativos como una caja de arena interactiva que se utilizará principalmente para las ciencias sociales. En ciencias duras, investigadores de Stanford crearon un laboratorio virtual que utilizaba agentes crear 92 nuevos diseños de nanocuerposincluidos múltiples nanocuerpos con actividad de unión exitosa contra el virus que causa Covid-19 (como se destaca en EV#501).
En la empresa, Adepto imaginó un asistente digital que podría convertir un comando de texto en una serie de acciones, como hacer un plano para una pieza nueva de un automóvil, y recaudó 350 millones de dólares hacerlo antes de ser absorbido en Amazon.
En el ámbito del consumo, empresas emergentes como Shortwave han desarrollado agentes que pueden desempeñar el papel de asistentes ejecutivos para gestionar y estructurar la información en dominios como el correo electrónico. Azeem ha invertido en dos nuevas empresas de agentes, WordWare y Mellizo.
Mientras tanto, Microsoft ha estado aprovechando su fortaleza en software empresarial para establecer silenciosamente un punto de apoyo en esta área. Encima 100.000 de sus clientes empresariales ya están experimentando en Copilot Studio, creando agentes autónomos personalizados o implementando soluciones listas para usar.
Hiscox, una aseguradora, utilizó agentes para reducir el tiempo de cotización de riesgos complejos de tres días a unos pocos minutos. De manera similar, McKinsey, utilizando el ecosistema de agentes de Microsoft, ha reducido su flujo de trabajo de admisión de proyectos de 20 días a dos días.
Durante el siglo pasado, hemos sido testigos de asombrosos aumentos de productividad en industrias como la manufacturera y la agrícola: las fábricas producen productos exponencialmente más rápido y las granjas alimentan a miles de millones con una fracción de la fuerza laboral que alguna vez necesitaron. Sin embargo, en las aulas todavía se necesita un maestro para educar a 30 estudiantes. Esto es La maldición de Baumol. Cuando los salarios aumentan en sectores de alta productividad como el manufacturero, los servicios intensivos en mano de obra deben aumentar los salarios para competir, incluso si su productividad permanece estancada. Así, mientras los productos manufacturados se abaratan, muchos servicios se encarecen.
En el centro de esta cuestión está nuestra incapacidad para escalar nuestra propia humano tiempo. Según la Ley de Amdahl, la velocidad de un sistema está limitada por su componente más lento. En muchas partes del sector de servicios, esto se reduce a limitaciones en torno a los procesos dependientes de los seres humanos. La Revolución Industrial superó las limitaciones físicas mediante la mecanización; La IA podría ser una oportunidad similar para superar los obstáculos cognitivos al otro lado de…
-
Velocidad: Los sistemas de IA operan mucho más allá de los tiempos de reacción humanos, procesando datos en milisegundos. El LLM más rápido produce resultados a 6000 veces la velocidad que puede alcanzar un humano.
-
Escala: Podemos implementar tantos agentes de IA como lo permitan nuestros recursos computacionales, superando potencialmente la población humana.
-
Paralelización: Las tareas se pueden dividir entre miles o incluso millones de agentes de IA. En lugar de analizar 100 documentos secuencialmente, 100 agentes de IA pueden procesarlos simultáneamente y fusionar sus hallazgos en un solo informe.
-
Eficiencia de costes: Con el tiempo, los agentes se vuelven más baratos que la mano de obra humana, especialmente cuando se escala. En este momento podemos conseguir un sistema protoagente para realizar un metanálisis de 200 artículos de ArXiv por aproximadamente el 1% del costo humano. AlphaFold predijo 200 millones de estructuras proteicas, cada una de las cuales tradicionalmente cuesta $100,000 y un doctorado completo para determinar.
-
Personalización: En lugar de dividir un servicio humano entre muchos, la IA permite experiencias individualizadas para todos: un tutor privado para usted o su hijo, por ejemplo.
-
Aprendizaje y adaptación: Como sostiene el investigador independiente Gwern Branwen: “Todo problema suficientemente difícil se convierte en un problema de aprendizaje por refuerzo.“Cada desafío complejo requiere tomar secuencias de decisiones bajo incertidumbre donde cada elección afecta las opciones y resultados futuros, que es exactamente lo que resuelve el aprendizaje por refuerzo. Con esto, los sistemas de IA pueden ejecutar millones de experimentos paralelos, agregar sus aprendizajes mediante el reparto de peso y actuar sobre esos conocimientos de una manera que los sistemas biológicos no pueden.
Durante el próximo año, el despliegue de agentes tomará un “Gatear, caminar, correr” acercarse. Las empresas están experimentando con casos de uso simples, antes de expandirse en complejidad. De ahí todo lo que se habla de los agentes de servicio al cliente, una implementación fácil y de riesgo relativamente bajo. Pero la complejidad y la variedad de tareas que un agente puede realizar crecerán.
Para pensar más en una evolución que podríamos comenzar a ver el próximo año, veamos una profesión que todos aman… los abogados.
De acuerdo a una base de datos mantenida por el Departamento de Trabajo de EE. UU.los abogados realizan 22 tareas profesionales distintas. Una de estas tareas principales es la preparación de escritos y dictámenes legales para presentaciones judiciales. Imagine a un socio de una firma de abogados asignando un complejo escrito de apelación a lo que parece ser un único asistente de IA, pero que en realidad es una orquesta de agentes especializados, cada uno con una “experiencia” distinta.
El proceso comienza en el momento en que se cargan los expedientes del caso. Un agente coordinador (un director de proyectos de IA, por así decirlo) analiza inmediatamente los requisitos del tribunal y los plazos de presentación. En cuestión de segundos, un agente de investigación revisa bases de datos legales a una velocidad sobrehumana. Identifica todos los precedentes relevantes y patrones sutiles en el razonamiento judicial en casos similares. Al mismo tiempo, un agente de análisis de casos examina el expediente del juicio, relaciona los hechos del caso con elementos legales e identifica argumentos prometedores que los abogados humanos podrían pasar por alto en miles de páginas de testimonios.
Así como un agente de redacción elabora argumentos preliminares en un lenguaje legal preciso, un agente de gestión de citaciones garantiza que cada referencia cumpla con los estándares del Bluebook y valida que cada caso citado siga siendo una buena ley. Un agente de cumplimiento técnico monitorea continuamente el formato, el recuento de palabras y las reglas judiciales en tiempo real, mientras que un agente de control de calidad valida las cotizaciones y garantiza la coherencia lógica. El agente coordinador contrata a otros agentes, gestiona los flujos de trabajo y resuelve conflictos.
Y esto es sólo para una única tarea…
La magia del sistema agente es que puede escalar. Podría tener una docena o más de informes preparados en paralelo. Lo que comienza con unos pocos agentes especializados manejando un informe legal rápidamente se convierte en cascada. Empezar con 1,3 millones de abogados estadounidensescada uno de los cuales despliega 5 agentes especializados para cada una de las 22 tareas que realizan; eso ya son mil millones de agentes. Eso es sólo para 1 millón de abogados… Se estima que hay 1.000 millones trabajadores del conocimiento en todo el mundo. Habrá miles de millones de agentes. Y esto supone 5 agentes por tarea. ¿Pero por qué no 5, 10, 100 agentes? Teóricamente no hay más límite que el de eficacia.
Pero hacer que las organizaciones de abogados sean más eficientes no es lo único que los agentes permitirán. Como señala Flo Crivello, fundador y CEO de Lindy, cuando las herramientas se vuelven exponencialmente más baratas, pasan de ser activos corporativos a permitir la creatividad individual:
-
Recursos7 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups7 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos7 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Eventos7 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias5 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial Aplicada de 4Geeks Academy 2024