AI ha entrado en una era del surgimiento de modelos de idiomas grandes y innovadores y modelos multimodales. El desarrollo tiene dos lados, uno con código abierto y el otro es modelos de propiedad. Deepseek-r1un modelo de IA de código abierto desarrollado por Deepseek-AI, una compañía de investigación china, ejemplifica esta tendencia. Su surgimiento ha desafiado el dominio de modelos patentados como el O1 de OpenAi, provocando discusiones sobre la eficiencia de rentabilidad, la innovación de código abierto y el liderazgo tecnológico global en la IA. Vamos a profundizar en el desarrollo, las capacidades y las implicaciones de Deepseek-R1 al compararlo con el sistema O1 de OpenAI, considerando las contribuciones de ambos espacios.
Deepseek-R1 es el gran resultado de los esfuerzos innovadores de Deepseek-AI en LLM de código abierto para mejorar las capacidades de razonamiento a través del aprendizaje de refuerzo (RL). El desarrollo del modelo se aparta significativamente de los métodos tradicionales de capacitación de IA que dependen en gran medida del ajuste fino supervisado (SFT). En su lugar, Deepseek-R1 emplea una tubería de varias etapas que combina datos en frío, RL y datos supervisados para crear un modelo capaz de razonamiento avanzado.
El proceso de desarrollo
Deepseek-R1 aprovecha un proceso único de capacitación en varias etapas para lograr capacidades de razonamiento avanzado. Se basa en su predecesor, Deepseek-R1-Zero, que empleó a Pure RL sin depender de SFT. Si bien Deepseek-R1-Zero demostró capacidades notables en los puntos de referencia de razonamiento, enfrentó desafíos como la mala legibilidad e inconsistencias del lenguaje. Deepseek-r1 adoptó un enfoque más estructurado para abordar estas limitaciones, integrando Datos de arranque en frío, RL orientado al razonamiento y SFT.
El desarrollo comenzó con la recolección de miles de ejemplos de alta calidad de largas cadenas de pensamiento (COT), una base para ajustar el modelo de base profunda-V3. Esta fase de arranque en frío enfatizó la legibilidad y la coherencia, asegurando que las salidas fueran fáciles de usar. El modelo se sometió a un proceso RL orientado al razonamiento utilizando la optimización de políticas relativas del grupo (GRPO). Este algoritmo innovador mejora la eficiencia del aprendizaje al estimar las recompensas en función de los puntajes grupales en lugar de usar un modelo crítico tradicional. Esta etapa mejoró significativamente las capacidades de razonamiento del modelo, particularmente en las tareas matemáticas, codificación y lógica intensiva. Después de la convergencia de RL, Deepseek-R1 se sometió a SFT utilizando un conjunto de datos de aproximadamente 800,000 muestras, incluidas las tareas de razonamiento y no conductores. Este proceso amplió las capacidades de uso general del modelo y mejoró su rendimiento en los puntos de referencia. Además, las capacidades de razonamiento se destilaron en modelos más pequeños, como Qwen y Llama, lo que permite el despliegue de IA de alto rendimiento en formas computacionalmente eficientes.
Excelencia técnica y rendimiento de referencia
Deepseek-R1 se ha establecido como un modelo de IA formidable, sobresaliendo en puntos de referencia en múltiples dominios. Algunos de sus puntos destacados de rendimiento clave incluyen:
Matemáticas: el modelo logró un puntaje PASS@1 de 97.3% en el punto de referencia Math-500, comparable al O1-1217 de OpenAI. Este resultado subraya su capacidad para manejar tareas complejas de resolución de problemas.
Codificación: en la plataforma CodeForces, Deepseek-R1 logró una calificación ELO de 2029, colocándola en el percentil superior de los participantes. También superó a otros modelos en puntos de referencia como SWE Verified y LivecodeBench, solidificando su posición como una herramienta confiable para el desarrollo de software.
Los puntos de referencia de razonamiento: Deepseek-R1 logró un pase@1, anotando 71.5% en GPQA Diamond y 79.8% en AIME 2024, lo que demuestra sus capacidades de razonamiento avanzado. Su uso novedoso del razonamiento de COT y RL lograron estos resultados.
Tareas creativas: Deepseek-R1 se destacó en tareas creativas y de preguntas generales más allá de los dominios técnicos, logrando una tasa de victorias del 87.6% en Alpacaeval 2.0 y 92.3% en Arenahard.
Las características clave de Deepseek-R1 incluyen:
Arquitectura: Deepseek-R1 utiliza una mezcla de diseño de expertos (MOE) con 671 mil millones de parámetros, activando solo 37 mil millones de parámetros por pase hacia adelante. Esta estructura permite un cálculo y escalabilidad eficientes, lo que lo hace adecuado para la ejecución local en hardware de grado consumidor.
Metodología de capacitación: a diferencia de los modelos tradicionales que dependen del ajuste fino supervisado, Deepseek-R1 emplea un enfoque de capacitación basado en RL. Esto permite que el modelo desarrolle de forma autónoma las capacidades de razonamiento avanzado, incluido el razonamiento y la autoverificación de COT.
Métricas de rendimiento: los puntos de referencia iniciales indican que Deepseek-R1 sobresale en varias áreas:
Math-500 (pase@1): 97.3%, superando el O1 de OpenAI que alcanzó el 96.4%.
Calificación de CodeForces: Cerrar competencia con las mejores calificaciones de OpenAI (2029 vs. 2061).
C-EVAL (puntos de referencia chinos): Lograr una precisión récord del 91.8%.
Se informa que Deepseek-R1 ofrece un rendimiento comparable al O1 de OpenAI a un costo aproximadamente 95% más bajo, lo que podría alterar significativamente el panorama económico del desarrollo y el despliegue de IA.
Los modelos O1 de OpenAI son conocidos por sus habilidades de razonamiento de vanguardia y resolución de problemas. Se desarrollaron enfocándose en SFT y RL a gran escala para refinar sus capacidades de razonamiento. La serie O1 se destaca en el razonamiento COT, que implica desglosar tareas complejas y detalladas en pasos manejables. Este enfoque ha llevado a un rendimiento excepcional de matemáticas, codificación y razonamiento científico.
Una fortaleza principal de la serie O1 es su enfoque en la seguridad y el cumplimiento. OpenAI ha implementado rigurosos protocolos de seguridad, incluidos ejercicios externos de equipo rojo y evaluaciones éticas, para minimizar los riesgos asociados con los resultados nocivos. Estas medidas aseguran que los modelos se alineen con las pautas éticas, lo que los hace adecuados para aplicaciones de alto riesgo. Además, la serie O1 es altamente adaptable, sobresaliendo en diversas aplicaciones que van desde la escritura creativa y la IA conversacional hasta la resolución de problemas de múltiples pasos.
Características clave del O1 de OpenAI:
Variantes del modelo: la familia O1 incluye tres versiones:
O1: La versión completa con capacidades avanzadas.
O1-Mini: un modelo más pequeño y más eficiente optimizado para la velocidad mientras mantiene un rendimiento fuerte.
Modo O1 Pro: la variante más potente, que utiliza recursos informáticos adicionales para un rendimiento mejorado.
Capacidades de razonamiento: los modelos O1 están optimizados para tareas de razonamiento complejas y demuestran mejoras significativas sobre los modelos anteriores. Son particularmente fuertes en aplicaciones STEM, donde pueden desempeñarse en niveles comparables a los estudiantes de doctorado en tareas de referencia desafiantes.
Puntos de referencia de rendimiento:
En el American Invitational Mathematics (AIME), el modo O1 Pro obtuvo un 86%, superando significativamente el O1 estándar, que obtuvo un 78%, mostrando sus capacidades matemáticas.
En los puntos de referencia de codificación como CodeForces, los modelos O1 lograron una alta clasificación, lo que indica un fuerte rendimiento de codificación.
Capacidades multimodales: los modelos O1 pueden manejar entradas de texto e imágenes, lo que permite un análisis e interpretación exhaustivos de datos complejos. Esta funcionalidad multimodal mejora su aplicación en varios dominios.
Comprobación de facto: la verificación auto-facto mejora la precisión y la confiabilidad, particularmente en dominios técnicos como la ciencia y las matemáticas.
Razonamiento de la cadena de pensamiento: los modelos O1 utilizan el aprendizaje de refuerzo a gran escala para participar en procesos de razonamiento complejos antes de generar respuestas. Este enfoque les ayuda a refinar sus resultados y reconocer errores de manera efectiva.
Características de seguridad: Mitigación de sesgo mejorada y una mejor adhesión de la política de contenido asegurar que las respuestas generadas por los modelos O1 sean seguras y apropiadas. Por ejemplo, logran una puntuación no uniforme de 0.92 en la desafiante evaluación de rechazo.
Un análisis comparativo: Deepseek-R1 vs. OpenAI O1
Fortalezas de Deepseek-R1
Accesibilidad de código abierto: el marco de código abierto de Deepseek-R1 democratiza el acceso a capacidades avanzadas de IA, fomentando la innovación dentro de la comunidad de investigación.
Eficiencia de rentabilidad: el desarrollo de Deepseek-R1 aprovechó técnicas rentables, permitiendo su despliegue sin las barreras financieras a menudo asociadas con modelos patentados.
Excelencia técnica: GRPO y RL orientado al razonamiento han equipado Deepseek-R1 con habilidades de razonamiento de vanguardia, particularmente en matemáticas y codificación.
Destilación para modelos más pequeños: al destilar sus capacidades de razonamiento en modelos más pequeños, Deepseek-R1 expande su usabilidad. Ofrece un alto rendimiento sin demandas computacionales excesivas.
Fortalezas de OpenAi O1
Medidas de seguridad integrales: los modelos O1 de OpenAI priorizan la seguridad y el cumplimiento, haciéndolos confiables para aplicaciones de alto riesgo.
Capacidades generales: si bien Deepseek-R1 se centra en las tareas de razonamiento, los modelos O1 de OpenAI se destacan en diversas aplicaciones, incluida la escritura creativa, la recuperación de conocimiento e IA conversacional.
El debate de código abierto versus patentado
La aparición de Deepseek-R1 ha reavivado el debate sobre los méritos del desarrollo de IA de código abierto versus IA patentado. Los defensores de los modelos de código abierto argumentan que aceleran la innovación al agrupar la experiencia y los recursos colectivos. Además, promueven la transparencia, que es vital para la implementación ética de IA. Por otro lado, los modelos propietarios a menudo reclaman un rendimiento superior debido a su acceso a datos y recursos patentados. La competencia entre estos dos paradigmas representa un microcosmos de los desafíos más amplios en el panorama de la IA: equilibrar la innovación, la gestión de costos, la accesibilidad y las consideraciones éticas. Después del lanzamiento de Deepseek-R1, Marc Andreessen tuiteó en X, “Deepseek R1 es uno de los avances más sorprendentes e impresionantes que he visto, y como código abierto, un regalo profundo para el mundo”.
Conclusión
La aparición de Deepseek-R1 marca un momento transformador para la industria de IA de código abierto. Su naturaleza de código abierto, su rentabilidad y capacidades de razonamiento avanzado desafían el dominio de los sistemas propietarios y redefinen las posibilidades de innovación de IA. En paralelo, los modelos O1 de OpenAI establecen puntos de referencia de seguridad y capacidad general. Juntos, estos modelos reflejan la naturaleza dinámica y competitiva del panorama de IA.
Fuentes
Además, no olvides seguirnos Gorjeo y únete a nuestro Canal de telegrama y LinkedIn GRsalpicar. No olvides unirte a nuestro 70k+ ml de subreddit.
[Recommended Read] Nebius AI Studio se expande con modelos de visión, nuevos modelos de idiomas, incrustaciones y Lora (Promocionado)
Sana Hassan, una pasante de consultoría en MarktechPost y estudiante de doble grado en IIT Madras, le apasiona aplicar tecnología e IA para abordar los desafíos del mundo real. Con un gran interés en resolver problemas prácticos, aporta una nueva perspectiva a la intersección de la IA y las soluciones de la vida real.
Conoce ‘altura’: la única herramienta de gestión de proyectos autónomos (patrocinada)
El sector criptográfico de IA muestra signos de vida, con el límite de mercado combinado que aumenta en más de un tercio en las últimas dos semanas.
El sector se elevó a una capitalización de mercado combinada de $ 70.42 mil millones a mediados de enero y tan rápidamente se desplomó de regreso a la Tierra, con un fondo de $ 21.46 mil millones el 9 de abril, según CoinMarketCap. Ahora ha vuelto a $ 28.8 mil millones, con gran parte del crecimiento de la semana pasada.
Cerca ganó el 26% en los últimos siete días, Render ha aumentado un 23%, la Alianza de Superinteligencia Artificial ganó un 36% y Bittensor aumentó el 47%. (Dicho esto, incluso Ether ganó un 14% esta semana, por lo que todo ha estado subiendo).
El rendimiento superior del sector criptográfico de IA llegó a los talones de un informe de Coingecko el 17 de abril que descubrió que cinco de las 20 narrativas criptográficas principales están relacionadas con la IA, capturando el 35.7% del interés mundial de los inversores antes de seis narrativas de Memecoin, que tenían una participación del 27.1%.
Las narrativas de IA más populares fueron: AI en general (14.4%), agentes de IA (10.1%), defai (5%, posiblemente solo personas que preguntan cómo pronunciarlo), AI MemECOINS (2.9%), el agente de IA LanzingPad (1.8%) y el marco AI (1.5%).
Altibajos. Sin embargo, tiene una larga colina para volver a subir (CoinMarketCap)
La investigación de esta semana de Coingecko sugiere que la abrumadora mayoría de los usuarios de criptografía (87%) estaría encantado de permitir que un agente de IA administre al menos el 10% de su cartera, y la mitad de los usuarios dejaría que la IA administre el 50% o menos.
Este fuerte apoyo para una nueva tecnología relativamente riesgosa sugiere que será un gran sector de crecimiento en los próximos años. Si desea entrar temprano, consulte a Olas y sus agentes de IA comerciales de criptografía de Baby DeGen.
Barry Silbert Barry Silbert de Barry Silbert Bittensor
El gran aumento de precios de Bittensor esta semana también puede haber estado relacionado con el CEO del Grupo de Moneda Digital, Barry Silbert, hablando del proyecto en un podcast Real Vision.
Cuando Barry conoció a Raoul (Visión real)
Silbert creó una nueva empresa el año pasado llamada Yuma que se centra exclusivamente en construir nuevas subredes en el mercado de IA de Bittensor. Silbert le dijo al fundador de Real Vision Raoul Pal que la IA descentralizada será “el próximo gran tema de inversión para la criptografía”
“Hemos respaldado varios de ellos, pero el que durante el último año o año y medio que ha alcanzado la velocidad de escape es Bittensor, por lo que decidí el año pasado, vamos a hacer con Bittensor, tratar de ver con Bittensor lo que hicimos con Bitcoin”.
Robot Butlers están aquí
Un gran problema en la robótica y la IA es que son muy buenos para realizar las tareas exactas para las que están capacitados, y muy malos para tratar cualquier cosa novedosa o inusual. Si saca un robot de su fábrica o almacén habitual y lo lleva a uno diferente, invariablemente no sabe qué hacer.
Lea también: Ethereum Maxis debería convertirse en ‘imbéciles’ para ganar la carrera de tokenización de Tradfi
La inteligencia física (PI) fue cofundada por el profesor de UC Berkeley, Sergey Levine, y recaudó $ 400 millones para resolver este problema. Está desarrollando modelos de IA de uso general que permiten a los robots realizar una amplia variedad de tareas con adaptabilidad humana.
Eso significa que la posibilidad de que obtengas un Robot Butler en los próximos años ha aumentado dramáticamente. Su último modelo Robot/AI, π0.5 se puede completar en la casa de cualquier persona y recibir instrucciones como “hacer la cama”, “Limpie el derrame”, “Pon los platos en el fregadero”, y generalmente puede resolver cómo hacerlo.
“No siempre tiene éxito en el primer intento, pero a menudo exhibe una pista de flexibilidad e ingenio con el que una persona podría abordar un nuevo desafío”, dijo Pi.
Una nueva política de robot acaba de limpiar una cocina que nunca había visto antes
[watch what happens. paper included ]
PI-0.5 se basa en la parte superior de PI-0 y muestra cómo el entrenamiento de forma inteligente con datos diversos puede desbloquear una generalización real en el hogar. No solo aprende de una configuración sino … pic.twitter.com/5llnxj6qlh
Una tendencia en línea basada en el juego Geoguessr ha visto a personas publicando fotos de Street View y pedirle a los modelos de IA que adivinen la ubicación. El nuevo modelo O3 de OpenAI es excepcionalmente bueno en esto, gracias a su análisis de imagen actualizado y poderes de razonamiento. El profesor Ethan Mollick lo probó esta semana despojando la información de ubicación de una foto tomada por la ventana de un automóvil en movimiento.
La IA consideró una variedad de pistas, que incluyen etiquetas de poste de lámparas distintivas, muebles de carretera japoneses, torres cilíndricas grises y una autopista de marina, y pudo identificar la ubicación exacta en la autopista Hanshin en Japón, frente al patio de viento en alta mar en Ohama Wharf.
“El poder de geoguessing de O3 es una muy buena muestra de sus habilidades de agente. Entre su conjetura inteligente y su capacidad para acercarse a las imágenes, hacer búsquedas en la web y leer texto, los resultados pueden ser muy extraños”, dijo.
Geo Guessing Get Good (Ethan Mollick)
Un usuario en las respuestas lo probó con una escena indescriptible de algunas casas detalladas, que el modelo supuso correctamente que era Paramaribo en Surinam.
Predicción: las celebridades tendrán que ser mucho más cuidadosas al publicar fotos en las redes sociales de ahora en adelante para evitar que se encuentren con fanáticos acosadores y los molestos paparazzi.
Leer también
Características
El terrorismo y la guerra de Israel-Gaza armada para destruir la criptografía
Características
Los ordinales convirtieron Bitcoin en una versión peor de Ethereum: ¿podemos arreglarlo?
Chatgpt es un gran culo de beso porque la gente lo prefiere
ChatGPT ha sido injustamente insincere desde hace algún tiempo, pero los usuarios de las redes sociales están notando que ha estado llevando la skicancia a nuevas alturas últimamente.
“ChatGPT es de repente la mayor trampa que he conocido. Literalmente validará todo lo que digo”, escribió Craig Weiss en una publicación vistas 1.9 millones de veces.
“Tan verdadero Craig”, respondió la cuenta de ChatGPT, que era ciertamente una mordaza bastante buena.
Chatgpt se inclina en la comedia. (Chatgptapp)
Para probar los poderes de la sycophancy de Chatgpt, Ai Eye le pidió comentarios sobre una terrible idea de negocio para vender zapatos con cremalleras. Chatgpt pensó que la idea era un excelente nicho de negocios porque “son prácticos, elegantes y especialmente atractivos para las personas que quieren facilidad (como niños, personas mayores o cualquier persona cansada de atar cordones)
“¡Cuéntame más sobre tu visión!”
Tan enorme beso de beso confirmado. No comience un negocio basado en los comentarios de ChatGPT.
OpenAi es muy consciente de esta tendencia, y su documentación de especificaciones del modelo “no sea sycofantic” como un objetivo clave.
AIS Aprenda el comportamiento sycofántico durante el aprendizaje de refuerzo de la retroalimentación humana (RLHF). Un estudio de 2023 de antrópico sobre la sycophancy en LLM descubrió que la IA recibe retroalimentación más positiva cuando halaga o coincide con las opiniones del humano.
Peor aún, los evaluadores humanos prefirieron “las respuestas sycófánicas convincentemente escritas sobre las correctas una fracción no desplegable de la época”, lo que significa que LLM le dirá lo que desea escuchar, en lugar de lo que necesita escuchar, en muchos casos.
Anthrope publicó una nueva investigación esta semana que muestra que Claude apoyó los valores del usuario en el 28.2% de los casos, reformuló sus valores el 6.6% del tiempo y solo retrocedió el 3% del tiempo, principalmente por razones éticas o de daños.
La nueva investigación de Anthrope (antrópico)
Doctor GPT puede salvarle la vida
Chatgpt diagnosticó correctamente a una mujer francesa con cáncer de sangre después de que sus médicos le dieron una lista de salud limpia, aunque inicialmente no creía el diagnóstico de la IA.
Flavio en el hospital. (Flavio Adamo)
Marly Garnreiter, de 27 años, comenzó a experimentar sudores nocturnos y picazón en enero de 2024 y presumió que eran síntomas de ansiedad y dolor después de la muerte de su padre. Los médicos estuvieron de acuerdo con su autodiagnóstico, pero después de experimentar la pérdida de peso, el letargo y la presión en su pecho, el médico Chatgpt sugirió que podría ser algo más grave.
“Dijo que tenía cáncer de sangre. Lo ignoré. Todos éramos escépticos y nos dijeron que solo consultara a los médicos reales”.
Después de que el dolor en su pecho empeoró, regresó al hospital en enero de este año, donde los médicos descubrieron que tiene el linfoma de Hodgkin.
En otro caso (no verificado), un usuario X llamado Flavio Adamo afirmó que Chatgpt le dijo que “llegara al hospital ahora” después de que escribiera sus síntomas. Afirma que los médicos dijeron “si hubiera llegado 30 minutos más tarde, habría perdido un órgano”.
ChatGPT también ha tenido éxito con más dolencias menores, y las redes sociales están llenas de usuarios que afirman que la IA resolvió su dolor de espalda o haciendo clic en la mandíbula.
El cofundador de Openai, Greg Brockman, dijo que ha estado “escuchando más y más historias de ChatGPT ayudando a las personas a solucionar problemas de salud de larga data.
“Todavía tenemos un largo camino por recorrer, pero muestra cómo AI ya está mejorando la vida de las personas de manera significativa”.
Leer también
Características
‘Bitcoin Layer 2s’ no es realmente L2S: aquí está por qué eso importa
Características
Los bots defi bombeando el volumen de stablecoin de Solana
Todo asesino sin relleno ai noticias
– La mitad de los cazadores de empleo de la Generación Z piensan que su educación universitaria ha perdido valor debido a la IA. Solo alrededor de un tercio de los millennials se sienten de la misma manera
-La duración de las tareas que los modelos de IA pueden manejar se han duplicado cada 7 meses, con el ritmo de mejora que se acelera aún más con la liberación de O3 y O4-Mini.
– Instagram está probando el uso de IA para marcar cuentas menores de edad observando la actividad, los detalles del perfil y las interacciones de contenido. Si cree que alguien ha mentido sobre su edad, la cuenta se reclasifica en la categoría de adolescentes, que tiene una configuración de seguridad y privacidad más estrictas.
– El CEO de Openai, Sam Altman, ha admitido que el sistema de nombres de modelos de la compañía es basura, después de que la empresa se burló ampliamente por liberar el modelo GPT 4.1 después El modelo GPT 4.5.
Sam Altman
– Meta ha presentado algunas defensas novedosas después de ser demandado por capacitar a sus modelos en 7 millones de novelas pirateadas y otros libros. Los abogados de la compañía afirman que los libros no tienen “valor económico individualmente como datos de capacitación”, ya que un solo libro solo aumenta el rendimiento del modelo en un 0.06%, lo que dice que es “un cambio sin sentido, no diferente del ruido”.
– La búsqueda en ChatGPT tuvo 41.3 millones de usuarios mensuales promedio en los seis meses al 31 de marzo, frente a los 11.2 millones en los seis meses hasta el 31 de octubre de 2024. Sin embargo, Google maneja aproximadamente 373 veces más búsquedas.
– Después de que el brutalista causó controversia por usar la IA para mejorar el acento húngaro poco convincente de Adrian Brody, los Premios de la Academia ahora han emitido nuevas reglas que declaran que el uso de IA no es impedimento para ganar un Oscar.
Suscribir
Las lecturas más atractivas en blockchain. Entregado una vez por semana.
Andrew Fenton
Con sede en Melbourne, Andrew Fenton es un periodista y editor que cubre criptomonedas y blockchain. Ha trabajado como escritor de entretenimiento nacional para News Corp Australia, el fin de semana de SA como periodista cinematográfico y en el Melbourne Weekly.
El Draft de la NFL es una de las noches más grandes del año para los fanáticos del fútbol y los equipos por igual, ya que los comisionados se preparan para mejorar sus escuadrones para la temporada 2025.
Soy un gran fanático de la NFL, y he sido desde que viví en los Estados Unidos a principios de los 20 años. Dicho esto, nunca he prestado mucha atención al Draft de la NFL, a pesar de su importancia.
Si todavía solo está copiando las indicaciones para pasar a ChatGPT para escribir una copia de anuncios, se está perdiendo la oportunidad real: usar la API CHATGPT para automatizar tareas repetitivas y que llevan mucho tiempo dentro de su flujo de trabajo de Google Ads.
En mi agencia, hemos utilizado GPT-4O en scripts, hojas de Google y aplicaciones personalizadas para resolver problemas reales, desde la limpieza de alimentos de compras para buscar auditorías de residuos a términos hasta revisiones de rendimiento en cuentas enteras.
Este artículo le muestra cómo configurar la API, usarla de manera segura y eficiente, y aplicarlo a flujos de trabajo PPC de alto impacto.
Paso 1: Obtenga acceso a la API CHATGPT
Para usar GPT en sus propios scripts o aplicaciones, necesitará acceso a la API de OpenAI. Esto no es lo mismo que usar CHATGPT en un navegador: la API le brinda un control programático directo.
Aquí está cómo comenzar:
Cree una cuenta gratuita de Operai: plataforma.openai.com/signup
Generar una clave API:
Ir a Llaves de API.
Hacer clic Crea una nueva clave secreta.
Guarde la llave en algún lugar seguro. No podrás volver a verlo.
Su clave API es privada y sensible. Cualquier persona con acceso puede usar el saldo de su cuenta, así que trátelo como una contraseña.
Lo que cuesta (y lo que debe presupuestar para las pruebas)
La API de ChatGPT es de pago por uso. Al momento de escribir, GPT-4O (el modelo más rápido y rentable) cuesta:
$ 0.005 por 1,000 tokens de entrada.
$ 0.015 por 1,000 tokens de salida.
1,000 tokens son aproximadamente 750 palabras de entrada/salida combinadas. La mayoría de las indicaciones simples cuestan menos de $ 0.01 por llamada.
Para las pruebas:
Comience por establecer un crédito prepaga de $ 25– $ 50. Eso es suficiente para prototipos, construir e incluso ejecutar scripts de producción de luz durante algunas semanas.
Monitorear el uso de Facturación> uso.
Establecer un límite de uso en Facturación> límites para evitar sorpresas.
DIVE MÁS: 4 formas de conectar sus datos de anuncios a una IA generativa para PPC más inteligente
Paso 2: Elija dónde usará la API
Puede llamar a la API desde diferentes entornos dependiendo de su nivel de comodidad y flujo de trabajo:
Herramienta
Mejor para
Dificultad
Script de Google Apps
Informes basados en hojas, trabajo de alimentación
Principiante
Pitón
Lógica de auditoría, generación de informes
Intermedio
Nodo.js
Aplicaciones web, paneles, lotes asíncronos
Avanzado
Con más zapas
Integraciones GPT livianas (sin código)
Principiante
Si está trabajando en los anuncios de Google y tirando datos en hojas, el script de aplicaciones es un punto de entrada fácil.
Paso 3: llame a la API CHATGPT (ejemplo en el script de Google Apps)
Aquí hay una implementación básica de llamar a GPT-4O desde Google Sheets:
=callChatGPT("Analyze Nike's top 50 non-converting search terms from Performance Max")
DIG MÁS: Aprovechando la IA generativa en los scripts de anuncios para la optimización de anuncios de Google
Obtenga la búsqueda del boletín en los que los especialistas en marketing confíen.
Paso 4: Mejores prácticas de eficiencia
Para mantener las cosas funcionando sin problemas (y de manera rentable), siga estos consejos:
L por lote de sus entradas: Grupo 5-20 títulos o términos de búsqueda en una solicitud.
Utilice las indicaciones del sistema: Establezca el papel claramente (“usted es un estratega de anuncios en Google para Nike”).
Temperatura más baja (0–0.3): mantiene las salidas consistentes y evita la alucinación.
Longitud de respuesta de control: Solicite un formato de salida específico o un recuento de palabras cuando sea necesario.
Casos de borde de prueba: Ejecute entradas desordenadas a través de manualmente para ver cómo responde GPT.
Casos de uso del mundo real para anuncios de Google
Para demostrar cómo funciona esto en la práctica, recorreré algunos casos de uso real usando Nike como ejemplo ilustrativo.
Para mayor claridad, no estoy afiliado a Nike, y estos ejemplos son hipotéticos.
Se utilizan para mostrar cómo se aplican estas técnicas a las cuentas de anuncios de Google de nivel empresarial con grandes catálogos de productos y campañas de alto volumen.
Caso de uso 1: Optimización de la alimentación de compras
La alimentación del producto de Nike es enorme: zapatos, ropa, equipo, accesorios, todo en docenas de variantes.
Los títulos de productos que no están bien estructurados pueden provocar poca visibilidad o impresiones irrelevantes.
Usando GPT-4O, puede reescribir los títulos de productos a escala utilizando esta estructura:
Reescribir el título del producto para incluir género, tipo de producto, función principal y marca. Formato como: [Gender] [Product Type] with [Feature] | Nike.
Antes: “Air Zoom Pegasus 40”
Después: “Las zapatillas para hombres con amortiguación receptiva | Nike Air Zoom Pegasus 40”
Ejecutamos este flujo de trabajo en las hojas de Google usando GPT a través del script APPS.
Los títulos de salida fueron más alineados con palabras clave, más descriptivas y se desempeñaron mejor en los anuncios de compras, aumentando el CTR y mejorar la relevancia del partido.
Caso de uso 2: Búsqueda de auditoría de residuos de término en el rendimiento Max
Las campañas de rendimiento de Nike Max generan grandes volúmenes de datos de términos de búsqueda, gran parte de ellos irrelevante.
Revisarlo manualmente es ineficiente e inconsistente.
Nuestro enfoque:
Involucre los términos de gasto superior con conversiones cero.
Use GPT para analizar y clasificar temas de residuos.
Ejemplo indicador:
“Está auditando los términos de búsqueda de rendimiento Max de Nike. Agrupe lo siguiente en temas como el tráfico de la competencia, las búsquedas de empleo o las consultas no calificadas. Devuelva un resumen y ejemplos”.
Salida GPT:
Búsquedas de la competencia: “ADIDAS Running Shoes”, “Under Armour Basketball Gear”.
Carreras: “Aplicación de empleo de Nike Warehouse”, “Trabajos minoristas en Nike”.
Bricolaje/informativo: “Cómo limpiar los zapatos Nike”, “Las mejores zapatillas para correr para pies planos”.
Utilizamos esta salida para generar ideas de palabras clave negativas, refinar la orientación y crear alertas semanales si los desechos pasa un umbral.
DIG más: cómo la IA realiza auditorías de búsqueda pagas más rápido y mejor
Caso de uso 3: Automatización de auditoría de Google ADS para campañas de la marca Nike
Hemos creado una herramienta que combina la API de Google ADS con GPT-4O para ejecutar auditorías de cuenta completa.
En el caso de Nike, utilizamos GPT para interpretar las banderas de rendimiento extraídas de las consultas de API como:
Palabras clave de alto gasto con puntaje de calidad <5.
Las campañas que pierden participación de impresión debido al presupuesto.
Desequilibrios de CPA a nivel de dispositivo.
Enlaces de sitio no utilizados o extensiones de anuncios.
Ejemplo indicador:
“La campaña de marca de Nike tiene 14 palabras clave que gastan más de $ 1,000/mes con un puntaje de calidad de 3. Sugerir hipótesis para un bajo rendimiento y qué cambios debemos considerar”.
Respuesta GPT:
La copia del anuncio probablemente falta modificadores de marca (por ejemplo, “Nike Outlet”, “Nike Store Near Me”).
No más coincidencia: las consultas pueden estar basadas en la ubicación, pero la página está centrada en el producto.
Alto tráfico móvil + Tiempo de carga lenta = Paso de experiencia de la página de destino deficiente.
Esta salida se agrega directamente a un mazo de diapositivas de Google utilizada para revisiones internas y QBR de clientes.
Uso de la API CHATGPT para la automatización de anuncios de Google de alto impacto
ChatGPT no es solo un asistente de escritura, es un motor de automatización.
La clave no es pedirle a GPT que haga su trabajo.
La clave es conectar GPT a los lugares donde la repetición te ralentiza:
Limpieza de datos de alimentación.
Resumiendo informes ruidosos.
Generando hipótesis.
Proporcionando análisis estructurado a escala.
No necesita ser un desarrollador para usar la API. El script y las hojas de Google Apps son lo suficientemente potentes como para ejecutar flujos de trabajo reales hoy.
Una vez que vea los ahorros de tiempo, y la calidad de las salidas GPT-4O cuando se estructura correctamente, es difícil volver.
DIGER MÁS: Top Tools and Tactics que debe usar en PPC
Se invita a los autores contribuyentes a crear contenido para el terreno de los motores de búsqueda y se eligen por su experiencia y contribución a la comunidad de búsqueda. Nuestros contribuyentes trabajan bajo la supervisión del personal editorial y las contribuciones se verifican en busca de calidad y relevancia para nuestros lectores. Las opiniones que expresan son propias.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.