Noticias
Deepseek R1 apuesta audaz sobre el aprendizaje de refuerzo: cómo superó a OpenAi al 3% del costo
Published
3 meses agoon

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
El lanzamiento del lunes de Deepseek R1 ha enviado ondas de choque a través de la comunidad de IA, interrumpiendo suposiciones sobre lo que se requiere para lograr un rendimiento de IA de vanguardia. Hacer coincidir con el O1 de OpenAI con solo 3% -5% del costo, este modelo de código abierto no solo ha cautivado a los desarrolladores, sino que también desafía a las empresas a repensar sus estrategias de IA.
El modelo se ha disparado al modelo de mayor tendencia que se descarga en Huggingface (109,000, a partir de este escrito), a medida que los desarrolladores se apresuran a probarlo y buscan comprender lo que significa para su desarrollo de IA. Los usuarios están comentando que la función de búsqueda adjunta de Deepseek (que puede encontrar en el sitio de Deepseek) ahora es superior a competidores como OpenAI y Perplexity, y solo está rivalizada por la investigación de Gemini Defunde de Google.
Las implicaciones para las estrategias empresariales de IA son profundas: con costos reducidos y acceso abierto, las empresas ahora tienen una alternativa a modelos patentados costosos como OpenAI. El lanzamiento de Deepseek podría democratizar el acceso a las capacidades de AI de vanguardia, lo que permite a las organizaciones más pequeñas competir de manera efectiva en la carrera armamentista de IA.
Esta historia se centra exactamente en cómo Deepseek manejó esta hazaña y en qué significa para la gran cantidad de usuarios de modelos de IA. Para las empresas que desarrollan soluciones impulsadas por la IA, el avance de Deepseek desafía los supuestos del dominio de OpenAI, y ofrece un plan para la innovación rentable. Es el “cómo” Deepseek hizo lo que hizo que debería ser el más educativo aquí.
El avance de Deepseek: moverse hacia el aprendizaje de refuerzo puro
En noviembre, Deepseek fue noticia con su anuncio de que había logrado el rendimiento superando el O1 de OpenAI, pero en ese momento solo ofrecía un modelo limitado de previsión R1-Lite. Con el lanzamiento completo del lunes de R1 y el documento técnico que lo acompaña, la compañía reveló una sorprendente innovación: una desviación deliberada del proceso convencional de ajuste fino (SFT) ampliamente utilizado en la capacitación de modelos de idiomas grandes (LLM).
SFT, un paso estándar en el desarrollo de la IA, implica modelos de capacitación en conjuntos de datos seleccionados para enseñar razonamiento paso a paso, a menudo denominado cadena de pensamiento (COT). Se considera esencial para mejorar las capacidades de razonamiento. Sin embargo, Deepseek desafió esta suposición omitiendo SFT por completo, optando en su lugar para confiar en el aprendizaje de refuerzo (RL) para entrenar el modelo.
Este movimiento audaz obligó a Deepseek-R1 a desarrollar habilidades de razonamiento independientes, evitando la fragilidad a menudo introducida por conjuntos de datos prescriptivos. Mientras que surgen algunos defectos, lo que lleva al equipo a reintroducir una cantidad limitada de SFT durante las etapas finales de construcción del modelo, los resultados confirmaron el avance fundamental: el aprendizaje de refuerzo solo podría generar ganancias de rendimiento sustanciales.
La compañía consiguió gran parte del uso de código abierto, una forma convencional y no sorprendente
Primero, algunos antecedentes sobre cómo Deepseek llegó a donde lo hizo. Deepseek, un spin-off de 2023 de la cuantificación de alto nivel de fondos de cobertura chinos, comenzó desarrollando modelos de IA para su chatbot patentado antes de liberarlos para uso público. Poco se sabe sobre el enfoque exacto de la compañía, pero se abre rápidamente obtuvo sus modelos, y es extremadamente probable que la compañía se basara en los proyectos abiertos producidos por Meta, por ejemplo, el modelo LLAMA, y la biblioteca ML Pytorch.
Para capacitar a sus modelos, la cuantía de alto vuelo obtuvo más de 10,000 GPU NVIDIA antes de las restricciones de exportación de EE. UU., Y según los informes, se expandió a 50,000 GPU a través de rutas de suministro alternativas, a pesar de las barreras comerciales. Esto palidece en comparación con los principales laboratorios de IA como OpenAi, Google y Anthrope, que funcionan con más de 500,000 GPU cada uno.
La capacidad de Deepseek para lograr resultados competitivos con recursos limitados destaca cómo el ingenio y el ingenio pueden desafiar el paradigma de alto costo de capacitar a los LLM de vanguardia.
A pesar de la especulación, se desconoce el presupuesto completo de Deepseek
Según los informes, Deepseek capacitó a su modelo base, llamado V3, con un presupuesto de $ 5.58 millones durante dos meses, según el ingeniero de NVIDIA Jim Fan. Si bien la compañía no ha divulgado los datos de capacitación exactos que utilizó (nota al margen: los críticos dicen que esto significa que Deepseek no es verdaderamente de código abierto), las técnicas modernas hacen que la capacitación en la web y los conjuntos de datos abiertos sean cada vez más accesibles. Estimar el costo total de la capacitación Deepseek-R1 es un desafío. Mientras que ejecutar 50,000 GPU sugiere gastos significativos (potencialmente cientos de millones de dólares), las cifras precisas siguen siendo especulativas.
Sin embargo, lo que está claro es que Deepseek ha sido muy innovador desde el principio. El año pasado, surgieron informes sobre algunas innovaciones iniciales que estaba haciendo, en torno a cosas como la mezcla de expertos y atención latente de múltiples cabezas.
Cómo Deepseek-R1 llegó al “Momento AHA”
El viaje a la iteración final de Deepseek-R1 comenzó con un modelo intermedio, Deepseek-R1-Zero, que fue entrenado con aprendizaje de refuerzo puro. Al confiar únicamente en RL, Deepseek incentivó a este modelo a pensar de forma independiente, recompensando tanto las respuestas correctas como los procesos lógicos utilizados para llegar a ellas.
Este enfoque condujo a un fenómeno inesperado: el modelo comenzó a asignar un tiempo de procesamiento adicional a problemas más complejos, lo que demuestra la capacidad de priorizar las tareas en función de su dificultad. Los investigadores de Deepseek describieron esto como un “momento de AHA”, donde el modelo en sí identificó y articuló nuevas soluciones a problemas desafiantes (ver captura de pantalla a continuación). Este hito subrayó el poder del aprendizaje de refuerzo para desbloquear las capacidades de razonamiento avanzado sin depender de los métodos de capacitación tradicionales como SFT.
Los investigadores concluyen: “Subraya el poder y la belleza del aprendizaje de refuerzo: en lugar de enseñar explícitamente el modelo sobre cómo resolver un problema, simplemente le proporcionamos los incentivos correctos y desarrolla de forma autónoma estrategias avanzadas de resolución de problemas”.
Más que rl
Sin embargo, es cierto que el modelo necesitaba más que solo RL. El artículo continúa hablando sobre cómo a pesar de la RL creando comportamientos de razonamiento inesperados y poderosos, este modelo intermedio Deepseek-R1-Zero enfrentó algunos desafíos, incluida la mala legibilidad y la mezcla de idiomas (comenzando en chino y cambiando al inglés, por ejemplo ). Así que solo entonces el equipo decidió crear un nuevo modelo, que se convertiría en el modelo final de Deepseek-R1. Este modelo, nuevamente basado en el modelo base V3, se inyectó primero con SFT limitado, centrado en una “pequeña cantidad de datos de cuna largos” o lo que se llamaba datos de inicio frío, para solucionar algunos de los desafíos. Después de eso, se puso a través del mismo proceso de aprendizaje de refuerzo de R1-Zero. Luego, el periódico habla sobre cómo R1 pasó por algunas rondas finales de ajuste.
Las ramificaciones
Una pregunta es por qué el lanzamiento ha habido tanta sorpresa. No es como si los modelos de código abierto sean nuevos. Los modelos de código abierto tienen una gran lógica e impulso detrás de ellos. Su costo gratuito y maleabilidad es la razón por la que informamos recientemente que estos modelos van a ganar en la empresa.
El modelo 3 de peso abierto de Meta, por ejemplo, explotó en popularidad el año pasado, ya que fue ajustado por los desarrolladores que querían sus propios modelos personalizados. Del mismo modo, ahora Deepseek-R1 ya se está utilizando para destilar su razonamiento en una variedad de otros modelos mucho más pequeños, la diferencia es que Deepseek ofrece un rendimiento líder en la industria. Esto incluye ejecutar pequeñas versiones del modelo en teléfonos móviles, por ejemplo.
Deepseek-r1 no solo funciona mejor que la alternativa de código abierto líder, Llama 3. Muestra toda su cadena de pensamiento de sus respuestas de manera transparente. La llama de Meta no ha recibido instrucciones de hacer esto como un incumplimiento; Se necesita una solicitud agresiva de Llama para hacer esto.
La transparencia también ha proporcionado un ojo negro de relaciones públicas a OpenAi, que hasta ahora ha ocultado sus cadenas de pensamiento de los usuarios, citando razones competitivas y no confundir a los usuarios cuando un modelo se equivoca. La transparencia permite a los desarrolladores identificar y abordar los errores en el razonamiento de un modelo, agilizando las personalizaciones para cumplir con los requisitos empresariales de manera más efectiva.
Para los tomadores de decisiones empresariales, el éxito de Deepseek subraya un cambio más amplio en el panorama de IA: las prácticas de desarrollo más delgadas y más eficientes son cada vez más viables. Las organizaciones pueden necesitar reevaluar sus asociaciones con proveedores de IA patentados, considerando si los altos costos asociados con estos servicios están justificados cuando las alternativas de código abierto pueden ofrecer resultados comparables, si no superiores.
Sin duda, no hay plomo masivo
Si bien la innovación de Deepseek es innovadora, de ninguna manera ha establecido una ventaja dominante del mercado. Debido a que publicó su investigación, otras compañías modelo aprenderán de ella y se adaptarán. Meta y Mistral, la compañía modelo de código abierto francesa, pueden ser un latido detrás, pero probablemente solo pasarán unos meses antes de que se pongan al día. Como dijo el investigador principal de Meta, Yann Lecun: “La idea es que todos se ganen de las ideas de todos los demás. Nadie ‘supera’ a nadie y ningún país ‘pierde’ a otro. Nadie tiene el monopolio de las buenas ideas. Todos están aprendiendo de todos los demás “. Entonces es la ejecución lo que importa.
En última instancia, son los consumidores, nuevas empresas y otros usuarios los que más ganarán, porque las ofertas de Deepseek continuarán impulsando el precio de usar estos modelos cerca de cero (nuevamente, aparte del costo de ejecutar modelos con inferencia). Esta rápida mercantilización podría plantear desafíos, de hecho, dolor masivo, para los principales proveedores de IA que han invertido mucho en infraestructura patentada. Como muchos comentaristas lo han dicho, incluido Chamath Palihapitiya, un inversor y ex ejecutivo de Meta, esto podría significar que se desperdiciarán años de Opex y Capex por OpenAi y otros.
Existe un comentario sustancial sobre si es ético usar el modelo Deepseek-R1 debido a los sesgos inculcados por las leyes chinas, por ejemplo, que no debe responder preguntas sobre la brutal represión del gobierno chino en Tiananmen Square. A pesar de las preocupaciones éticas en torno a los sesgos, muchos desarrolladores ven estos sesgos como casos de borde poco frecuente en aplicaciones del mundo real, y pueden mitigarse a través del ajuste. Además, apuntan a diferentes pero análogos sesgos que tienen modelos de Operai y otras compañías. La llama de Meta se ha convertido en un modelo abierto popular a pesar de que sus conjuntos de datos no se hacen públicos, y a pesar de los prejuicios ocultos, y las demandas se presentan en su contra como resultado.
Las preguntas abundan en torno al ROI de las grandes inversiones por OpenAI
Todo esto plantea grandes preguntas sobre los planes de inversión perseguidos por Operai, Microsoft y otros. El proyecto Stargate de $ 500 mil millones de OpenAI refleja su compromiso de construir centros de datos masivos para alimentar sus modelos avanzados. Respaldado por socios como Oracle y SoftBank, esta estrategia se basa en la creencia de que lograr la inteligencia general artificial (AGI) requiere recursos de cómputo sin precedentes. Sin embargo, la demostración de Deepseek de un modelo de alto rendimiento a una fracción de los desafíos de costos de la sostenibilidad de este enfoque, lo que plantea dudas sobre la capacidad de OpenAI para ofrecer rendimientos de una inversión tan monumental.
El emprendedor y comentarista Arnaud Bertrand capturó esta dinámica, contrastando la innovación frugal y descentralizada de China con la dependencia de los Estados Unidos de la infraestructura centralizada e intensiva en recursos: “Se trata del mundo que se da cuenta de que China ha acelerado, y en algunas áreas superada: EE. UU. En tecnología y tecnología y la tecnología. Innovación, a pesar de los esfuerzos para evitar exactamente eso “. De hecho, ayer otra compañía china, Bytedance, anunció DouBao-1.5-Pro, que incluye un modo de “pensamiento profundo” que supera el O1 de OpenAI en el punto de referencia del AIME.
¿Quieres sumergirte más profundamente en cómo Deepseek-R1 está remodelando el desarrollo de la IA? Echa un vistazo a nuestra discusión en profundidad en YouTube, donde exploro este avance con el desarrollador de ML Sam Witteveen. Juntos, desglosamos los detalles técnicos, las implicaciones para las empresas y lo que esto significa para el futuro de la IA:
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

You may like
Noticias
Chatgpt Action Figurs Trend adquiere Messi, Ronaldo, más
Published
43 minutos agoon
12 abril, 2025Has visto a tus jugadores de fútbol favoritos en el campo, pero ¿qué pasa en la forma de figura de acción? Es la última tendencia que se abre paso en las redes sociales: con la ayuda de la inteligencia artificial (IA), las personas se están convirtiendo en figuras de acción en caja al incluir accesorios que muestran su personalidad.
Nos preguntamos cómo se verían algunos de los mejores jugadores de fútbol del mundo, así que decidimos preguntarle a ChatGPT y agregar accesorios conectados a su carrera en función de dónde jugaron y qué han ganado, entre otras cosas.
Desde Lionel Messi hasta Aitana Bonmatí, estos son algunos de los mejores del mundo como GI Joes o Molls Barbie.
Ampliamente considerado como uno de los mejores jugadores de todos los tiempos, Messi lo ha hecho todo, por lo que es imposible incluir todo lo que ha logrado en un solo paquete.
Dicho esto, hemos incluido el legendario No. 10 con su propia bandera Argentina, emblema del Inter Miami (aunque no mires demasiado de cerca las palabras o el símbolo) y el Trofeo de la Copa Mundial, que ganó en 2022, así como una taza de su bebida tradicional de América del Sur favorita: Mate.
Al acercarse a 1,000 objetivos profesionales, Cristiano Ronaldo ha tenido una carrera legendaria que abarca dos décadas. Para su figura de acción, la superestrella de Portugal obtiene su propio trofeo de la UEFA Champions League (como los cinco que ha ganado durante su carrera), una bandera de Portugal que lo ha convertido en el nombre más famoso en el país ibérico y, por supuesto, sus propias bolas de fútbol.
Aunque la IA podría haberse confundido un poco cuyo rostro de Ronaldo ingresamos … ya que definitivamente hay más del brasileño retirado que su mandíbula cincelada.
El extremo brasileño ha encantado multitudes con sus objetivos, trucos y momentos icónicos y es uno de los mejores jugadores de su generación.
Siempre fiel a sus raíces, Neymar recibe su propio emblema de Santos ahora que está de vuelta en su tierra natal, el trofeo de la Liga de Campeones que ganó con Barcelona y la medalla de oro olímpica que recogió en su tierra natal en 2016.
Uno de los mejores jugadores del mundo, Mbappé llegó por primera vez en AS Mónaco, se convirtió en una superestrella en Paris Saint-Germain, y ahora está ejerciendo su oficio en el Real Madrid. Como estrella para Francia, también obtiene el trofeo de la Copa Mundial que ganó en 2018.
El joven de 26 años también obtiene su propia máscara de “adolescente mutante ninja tortugas”, que rinde homenaje a un apodo que lo ha seguido durante su carrera. Sin embargo, no estamos seguros de por qué se ve tan gruñón.
Haaland ha estado aterrorizando las mejores defensas del mundo desde que se mudó a Man City y se ha convertido en uno de los mejores jugadores del mundo en poco tiempo.
Como jugador estrella de Noruega, obtiene una bandera, pero también su propio trofeo de la Premier League y Champions League, que ganó en Hanchester [sic] La legendaria temporada ganadora de agudos de la ciudad en 2023-24. El detalle en la insignia de la ciudad también es … erm … interesante dado que está destinado a ser un barco y una rosa roja.
Es difícil creer que Yamal se haya convertido en una superestrella de buena fe con solo 17 años, y ya es uno de los mejores jugadores del mundo.
Se hizo un nombre en el lado ganador de la Eurocopa de España 2024, pero también consolidó su lugar para Barcelona, lo cual es presumiblemente por qué tiene dos insignias. Su personaje juvenil y su presencia en las redes sociales también lo han hecho reconocible entre una nueva generación, que ve al adolescente obtener su propio teléfono celular y gafas de sol.
Recién firmando su nuevo contrato para los Rojos, el extremo de Egipto está aquí para quedarse en Liverpool y el club se deleitará en que su figura de acción actual no mencione a ningún club de Arabia Saudita todavía.
Ganar la Liga de Campeones y la Premier League lo ha convertido en una leyenda en Anfield Forever, pero los fanáticos de los Rojos podrían tener problemas sobre lo que la IA ha hecho a la famosa pájaro del hígado, mientras que los partidarios egipcios podrían querer mirar hacia otro lado de lo que se supone que es el águila de Saladin.
Saka, uno de los mejores extremos del mundo, está en camino de convertirse en un ícono del Arsenal, después de haber pasado por la academia del club, pero aún no tiene una gran cantidad de trofeos (más allá de una Copa FA) para completar su caja de figura de acción.
Seguramente no pasará mucho tiempo antes de que el internacional de Inglaterra agrega algo más grande y, a los 23 años, “Starboy” tenga tiempo de su lado, ¡aunque AI lo ha hecho mirar unos 10 años!
Una leyenda en Tottenham y ahora ejerciendo su oficio en el Bayern de Múnich en Alemania, a Kane le encanta marcar goles y ha demostrado por qué es uno de los mejores huelguistas del mundo en dos ligas diferentes.
Después de haber jugado para los Spurs durante tanto tiempo, no sorprende que no haya muchos trofeos para agregar a su caja, por lo que asumiremos que es un error tipográfico simple y nada más dirigido que la insignia del club lea a Tottenham “Notspur”.
Dado que su apodo es “Capitán América”, como capitán del lado de la USMNT, Pulisic es quizás la opción más obvia para que un jugador de fútbol ya tenga su propia figura de acción.
El jugador de 26 años ya ha tenido una carrera de club ocupada, con Borussia Dortmund, Chelsea y ahora AC Milan, y tiene una Supercopa de la Liga de Campeones y la UEFA para exhibir. Aunque, ¿no se vería bien un trofeo de la Copa Mundial en ese set?
También: ¿Alguien más impresionó que AI logró obtener el número correcto de estrellas y rayas en la bandera de los Estados Unidos?
La mejor jugadora femenina del mundo, Bonmatí logró una hazaña rara al ganar todos los principales clubes e premios individuales disponibles para un jugador europeo en 2023. Por lo tanto, la gran colección de premios se muestra en el set del centrocampista de España, incluido su Ballon d’Or, la Liga de Campeones y el trofeo de la Copa Mundial.
Lamentablemente, parece jugar para el BCE, en lugar de Barcelona, lo cual es extraño ya que AI lo hizo bien para Yamal arriba.
Uno de los mejores defensores del mundo y recién salido de su traslado de récord mundial a las campeones de la Super League femenina Chelsea [not Chelsea Foutball Clud]Girma se ha convertido en un nombre familiar con sus actuaciones para el USWNT y se le atribuye su propia medalla de oro olímpica de 2024.
Curiosamente, su bandera de EE. UU. Solo tiene 41 estrellas, por lo que no estamos seguros de lo que sucedió con los otros nueve estados.
Y finalmente, tenemos una de las mejores estrellas en ascenso en el deporte, que está comenzando a ser más popular con lo que está trayendo para Washington Spirit en NWSL e internacionalmente con el USWNT [not, you’ll be surprised to learn, the LSP.]
Rodman tiene solo 22 años, de ahí la inclusión de un iPhone, pero sus honores incluyen un campeonato de NWSL y una medalla de oro olímpica. Además, ¿quién no querría una figura de acción de fútbol de cabello rosado?
Noticias
Casi gané mi grupo de locura de marzo gracias a las sugerencias de soporte de Chatgpt
Published
3 horas agoon
12 abril, 2025
March Madness ya ha terminado. Los Florida Gators vencieron a Houston para ganar el juego de campeonato masculino de la NCAA, mientras que UConn derrotó a Carolina del Sur para tomar el campeonato femenino. Y aunque no obtuve mi propio campeonato en el grupo de Madness de March en el que estaba, obtuve el segundo lugar, sin saber realmente nada sobre el baloncesto universitario.
Eso es porque no hice las selecciones yo mismo. Ai lo hizo, y no lo sabrías, fue 28 por 32 en la primera ronda y 14 para 16 en la segunda ronda. Chatgpt quedó invicto en el dulce dieciséis y Elite Eight, yendo 8 para 8 y 4 por 4, respectivamente. Y al final, no funcionó tan bien, yendo 0 por 2 en la Final Four y perdiendo en el juego de campeonato. Que es la única razón por la que no gané mi piscina.
Puede consultar todos los resultados a continuación.
No sé mucho sobre los equipos que jugaron en el torneo de baloncesto masculino de este año (o femenino), pero todavía quería ganar mi grupo de soporte. Es un poco vergonzoso porque fui a UCLA y asistí a muchos juegos de baloncesto universitario. También sigo obsesivamente a la NBA (¡ir, lakers!), Pero he estado totalmente fuera de él cuando se trata de baloncesto universitario este año.
Sin embargo, me inscribí en una piscina de soporte de locura de March, y naturalmente, no quería perder. No pensé que ganaría el primer lugar, pero definitivamente no esperaba obtener el segundo lugar, por lo que estoy muy feliz. Además, solo para tener en cuenta, todo mi amigo y mi familia en la piscina sabían que usaba ChatGPT para mis elecciones, por lo que perdí los premios.
Así es como todo fue todo.
Cómo le pedí a ChatGPT que llenara mi grupo de locura de marzo
Hay muchas maneras de pedirle a ChatGPT que complete un grupo de locura de March. Aquí hay algunos escenarios diferentes que podrían haber funcionado, además de la opción eventual que elegí.
Puedes jugar a lo seguro y seguir con la mayoría de los favoritos..
“Complete mi grupo de locura de March con un enfoque estadísticamente sólido y de bajo riesgo, priorizando a los favoritos al tiempo que incluye algunas molestias históricamente razonables”.
También puede ser un poco más riesgoso en caso de que piense que puede haber más molestias de lo habitual.
“Complete mi soporte de locura de March con una mezcla de fuertes favoritos, algunas molestias calculadas y al menos un equipo de caballos oscuros haciendo una carrera profunda”.
También puede correr un riesgo muy alto, lo que podría conducir a una alta recompensa (pero probablemente no).
“Complete mi grupo de locura de March con un enfoque audaz y pesado, priorizando las grandes carreras de Cenicienta, las principales maletas de la redondea y al menos un equipo sorpresa de Final Four”.
¡Eso es audaz!
Cualquiera que sea el aviso que use, puede modificarlo como mejor le parezca. Probablemente se le hagan preguntas de seguimiento de todos modos, que puede responder para obtener un soporte más personalizado. Puedes ir con Selecciones basadas en análisis fuertes o incluir equipos calientes con impulso. Puedes elegir Tendencias molestas históricamente probadas o ir con equipos de comodín de las trastornos. Y siempre hay un Equipo de Cenicientapara que pueda presionar a ChatGPT para incluir uno.
Estas son todas las preguntas que ChatGPT puede hacerle en respuestas posteriores, así que elija sabiamente.
Personalmente, no quería ir demasiado arriesgado con mi soporte de la NCAA, así que opté por un aviso de riesgo medio.
Aquí está el soporte de la NCAA que Chatgpt eligió para mí
Usando el aviso “Complete un grupo completo de locura de marzo para mí, con una combinación de fuertes favoritos, algunas caprichos calculados y al menos un equipo de caballos oscuros que realiza una carrera profunda. Asegúrese de incluir los primeros cuatro. Use esto como guía: https://www.ncaa.com/march-madness-live/bracket”. este es el soporte que chatgpt (versión chatgpt 4o) generado para mi:
Nota: Chatgpt inicialmente no me daba los equipos correctos, así que tuve que decirle que usara el sitio web oficial de la NCAA con el soporte como guía. Y también tuve que mencionar para incluir a los primeros cuatro equipos, que seguía perdiendo. Dependiendo de la versión de ChatGPT que esté utilizando, es posible que deba jugar con su mensaje para obtener una respuesta correcta.
Aquí está el soporte del torneo de baloncesto masculino de 2025 NCAA de 2025 con los primeros cuatro, los favoritos fuertes, las capturas calculadas y un caballo oscuro que hace una carrera profunda. También he agregado si ChatGPT eligió correctamente al ganador en los primeros 52 juegos que se han jugado hasta ahora.
Primero cuatro
(16) Derrotas del estado de Alabama (16) Saint Francis (PA)
(16) Derrotas de Mount St. Mary (16) American
(11) Derrotas de Carolina del Norte (11) Estado de San Diego
(11) Derrotas de Texas (11) Xavier
Región sur
Primera ronda
(1) Derrotas de Auburn (16) Estado de Alabama
(8) Derrotas de Louisville (9) Creighton
(5) Derrotas de Michigan (12) UC San Diego
(4) Derrotas de Texas A&M (13) Yale
(6) Ole Miss Derrots (11) Carolina del Norte
(3) Derrotas del estado de Iowa (14) Lipscomb
(7) Marquette derrotas (10) Nuevo México
(2) Derrotas del estado de Michigan (15) Bryant
Segunda ronda
(1) Derrotas de Auburn (8) Louisville Creighton
(5) Derrotas de Michigan (4) Texas A&M
(3) Derrotas del estado de Iowa (6) Ole Miss
(2) Derrotas del estado de Michigan (7) Marqueta Nuevo México
Dulce 16
(1) Derrotas de Auburn (5) Michigan
(2) Derrotas del estado de Michigan (3) Estado de Iowa
Elite 8
(1) Derrotas de Auburn (2) Estado de Michigan
Región este
Primera ronda
(1) Derrotas de Duke (16) Mount St. Mary’s
(8) Derrotas del estado de Mississippi (9) Baylor
(5) Oregon derrotas (12) Libertad
(4) Derrotas de Arizona (13) Akron
(6) Derrotas de BYU (11) VCU
(3) Wisconsin derrotas (14) Montana
(7) Derrotas de Santa María (10) Vanderbilt
(2) Alabama derrotas (15) Robert Morris
Segunda ronda
(1) Derrotas de Duke (8) Estado de Mississippi Baylor
(4) Derrotas de Arizona (5) Oregon
(3) Wisconsin derrotas (6) BYU
(2) Derrotas de Alabama (7) Santa María
Dulce 16
(1) Duke derrotas (4) Arizona
(2) Alabama derrotas (3) Wisconsin
Elite 8
(1) Duke derrotas (2) Alabama
Región del medio oeste
Primera ronda
(1) Derrotas de Houston (16) Siu Edwardsville
(8) Gonzaga derrotas (9) Georgia
(5) Clemson derrota (12) McNeese
(4) Purdue Derrots (13) High Point
(6) Derrotas de Illinois (11) Texas
(3) Kentucky derrotas (14) Troy
(7) Derrotas de UCLA (10) Estado de Utah
(2) Derrotas de Tennessee (15) Wofford
Segunda ronda
(1) Houston derrotas (8) Gonzaga
(4) Purdue derrotas (5) Clemson McNeese
(3) Derrotas de Kentucky (6) Illinois
(2) Derrotas de Tennessee (7) UCLA
Dulce 16
(1) Derrotas de Houston (4) Purdue
(2) Derrotas de Tennessee (3) Kentucky
Elite 8
(1) Houston derrotas (2) Tennessee
Región occidental
Primera ronda
(1) Derrotas de Florida (16) Estado de Norfolk
(8) Derrotas de UConn (9) Oklahoma
(12) Mensas del estado de Colorado (5) Memphis
(4) Maryland derrotas (13) Gran Cañón
(11) Drake Mass (6) Missouri
(3) Derrotas de Texas Tech (14) UNC Wilmington
(10) Sobretes de Arkansas (7) Kansas
(2) Derrotas de Tennessee (15) Wofford
Segunda ronda
(1) Derrotas de Florida (8) UConn
(12) Mensas del estado de Colorado (4) Maryland
(3) Derrotas de Texas Tech (11) Drake
(10) Soltures de Arkansas (2) Tennessee
Dulce 16
(1) Derrotas de Florida (12) Estado de Colorado
(3) Derrotas de Texas Tech (10) Arkansas
Elite 8
(1) Derrotas de Florida (3) Texas Tech
Final Four
(1s) Derrotas de Auburn (1W) Florida
(1e) Duke derrotas (1MW) Houston
Campeonato nacional
(1e) Duke derrotas (1s) Auburn (74-69)
–
En la primera ronda, Chatgpt se fue 28 para 32 y eligió algunas de las grandes molestias, incluidas las tres en la región oeste. Chatgpt tuvo éxito en la segunda ronda también, yendo 14 para 16 y eligiendo correctamente al equipo de sorpresa de Cenicienta para el Sweet 16 en el décimo sembrado Arkansas. En el dulce dieciséis, Chatgpt quedó invicto, yendo 8 para 8y 4 para 4 en el Elite Eight. En el tramo, chatgpt vaciló, yendo 0 para 2 en la Final Four y perdiendo el campeonato.
En general, fue un 86%, obteniendo 54 de los 63 juegos correctos, lo cual es mucho mejor de lo que hubiera tenido si hubiera completado el soporte yo mismo.

Estos son algunos pensamientos finales que Chatgpt tuvo para mí.
Nelson Aguilar/CNET
Aquí está el calendario para el torneo de baloncesto masculino de 2025 NCAA:
- Primeros cuatro: 18-19 de marzo
- Primera ronda: 20-21 de marzo
- Segunda ronda: 22-23 de marzo
- Dulce 16: 27-28 de marzo
- Elite ocho: 29-30 de marzo
- Final Four: 5 de abril
- Juego de campeonato de la NCAA: 7 de abril
Usé un chatgpt similar para el torneo de baloncesto femenino de la NCAA
El torneo de baloncesto femenino de la NCAA puede no ser tan popular como los hombres, pero definitivamente hay piscinas por ahí, y si estás en uno, puedes usar ChatGPT, y un aviso similar al de la sección anterior, para completar tu soporte. Aunque no estoy en una piscina, le pregunté a Chatgpt solo por el infierno, y esto es lo que me dio para el torneo femenino:
Mi aviso: “Complete un soporte completo de la locura de March March para mí, con una mezcla de fuertes favoritos, algunas molestias calculadas y al menos un equipo de caballos oscuros que realiza una carrera profunda. Asegúrese de incluir los primeros cuatro. Use esto como guía: https://www.ncaa.com/brackets/basketball-women/d1/2025”
Respuesta de Chatgpt:
Nota: Acortado a solo pensamientos finales.
“Este soporte incorpora:
- Favoritos: Carolina del Sur, UCLA, Carolina del Sur, Uconn, Texas
- Mensas calculadas: Louisville sobre Arizona, Uconn sobre Texas
- Un caballo oscuro: la carrera profunda de Louisville
UCLA gana el título en un enfrentamiento de la costa oeste contra Carolina del Sur “.
Aunque UCLA llegó a la Final Four, fueron UConn y Carolina del Sur en el Juego de Campeonato Nacional (que ChatGPT tenía como favoritos), con los Huskies tomando la victoria.
Noticias
El chatgpt studio ghibli tendencia: hurir hacia el punto de no retorno
Published
5 horas agoon
12 abril, 2025METROY tío obtendría DVD de sus películas favoritas de los Estados Unidos cada vez que visitaba. Cuando tenía diez años, y él vino a nuestra casa, nos mostró algunas de sus selecciones de películas animadas. El primero de ellos fue Studio Ghibli’s Mi vecino Totoro. Antes de ver esta película, generalmente ignoraba el cine, prefiriendo Cartoon Network y Nickelodeon. Siempre pensé en las películas como aburridas, y si me hubieras preguntado yo de nueve años cuál era mi película favorita, probablemente habría dicho la versión de 2005 de Charlie y la fábrica de chocolate.
Después de mirar Mi vecino Totoro, algo cambió. Tal vez fue la banda sonora adictiva, o la canción principal, o la impresionante animación. Sin embargo, lo primero que me llegó fue el mensaje. La universalidad de la misma. Cuando dos niñas pequeñas se mudan a una casa en el campo japonés, su madre es hospitalizada. Si bien parecen felices, hay subvenciones de dolor. ¿Las niñas inventan la aventura, pasan tiempo con este troll gigante pero adorable y sus pequeños hijos? ¿Hermanos? En el fondo, están aterrorizados. Solo quieren que su madre regrese a casa.
Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo.
Supongo que es por eso que las películas de Hayao Miyazaki y Studio Ghibli tocan un acorde en mí, y en numerosas personas en todo el mundo. Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo. Una herida cruda, una necesidad de reivindicación, un sueño infantil, un miedo que se extiende sangre. Algo, cualquier cosa.
A fines de marzo, nos encontramos con una nueva moda AI. Había regresado a casa a la India para las vacaciones de Pascua, y fue especialmente viral allí. La gente no se había tomado tiempo para subirse al carro, muchos de ellos no están remotamente familiarizados con Studio Ghibli. En segundos, la gente daría indicaciones y obtendría una imagen “inspirada” del estudio generado por IA.
No soy ajeno al arte de IA, desde entonces 2021 con el lanzamiento de Dall-E, he visto demasiado. Desde personas de tres manos y de seis dedos hasta videos gráficos gratuitos de gatos antropomórficos. Soy en gran medida ambivalente hacia eso, saltando los videos y tratando de no pensar demasiado en ellos. Con Studio Ghibli, sin embargo, algo se rompió en mí. No solo porque estaba haciendo algo tan original en un cortador de galletas, no los dedos adicionales que agregaría, ni siquiera la forma en que eliminó las pecas de las personas o aligeró sus tonos de piel. Algo más profundo.
Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.
El productor Hirokatsu Kihara reveló en un video ahora eliminado el proceso que se dedicó a animar una película de Studio Ghibli. Habiendo trabajado en Castillo en el cielo, mi vecino Totoro, y Servicio de entrega de Kiki Durante 1985 a 1989, reveló cómo cada cuadro sería dibujado a mano y sería criticado por el cineasta Hayao Miyazaki antes de ser aprobado. Llamó al proceso “inimaginable”.
En 2020, el productor Toshio Suzuki compartió que llevó a Studio Gibli “un mes para completar solo un minuto de animación”, debido a la aversión de Miyazaki hacia la animación CGI. En un clip viral de 2016, cuando se muestra animación de inteligencia artificial, Miyazaki lo llamó “espeluznante” y “un insulto a la vida misma”.
El estilo artístico de Studio Gibli es único en su fluidez. Películas como Enérgico y el reciente El niño y la garza Mundos de presentación con grandes ámbitos, donde deben animarse varios personajes distintos. Dado que el estilo de animación es consistente en todas las películas y al nivel de la escena, las animaciones no tienden a comprometerse con la calidad. Además, el realismo mágico es un elemento integral en las películas de Studio Ghibli, esto también requeriría diseños y fondos de personajes intrincados.
Studio Ghibli aún no ha reaccionado a la situación, pero el argumento contra el arte de la IA ha sido ampliamente discutido. Los artistas y las personas contra el arte de la IA tienen problemas en gran medida con plagio. Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.
¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?
Una refutación predecible sería que la mayoría del arte se inspira en algún arte. Si bien no puedo refutar esta afirmación, puedo decir que si alguien hace una pintura al estilo de otro artista, y afirma que fue pionero en el estilo ellos mismos, se encontrarían con críticas. Cuando AI genera esa imagen de un gato antropomórfico con un sombrero de copa, no dice qué lo inspiró.
Con Studio Ghibli duele aún más porque sabemos lo que se dedica a hacer estas películas. Innumerables días, un mes para un minuto de animación, corazones y almas inconmensurables. Un quid. Algo real. ¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?
Decimos que tenemos miedo de que la IA se apodere del mundo, de hacer lo que hace que los humanos sean únicos mientras trabajamos en tareas mundanas. Hay una sensación de disonancia cognitiva que me preocupa, entonces. Si bien no me sorprende que los CEO ricos salgan a la tendencia, me sorprende ver a personas que pueden haberse opuesto a esto hace unas semanas. Me preocupa las “excepciones” que hacemos, porque una tendencia no es tan “profunda”. Creo que es tan profundo.
Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.
Cuando todos los que conocía temían IA en 2021, me calmé. Mantuve que las personas lo usarían para ayudarse a sí mismas, promover sus ideas, generar algoritmos y avanzar. Lo vi como una herramienta. Una herramienta para llegar a conclusiones a las que aún no habíamos llegado, para acelerar las innovaciones convincentes. Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.
Sin embargo, nunca es útil mirar a su alrededor y sentirse desesperado. Creo que es importante que pensemos un poco más antes de saltar a otra moda de arte de IA, para preguntarnos si vale la pena. Para preguntarse qué se suma a nuestras vidas a largo plazo. Si realmente estás en contra de la IA en las artes, idealmente no debería haber exclusiones en esta ecuación.
Primero vi Mi vecino Totoro En 2016, me sentí asustado cuando las chicas se sentían asustadas, me sentí fascinado cuando las chicas comenzaron a ir en sus aventuras en el bosque, me reí cuando su padre no tenía idea de todo lo que le rodeaba. Lo he visto innumerables veces desde entonces. El año pasado, lo vi proyectado en el cine de estudiantes, y me sorprendió aún más que la primera vez que lo vi. Cuando era niño, tenía miedo de su madre, pero como joven, sentí el miedo al dolor. El miedo a perder su infancia, de ser obligado a crecer demasiado pronto.
Cuando vi la primera interpretación de Studio Gibli Ai, sentí una sensación de renuncia. Sabía que una semana después todos estarían hartos de eso. Entonces, sentí miedo. Temeroso de que podamos precipitarnos hacia el punto de no retorno, y tal vez es hora de golpear los frenos y mirar a su alrededor por un segundo.
Related posts





































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo