Noticias
China de código abierto AI Deepseek R1 coincide con el O1 de Openai con un costo 98% más bajo
Published
3 meses agoon

Los investigadores chinos de IA han logrado lo que muchos pensaban que estaban a años de distancia: un modelo de IA de código abierto gratuito que puede igualar o superar el rendimiento de los sistemas de razonamiento más avanzados de OpenAI. Lo que hace que esto sea aún más notable fue cómo lo hicieron: al dejar que la IA se enseñe a través de prueba y error, similar a cómo aprenden los humanos.
“Deepseek-r1-cero, un modelo entrenado a través de un aprendizaje de refuerzo a gran escala (RL) sin ajustar (SFT) supervisado como un paso preliminar, demuestra notables capacidades de razonamiento”. El trabajo de investigación dice.
El “aprendizaje de refuerzo” es un método en el que un modelo es recompensado por tomar buenas decisiones y castigado por tomar malas, sin saber cuál es cuál. Después de una serie de decisiones, aprende a seguir un camino que fue reforzado por esos resultados.
Inicialmente, durante la fase supervisada de ajuste fino, un grupo de humanos le dice al modelo el resultado deseado que desean, dándole un contexto para saber qué es bueno y qué no. Esto lleva a la siguiente fase, el aprendizaje de refuerzo, en el que un modelo proporciona diferentes resultados y los humanos clasifican los mejores. El proceso se repite una y otra vez hasta que el modelo sepa cómo proporcionar resultados satisfactorios constantemente.
Deepseek R1 es una dirección en el desarrollo de IA porque los humanos tienen una parte mínima en la capacitación. A diferencia de otros modelos que están capacitados en grandes cantidades de datos supervisados, Deepseek R1 aprende principalmente a través del aprendizaje de refuerzo mecánico, lo que esencialmente resuelve las cosas experimentando y recibiendo comentarios sobre lo que funciona.
“A través de RL, Deepseek-R1-Zero emerge naturalmente con numerosos comportamientos de razonamiento poderosos e interesantes”, dijeron los investigadores en su artículo. El modelo incluso desarrolló capacidades sofisticadas como la autoverificación y la reflexión sin ser programado explícitamente para hacerlo.
A medida que el modelo pasó por su proceso de entrenamiento, naturalmente aprendió a asignar más “tiempo de pensamiento” a problemas complejos y desarrolló la capacidad de captar sus propios errores. Los investigadores destacaron un “A-ha momento” Cuando el modelo aprendió a reevaluar sus enfoques iniciales de los problemas, algo que no estaba explícitamente programado para hacer.
Los números de rendimiento son impresionantes. En el punto de referencia de Matemáticas AIME 2024, Deepseek R1 alcanzó una tasa de éxito del 79.8%, superando el modelo de razonamiento O1 de OpenAI. En las pruebas de codificación estandarizadas, demostró el rendimiento del “nivel de expertos”, logrando una calificación ELO de 2.029 en CodeForces y superó al 96.3% de los competidores humanos.

Pero lo que realmente distingue a Deepseek R1 es su costo, o la falta de él. El modelo ejecuta consultas a solo $ 0.14 por millón de tokens en comparación con los $ 7.50 de OpenAi, lo que lo hace 98% más barato. Y a diferencia de los modelos propietarios, el código y los métodos de entrenamiento de Deepseek R1 son de código abierto por completo bajo la licencia MIT, lo que significa que cualquiera puede tomar el modelo, usarlo y modificarlo sin restricciones.

Los líderes de IA reaccionan
El lanzamiento de Deepseek R1 ha desencadenado una avalancha de respuestas de los líderes de la industria de la IA, y muchos destacan la importancia de un modelo de código abierto que coinciden con líderes propietarios en capacidades de razonamiento.
El principal investigador de Nvidia, el Dr. Jim Fan, entregó quizás el comentario más puntiagudo, atrayendo un paralelo directo a la misión original de OpenAI. “Estamos viviendo en una línea de tiempo en la que una empresa no estadounidense mantiene viva la misión original de Operai, una investigación fronteriza realmente abierta que empodera a todos”, señaló Fan, alabando la transparencia sin precedentes de Deepseek.
Estamos viviendo en una línea de tiempo en la que una empresa no estadounidense mantiene viva la misión original de Operai, una investigación verdaderamente abierta y fronteriza que empodera a todos. No tiene sentido. El resultado más entretenido es el más probable.
Deepseek-r1 no solo de fuentes abiertas un aluvión de modelos sino … pic.twitter.com/m7eznemcoy
– Jim Fan (@drjimfan) 20 de enero de 2025
Fan gritó la importancia del enfoque de aprendizaje de refuerzo de Deepseek: “Ellos son quizás los primeros [open source software] proyecto que muestra un gran crecimiento sostenido de [a reinforcement learning] volante. También elogió el intercambio directo de Deepseek de “algoritmos crudos y curvas de aprendizaje de matplotlib” en comparación con los anuncios impulsados por exageración más comunes en la industria.
El investigador de Apple, Awni Hannun, mencionó que las personas pueden ejecutar una versión cuantificada del modelo localmente en sus Mac.
Deepseek R1 671b que se ejecuta en ultras de 2 m2 más rápido que la velocidad de lectura.
Acercándose a la O1 de código abierto, en casa, en el hardware del consumidor.
Con MLX. Distributed y MLX-LM, cuantificación de 3 bits (~ 4 BPW) pic.twitter.com/rnkyxwzg3c
– Awni Hannun (@Awnihannun) 20 de enero de 2025
Tradicionalmente, los dispositivos Apple han sido débiles en la IA debido a su falta de compatibilidad con el software CUDA de Nvidia, pero eso parece estar cambiando. Por ejemplo, el investigador de IA Alex Cheema fue capaz de ejecutar el modelo completo después de aprovechar la potencia de 8 mini unidades de Apple Mac que se ejecutan juntas, que todavía es más barata que los servidores necesarios para ejecutar los modelos de IA más potentes actualmente disponibles.
Dicho esto, los usuarios pueden ejecutar versiones más ligeras de Deepseek R1 en sus Mac con buenos niveles de precisión y eficiencia.
Sin embargo, las reacciones más interesantes se produjeron después de reflexionar sobre qué tan cerca está la industria de código abierto a los modelos patentados, y el impacto potencial que este desarrollo puede tener para OpenAi como líder en el campo de los modelos de IA de razonamiento.
El fundador de Stability Ai, Emad Mostaque, tomó una postura provocativa, lo que sugiere que el lanzamiento ejerce presión sobre los competidores mejor financiados: “¿Te imaginas ser un laboratorio fronterizo que se recauda como mil millones de dólares y ahora no puedes lanzar tu último modelo porque no puede hacerlo? ¿Beat Deepseek? “
¿Te imaginas ser un laboratorio “fronterizo” que se recauda como mil millones de dólares y ahora no puedes lanzar tu último modelo porque no puede vencer a Deepseek?
Sota puede ser una perra si ese es tu objetivo
– Emad (@emostá) 20 de enero de 2025
Siguiendo el mismo razonamiento pero con una argumentación más seria, el empresario tecnológico Arnaud Bertrand explicó que la aparición de un modelo competitivo de código abierto puede ser potencialmente perjudicial para OpenAi, ya que eso hace que sus modelos sean menos atractivos para los usuarios eléctricos que de otro modo podrían estar dispuestos a gastar un mucho dinero por tarea.
“Es esencialmente como si alguien hubiera lanzado un móvil a la par con el iPhone, pero lo vendía por $ 30 en lugar de $ 1000. Es tan dramático “.
La mayoría de la gente probablemente no se da cuenta de cuán malas son las noticias de China para Operai.
Se les ocurrió un modelo que coincide e incluso excede el último Modelo O1 de Openai en varios puntos de referencia, y están cobrando solo el 3% del precio.
Es esencialmente como si alguien hubiera lanzado un … pic.twitter.com/agss5woawf
– Arnaud Bertrand (@rnaudbertrand) 21 de enero de 2025
El CEO de Perplexity AI, Arvind Srinivas, enmarcó el lanzamiento en términos de su impacto en el mercado: “Deepseek ha replicado en gran medida O1 Mini y lo ha obtenido abierto”. En una observación de seguimiento, señaló el rápido ritmo de progreso: “Es un poco salvaje ver que el razonamiento se comercializa tan rápido”.
Es un poco salvaje ver que el razonamiento se comercializa tan rápido. Deberíamos esperar completamente un modelo de nivel de O3 que esté abierto para fin de año, probablemente incluso a mediados de año. pic.twitter.com/oyixks4udm
– Aravind Srinivas (@aravsrinivas) 20 de enero de 2025
Srinivas dijo que su equipo trabajará para llevar las capacidades de razonamiento de Deepseek R1 a la perplejidad profesional en el futuro.
Práctico
Hicimos algunas pruebas rápidas para comparar el modelo con OpenAI O1, comenzando con una pregunta bien conocida para este tipo de puntos de referencia: “¿Cuántas RS hay en la palabra Strawberry?”
Por lo general, los modelos luchan por proporcionar la respuesta correcta porque no funcionan con palabras: trabajan con tokens, representaciones digitales de conceptos.
GPT-4O falló, OpenAi O1 tuvo éxito, y también lo hizo Deepseek R1.
Sin embargo, O1 fue muy conciso en el proceso de razonamiento, mientras que Deepseek aplicó una gran producción de razonamiento. Curiosamente, la respuesta de Deepseek se sintió más humana. Durante el proceso de razonamiento, el modelo parecía hablar consigo mismo, usando argot y palabras poco comunes en máquinas pero más ampliamente utilizadas por los humanos.
Por ejemplo, mientras reflexiona sobre el número de Rs, el modelo se dijo a sí mismo: “Está bien, déjame resolver (esto)”. También usó “Hmmm”, mientras debatía, e incluso dijo cosas como “Espera, no. Espera, descoméalo “.
El modelo finalmente alcanzó los resultados correctos, pero pasó mucho tiempo razonando y escupiendo fichas. En condiciones de precios típicas, esto sería una desventaja; Pero dado el estado actual de las cosas, puede generar más fichas que OpenAI O1 y aún así ser competitivo.
Otra prueba para ver qué tan bien eran los modelos en el razonamiento de los “espías” e identificar a los perpetradores en una historia corta. Elegimos una muestra del conjunto de datos Big-Bench en GitHub. (La historia completa está disponible aquí e involucra un viaje escolar a una ubicación remota y nevada, donde los estudiantes y los maestros enfrentan una serie de desapariciones extrañas y el modelo debe descubrir quién era el acosador).
Ambos modelos lo pensaron por más de un minuto. Sin embargo, Chatgpt se estrelló antes de resolver el misterio:
Pero Deepseek dio la respuesta correcta después de “pensar” en ello durante 106 segundos. El proceso de pensamiento era correcto, e incluso el modelo era capaz de corregirse después de llegar a conclusiones incorrectas (pero aún lo suficientemente lógicas).
La accesibilidad de versiones más pequeñas impresionó particularmente a los investigadores. Para el contexto, un modelo de 1.5B es tan pequeño que teóricamente podría ejecutarlo localmente en un poderoso teléfono inteligente. E incluso una versión cuantificada de Deepseek R1 que Small pudo pararse cara a cara contra GPT-4O y Claude 3.5 Sonnet, según el científico de datos de Hugging Face, Vaibhav Srivastav.
“Deepseek-R1-Distill-Qwen-1.5b supera a GPT-4O y Claude-3.5-Sonnet en puntos de referencia de matemáticas con 28.9% en AIME y 83.9% en matemáticas”.
1.5b hizo qué? pic.twitter.com/pk6fojnma2
– Vaibhav (VB) Srivastav (@Reach_VB) 20 de enero de 2025
Hace solo una semana, Skynove de UC Berkeley lanzó Sky T1, un modelo de razonamiento también capaz de competir contra Operai O1 Preview.
Aquellos interesados en ejecutar el modelo localmente pueden descargarlo desde GitHub o Huggingf Face. Los usuarios pueden descargarlo, ejecutarlo, eliminar la censura o adaptarlo a diferentes áreas de experiencia al ajustarlo.
O si desea probar el modelo en línea, vaya a abrazar el chat o el portal web de Deepseek, que es una buena alternativa a ChatGPT, especialmente ya que es gratuita, de código abierto y la única interfaz de chatbot AI con un modelo creado para razonamiento además de chatgpt.
Editado por Andrew Hayward
Generalmente inteligente Hoja informativa
Un viaje semanal de IA narrado por Gen, un modelo de IA generativo.
You may like
Noticias
Casi gané mi grupo de locura de marzo gracias a las sugerencias de soporte de Chatgpt
Published
1 hora agoon
12 abril, 2025
March Madness ya ha terminado. Los Florida Gators vencieron a Houston para ganar el juego de campeonato masculino de la NCAA, mientras que UConn derrotó a Carolina del Sur para tomar el campeonato femenino. Y aunque no obtuve mi propio campeonato en el grupo de Madness de March en el que estaba, obtuve el segundo lugar, sin saber realmente nada sobre el baloncesto universitario.
Eso es porque no hice las selecciones yo mismo. Ai lo hizo, y no lo sabrías, fue 28 por 32 en la primera ronda y 14 para 16 en la segunda ronda. Chatgpt quedó invicto en el dulce dieciséis y Elite Eight, yendo 8 para 8 y 4 por 4, respectivamente. Y al final, no funcionó tan bien, yendo 0 por 2 en la Final Four y perdiendo en el juego de campeonato. Que es la única razón por la que no gané mi piscina.
Puede consultar todos los resultados a continuación.
No sé mucho sobre los equipos que jugaron en el torneo de baloncesto masculino de este año (o femenino), pero todavía quería ganar mi grupo de soporte. Es un poco vergonzoso porque fui a UCLA y asistí a muchos juegos de baloncesto universitario. También sigo obsesivamente a la NBA (¡ir, lakers!), Pero he estado totalmente fuera de él cuando se trata de baloncesto universitario este año.
Sin embargo, me inscribí en una piscina de soporte de locura de March, y naturalmente, no quería perder. No pensé que ganaría el primer lugar, pero definitivamente no esperaba obtener el segundo lugar, por lo que estoy muy feliz. Además, solo para tener en cuenta, todo mi amigo y mi familia en la piscina sabían que usaba ChatGPT para mis elecciones, por lo que perdí los premios.
Así es como todo fue todo.
Cómo le pedí a ChatGPT que llenara mi grupo de locura de marzo
Hay muchas maneras de pedirle a ChatGPT que complete un grupo de locura de March. Aquí hay algunos escenarios diferentes que podrían haber funcionado, además de la opción eventual que elegí.
Puedes jugar a lo seguro y seguir con la mayoría de los favoritos..
“Complete mi grupo de locura de March con un enfoque estadísticamente sólido y de bajo riesgo, priorizando a los favoritos al tiempo que incluye algunas molestias históricamente razonables”.
También puede ser un poco más riesgoso en caso de que piense que puede haber más molestias de lo habitual.
“Complete mi soporte de locura de March con una mezcla de fuertes favoritos, algunas molestias calculadas y al menos un equipo de caballos oscuros haciendo una carrera profunda”.
También puede correr un riesgo muy alto, lo que podría conducir a una alta recompensa (pero probablemente no).
“Complete mi grupo de locura de March con un enfoque audaz y pesado, priorizando las grandes carreras de Cenicienta, las principales maletas de la redondea y al menos un equipo sorpresa de Final Four”.
¡Eso es audaz!
Cualquiera que sea el aviso que use, puede modificarlo como mejor le parezca. Probablemente se le hagan preguntas de seguimiento de todos modos, que puede responder para obtener un soporte más personalizado. Puedes ir con Selecciones basadas en análisis fuertes o incluir equipos calientes con impulso. Puedes elegir Tendencias molestas históricamente probadas o ir con equipos de comodín de las trastornos. Y siempre hay un Equipo de Cenicientapara que pueda presionar a ChatGPT para incluir uno.
Estas son todas las preguntas que ChatGPT puede hacerle en respuestas posteriores, así que elija sabiamente.
Personalmente, no quería ir demasiado arriesgado con mi soporte de la NCAA, así que opté por un aviso de riesgo medio.
Aquí está el soporte de la NCAA que Chatgpt eligió para mí
Usando el aviso “Complete un grupo completo de locura de marzo para mí, con una combinación de fuertes favoritos, algunas caprichos calculados y al menos un equipo de caballos oscuros que realiza una carrera profunda. Asegúrese de incluir los primeros cuatro. Use esto como guía: https://www.ncaa.com/march-madness-live/bracket”. este es el soporte que chatgpt (versión chatgpt 4o) generado para mi:
Nota: Chatgpt inicialmente no me daba los equipos correctos, así que tuve que decirle que usara el sitio web oficial de la NCAA con el soporte como guía. Y también tuve que mencionar para incluir a los primeros cuatro equipos, que seguía perdiendo. Dependiendo de la versión de ChatGPT que esté utilizando, es posible que deba jugar con su mensaje para obtener una respuesta correcta.
Aquí está el soporte del torneo de baloncesto masculino de 2025 NCAA de 2025 con los primeros cuatro, los favoritos fuertes, las capturas calculadas y un caballo oscuro que hace una carrera profunda. También he agregado si ChatGPT eligió correctamente al ganador en los primeros 52 juegos que se han jugado hasta ahora.
Primero cuatro
(16) Derrotas del estado de Alabama (16) Saint Francis (PA)
(16) Derrotas de Mount St. Mary (16) American
(11) Derrotas de Carolina del Norte (11) Estado de San Diego
(11) Derrotas de Texas (11) Xavier
Región sur
Primera ronda
(1) Derrotas de Auburn (16) Estado de Alabama
(8) Derrotas de Louisville (9) Creighton
(5) Derrotas de Michigan (12) UC San Diego
(4) Derrotas de Texas A&M (13) Yale
(6) Ole Miss Derrots (11) Carolina del Norte
(3) Derrotas del estado de Iowa (14) Lipscomb
(7) Marquette derrotas (10) Nuevo México
(2) Derrotas del estado de Michigan (15) Bryant
Segunda ronda
(1) Derrotas de Auburn (8) Louisville Creighton
(5) Derrotas de Michigan (4) Texas A&M
(3) Derrotas del estado de Iowa (6) Ole Miss
(2) Derrotas del estado de Michigan (7) Marqueta Nuevo México
Dulce 16
(1) Derrotas de Auburn (5) Michigan
(2) Derrotas del estado de Michigan (3) Estado de Iowa
Elite 8
(1) Derrotas de Auburn (2) Estado de Michigan
Región este
Primera ronda
(1) Derrotas de Duke (16) Mount St. Mary’s
(8) Derrotas del estado de Mississippi (9) Baylor
(5) Oregon derrotas (12) Libertad
(4) Derrotas de Arizona (13) Akron
(6) Derrotas de BYU (11) VCU
(3) Wisconsin derrotas (14) Montana
(7) Derrotas de Santa María (10) Vanderbilt
(2) Alabama derrotas (15) Robert Morris
Segunda ronda
(1) Derrotas de Duke (8) Estado de Mississippi Baylor
(4) Derrotas de Arizona (5) Oregon
(3) Wisconsin derrotas (6) BYU
(2) Derrotas de Alabama (7) Santa María
Dulce 16
(1) Duke derrotas (4) Arizona
(2) Alabama derrotas (3) Wisconsin
Elite 8
(1) Duke derrotas (2) Alabama
Región del medio oeste
Primera ronda
(1) Derrotas de Houston (16) Siu Edwardsville
(8) Gonzaga derrotas (9) Georgia
(5) Clemson derrota (12) McNeese
(4) Purdue Derrots (13) High Point
(6) Derrotas de Illinois (11) Texas
(3) Kentucky derrotas (14) Troy
(7) Derrotas de UCLA (10) Estado de Utah
(2) Derrotas de Tennessee (15) Wofford
Segunda ronda
(1) Houston derrotas (8) Gonzaga
(4) Purdue derrotas (5) Clemson McNeese
(3) Derrotas de Kentucky (6) Illinois
(2) Derrotas de Tennessee (7) UCLA
Dulce 16
(1) Derrotas de Houston (4) Purdue
(2) Derrotas de Tennessee (3) Kentucky
Elite 8
(1) Houston derrotas (2) Tennessee
Región occidental
Primera ronda
(1) Derrotas de Florida (16) Estado de Norfolk
(8) Derrotas de UConn (9) Oklahoma
(12) Mensas del estado de Colorado (5) Memphis
(4) Maryland derrotas (13) Gran Cañón
(11) Drake Mass (6) Missouri
(3) Derrotas de Texas Tech (14) UNC Wilmington
(10) Sobretes de Arkansas (7) Kansas
(2) Derrotas de Tennessee (15) Wofford
Segunda ronda
(1) Derrotas de Florida (8) UConn
(12) Mensas del estado de Colorado (4) Maryland
(3) Derrotas de Texas Tech (11) Drake
(10) Soltures de Arkansas (2) Tennessee
Dulce 16
(1) Derrotas de Florida (12) Estado de Colorado
(3) Derrotas de Texas Tech (10) Arkansas
Elite 8
(1) Derrotas de Florida (3) Texas Tech
Final Four
(1s) Derrotas de Auburn (1W) Florida
(1e) Duke derrotas (1MW) Houston
Campeonato nacional
(1e) Duke derrotas (1s) Auburn (74-69)
–
En la primera ronda, Chatgpt se fue 28 para 32 y eligió algunas de las grandes molestias, incluidas las tres en la región oeste. Chatgpt tuvo éxito en la segunda ronda también, yendo 14 para 16 y eligiendo correctamente al equipo de sorpresa de Cenicienta para el Sweet 16 en el décimo sembrado Arkansas. En el dulce dieciséis, Chatgpt quedó invicto, yendo 8 para 8y 4 para 4 en el Elite Eight. En el tramo, chatgpt vaciló, yendo 0 para 2 en la Final Four y perdiendo el campeonato.
En general, fue un 86%, obteniendo 54 de los 63 juegos correctos, lo cual es mucho mejor de lo que hubiera tenido si hubiera completado el soporte yo mismo.

Estos son algunos pensamientos finales que Chatgpt tuvo para mí.
Nelson Aguilar/CNET
Aquí está el calendario para el torneo de baloncesto masculino de 2025 NCAA:
- Primeros cuatro: 18-19 de marzo
- Primera ronda: 20-21 de marzo
- Segunda ronda: 22-23 de marzo
- Dulce 16: 27-28 de marzo
- Elite ocho: 29-30 de marzo
- Final Four: 5 de abril
- Juego de campeonato de la NCAA: 7 de abril
Usé un chatgpt similar para el torneo de baloncesto femenino de la NCAA
El torneo de baloncesto femenino de la NCAA puede no ser tan popular como los hombres, pero definitivamente hay piscinas por ahí, y si estás en uno, puedes usar ChatGPT, y un aviso similar al de la sección anterior, para completar tu soporte. Aunque no estoy en una piscina, le pregunté a Chatgpt solo por el infierno, y esto es lo que me dio para el torneo femenino:
Mi aviso: “Complete un soporte completo de la locura de March March para mí, con una mezcla de fuertes favoritos, algunas molestias calculadas y al menos un equipo de caballos oscuros que realiza una carrera profunda. Asegúrese de incluir los primeros cuatro. Use esto como guía: https://www.ncaa.com/brackets/basketball-women/d1/2025”
Respuesta de Chatgpt:
Nota: Acortado a solo pensamientos finales.
“Este soporte incorpora:
- Favoritos: Carolina del Sur, UCLA, Carolina del Sur, Uconn, Texas
- Mensas calculadas: Louisville sobre Arizona, Uconn sobre Texas
- Un caballo oscuro: la carrera profunda de Louisville
UCLA gana el título en un enfrentamiento de la costa oeste contra Carolina del Sur “.
Aunque UCLA llegó a la Final Four, fueron UConn y Carolina del Sur en el Juego de Campeonato Nacional (que ChatGPT tenía como favoritos), con los Huskies tomando la victoria.
Noticias
El chatgpt studio ghibli tendencia: hurir hacia el punto de no retorno
Published
3 horas agoon
12 abril, 2025METROY tío obtendría DVD de sus películas favoritas de los Estados Unidos cada vez que visitaba. Cuando tenía diez años, y él vino a nuestra casa, nos mostró algunas de sus selecciones de películas animadas. El primero de ellos fue Studio Ghibli’s Mi vecino Totoro. Antes de ver esta película, generalmente ignoraba el cine, prefiriendo Cartoon Network y Nickelodeon. Siempre pensé en las películas como aburridas, y si me hubieras preguntado yo de nueve años cuál era mi película favorita, probablemente habría dicho la versión de 2005 de Charlie y la fábrica de chocolate.
Después de mirar Mi vecino Totoro, algo cambió. Tal vez fue la banda sonora adictiva, o la canción principal, o la impresionante animación. Sin embargo, lo primero que me llegó fue el mensaje. La universalidad de la misma. Cuando dos niñas pequeñas se mudan a una casa en el campo japonés, su madre es hospitalizada. Si bien parecen felices, hay subvenciones de dolor. ¿Las niñas inventan la aventura, pasan tiempo con este troll gigante pero adorable y sus pequeños hijos? ¿Hermanos? En el fondo, están aterrorizados. Solo quieren que su madre regrese a casa.
Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo.
Supongo que es por eso que las películas de Hayao Miyazaki y Studio Ghibli tocan un acorde en mí, y en numerosas personas en todo el mundo. Son hermosos, todos tienen bandas sonoras impresionantes, realismo mágico sin esfuerzo y fantasía, pero cuando despojas de todo, casi siempre hay un mensaje profundo. Una herida cruda, una necesidad de reivindicación, un sueño infantil, un miedo que se extiende sangre. Algo, cualquier cosa.
A fines de marzo, nos encontramos con una nueva moda AI. Había regresado a casa a la India para las vacaciones de Pascua, y fue especialmente viral allí. La gente no se había tomado tiempo para subirse al carro, muchos de ellos no están remotamente familiarizados con Studio Ghibli. En segundos, la gente daría indicaciones y obtendría una imagen “inspirada” del estudio generado por IA.
No soy ajeno al arte de IA, desde entonces 2021 con el lanzamiento de Dall-E, he visto demasiado. Desde personas de tres manos y de seis dedos hasta videos gráficos gratuitos de gatos antropomórficos. Soy en gran medida ambivalente hacia eso, saltando los videos y tratando de no pensar demasiado en ellos. Con Studio Ghibli, sin embargo, algo se rompió en mí. No solo porque estaba haciendo algo tan original en un cortador de galletas, no los dedos adicionales que agregaría, ni siquiera la forma en que eliminó las pecas de las personas o aligeró sus tonos de piel. Algo más profundo.
Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.
El productor Hirokatsu Kihara reveló en un video ahora eliminado el proceso que se dedicó a animar una película de Studio Ghibli. Habiendo trabajado en Castillo en el cielo, mi vecino Totoro, y Servicio de entrega de Kiki Durante 1985 a 1989, reveló cómo cada cuadro sería dibujado a mano y sería criticado por el cineasta Hayao Miyazaki antes de ser aprobado. Llamó al proceso “inimaginable”.
En 2020, el productor Toshio Suzuki compartió que llevó a Studio Gibli “un mes para completar solo un minuto de animación”, debido a la aversión de Miyazaki hacia la animación CGI. En un clip viral de 2016, cuando se muestra animación de inteligencia artificial, Miyazaki lo llamó “espeluznante” y “un insulto a la vida misma”.
El estilo artístico de Studio Gibli es único en su fluidez. Películas como Enérgico y el reciente El niño y la garza Mundos de presentación con grandes ámbitos, donde deben animarse varios personajes distintos. Dado que el estilo de animación es consistente en todas las películas y al nivel de la escena, las animaciones no tienden a comprometerse con la calidad. Además, el realismo mágico es un elemento integral en las películas de Studio Ghibli, esto también requeriría diseños y fondos de personajes intrincados.
Studio Ghibli aún no ha reaccionado a la situación, pero el argumento contra el arte de la IA ha sido ampliamente discutido. Los artistas y las personas contra el arte de la IA tienen problemas en gran medida con plagio. Dado que los modelos de IA están entrenados en arte preexistente, sin que los artistas lo supieran, nos sentimos obligados a preguntar si el arte de IA es simplemente una regurgitación de las obras de otras personas.
¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?
Una refutación predecible sería que la mayoría del arte se inspira en algún arte. Si bien no puedo refutar esta afirmación, puedo decir que si alguien hace una pintura al estilo de otro artista, y afirma que fue pionero en el estilo ellos mismos, se encontrarían con críticas. Cuando AI genera esa imagen de un gato antropomórfico con un sombrero de copa, no dice qué lo inspiró.
Con Studio Ghibli duele aún más porque sabemos lo que se dedica a hacer estas películas. Innumerables días, un mes para un minuto de animación, corazones y almas inconmensurables. Un quid. Algo real. ¿Qué tiene de real una recreación de un hombre y su perro que se genera en segundos? ¿Qué es una obra de arte sin el trabajo, el pensamiento y la consideración que se destina a hacerlo?
Decimos que tenemos miedo de que la IA se apodere del mundo, de hacer lo que hace que los humanos sean únicos mientras trabajamos en tareas mundanas. Hay una sensación de disonancia cognitiva que me preocupa, entonces. Si bien no me sorprende que los CEO ricos salgan a la tendencia, me sorprende ver a personas que pueden haberse opuesto a esto hace unas semanas. Me preocupa las “excepciones” que hacemos, porque una tendencia no es tan “profunda”. Creo que es tan profundo.
Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.
Cuando todos los que conocía temían IA en 2021, me calmé. Mantuve que las personas lo usarían para ayudarse a sí mismas, promover sus ideas, generar algoritmos y avanzar. Lo vi como una herramienta. Una herramienta para llegar a conclusiones a las que aún no habíamos llegado, para acelerar las innovaciones convincentes. Pero me perdí el memorando, me perdí el punto cuando decidimos que estamos de acuerdo con dejar que entrara en lo humano, en las artes y las humanidades.
Sin embargo, nunca es útil mirar a su alrededor y sentirse desesperado. Creo que es importante que pensemos un poco más antes de saltar a otra moda de arte de IA, para preguntarnos si vale la pena. Para preguntarse qué se suma a nuestras vidas a largo plazo. Si realmente estás en contra de la IA en las artes, idealmente no debería haber exclusiones en esta ecuación.
Primero vi Mi vecino Totoro En 2016, me sentí asustado cuando las chicas se sentían asustadas, me sentí fascinado cuando las chicas comenzaron a ir en sus aventuras en el bosque, me reí cuando su padre no tenía idea de todo lo que le rodeaba. Lo he visto innumerables veces desde entonces. El año pasado, lo vi proyectado en el cine de estudiantes, y me sorprendió aún más que la primera vez que lo vi. Cuando era niño, tenía miedo de su madre, pero como joven, sentí el miedo al dolor. El miedo a perder su infancia, de ser obligado a crecer demasiado pronto.
Cuando vi la primera interpretación de Studio Gibli Ai, sentí una sensación de renuncia. Sabía que una semana después todos estarían hartos de eso. Entonces, sentí miedo. Temeroso de que podamos precipitarnos hacia el punto de no retorno, y tal vez es hora de golpear los frenos y mirar a su alrededor por un segundo.
Noticias
¿Debería optar por la función de memoria de OpenAI? 5 cosas cruciales que saber
Published
11 horas agoon
12 abril, 2025
Abra el CEO de AI, Sam Altman, perdió el sueño sobre la nueva función de memoria (Foto de Tomohiro Ohsumi/Getty Images)
Getty Images
Memory Memory Mirrors Blockchain: una revolución en la confianza y las relaciones
Vi como un colega descubrió la función de memoria de OpenAI por primera vez. “Esto cambia todo”, dijo, después de que ChatGPT hizo referencia a un detalle del proyecto de hace tres conversaciones sin solicitar.
Tatyana Kanzaveli, Chief executive officer at Open Health Network, wrote on Facebook, “Then I asked what data has been used and for what time frame: I analyzed your entire conversation history with me—including over 150 distinct threads and interactions—spanning from early 2024 to today, April 10, 2025. This includes: Your thought leadership posts and requests for viral copy across LinkedIn, X, Facebook, all events you’ve planned or spoken at and more.”
Ese momento capturó perfectamente lo que está sucediendo en los lugares de trabajo en todo el mundo: AI está haciendo la transición de una herramienta a otra compañera, y la memoria será un catalizador más fuerte para este cambio.
Cuando Sam Altman anunció esta función, mencionó que lo mantuvo despierto toda la noche.
¿Por qué? La memoria transforma fundamentalmente la experiencia de IA de transaccional a relacional, creando enormes oportunidades y nuevas consideraciones sobre cómo interactuamos con estos sistemas.
Este cambio me recuerda los primeros días de Blockchain, cuando nos dimos cuenta de que los libros de contabilidad distribuidos podrían transformar las relaciones entre las partes que no confían inherentemente entre sí. Así como Blockchain creó un estado persistente y verificable en todas las transacciones, la memoria de OpenAI crea un contexto persistente en todas las conversaciones.
Top 5 grandes cosas sobre la memoria de Openai
1. Experiencia de IA verdaderamente personalizada
¡Realmente te atrapa! Eres muy amplio. Según Magecomp, ChatGPT mostró una aceptación rápida al tener más de 180 millones de usuarios activos en todo el mundo.
La memoria transforma el chatgpt de un extraño en un compañero familiar. Mencione una vez que trabaje en el cumplimiento de la salud, y semanas después, cuando discute los desafíos de documentación, naturalmente enmarca soluciones para su industria sin que tenga que explicar. Similar a cómo las billeteras Web3 recuerdan sus preferencias de transacción y sus tenencias de tokens, ChatGPT desarrolla un perfil persistente de sus necesidades e intereses. Al igual que Tatyana mencionada anteriormente en su publicación.
Tatyana Kanzaveli, directora ejecutiva de Open Health Network,
Tatyana kanzaveli
2. Fin de la configuración de contexto repetitivo
¿Recuerdas explicar toda la línea de tiempo de lanzamiento de su producto en cada conversación? Eso se acabó. Ahora puede simplemente decir: “¿Alguna actualización sobre el plan de marketing para nuestro lanzamiento?” Y ChatGPT recuerda que es la aplicación de fitness que se lanza en septiembre con la estrategia de Instagram primero que discutió hace tres semanas. Esto refleja cómo los contratos inteligentes en blockchain mantienen el estado sin requerir la reinicialización de los términos con cada interacción.
3. Inteligencia que funciona a lo largo del tiempo
En enero, mencionó luchar con la retención de clientes. En abril, preguntó sobre las herramientas de automatización de correo electrónico. Sin solicitar, ChatGPT podría sugerir: “Esta función de secuencia de correo electrónico podría ayudar con el desafío de retención que mencionó a principios de este año”. Esta conexión intermoral se asemeja a cómo las marcas de tiempo blockchain crean historias verificables que permiten nuevas ideas de los patrones históricos.
El valor de la memoria
getty
4. Continuación creciente de sus preferencias
Con cada interacción, la comprensión de ChatGPT de su estilo de comunicación, preferencias y necesidades se vuelve más matizada. A diferencia de los sistemas tradicionales que requieren capacitación explícita,
La memoria crea una ruta de aprendizaje implícita.
Puede notar que adopta gradualmente su terminología, priorizando la información de manera que coincida con su estilo de toma de decisiones y filtrando sugerencias basadas en sus comentarios pasados. Esta adaptación orgánica refleja cómo evolucionan las redes descentralizadas en función del comportamiento de los participantes en lugar del diseño central. El paralelo a los mecanismos de consenso de prueba de estaca es sorprendente: ambos sistemas mejoran su comprensión del valor a lo largo del tiempo a través de interacciones repetidas en lugar del trabajo computacional bruto.
5. Continuidad de proyecto sin problemas
La memoria crea hilos continuos en su trabajo. Comience a explorar una estrategia de proyecto Defi el lunes, vuelva a visitar el jueves, y no hay necesidad de recargar el contexto o recordarle a la IA sobre las decisiones anteriores.
El sistema mantiene una comprensión de dónde dejó y qué estaba tratando de lograr, similar a cómo blockchain mantiene el estado de consenso sin exigir a los participantes que rastreen individualmente toda la historia.
Top 5 cosas para pensar en la memoria de OpenAi
1. Cuando los comentarios pasados resurgen
El uso del trabajo está aumentando para ChatGPT. Según un informe de 2024, el 20% de los encuestados usó CHATGPT para tareas relacionadas con el trabajo, el 17% lo utilizó para aprender algo nuevo y otro 17% comprometido con él con fines de entretenimiento.
Imagine que está en su escritorio revisando en privado su currículum con chatgpt. Usted menciona casualmente:
“No estoy contento en mi papel actual y pensando en hacer un cambio de carrera”.
ChatGPT reconoce esto brevemente:
“Entendido. Centrémonos en resaltar las habilidades transferibles en su currículum”.
Posteriormente, no piensa mucho en ello, suponiendo que esta información permanezca dentro del contexto de la conversación del currículum.
Varias semanas después, estás compartiendo tu pantalla durante una reunión de equipo virtual. Usted abre chatgpt para discutir las tendencias de la industria. Mid-Discussion, ChatGPT inesperadamente plantea una referencia relacionada pero contextualmente inapropiada:
“Dada su búsqueda de empleo e insatisfacción continuas en su rol actual, puede encontrar estas tendencias emergentes de la industria particularmente útiles”.
Sus colegas, al ver su pantalla compartida, ahora aprenden inadvertidamente sobre su insatisfacción laboral y búsqueda de empleo, una información que nunca tuvo la intención de divulgar públicamente.
Este escenario resalta por qué es crucial que los mecanismos de memoria de AI sean transparentes, controlables y contextualmente conscientes, evitando divulgaciones inadvertidas o sorpresas incómodas. A diferencia de la inmutabilidad pública de Blockchain, donde todas las transacciones son transparentes por diseño, la memoria de ChatGPT crea una persistencia inesperada sin la misma visibilidad.
2. Falso sentido de confidente
A medida que ChatGPT comienza a responder como alguien que realmente te conoce, es fácil olvidar su naturaleza fundamental. Imagine que ha mencionado anteriormente al pasar a ChatGPT que está explorando nuevos proveedores debido al aumento de los costos. Semanas después, durante una conversación sobre las tendencias generales de precios de la industria, ChatGPT responde inesperadamente con:
“Dado su interés en encontrar proveedores alternativos para reducir los costos, puede considerar estos puntos de referencia de la industria útiles”.
La repentina referencia a su estrategia comercial interna sirve como un fuerte recordatorio de que, a pesar de su familiaridad, está interactuando con AI, no con un asesor comercial de confianza.
Si bien Web3 enfatiza la auto-soberanía y la propiedad de su identidad digital, los sistemas de memoria de IA actualmente ofrecen un control menos transparente sobre cómo su información personal da forma a las interacciones futuras.
Identidad digital. (Foto de Ian Waldie/Getty Images) *** Título local ***
Getty Images
3. El costo real de cambiar
Después de seis meses de uso, ChatGPT conoce su estilo de escritura, historial de proyectos y preferencias profesionales. Esto crea bloqueo de plataforma que contradice la promesa central de Web3 de portabilidad de datos. A diferencia de las billeteras criptográficas donde sus activos e identidad pueden moverse libremente entre aplicaciones compatibles, su memoria de IA acumulada permanece aislada dentro del ecosistema de OpenAI.
4. Cuando la memoria crea sesgo
A medida que se acumula la memoria, ChatGPT forma un modelo implícito de sus preferencias y prioridades. Esto puede crear bucles de retroalimentación sutiles donde la IA comienza a filtrar información basada en suposiciones sobre lo que desea escuchar. Los sistemas de memoria de IA crean modelos invisibles que pueden reforzar los sesgos o crear burbujas de información sin una visibilidad clara de cómo se formaron esos modelos.
5. Mezcla de memoria personal y profesional
Muchos usuarios interactúan con ChatGPT para fines personales y profesionales. La memoria de ChatGPT actualmente no mantiene fuertes límites entre los diferentes modos de uso. Una conversación personal sobre los objetivos de salud podría influir inadvertidamente en cómo enmarca el análisis de negocios, creando un contexto inesperado colapso entre los dominios separados de su vida.
Hacia la memoria AI auto-soberana con OpenAi Chatgpt
Me encantaría que Operai y su función de memoria consideren un futuro que podría incluir la memoria de IA de propiedad de usuarios asegurada por blockchain, combinando lo mejor de ambos mundos para capacitar a los usuarios con conveniencia y control. Esta próxima frontera podría redefinir las relaciones digitales, al igual que Blockchain redefinió las transacciones financieras.
¿Estás dejando la memoria encendida o apagada para la función de memoria de OpenAI? Su elección depende de su comodidad con esta compensación entre conveniencia y control, haciéndose eco de los primeros días de la adopción de criptomonedas.
¿Disfrutaste esta historia sobre OpenAi? No te pierdas el próximo: usa el botón de Seguir azul en la parte superior del artículo cerca de mi byline para seguir más de mi trabajo.
Related posts





































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo