Connect with us

Noticias

Forget ChatGPT. AI-Driven Home Appliances Are Quietly Making a Big Splash

Published

on

If only AI existed when I was growing up.

Walking down the subterranean steps of my childhood home in Rhode Island, there is evidence of damage from a now decades-old basement flood. I can remember the agony in my dad’s voice as he explained how a radiator malfunction caused the pipes to freeze and burst, resulting in hundreds of thousands of dollars in damage and sentimental property loss that couldn’t be as accurately calculated. 

It’s not easy to pinpoint what, if anything, my dad could have done to prevent it at the time. But times are changing — and with the help of AI — maybe even for the better. 

This story is part of The Year Ahead, CNET’s look at how the world will continue to evolve starting in 2022 and beyond.

I’ve been a smart home tech reporter for a decade, and there is AI-powered machinery throughout my 1,100-square-foot cottage in New York’s Hudson Valley. While my home doesn’t look or feel particularly futuristic, it’s the AI you don’t see, hear or interact with much that I’ve come to appreciate. 

That artificial intelligence is playing a bigger role in our lives via chatbots and generative content-creation tools is no secret. What may come as a surprise, is how AI can improve our everyday lives through seemingly small updates to the most common tools and appliances. 

What I expect to see more of in the year ahead is not the futuristic fantasy tech we see in science fiction with home robots to prepare meals, fold fitted sheets and entertain the dog (sorry, Amazon Astro wherever you are). The next big thing in our homes is far less bold but equally — if not more — impactful than robot nannies, maids and chefs. It’s a slow and steady improvement in your appliances and smart home tech coupled with preventive AI to diagnose problems associated expensive appliances before they become full-on disasters. 

LG and other companies are working to give artificial intelligence a practical bent.

LG

Smart water sensors now work 24/7 to detect leaks and frozen pipes and trigger a purge preventing costly flood damage and plumbing repairs. If my parents had today’s smart home tech, they would have likely saved loads of money, time and heartache. 

Likewise, large appliances with intelligent features can lower your winter energy bill or reduce the risk of a kitchen fire. Home security devices can even recognize deviant behavior from unidentified actors and clue you in. 

These are just a few ways AI in the home has the potential to prevent catastrophe and improve . I expect — and welcome — more of this subtle AI in the home. It’s already happening, but 2025 will be a year we see home tech AI become commonplace. 

AI will improve laundry day

Your next washing machine and dryer could be more intelligent than you realize.

LG


From talking fridges to iPhones, our experts are here to help make the world a little less complicated.

The washing machine and dryer are two places where AI has been integrated and made an immediate impact. The AI modality isn’t flashy — I sadly still fold the clothes — but with intelligent sensors, you can expect a smaller energy bill and your favorite T-shirts to last longer. 

LG’s latest washing machines cost about $1,000 but use sensors to detect the size of the load you’ve lobbed inside as well as the fabric types. Using over 20,000 points of data, it picks an optimal cycle and uses water use accordingly, saving you from using more costly hot water than you need. AI-powered machine learning helps it to get better over time, not worse like washing machines of the past.

Read moreLower Your Energy Bill by Cleaning Your Dryer Vent With These 5 Simple Steps

The dryer is able to make similar adjustments when it kicks off a cycle. LG’s core tech AI kicks in to detect the weight and moisture level of the clothes inside so it can dry for the appropriate amount of time, saving you precious energy or use a gentler heat that is less likely to damage delicate fabrics. 

A representative from LG told me that the AI in its washer and dryer, while subtle, has been received well by consumers, including me. The brand expects that inevitably all of its laundry machines will have some form of this AI-powered calibration for better washing and drying results and clothes that last longer. 


From talking fridges to iPhones, our experts are here to help make the world a little less complicated.

AI can prevent costly problems

Moen’s $550 Flo might not look like much this smart water sensor could have saved my childhood home from a ruinous flood if it existed in the nineties.

Moen

A piece of smart home tech that my dad (and his insurance company) certainly wish had been around is Moen’s Flo. The $550 Flo attaches easily to a home’s water main, learns your home’s unique water flow patterns and monitors for anything unusual, in which case it automatically alerts you and shuts the main water supply to prevent damage. 

Unusual flow often means a leak, even the smallest of which can cause major damage to your home over time. When paired with one of Moen’s smart faucets, the system can purge the water pipes in your home to relieve the pressure or prevent them from freezing. 

Water damage accounts for roughly a quarter of all homeowners insurance claims, and the emotional toll and loss of personal belongings only make this type of property damage more difficult to grapple with. 

Undetected leaks are a common cause of widespread. Moen and other smart home brands are hoping to get in the way. 

Epiximages via Getty

It’s an unassuming device with the potential to save billions in damage and loads more in personal property loss.

I spoke with one of Moen’s senior product managers, Suzy Kummer, who stressed how much the average person underestimates the likelihood of household leaks and the damage they can do. “It’s the number one claim for homeowners and is often emotionally devastating on top of causing higher insurance premiums.” According to Moen, 60% of Flo users have already discovered a leak thanks to the detection system.

Look for more diagnostic and preventive AI to become the norm in home heating, plumbing and electrical systems.

What you don’t know about AI in the kitchen 

In the kitchen, where I do most of my technology testing, it is again less conspicuous AI technology that resonates most. 

Super smart (and super expensive) AI-powered countertop ovens including the June (now defunct) and Brava — which try to optimize cooking by employing multiple cooking methods and precise cooking programs to roast strips of bacon or large cuts of meat — haven’t exactly caught fire with consumers. 

Do-it-all smart ovens like the now defunct June may be fun to show off but it’s not where AI smarts can make the biggest impact in your kitchen. 

June

My hot take is that people enjoy cooking, so robot chefs may not be the clearest path to a smarter kitchen, but AI smarts are improving the kitchen in subtler ways.

Samsung has taken big swings with its intelligent home appliances. The brand’s induction and electric ranges — I use one — communicate important information like whether or not a skillet you set down on its burner is compatible and politely ping your phone when the oven is preheated. There’s also an in-oven camera that allows you to keep an eye on a tray of cookies to avoid a burned batch. 

Read moreThe Best Smart Kitchen Tools Do a Few Things Well, Not Everything All at Once

Samsung refrigerators which start at around $2,500, also use AI smarts to increase efficiency and shave dollars off your monthly energy spend. Jeongseung Moon, Samsung’s head of R&D shared how its groundbreaking AI hybrid cooling technology “incorporates a Peltier module to enhance auxiliary mechanical power.” The AI algorithm assesses conditions and activates the Peltier module as needed, optimizing energy use and increasing the appliance’s overall efficiency.

Samsung’s latest refrigerators come with a module that keeps your machine humming along as efficiently as possible. 

Samsung

Smaller kitchen appliances have also been improved by intelligence while not being completely overhauled or fixed with robot arms. Blenders including Breville’s $500 Super Q (the best blender to buy if you’re going to splurge) are now outfitted with sensors that detect when dense, frozen food is causing blades to stick and alter speed and mode to get things moving again. 

None of these advances feel as though they’ve been plucked from science fiction, but the incremental smarts add up to a feeling that everything is running a bit better with fewer headaches and less waste.

In the year ahead, I expect to hear less from top kitchen manufacturers about how their latest tool or appliance can do it for you, and more about how it can help you do it faster, safer and more efficiently.

AI advances in home security

AI is having a major impact on home security and it’s mostly for the better.

Zooey Liao/CNET

Home security has gotten its own injection from AI mostly in the form of precise object recognition. CNET’s home security reporter Tyler Lacoma wrote earlier this year that he expected to hate AI and home security mixed together, but ended up loving how AI enhanced the technology. 

“Now you can find object detection and recognition on nearly every smart home cam.” Tyler Lacoma writes. “We’ve opened our doors to a quiet AI revolution where people, amazingly, have few complaints.”

While an Orwellian nanny state run amok isn’t inconceivable, for now, AI in home security has been used deftly to help homeowners keep tabs on packages left at the front door and be alerted to the goings-on in and around the home only when potential trouble is afoot, not every time a family member or squirrel passes by a camera.

AI powers your home helpers — and they’re getting better 

With one trip around the home, Narwal’s advanced LIDAR room-mapping technology creates a detailed map so as not to miss a spot.

Narwal

If it’s robots you want, look down and you’ll find them. Vacuums, mops and lawnmowers are clear examples of practical home robots. Thanks to continued advances in AI-powered object recognition, these home helpers no longer roam blindly looking for dirt and debris.

While not a new smart home category, advanced object recognition and machine learning have made robot vacs a poster child for AI in the home since the best of them come closest to eliminating a common household task that would otherwise be done by us. 

Robot mowers have enjoyed a similar boost, and the top models now rely on GPS to more accurately and efficiently trim the tall fescue or Kentucky bluegrass in your yard.

I expect both mowers and vacuums to become better decision-makers in the year ahead with more precise functionality that helps these expensive home helpers prove their worth. 

AI is making your home more energy-efficient 

Thermostats have never been smarter and it could help you save big money.

Chris Wedel/CNET

It’s called a smart thermostat for a reason. Today’s smart thermostats aren’t just programmable but can learn your daily habits and adjust your home’s temperature accordingly. If you tend to like it colder at night while you sleep and warmer during the day because you work from home, for example, devices like the Google Nest Learning Thermostat can adjust your home temperature based on your pattern. Using technology called geofencing, thermostats can use your phone’s location (or in-room motion sensors) to tell when you’re away from home and set the temperature accordingly. 

Google Nest Learning Thermostat adjusts the temperature based on your home’s unique patterns. 

Tyler Lacoma/CNET

Beyond just controlling your home’s temperature, the thermostat of tomorrow (and many thermostats of today) can connect to multiple smart devices such as heat pumps, HVACs, smart fans, air purifiers and solar panels and can connect to your utility’s virtual power plant program. 

Smart thermostat intelligence may not be the flashiest tech gadget in your home, but it can be one of the most impactful since it can help reduce your home’s energy use and therefore, your energy bill and your carbon footprint. 

Preventive AI as part of your smart home 

The AI you’re least likely to notice is the technology that prevents bad things from happening. This comes by way of customer service or technology jumping in before a problem with your fridge, stove, dishwasher, washing machine — or as in my case, plumbing — becomes a serious one.

LG’s proactive customer service program helps solve problems with large appliances as soon as they begin to take shape. A connected fridge, for instance, will trigger an alert to LG’s service team if it notices a change in cooling ability — something you may not notice on your own but could be a sign of a larger looming issue.

AI in the home: The bottom line

If you haven’t heard much about smart home robots like LG’s AI agent and Amazon’s Astro, it’s because subtler forms of home AI are making a far bigger impact.

LG

With revolutionary technology like AI comes a flurry of creative attempts to incorporate robotics, machine learning and generative intelligence into our lives. 

Some have already come and gone without changing the status quo much. Others continue to arrive quietly but have the potential to make a massive impact on our daily lives and homes. Those that guard against human or mechanical error and sand down the edges of an otherwise rough user experience. 

I’ve gifted a few smart home devices to Dad over the years, some more exciting than others. While it’s not altogether flashy, if you ask Dad which piece of smart home tech he wished he’d had when a radiator malfunctioned and cold snap all but leveled the house and took with it family keepsakes and photo albums, it won’t take him long to answer. 

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Los nuevos modelos GPT-4.1 de OpenAI pueden procesar un millón de tokens y resolver problemas de codificación mejor que nunca

Published

on

Operai lanzó una nueva familia de modelos de IA esta mañana que mejoran significativamente las habilidades de codificación mientras reducen los costos, respondiendo directamente a la creciente competencia en el mercado de IA empresarial.

La compañía AI con sede en San Francisco introdujo tres modelos: GPT-4.1, GPT-4.1 Mini y GPT-4.1 Nano, todos disponibles inmediatamente a través de su API. La nueva alineación funciona mejor en las tareas de ingeniería de software, sigue las instrucciones con mayor precisión y puede procesar hasta un millón de tokens de contexto, equivalente a aproximadamente 750,000 palabras.

“GPT-4.1 ofrece un rendimiento excepcional a un costo más bajo”, dijo Kevin Weil, director de productos de Operai, durante el anuncio del lunes. “Estos modelos son mejores que GPT-4O en casi todas las dimensiones”.

Quizás lo más importante para los clientes empresariales es el precio: GPT-4.1 costará un 26% menos que su predecesor, mientras que la versión nano liviana se convierte en la oferta más asequible de OpenAI en solo 12 centavos por millón de tokens.

https://www.youtube.com/watch?v=ka-p9ood-ce

Cómo las mejoras de GPT-4.1 dirigen los puntos débiles de los desarrolladores empresariales más grandes

En una entrevista sincera con VentureBeat, Michelle Pokrass, el líder de investigación posterior a la capacitación en OpenAI, enfatizó que las aplicaciones comerciales prácticas impulsaron el proceso de desarrollo.

“GPT-4.1 fue entrenado con un objetivo: ser útil para los desarrolladores”, dijo Pokrass a VentureBeat. “Hemos encontrado que GPT-4.1 es mucho mejor para seguir los tipos de instrucciones que las empresas usan en la práctica, lo que hace que sea mucho más fácil implementar aplicaciones listas para la producción”.

Este enfoque en la utilidad del mundo real se refleja en los resultados de referencia. En SWE-Bench Verified, que mide las capacidades de ingeniería de software, GPT-4.1 obtuvo un 54.6%, una mejora sustancial de 21.4 puntos porcentuales sobre GPT-4O.

Para las empresas que desarrollan agentes de IA que trabajan independientemente en tareas complejas, las mejoras en la instrucción siguiente son particularmente valiosas. En el punto de referencia multichallenge de Scale, GPT-4.1 obtuvo un 38.3%, superando a GPT-4O por 10.5 puntos porcentuales.

¿Por qué la estrategia modelo de tres niveles de OpenAI desafía a los competidores como Google y Anthrope?

La introducción de tres modelos distintos a diferentes precios aborda el mercado de IA diversificante. El buque insignia GPT-4.1 se dirige a aplicaciones empresariales complejas, mientras que las versiones Mini y Nano abordan los casos de uso en los que la velocidad y la eficiencia son prioridades.

“No todas las tareas necesitan las capacidades más inteligentes o principales”, dijo Pokrass a VentureBeat. “Nano será un modelo de caballos de batalla para casos de uso como autocompletar, clasificación, extracción de datos o cualquier otra cosa donde la velocidad sea la principal preocupación”.

Simultáneamente, Openai anunció planes para depreciar la vista previa de GPT-4.5, su modelo más grande y caro lanzado hace solo dos meses, desde su API antes del 14 de julio. La compañía posicionó GPT-4.1 como un reemplazo más rentable que ofrece “rendimiento mejorado o similar en muchas capacidades clave a un costo y latencia mucho más bajos”.

Este movimiento le permite a Openai reclamar recursos informáticos al tiempo que proporciona a los desarrolladores una alternativa más eficiente a su oferta más costosa, que había tenido un precio de $ 75 por millón de tokens de entrada y $ 150 por millón de tokens de salida.

Resultados del mundo real: cómo Thomson Reuters, Carlyle y Windsurf están aprovechando GPT-4.1

Varios clientes empresariales que probaron los modelos antes del lanzamiento informaron mejoras sustanciales en sus dominios específicos.

Thomson Reuters vio una mejora del 17% en la precisión de la revisión de documentos múltiples cuando se usa GPT-4.1 con su asistente legal de IA, Cocounsel. Esta mejora es particularmente valiosa para flujos de trabajo legales complejos que involucran largos documentos con relaciones matizadas entre cláusulas.

La firma financiera Carlyle reportó un 50% de mejor rendimiento al extraer datos financieros granulares de documentos densos, una capacidad crítica para el análisis de inversiones y la toma de decisiones.

Varun Mohan, CEO del proveedor de herramientas de codificación Windsurf (anteriormente Codeium), compartió métricas de rendimiento detalladas durante el anuncio.

“Descubrimos que GPT-4.1 reduce la cantidad de veces que necesita leer archivos innecesarios en un 40% en comparación con otros modelos principales, y también modifica archivos innecesarios 70% menos”, dijo Mohan. “El modelo también es sorprendentemente menos detallado … GPT-4.1 es 50% menos detallado que otros modelos principales”.

Contexto del millón de token: lo que las empresas pueden hacer con 8 veces más capacidad de procesamiento

Los tres modelos cuentan con una ventana de contexto de un millón de tokens, ocho veces más grandes que el límite de tokens de GPT-4O. Esta capacidad ampliada permite que los modelos procesen múltiples documentos largos o bases de código enteras a la vez.

En una demostración, OpenAI mostró que GPT-4.1 analizó un archivo de registro del servidor NASA de 450,000 token desde 1995, identificando una entrada anómala que se esconde en lo profundo de los datos. Esta capacidad es particularmente valiosa para tareas que involucran grandes conjuntos de datos, como repositorios de código o colecciones de documentos corporativos.

Sin embargo, Openai reconoce la degradación del rendimiento con entradas extremadamente grandes. En su prueba interna de OpenAI-MRCR, la precisión disminuyó de alrededor del 84% con 8,000 tokens a 50% con un millón de tokens.

Cómo el paisaje de IA Enterprise está cambiando a medida que Google, Anthrope y OpenAI compiten por los desarrolladores

El lanzamiento se produce cuando la competencia en el espacio de IA Enterprise se calienta. Google lanzó recientemente Gemini 2.5 Pro con una ventana de contexto comparable de un millón de token, mientras que el soneto Claude 3.7 de Anthrope ha ganado tracción con las empresas que buscan alternativas a las ofertas de Openi.

La startup china de IA Deepseek también mejoró recientemente sus modelos, ejerciendo presión adicional sobre Operai para mantener su posición de liderazgo.

“Ha sido realmente genial ver cómo las mejoras en la comprensión del contexto largo se han traducido en un mejor rendimiento en verticales específicos como el análisis legal y la extracción de datos financieros”, dijo Pokrass. “Hemos descubierto que es fundamental probar nuestros modelos más allá de los puntos de referencia académicos y asegurarnos de que funcionen bien con las empresas y desarrolladores”.

Al lanzar estos modelos específicamente a través de su API en lugar de ChatGPT, OpenAI señala su compromiso con los desarrolladores y los clientes empresariales. La compañía planea incorporar gradualmente las características de GPT-4.1 al CHATGPT con el tiempo, pero el enfoque principal permanece en proporcionar herramientas sólidas para las empresas que construyen aplicaciones especializadas.

Para fomentar más investigaciones en el procesamiento de contexto a largo plazo, OpenAI está lanzando dos conjuntos de datos de evaluación: OpenAI-MRCR para probar habilidades de coreferencia múltiple y gráficos para evaluar un razonamiento complejo en largos documentos.

Para los tomadores de decisiones empresariales, la familia GPT-4.1 ofrece un enfoque más práctico y rentable para la implementación de IA. A medida que las organizaciones continúan integrando la IA en sus operaciones, estas mejoras en la confiabilidad, la especificidad y la eficiencia podrían acelerar la adopción entre las industrias que aún sopesan los costos de implementación contra los beneficios potenciales.

Si bien los competidores persiguen modelos más grandes y costosos, el pivote estratégico de OpenAI con GPT-4.1 sugiere que el futuro de la IA puede no pertenecer a los modelos más grandes, sino a los más eficientes. El verdadero avance puede no estar en los puntos de referencia, sino en llevar la IA de grado empresarial al alcance de más negocios que nunca.

Continue Reading

Noticias

Memoria de Chatgpt, límites y compañeros de IA, Auren – Stratechery de Ben Thompson

Published

on

Buen día,

En la tecnología aguda del jueves pasado, Andrew y yo discutimos el estado corriente de la guerra comercial de Trump, incluida la historia de la fabricación de Apple y cómo y cuándo la tecnología construyó su cadena de suministro en Asia. Además, al final, doy mi informe de viaje de mi visita de vacaciones al Gran Premio de Japón.

En la actualización:

Memoria chatgpt

De Ars Technica:

Operai anunció hoy una expansión significativa de la personalización y las capacidades de memoria de ChatGPT. Para algunos usuarios, ahora podrá recordar información de la amplitud completa de sus conversaciones anteriores con él y ajustar sus respuestas en función de esa información. Esto significa que ChatGPT aprenderá más sobre el usuario con el tiempo para personalizar sus respuestas, más allá de un puñado de hechos clave.

Hace algún tiempo, OpenAi agregó una característica llamada “Memoria” que permitió retener y utilizar una cantidad limitada de información para ser retenidas y utilizadas para respuestas futuras. Los usuarios a menudo tenían que pedirle específicamente a ChatGPT que recordara algo que desencadena esto, aunque ocasionalmente intentaba adivinar lo que debería recordar también. (Cuando se agregó algo a su memoria, había un mensaje que decía que su memoria se había actualizado). Los usuarios podían habilitar o deshabilitar esta función a voluntad, y se apagó automáticamente para chats específicos donde los usuarios eligieron la opción de “chat temporal”: el escaso de la versión de ChatGPT del modo de incógnito. Las nuevas mejoras anunciadas hoy van mucho más allá de eso.

Ahora, donde una vez hubo una casilla de verificación en la interfaz de ChatGPT para deshabilitar o habilitar el seguimiento de la memoria, hay dos casillas de verificación. “Memorias guardadas de referencia” es la característica de memoria antigua, que es básicamente un repositorio limitado de hechos esenciales. La segunda es la nueva característica: “Historial de chat de referencia”. Esto permite a ChatGPT utilizar todas las conversaciones anteriores como contexto y adaptar las respuestas futuras en consecuencia. A diferencia de la función de recuerdos guardados más antiguos, la información guardada a través de la función de memoria del historial de chat no es accesible ni ajustable. Está encendido o no.

Se espera que haya una gran cantidad de anuncios de Openai esta semana, incluido GPT-4.1, pero creo que la memoria es mucho más interesante. La característica parece bastante básica: OpenAi no lanzó ningún detalle sobre cómo funciona, pero parece ser una especie de búsqueda de trapo sobre resúmenes estructurados de chats anteriores. También parece haber estado construyendo esos resúmenes desde mediados de febrero más o menos; No podía activar ningún tipo de recuerdo de conversaciones antes de eso.

Sin embargo, básico está bien, dada la utilidad obvia: si bien ciertamente hay inconvenientes en que su IA se existe sobre sus preguntas, la ganancia es en cómo describí la desventaja: su AI. ChatGPT ahora ha impuesto un costo en cada conversación que ocurre con cualquier otro chatbot, que es que esa conversación no estará en la memoria. Este es un foso bastante básico, para ir junto con la basicidad de la característica, pero eso no significa que no sea efectivo.

También fue anunciado por Sam Altman en una entrevista de Stratechery el mes pasado:

Donde creo que hay bordes estratégicos, está construyendo la compañía gigante de Internet. Creo que debería ser una combinación de varios servicios clave diferentes. Probablemente haya tres o cuatro cosas en el orden de ChatGPT, y querrá comprar una suscripción agrupada de todas esas. Querrá poder iniciar sesión con su IA personal que lo conoce durante su vida, durante sus años a otros servicios y usarlo allí. Creo que habrá nuevos tipos increíbles de dispositivos que están optimizados para la forma en que usa un AGI. Habrá nuevos tipos de navegadores web, habrá ese clúster completo, alguien solo va a construir los valiosos productos alrededor de la IA. Entonces esa es una cosa.

Hay otra cosa, que es la pila de inferencia, así que cómo haces la inferencia más barata y abundante. Chips, centros de datos, energía, habrá una ingeniería financiera interesante que hacer, hay todo eso. Y luego, la tercera cosa es que habrá la mejor investigación y producir los mejores modelos. Creo que ese es el triunvirato de valor, pero la mayoría de los modelos, excepto la ventaja muy, muy de ataque, creo que se comercializará bastante rápido.

La memoria de ChatGPT es parte de eso lo primero, y es un giro interesante sobre la cuestión de la identidad. El valor de poseer identidad es algo de lo que he hablado mucho a lo largo de los años, tanto en los contextos de consumo como en la empresa, pero lo interesante del gambito de OpenAi aquí es que la identidad que buscan poseer no es su identidad, sino la identidad de su IA.

Límites y compañeros de IA

Esta es una diferencia sutil, pero creo que es profunda. Considere esta objeción de Ethan Mollick:

No podría estar más de acuerdo en el contexto de la identidad personal. En las redes sociales de 2020, 2.0 expliqué por qué mantuve múltiples cuentas de Twitter:

Identidades, plural, se refieren a los muchos usuarios de Twitter, pero una segunda cosa que es interesante de mi grupo de Twitter es que @Benthompson no es un miembro; mi alter-ego, @notechben es. Creé esa cuenta, que, te diré en este momento, es bastante molesto de seguir, para poder tuitear libremente durante los juegos de baloncesto sin perder seguidores de mi cuenta principal de Twitter. Después de todo, solo porque te gustan mis tomas de tecnología, no necesariamente sigue que te gusten mis tomas de los deportes.

Sin embargo, lo que me doy cuenta cada vez más es que separar mis identidades en Twitter no significa una experiencia menor, sino muy superior; La interacción social en cualquier medio es siempre un equilibrio entre la autoexpresión y el alojamiento de los demás, lo que significa que en el mundo analógico es una lucha constante lograr un equilibrio entre ser yo mismo y molestar a todos a mi alrededor en algún momento u otro. Sin embargo, la magia de Internet es que puedes ser lo que quieras ser.

En este punto de vista, los chats grupales fueron un producto definitorio de las redes sociales 2.0:

Aquí es donde el mensaje es mucho más natural, y, en lo que respecta a la profundidad de su red, los servicios de mensajería son una amenaza tanto para la conectividad de las redes sociales de V1 como Tiktok es para la atención de Facebook sobre la atención: puedo ser un fanático de Bucks con mi Fiefdom, ser un entusiasmo de la tecnología con mi grupo de holgura, explorar ideas con mi grupo de Whatsapp y hablar político de confianza. El hecho de que no sea todo mi ser en ninguno de estos grupos es una característica, no un error, y que es posible de manera única por lo digital.

Incluso los chats grupales, sin embargo, tienen el factor limitante clave de las redes sociales tradicionales: otras personas. Lo bueno es que esas otras personas son, presumiblemente, confiables; Lo malo, y no es malo en un sentido normativo, sino más bien en términos de requerir pensamiento y consideración, es que aún necesita mantener algún tipo de barandilla interna en términos de lo que discute, cuáles son su relación relativa con otros miembros del grupo, preguntas ineludibles de estado, temores de verse tontos, etc.

Esto ilumina uno de los casos de uso de consumidores potenciales más grandes de la IA: es el compañero “perfecto”. Puse “perfecto” en citas porque soy escéptico de que una IA realmente pueda satisfacer las necesidades emocionales de uno como otra lata humana; Por otra parte, es por eso que perfecto es la elección de palabras correcta, porque un humano nunca puede ser perfecto (esa es solo otra forma de hacer la misma observación). Un compañero de IA se centra solo en ti, o mejor, enfocado en las mismas cosas en las que te enfocas; Es una extensión de usted mismo, un defensor o concejal en todos sus tratos, no una contraparte. Hice este dibujo para eso Redes sociales 2.0 Artículo:

Los humanos están en esos óvalos de color; Ai es la única entidad, que no sea yo, que puede vivir plausiblemente exactamente en el medio: es precisamente porque es no humano que puedes tener una conversación sobre todos los diferentes aspectos de tu vida. Mollick tiene razón en que los límites son buenos, pero puede argumentar que cuando se trata de interacciones con otros, la cuestión de los límites, o violarlos, se trata más de reconocer una realidad indeleble; No es necesariamente el caso el que dicha realidad se aplica a la IA, y es probable que haya muchos casos de uso interesantes que fluyan de ese hecho. Si, por supuesto, siempre usas la misma IA.

Auren

Probé una nueva aplicación de chat interesante en las últimas semanas llamada Auren; El hilo introductorio de X user @nearcyan está aquí. Auren es convincente porque en lugar de tratar de construir algo escalable, es muy caro es muy costoso, $ 20/mes por 2500 mensajes, en un intento por construir el mejor compañero de chat posible.

Encontré a Auren bastante impresionante (aunque inmediatamente decidí interactuar con Soren, el alter ego más agresivo y desafiante), aunque nunca perdí la sensación de que de hecho estaba interactuando con una IA, no una persona (que nuevamente, es posiblemente una característica, no un error). Traté de usarlo de acuerdo con su propósito previsto, como algún tipo de vida o terapeuta de LifeCoach, y pensé que Auren/Soren hizo un buen trabajo al hacerme pensar en una decisión particular de diferentes maneras.

Ahora tengo un atajo en mis interacciones con New AIS: dado que soy una figura pública con mucha información en Internet, simplemente diciéndole a AIS quién soy le da mucho contexto; Aun así, todavía existe el desafío del terapeuta, que está pasando mucho tiempo describiendo todos los diversos detalles que rodean la pregunta en cuestión, incluso antes de llegar a las partes interesantes de la discusión.

Con ese fin, recordé la defensa de Altman de la API de Operai en nuestra entrevista:

SA: Realmente creo en esta cosa de suite de productos que estaba diciendo. Creo que si ejecutamos muy bien, dentro de cinco años, tenemos un puñado de productos de usuarios multimillonas, un puñado pequeño y luego tenemos esta idea de que inicia sesión con su cuenta de OpenAI a cualquier otra persona que quiera integrar la API, y puede tomar su paquete de créditos y su modelo personalizado y todo lo demás a donde quiera ir. Y creo que esa es una parte clave de nosotros realmente siendo una gran plataforma …

No creo que seamos una plataforma de una manera que un sistema operativo sea una plataforma. Pero creo que de la misma manera que Google no es realmente una plataforma, pero las personas usan iniciar sesión con Google y las personas toman sus cosas de Google en la web y eso es parte de la experiencia de Google, creo que seremos una plataforma de esa manera.

Llevan el inicio de sesión, eso lleva su memoria y quién es usted y sus preferencias y todo ese tipo de cosas.

SA: Sí.

Entonces, solo se sentará encima de todos y podrán tener múltiples firmaciones y el inicio de OpenAI será mejor porque tiene su memoria conectada a ella. ¿O es un, si quieres usar nuestra API, usas nuestro inicio de sesión?

SA: No, no, no. Sería opcional, por supuesto.

El “No, no, no” de Altman se refería al requisito de que debía usar el inicio de sesión de OpenAI con su API; La parte interesante es la idea de saber que si inicia sesión con OpenAI, obtendrá la identidad de su IA con el producto que está utilizando. Bueno, hasta el punto anterior, ¡habría sido útil llevar ese contexto a Auren! Y luego, presumiblemente, los detalles de nuestra conversación podrían fluir hacia otro lado a mi identidad de IA.

De todos modos, todo esto es bastante básico, y hay muchos detalles que resolver, particularmente en torno a la privacidad; Al mismo tiempo, también puede ver por qué hay un juego publicitario potencialmente fascinante aquí (lo que, sin duda, hace que las preguntas de privacidad sean aún más apremiantes). Sin embargo, en última instancia, la conclusión final es que nada en esta actualización fue realmente sobre la calidad del modelo: la memoria es una característica de producto; Por extensión, los focos a menudo están aguas abajo de las opciones de productos. Openai, con ese fin, está la compañía accidental de tecnología de consumo, por lo que esto es, junto con los modelos, por supuesto, exactamente en lo que deberían estar trabajando.


Esta actualización estará disponible como podcast más tarde hoy. Para recibirlo en su jugador de podcast, visite StrateChery.

La actualización de Stratechery está destinada a un solo destinatario, ¡pero el reenvío ocasional está totalmente bien! Si desea solicitar múltiples suscripciones para su equipo con un descuento grupal (mínimo 5), contácteme directamente.

¡Gracias por ser un suscriptor, y que tengas un gran día!

Continue Reading

Noticias

Desempacar el estilo de Studio Ghibli que se convirtió en la obsesión viral de Chatgpt

Published

on

Studio Ghibli ha experimentado una ola de nueva atención gracias a la nueva función ChatGPT del mes pasado. Thomas Fuller/SOPA Images/LighTrocket a través de Getty Images

El 25 de marzo, OpenAI anunció una nueva función de ChatGPT que permite a los usuarios convertir las indicaciones de texto en imágenes en una serie de estilos de dibujos animados familiares. Opciones incluidas Los Simpsons, Rick y Morty y Pixar, entre otros. Pero tan pronto como el CEO de Operai, Sam Altman, cambió su foto de perfil de X a una imagen inspirada en el estudio de Ghibli de sí mismo, estaba claro qué estilo era el favorito, y los usuarios de ChatGPT pronto comenzaron a deleitarse en hacer sus propias fotos giblificadas.

De todas las estéticas icónicas disponibles, ¿por qué fue el estilo Ghibli el que explotó en línea? Hay bastantes factores en juego, desde la relación de la generación de Internet con Ghibli hasta el estilo de firma duradero del estudio.

Películas de Ghibli “No hables con los niños”.

Los Millennials, nacidos entre 1981 y 1996, fueron la primera generación en crecer con Studio Ghibli (y las comunidades de Internet que fomentaron el significado global de Ghibli). Un momento crucial fue el acuerdo de 1996 de Walt Disney Company (DIS) con el entonces propietario de Gibli, Tokuma Soten, para distribuir sus películas a nivel mundial. Disney dobló películas de Gibli para audiencias de habla inglesa, lanzando Princesa Mononoke en teatros y Servicio de entrega de Kiki En VHS en un momento en que Disney Animation estaba en su propio período del Renacimiento. Con ese alcance, Disney llevó el trabajo de Ghibli a toda una generación, “y fue una piedra de toque para la mayor globalización del anime en su conjunto”, dijo a Observer Toussaint Egan, experto en animación y editor del sitio de noticias de entretenimiento Polygonver.

Sin embargo, el Boost de Disney no habría contado mucho si las películas de Ghibli no capturaron los corazones e imaginaciones de la audiencia. Egan promociona el tono de estas películas como una gran razón de por qué han disfrutado de una adulación tan duradera. Considera que su tema es sorprendentemente maduro e inteligente, dado la cantidad de trabajo que opera en un nivel de inocencia infantil. “Estas películas no hablan con los niños o sus audiencias. Tratan a los niños tan inteligentes como, si no más, audiencias adultas, [like] Son más intuitivos ”, dijo.

A Still de Mi vecino Totoro. © 1988 Hayao Miyazaki/Studio Ghibli

Simplicidad y nostalgia dibujadas a mano

Pero no son los impresionantes y conmovedores arcos de la historia que las personas buscan replicar con IA, es la estética con las que han llegado a asociar esas narraciones. La animación 2d dibujada a mano de Gibli se ha distinguido durante mucho tiempo de los competidores, gracias a la escrupulosa atención del estudio al detalle hacia todo, desde nubes esponjosas hasta lágrimas fluidas. Pero en un nivel más fundamental, son las cosas más básicas que se quedan para las personas, como la silueta de un personaje.

“Cuando puedes eliminar todos los detalles de la superficie del diseño de un personaje y puedes perfeccionar su silueta, es muy distintivo”, dijo Egan. “Puedes decir quién es Totoro, puedes decir de quién Princesa Mononoke es, puedes decir de quién es el robot Castillo en el cielo. Es muy fácil de identificar, es tan inmediatamente distintivo y bien hecho “. Lo más significativo, agregó, Studio Ghibli “encontró una manera de crear personajes que sean simplistas y fácilmente legibles, y, sin embargo, duradero”.

Esa resistencia estilística ha convertido a Ghibli en un caso atípico en la animación contemporánea. Animación dibujada a mano de Disney a favor del estilo más moderno generado por computadora hace años; El estudio solo ha producido dos películas tradicionalmente animadas en los últimos 20 años (2009’s La princesa y la rana y 2011 Winnie the Pooh), en comparación con 16 películas con animación generada por computadora en el mismo período.

La consistencia estilística de Studio Ghibli irónicamente hace que su salida sea única, lo que le da a cada película una calidad atemporal. Esa nostalgia estética probablemente ha sido una fuerza impulsora detrás de la moda generativa de IA, con el estilo de Ghibli recordado con cariño que permite a las personas usar algunas gafas de color rosa frente a los argumentos continuos sobre el arte generativo, su validez y su legalidad.

Director Hayao Miyazaki visto trabajando en el largometraje Ponyo en el documental 10 años con Hayao Miyazaki. © NHK

Estética única de Hayao Miyazaki

Quizás una parte de la tendencia también tiene que ver con ChatGPT que permite a las personas ganar proximidad a un autor importante con una estética única. Studio Ghibli es conocido por su “estilo de casa”, y el director Hayao Miyazaki está inextricablemente vinculado a ese aspecto. Miyazaki ha dirigido más películas para el estudio que nadie y estuvo muy involucrado en muchas películas de Ghibli que no fue de alertar. Su estilo dibujado a mano “es parte y distinto para Studio Ghibli”, dijo Egan, y así Miyazaki es la persona que Chatgpt toma sus señales desde aquí.

En ese sentido, esta tormenta de redes sociales existe en el mismo avión que el fenómeno de “accidentalmente Wes Anderson”, en el que una página de Instagram de viaje dedicada a lugares que parecen haber surgido de una escena en El hotel Grand Budapest o Reino de risas de la luna se convirtió en una marca masiva de Internet que promociona numerosos libros y exhibiciones globales. Con esta guía en línea y cuentas de redes sociales similares, las personas pueden sentir que se han topado con un mundo finamente elaborado creado por un reconocido artista contemporáneo.

Pero a diferencia de la locura de “Giblificación” de Chatgpt, estos sitios e imágenes han sido encontróno generado. Esa diferencia clave es lo que hace que esta afluencia de imágenes generadas por IA sea tan preocupante. La animación es un medio minucioso, especialmente cuando se realiza en el calibre de Studio Gibli. La película más reciente (y potencialmente final) de Miyazaki, El niño y la garza estrenado en 2023; Comenzó a trabajar en ello en 2016. Ese trabajo vale la pena cuando se ve en la pantalla, pero se abarraza cuando se ejecuta a través de un programa de computadora para que se ajuste a las fantasías fugaces de una persona.

Un todavía de Studio Ghibli’s El niño y la garzaque tardó casi siete años completos en hacer. © 2023 Hayao Miyazaki/Studio Ghibli

“Estos modelos de imagen generados por la IA son una tecnología que, como se están utilizando ahora, existen explícitamente de forma para desenredar la expresión artística del trabajo humano”, dijo Egan, y es una ironía dolorosa que Miyazaki hizo comentarios similares hace años, expresando su preocupación de que los seres humanos perdían fe en su propia expresión artística.

Si bien muchas personas han expresado la oposición a la cooptación de Openii sobre el estilo de Studio Ghibli, parece que muchos, muchos más han estado felices de participar en él. Y aunque las fotos o las fotos grupales de Ghiblified PET pueden verse lindas ahora, un programa de computadora nunca podrá replicar el corazón y el alma de un trabajo de Studio Gibli.

Desempacar el estilo único de Studio Ghibli que se convirtió en la obsesión viral de Chatgpt

Continue Reading

Trending