Connect with us

Noticias

From OpenAI to DeepSeek, companies say AI can “reason” now. Is it true?

Published

on

The AI world is moving so fast that it’s easy to get lost amid the flurry of shiny new products. OpenAI announces one, then the Chinese startup DeepSeek releases one, then OpenAI immediately puts out another one. Each is important, but focus too much on any one of them and you’ll miss the really big story of the past six months.

The big story is: AI companies now claim that their models are capable of genuine reasoning — the type of thinking you and I do when we want to solve a problem.

And the big question is: Is that true?

The stakes are high, because the answer will inform how everyone from your mom to your government should — and should not — turn to AI for help.

If you’ve played around with ChatGPT, you know that it was designed to spit out quick answers to your questions. But state-of-the-art “reasoning models” — like OpenAI’s o1 or DeepSeek’s r1 — are designed to “think” a while before responding, by breaking down big problems into smaller problems and trying to solve them step by step. The industry calls that “chain-of-thought reasoning.”

These models are yielding some very impressive results. They can solve tricky logic puzzles, ace math tests, and write flawless code on the first try. Yet they also fail spectacularly on really easy problems: o1, nicknamed Strawberry, was mocked for bombing the question “how many ‘r’s are there in ‘strawberry?’”

AI experts are torn over how to interpret this. Skeptics take it as evidence that “reasoning” models aren’t really reasoning at all. Believers insist that the models genuinely are doing some reasoning, and though it may not currently be as flexible as a human’s reasoning, it’s well on its way to getting there.

The best answer will be unsettling to both the hard skeptics of AI and the true believers.

What counts as reasoning?

Let’s take a step back. What exactly is reasoning, anyway?

AI companies like OpenAI are using the term reasoning to mean that their models break down a problem into smaller problems, which they tackle step by step, ultimately arriving at a better solution as a result.

But that’s a much narrower definition of reasoning than a lot of people might have in mind. Although scientists are still trying to understand how reasoning works in the human brain — nevermind in AI — they agree that there are actually lots of different types of reasoning.

There’s deductive reasoning, where you start with a general statement and use it to reach a specific conclusion. There’s inductive reasoning, where you use specific observations to make a broader generalization. And there’s analogical reasoning, causal reasoning, common sense reasoning … suffice it to say, reasoning is not just one thing!

Now, if someone comes up to you with a hard math problem and gives you a chance to break it down and think about it step by step, you’ll do a lot better than if you have to blurt out the answer off the top of your head. So, being able to do deliberative “chain-of-thought reasoning” is definitely helpful, and it might be a necessary ingredient of getting anything really difficult done. Yet it’s not the whole of reasoning.

One feature of reasoning that we care a lot about in the real world is the ability to suss out “a rule or pattern from limited data or experience and to apply this rule or pattern to new, unseen situations,” writes Melanie Mitchell, a professor at the Santa Fe Institute, together with her co-authors in a paper on AI’s reasoning abilities. “Even very young children are adept at learning abstract rules from just a few examples.”

In other words, a toddler can generalize. Can an AI?

A lot of the debate turns around this question. Skeptics are very, well, skeptical of AI’s ability to generalize. They think something else is going on.

“It’s a kind of meta-mimicry,” Shannon Vallor, a philosopher of technology at the University of Edinburgh, told me when OpenAI’s o1 came out in September.

She meant that while an older model like ChatGPT mimics the human-written statements in its training data, a newer model like o1 mimics the process that humans engage in to come up with those statements. In other words, she believes, it’s not truly reasoning. It would be pretty easy for o1 to just make it sound like it’s reasoning; after all, its training data is rife with examples of that, from doctors analyzing symptoms to decide on a diagnosis to judges evaluating evidence to arrive at a verdict.

Besides, when OpenAI built the o1 model, it made some changes from the previous ChatGPT model but did not dramatically overhaul the architecture — and ChatGPT was flubbing easy questions last year, like answering a question about how to get a man and a goat across a river in a totally ridiculous way. So why, Vallor asked, would we think o1 is doing something totally new and magical — especially given that it, too, flubs easy questions? “In the cases where it fails, you see what, for me, is compelling evidence that it’s not reasoning at all,” she said.

Mitchell was surprised at how well o3 — OpenAI’s newest reasoning model, announced at the end of last year as a successor to o1 — performed on tests. But she was also surprised at just how much computation it used to solve the problems. We don’t know what it’s doing with all that computation, because OpenAI is not transparent about what’s going on under the hood.

“I’ve actually done my own experiments on people where they’re thinking out loud about these problems, and they don’t think out loud for, you know, hours of computation time,” she told me. “They just say a couple sentences and then say, ‘Yeah, I see how it works,’ because they’re using certain kinds of concepts. I don’t know if o3 is using those kinds of concepts.”

Without greater transparency from the company, Mitchell said we can’t be sure that the model is breaking down a big problem into steps and getting a better overall answer as a result of that approach, as OpenAI claims.

She pointed to a paper, “Let’s Think Dot by Dot,” where researchers did not get a model to break down a problem into intermediate steps; instead, they just told the model to generate dots. Those dots were totally meaningless — what the paper’s authors call “filler tokens.” But it turned out that just having additional tokens there allowed the model more computational capacity, and it could use that extra computation to solve problems better. That suggests that when a model generates intermediate steps — whether it’s a phrase like “let’s think about this step by step” or just “….” — those steps don’t necessarily mean it’s doing the human-like reasoning you think it’s doing.

“I think a lot of what it’s doing is more like a bag of heuristics than a reasoning model,” Mitchell told me. A heuristic is a mental shortcut — something that often lets you guess the right answer to a problem, but not by actually thinking it through.

Here’s a classic example: Researchers trained an AI vision model to analyze photos for skin cancer. It seemed, at first blush, like the model was genuinely figuring out if a mole is malignant. But it turned out the photos of malignant moles in its training data often contained a ruler, so the model had just learned to use the presence of a ruler as a heuristic for deciding on malignancy.

Skeptical AI researchers think that state-of-the-art models may be doing something similar: They appear to be “reasoning” their way through, say, a math problem, but really they’re just drawing on a mix of memorized information and heuristics.

Other experts are more bullish on reasoning models. Ryan Greenblatt, chief scientist at Redwood Research, a nonprofit that aims to mitigate risks from advanced AI, thinks these models are pretty clearly doing some form of reasoning.

“They do it in a way that doesn’t generalize as well as the way humans do it — they’re relying more on memorization and knowledge than humans do — but they’re still doing the thing,” Greenblatt said. “It’s not like there’s no generalization at all.”

After all, these models have been able to solve hard problems beyond the examples they’ve been trained on — often very impressively. For Greenblatt, the simplest explanation as to how is that they are indeed doing some reasoning.

And the point about heuristics can cut both ways, whether we’re talking about a reasoning model or an earlier model like ChatGPT. Consider the “a man, a boat, and a goat” prompt that had many skeptics mocking OpenAI last year:

What’s going on here? Greenblatt says the model messed up because this prompt is actually a classic logic puzzle that dates back centuries and that would have appeared many times in the training data. In some formulations of the river-crossing puzzle, a farmer with a wolf, a goat, and a cabbage must cross over by boat. The boat can only carry the farmer and a single item at a time — but if left together, the wolf will eat the goat or the goat will eat the cabbage, so the challenge is to get everything across without anything getting eaten. That explains the model’s mention of a cabbage in its response. The model would instantly “recognize” the puzzle.

“My best guess is that the models have this incredibly strong urge to be like, ‘Oh, it’s this puzzle! I know what this puzzle is! I should do this because that performed really well in the training data.’ It’s like a learned heuristic,” Greenblatt said. The implication? “It’s not that it can’t solve it. In a lot of these cases, if you say it’s a trick question, and then you give the question, the model often does totally fine.”

Humans fail in the same way all the time, he pointed out. If you’d just spent a month studying color theory — from complementary colors to the psychological effects of different hues to the historical significance of certain pigments in Renaissance paintings — and then got a quiz asking, “Why did the artist paint the sky blue in this landscape painting?”… well, you might be tricked into writing a needlessly complicated answer! Maybe you’d write about how the blue represents the divine heavens, or how the specific shade suggests the painting was done in the early morning hours which symbolizes rebirth … when really, the answer is simply: Because the sky is blue!

Ajeya Cotra, a senior analyst at Open Philanthropy who researches the risks from AI, agrees with Greenblatt on that point. And, she said of the latest models, “I think they’re genuinely getting better at this wide range of tasks that humans would call reasoning tasks.”

She doesn’t dispute that the models are doing some meta-mimicry. But when skeptics say “it’s just doing meta-mimicry,” she explained, “I think the ‘just’ part of it is the controversial part. It feels like what they’re trying to imply often is ‘and therefore it’s not going to have a big impact on the world’ or ‘and therefore artificial superintelligence is far away’ — and that’s what I dispute.”

To see why, she said, imagine you’re teaching a college physics class. You’ve got different types of students. One is an outright cheater: He just looks in the back of the book for the answers and then writes them down. Another student is such a savant that he doesn’t even need to think about the equations; he understands the physics on such a deep, intuitive, Einstein-like level that he can derive the right equations on the fly. All the other students are somewhere in the middle: They’ve memorized a list of 25 equations and are trying to figure out which equation to apply in which situation.

Like the majority of students, AI models are pairing some memorization with some reasoning, Cotra told me.

“The AI models are like a student that is not very bright but is superhumanly diligent, and so they haven’t just memorized 25 equations, they’ve memorized 500 equations, including ones for weird situations that could come up,” she said. They’re pairing a lot of memorization with a little bit of reasoning — that is, with figuring out what combination of equations to apply to a problem. “And that just takes you very far! They seem at first glance as impressive as the person with the deep intuitive understanding.”

Of course, when you look harder, you can still find holes that their 500 equations just happen not to cover. But that doesn’t mean zero reasoning has taken place.

In other words, the models are neither exclusively reasoning nor exclusively just reciting.

“It’s somewhere in between,” Cotra said. “I think people are thrown off by that because they want to put it in one camp or another. They want to say it’s just memorizing or they want to say it’s truly deeply reasoning. But the fact is, there’s just a spectrum of the depth of reasoning.”

AI systems have “jagged intelligence”

Researchers have come up with a buzzy term to describe this pattern of reasoning: “jagged intelligence.” It refers to the strange fact that, as computer scientist Andrej Karpathy explained, state-of-the-art AI models “can both perform extremely impressive tasks (e.g., solve complex math problems) while simultaneously struggling with some very dumb problems.”

An illustration of a cloud shape contained within a jagged starburst shape filled with green circuitry

Drew Shannon for Vox

Picture it like this. If human intelligence looks like a cloud with softly rounded edges, artificial intelligence is like a spiky cloud with giant peaks and valleys right next to each other. In humans, a lot of problem-solving capabilities are highly correlated with each other, but AI can be great at one thing and ridiculously bad at another thing that (to us) doesn’t seem far apart.

Mind you, it’s all relative.

“Compared to what humans are good at, the models are quite jagged,” Greenblatt told me. “But I think indexing on humans is a little confusing. From the model’s perspective, it’s like, ‘Wow, those humans are so jagged! They’re so bad at next-token prediction!’ It’s not clear that there’s some objective sense in which AI is more jagged.”

The fact that reasoning models are trained to sound like humans reasoning makes us disposed to compare AI intelligence to human intelligence. But the best way to think of AI is probably not as “smarter than a human” or “dumber than a human” but just as “different.”

Regardless, Cotra anticipates that sooner or later AI intelligence will be so vast that it can contain within it all of human intelligence, and then some.

“I think about, what are the risks that emerge when AI systems are truly better than human experts at everything? When they might still be jagged, but their full jagged intelligence encompasses all of human intelligence and more?” she said. “I’m always looking ahead to that point in time and preparing for that.”

For now, the practical upshot for most of us is this: Remember what AI is and isn’t smart at — and use it accordingly.

The best use case is a situation where it’s hard for you to come up with a solution, but once you get a solution from the AI you can easily check to see if it’s correct. Writing code is a perfect example. Another example would be making a website: You can see what the AI produced and, if you don’t like it, just get the AI to redo it.

In other domains — especially ones where there is no objective right answer or where the stakes are high — you’ll want to be more hesitant about using AI. You might get some initial suggestions from it, but don’t put too much stock in it, especially if what it’s saying seems off to you. An example would be asking for advice on how to handle a moral dilemma. You might see what thoughts the model is provoking in you without trusting it as giving you the final answer.

“The more things are fuzzy and judgment-driven,” Cotra said, “the more you want to use it as a thought partner, not an oracle.”

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Estrategia de Openai para mantener competitiva a la IA estadounidense

Published

on

La siguiente es una publicación invitada de Ahmad Shadid, fundador de O.XYZ.

En una era en la que la inteligencia artificial dicta la dinámica del poder global, OpenAi está haciendo movimientos audaces para asegurar el dominio de Estados Unidos en el sector. Su nuevo plan llamado “Plan de acción de IA” intenta aliviar el marco regulatorio, implementar controles de exportación y aumentar la inversión federal para mantenerse por delante de la expansión de la IA de China.

Operai firmó un acuerdo con la administración Trump para el nuevo “Plan de acción de AI“El 13 de marzo. El acuerdo giró en torno a la supervisión regulatoria limitada y el rápido desarrollo de IA en los Estados Unidos.

La propuesta destaca una verdad fundamental: demasiada regulación a nivel estatal podría socavar el liderazgo de Estados Unidos en la IA, incluso cuando los jugadores de IA respaldados por China, liderados por Deepseek, continúan creciendo rápidamente.

Defender la IA de la censura

El modelo R1 de Deepseek, lanzado en enero de 2025, se realizó al nivel de los principales sistemas de IA de EE. UU., Aunque se ha desarrollado a un costo mucho menor, desafiando el dominio de los gigantes tecnológicos estadounidenses.

Esto resultó ser una gran venta de acciones de EE. UU., Con empresas como Nvidia que sufren grandes pérdidas. Poco después, el gobierno de los Estados Unidos levantó banderas rojas sobre la seguridad nacional y la privacidad de los datos, debatiendo las soluciones de políticas para mantener a Estados Unidos al frente en las mismas tecnologías para las que escribió las reglas.

El enfoque de OpenAI representa un punto fundamental en la política de IA estadounidense, combinando la defensa regulatoria con la ambición industrial para garantizar que Estados Unidos se mantenga al tanto del juego cuando se trata de IA. Además, en el corazón del plan de OpenAI hay una estrategia de control de exportación que tiene como objetivo limitar la influencia en expansión del país en China.

Esto evitará el mal uso de las plataformas y tecnologías de IA mediante naciones opuestas. En consecuencia, los controles de exportación protegerán la seguridad nacional de los Estados Unidos.

El plan de OpenAI también exige el uso de dólares federales para explicar al mundo que la IA de fabricación estadounidense es más segura y que las empresas con sede en los Estados Unidos deberían mantenerse a la vanguardia de la transmisión internacional de IA.

Deepseek no es solo una iniciativa de IA china y un competidor comercial, sino también un aliado fundamental del Partido Comunista Chino (CCP). A fines de enero, Deepseek se volvió infame por bloquear la información sobre la masacre de la Plaza Tiananmen de 1989, montando una ola de capturas de pantalla en las redes sociales señalando Censura de China.

El plan de $ 500 mil millones

Una parte central del tono de OpenAi se está bloqueando en mayor financiación federal para infraestructura de IA. Esto significa garantizar que la marca de alta agua para el progreso estadounidense en el campo de la IA no se preocupe por la protección de lo que viene a continuación de las amenazas extranjeras, sino que también refuerza la infraestructura computacional y de datos necesaria para mantener el crecimiento a largo plazo.

El Proyecto Stargatepor ejemplo, es un esfuerzo conjunto de Openai, SoftBank, Oracle y MGX que proporcionará hasta $ 500 mil millones para el desarrollo de la infraestructura de IA en los Estados Unidos.

Esta ambiciosa iniciativa está destinada a consolidar la superioridad de la IA estadounidense mientras produce miles de empleos domésticos, mucho en contra de la creencia de la narrativa de “AI podría reemplazar su trabajo”.

Es un cambio táctico importante en el enfoque de la política de IA, reconociendo que las inversiones en el sector privado no son suficientes para seguir siendo competitivos en comparación con los esfuerzos patrocinados por el estado como DeepSeek de China.

El proyecto Stargate quiere garantizar la construcción de centros de datos avanzados y la expansión de la fabricación de semiconductores dentro de los Estados Unidos para mantener el desarrollo de la IA doméstico en los Estados Unidos.

En sus primeras etapas, el apoyo federal a la infraestructura de IA es crítico, tanto para la creciente competitividad económica como para la seguridad nacional. Las características con IA a menudo se usan en defensa e inteligencia nacional. Por ejemplo, Escudo de Nova de AI es un dron de quadcopter autónomo que utiliza IA para volar a través de entornos complejos sin GPS para recopilar información que salva vidas en entornos de combate.

Además, la IA también es crítica en la defensa cibernética contra el pirateo, el phishing, el ransomware y otras amenazas de ciberseguridad porque puede identificar desviaciones o anormalidades en los sistemas en tiempo real. Por lo tanto, su papel en la detección de patrones y detectar irregularidades ayuda a los Estados Unidos a salvaguardar la infraestructura de defensa crítica de los ataques cibernéticos, lo que hace que sea aún más importante acelerar el crecimiento de la IA para la defensa.

Batalla por los modelos de entrenamiento de IA

Un elemento clave de la propuesta de OpenAI es el llamado a un nuevo enfoque de derechos de autor que garantice que los modelos de IA estadounidenses puedan acceder a material con derechos de autor para su uso en su capacitación. La capacidad de entrenar en una amplia gama de conjuntos de datos es vital para mantener sofisticados modelos de IA.

Si las políticas de derechos de autor son restrictivas, podría poner a los Estados Unidos en desventaja a sus competidores extranjeros, especialmente los chinos, que operan entre la aplicación de derechos de autor más débil.

Las herramientas de IA se evalúan por riesgo, escrutinio de la junta de gobierno y marcos de verificación de cumplimiento como el Política de IA de la casa y aprobaciones condicionales del DHS. Aunque el ‘pase rápido’ de Fedramp puede acelerar el despliegue, las antenas de la FTC y las regulaciones mantendrán los propósitos de IA en el mismo estante que la política de seguridad nacional y las protecciones del consumidor.

Estas salvaguardas, aunque sin duda son muy importantes, a menudo ralentizan el ritmo de la adopción de IA en casos de uso del gobierno crucial.

Ahora, OpenAi, en particular, está presionando por una asociación entre el gobierno y la industria, donde las compañías de IA contribuyen voluntariamente con los datos de sus modelos, y a cambio, no estarían sujetos a restricciones estatales fuertes.

No es un camino fácil por delante

Aunque la propuesta de OpenAI es audaz y ambiciosa, plantea serias preguntas sobre cuánto regulación puede ayudar a impulsar la innovación en este floreciente sector.

Si bien debilitar la supervisión regulatoria a nivel estatal dejará espacio para desarrollos de IA más rápidos, hay una preocupación significativa por resolver. La estructura de la asociación de las organizaciones de IA con el gobierno federal podría crear el potencial para que las empresas privadas tengan un poder descomunal sobre las políticas de la nación sobre la IA y los propios usuarios.

Independientemente de estos miedos, una cosa está clara: Estados Unidos no puede permitirse el lujo de quedarse atrás de sus competidores en el desarrollo de la IA. Si se hace bien, esta asociación podría garantizar que la IA estadounidense sea el marco dominante en todo el mundo en lugar de ceder terreno a competidores extranjeros controlados por el gobierno como el profundo de China.

Mencionado en este artículo
XRP Turbo
Continue Reading

Noticias

El nuevo generador de imágenes de Openai es servidores derritiendo

Published

on

Aquí hay cinco cosas en tecnología que ocurrieron esta semana en NEWS TECH Tech y cómo afectan su negocio. ¿Los extrañaste?

Esta semana en NEWS TECHOLES DE NEGOCIOS

Noticias de tecnología empresarial #1 – El nuevo generador de imágenes de OpenAI se vuelve viral

Esta semana Openai lanzó una poderosa herramienta de generador de imágenes como parte de sus ofertas de chatgpt que muestra imágenes increíblemente vívidas. ¡Se ha vuelto tan viral que la compañía dice que la demanda está “derritiendo” sus GPU! (Fuente: Open AI, CNBC)

Por qué esto es importante para su negocio:

Las capacidades del generador de imágenes son extremadamente potentes y pueden tener un enorme impacto en el marketing y la marca de su empresa. Según la compañía: “La generación de imágenes GPT-4O se destaca para representar con precisión el texto, seguir con precisión las indicaciones y aprovechar la base de conocimiento inherente de 4O y el contexto de chat, incluida la transformación de imágenes de carga o usarlas como inspiración visual. Estas capacidades hacen que sea más fácil crear exactamente la imagen que imagina, ayudándole a comunicar de manera más efectiva a través de las imágenes y avanzar en una generación de imágenes prácticas con una práctica práctica con la precisión y alimentación de la imagen. Echa un vistazo a esta publicación X para ver algunos excelentes ejemplos.

Business Tech News #2 – LinkedIn presenta actualizaciones de marketing.

LinkedIn ha introducido actualizaciones en su gerente de campaña, con el objetivo de mejorar el éxito de los especialistas en marketing. Las características clave incluyen un planificador de medios para los resultados de la campaña de pronóstico, UTM dinámicos para un seguimiento más fácil y paneles mejorados para obtener información detallada de rendimiento. Además, un Digest de rendimiento de la campaña impulsado por la IA proporciona explicaciones de texto sencillo de las fortalezas y debilidades de la campaña. (Fuente: LinkedIn)

Por qué esto es importante para su negocio:

Según la compañía, estas actualizaciones se centran en refinar estrategias, optimizar el gasto publicitario y simplificar la gestión de la campaña. Se incluyen comentarios/revisiones de dueños de negocios que han utilizado estas herramientas para mejorar sus campañas. Las campañas de LinkedIn son más caras que la mayoría de las otras plataformas de redes sociales, pero nuevamente obtienes lo que pagas: acceso a excelentes datos B2B. Estas herramientas pueden ser de gran ayuda para los especialistas en marketing que se inclinan fuertemente en esta plataforma.

Business Tech News #3 – 40 por ciento de los equipos cibernéticos no han informado de ataques cibernéticos por temor a perder empleos, según New VikingCloud Research.

La compañía de ciberseguridad VikingCloud ha publicado algunas investigaciones muy reveladas. Entre los profesionales de los Estados Unidos, el Reino Unido e Irlanda, el 40 por ciento de los equipos de ciberseguridad admitieron que han evitado informar incidentes cibernéticos debido al temor a la pérdida de empleo. Este subregistro destaca una brecha significativa para abordar las violaciones cibernéticas a nivel mundial. A pesar de esto, el 96 por ciento de las empresas encuestadas expresaron su confianza en su capacidad para detectar y responder a los ataques en tiempo real, lo que puede conducir a una falsa sensación de seguridad. Además, el 68 por ciento de los equipos admitieron que no pudieron cumplir con la nueva regla de divulgación de cuatro días de la Comisión de Valores y Valores para incidentes cibernéticos. El informe enfatiza los desafíos que enfrentan los profesionales de la ciberseguridad y la necesidad de mejorar la resiliencia y las estrategias de respuesta. (Fuente: Business Wire)

Por qué esto es importante para su negocio:

¡Sí, esta es una gran apertura! ¡Imagínese no saber acerca de una violación de seguridad porque su equipo de TI no quiere admitirlo! Se trata de la cultura de la empresa y tener un entorno en el que las personas no tengan que tener miedo de cometer errores. Tome esta información en serio y tenga un corazón en serio con su gente tecnológica. Es mejor saber que no saber.

Noticias de tecnología empresarial #4 – El agente de reuniones de Otter.ai puede programar llamadas y escribir correos electrónicos para usted.

Otter.ai ha introducido un agente de reuniones de IA activado por voz que puede participar activamente en reuniones virtuales. Este agente puede responder preguntas, programar seguimientos, redactar correos electrónicos y realizar otras tareas basadas en datos de reuniones. Inicialmente compatible con Zoom, pronto admitirá los equipos de Microsoft y Google Meet. Otter también lanzó agentes especializados para demostraciones de ventas y productos, con el objetivo de optimizar los flujos de trabajo y mejorar la productividad. La compañía ha dicho que planea liberar más agentes “verticales” en el futuro. (Fuente: Engadget)

Por qué esto es importante para su negocio:

He entregado a algunos de mis clientes a esta aplicación porque hace muy bien las reuniones. Creo que sus mejores capacidades son cuando lo usa en su dispositivo móvil en reuniones cara a cara, en lugar de solo en línea. Aprovechando a Otter.ai cuando está en un cliente le permite concentrarse más en las relaciones y no preocuparse por tomar notas y acciones. Si va a inclinarse en esta aplicación, le recomiendo usarla cuando esté en el sitio, no solo en línea.

Business Tech News #5 – Honeybook acelera la innovación de IA para empoderar a las pequeñas empresas.

Honeybook ha presentado su próxima fase de herramientas de gestión empresarial con IA, diseñada para ayudar a los empresarios basados ​​en servicios a racionalizar las operaciones y aumentar el crecimiento. Al incrustar la IA directamente en flujos de trabajo, Honeybook permite una automatización perfecta y proactiva. La compañía afirma que los empresarios que usan AI de Honeybook han informado beneficios significativos, incluida la duplicación de sus reservas de proyectos y el logro de un volumen de pago bruto 94 por ciento más alto. La plataforma también ayuda a los usuarios a ahorrar hasta tres horas por semana en tareas manuales, lo que permite más tiempo para el trabajo del cliente y el crecimiento comercial. (Fuente: Yahoo Finance)

Por qué esto es importante para su negocio:

Para las pequeñas empresas en el Service Sector Honeybook es una herramienta poderosa para ayudar tanto al marketing como a la implementación de servicios. A medida que la compañía se inclina más en la IA, como muchas otras compañías como esta, puede esperar más ahorros de tiempo y una mejor productividad. Definitivamente una aplicación que vale la pena intentarlo.

Cada semana redondeo cinco historias de tecnología empresarial que afectan a las pequeñas empresas y luego explico por qué. ¡Espero que disfrutes!

Continue Reading

Noticias

Horóscopo diario hoy 30 de marzo: Horóscopo hoy, 30 de marzo de 2025: Predicciones astrológicas detalladas para el amor, la carrera y la salud para Aries, Tauro, Géminis, Cáncer, Leo y More

Published

on

Horóscopo hoy, 30 de marzo de 2025: La vida se mueve en ciclos, y las estrellas susurran secretos para quienes escuchan. Mañana, 30 de marzo de 2025, posee una combinación de sorpresas, desafíos y oportunidades para cada signo del zodiaco. Ya sea que se trate de una nueva perspectiva, una conexión imprevista o un momento de profunda reflexión, el universo tiene algo especial para usted. Vamos a sumergirnos en lo que revela tu horóscopo.

Horóscopo Aries hoy

Amar

El amor no se trata solo de grandes gestos, Aries. A veces, se trata de saber cuándo dar un paso atrás y darle espacio (y su pareja) para respirar. Si te has sentido abrumado, mañana es el día para recargarse emocionalmente.

Carrera

Prosperas en la acción, pero no todas las batalla necesitan ser libradas. Aléjese de los conflictos innecesarios en el trabajo y se reinicia sobre los objetivos a largo plazo. Verá un camino más claro si se permite un momento de planificación tranquila.

Salud

Su energía ha sido alta últimamente, pero incluso los guerreros necesitan descansar. Una caminata simple o un momento meditativo podría ser más beneficioso que otra taza de café. Escucha tu cuerpo.

Horóscopo Tauro hoy

Amar

El universo está orquestando un poco de magia para ti, Tauro. Una sorpresa, tal vez un gesto pequeño pero sincero, podría reavivar el romance o profundizar una conexión. Mantente abierto a lo inesperado.

Carrera

Un cambio en la dinámica en el trabajo podría atraparte desprevenido. Ya sea una nueva responsabilidad o un cambio en el liderazgo, la adaptabilidad será clave. Ve con el flujo y es posible que te encuentres adelante.

Salud

Los altibajos emocionales son naturales, pero se basan en la rutina, ya sea un entrenamiento o un pasatiempo creativo, ayudará a mantener el equilibrio interno.

Horóscopo Géminis hoy

Amar

Una reunión casual, una conversación o incluso un texto aleatorio podría provocar algo inesperado. Mantente presente, Géminis: Fate funciona de manera misteriosa.

Carrera

La red es su superpotencia, y mañana presenta la oportunidad de conectarse con alguien que podría afectar su futuro. Participe en discusiones, pero escuche tanto como hable.

Salud

La estimulación mental lo mantiene en marcha, pero tenga en cuenta el agotamiento. Tome breves descansos para refrescar su mente.

Horóscopo del cáncer hoy

Amar

Un poco de distancia puede traer claridad. Si las emociones se han ido en alto, una pausa podría ser justo lo que su relación necesita.

Carrera

Las demandas laborales están creciendo, pero el equilibrio no es negociable. Priorizar, delegar y no tenga miedo de decir que no cuando sea necesario.

Salud

Su bienestar depende del equilibrio emocional. Practica la atención plena y evita que te extiendas demasiado.

Leo Horóscope hoy

Amar

El miedo es lo único que te detiene, Leo. Si hay algo que ha dudado en decir o hacer, ahora es el momento de actuar con valentía.

Carrera

Los grandes cambios pueden estar en el horizonte, y aunque lo desconocido puede ser desalentador, también está lleno de posibilidades. Da un paso adelante con confianza.

Salud

Su salud física y mental está interconectada. Ejercicio para liberar el estrés y aumentar la confianza.

Horóscopo de virgo hoy

Amar

A veces, lo más difícil es liberarse de viejos hábitos. Si algo en tu vida amorosa se siente estancada, ahora es el momento del cambio.

Carrera

Los flujos de trabajo necesitan una actualización. Identificar ineficiencias y estar abierto a adoptar nuevos métodos. La innovación es tu amigo.

Salud

Declutter, tanto física como mentalmente. Un espacio limpio conduce a una mente más clara.

Horóscopo de libra hoy

Amar

El amor no solo se encuentra en el romance; Está en las conexiones que menos espera. Aprecia los pequeños momentos de calidez y risa.

Carrera

Una conversación alegre con un colega podría llevar a una realización importante. No descarte interacciones casuales.

Salud

La risa realmente es la mejor medicina. Busca alegría y deja que levante tu espíritu.

Horóscopo escorpio hoy

Amar

Una conversación profunda puede revelar verdades ocultas. Escuche con atención; Lo que se dice mañana podría cambiar la forma en que ves las cosas.

Carrera

El consejo de un mentor o la visión de un colega podrían cambiar su perspectiva. Estar abierto al aprendizaje.

Salud

La autorreflexión es esencial. El diario puede ayudarlo a procesar sus emociones.

Horóscopo de Sagitario hoy

Amar

Aferrarse a los rencores pesa por su corazón. Ya sea perdonar a una pareja o a usted mismo, mañana se trata de la liberación emocional.

Carrera

Un error pasado no define su futuro. Aprenda de él, poseerlo y avanzar con sabiduría.

Salud

El perdón no es solo emocional: también afecta su salud física. Libere la negatividad y sienta el levantamiento de peso.

Horóscopo de capricornio hoy

Amar

Ser responsable en las relaciones fortalece la confianza. Si debes una disculpa, dale. Si necesita uno, pídelo.

Carrera

Asumir la responsabilidad de las acciones pasadas y presentes allanará el camino para el éxito futuro.

Salud

La paz interior proviene de la autoconciencia. Un poco de introspección será muy útil.

Horóscopo Acuario hoy

Amar

Las tormentas emocionales pueden elaborar, pero permanecer compuesto evitará el drama innecesario. El equilibrio es clave.

Carrera

Mantenga una cabeza nivelada: las situaciones de extracción son temporales. Manténgase enfocado en los objetivos a largo plazo.

Salud

La meditación, la respiración profunda o incluso un momento tranquilo solo lo ayudará a mantenerse centrado.

Horóscopo de Piscis hoy

Amar

Una elección crucial está en el horizonte. Confía en ti mismo; Tu corazón sabe la respuesta.

Carrera

La paciencia es clave. No se apresure, siga las cosas que se desarrollan naturalmente, y la decisión correcta se aclarará.

Salud

Evite la fatiga de la decisión dándose espacio para respirar. Una mente descansada toma las mejores decisiones.

Preguntas frecuentes:

¿Qué predice el horóscopo de Aries para el 30 de marzo de 2025?
Aries debe centrarse en el descanso, la reflexión y la recarga de energía emocional.

¿Leo tomará una decisión importante hoy?
Sí, se alienta a Leo a tomar medidas audaces y abrazar nuevas posibilidades.

Declaración de descargo de responsabilidad: Este contenido es escrito por un tercero. Las opiniones expresadas aquí son las de los respectivos autores/ entidades y no representan las opiniones de los tiempos económicos (ET). ET no garantiza, garantiza ni respalda ninguno de sus contenidos ni es responsable de ellos de ninguna manera. Tome todos los pasos necesarios para determinar que cualquier información y contenido proporcionado sea correcto, actualizado y verificado. ET por la presente renuncia a todas y cada una de las garantías, expresas o implícitas, relacionadas con el informe y cualquier contenido en el mismo.

Continue Reading

Trending