Noticias
Let’s Start Thinking Of Breathtaking Ways To Leverage Generative AI Far Beyond What We Are Doing Right Now
Published
5 meses agoon

Find new ways to apply generative AI or large language models and win great prizes and garner … [+] amazing fame.
getty
In today’s column, I explore the rising vocal clamor that we are woefully underutilizing generative AI and large language models or LLMs.
This might come as quite a surprise since the use of generative AI seems to be just about everywhere and continues to rapidly expand. There are reportedly 250 million weekly active users of OpenAI ChatGPT and undoubtedly hundreds of millions or into the billions more users of AI when including the likes of Anthropic Claude, Google Gemini, Meta Llama, and other major generative AI apps.
But the rub is this.
It’s not how many people are using generative AI, it’s the way in which generative AI has been set up to be used.
The primary approach that nearly everyone uses is that generative AI takes in essay-like text and produces text-based responses, or possibly images and video. That is the norm. Generative AI and large language models are data trained on patterns in human language and the way that humans write.
Maybe we should be identifying something else to pattern on. Perhaps we can reach far beyond just everyday natural language. The sky is the limit, or shall we say limitless.
Does that catch your attention and offer some intrigue?
Let’s talk about it.
This analysis of an innovative proposition is part of my ongoing Forbes.com column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here).
The Push To Go Outside The Box
A modern-day luminary in the AI field named Andrej Karpathy began quite an online conversation and debate when he posted a tweet on X that said this (posting on September 14, 2024, per @karpathy):
- “It’s a bit sad and confusing that LLMs (‘Large Language Models’) have little to do with language; It’s just historical. They are highly general-purpose technology for statistical modeling of token streams. A better name would be Autoregressive Transformers or something. They don’t care if the tokens happen to represent little text chunks. It could just as well be little image patches, audio chunks, action choices, molecules, or whatever. If you can reduce your problem to that of modeling token streams (for any arbitrary vocabulary of some set of discrete tokens), you can ‘throw an LLM at it’.
- “Actually, as the LLM stack becomes more and more mature, we may see a convergence of a large number of problems into this modeling paradigm. That is, the problem is fixed at that of ‘next token prediction’ with an LLM, it’s just the usage/meaning of the tokens that changes per domain. If that is the case, it’s also possible that deep learning frameworks (e.g. PyTorch and friends) are way too general for what most problems want to look like over time. What’s up with thousands of ops and layers that you can reconfigure arbitrarily if 80% of problems just want to use an LLM? I don’t think this is true, but I think it’s half true.”
I’d like to walk you through the underlying proposition.
You might want to grab a glass of fine wine and find a quiet spot to sit and mull over the significance of what this is all about.
Tokens And Pattern Matching Are The Key
Currently, when you enter a prompt into generative AI, the words that you input are converted into a numeric format referred to as tokens. For example, suppose the sentence was “The dog barked” and that we had beforehand assigned the number 23 to the word “The”, 51 to the word “dog” and 18 to “barked”. The tokenized version of the sentence “The dog barked” would be those numbers shown in the sequence of 23, 51, and 18.
Next, after that conversion from text to numbers, the numbers or tokens are then used within the generative AI to figure out what the output will be. A long series of computations are undertaken. At the tail end of the processing, and before you see any text output, the resultant numbers might consist of say 10, 48, 6, which let’s assume that 10 is for the word “Yes”, 48 is for the word “it” and 6 is for the word “did”. Thus, the output as a result of making use of the inputs 23, 51, and 18, gives us the numbers 10, 48, and 6, which is shown to you as “Yes it did”.
For a more detailed explanation of tokenization, see my discussion at the link here.
By and large, the premise of generative AI and large language models is that when someone enters a set of sequenced tokens (via text-based words), a response can be computed that will consist of some other set of sequenced tokens (which is then converted into text-based words). In my example, I entered the three sequenced words consisting of “The dog barked” and I got a response of three sequenced words saying, “Yes it did”. My sequence of words “The dog barked” was converted into numeric tokens, run through a gauntlet of mathematical and computational processes, and the result produced was numeric tokens that after conversion into text-based words was “Yes it did.”
How does the AI calculate the words or tokens that form the response?
The general principle is that by doing extensive data training on how humans write, it is feasible to figure out how to take in tokens and generate or produce tokens that fit to the patterns of human writing. Usually, this data training is undertaken by scanning vast amounts of text found on the Internet, including essays, stories, narratives, poems, and so on. It turns out that humans make use of patterns in how they write, and the pattern-matching can pretty much pick up on those patterns.
That’s why generative AI seems fluent. It is computationally mimicking human writing. This requires a lot of examples of human writing to identify those patterns. I’ve discussed that some worry we won’t be able to make dramatic advances in generative AI because there might not be enough available human writing to pattern on, see my analysis at the link here.
Lean Into Pattern Matching As The Crux
It is time to think outside the box.
Are you ready?
Set aside the natural language aspects. Put that at the edge of your thinking. Don’t let it cloud your judgment.
What we really have going on is a kind of statistical predictor that can take in a set of tokens and produce as output a set of other tokens. Within the computational pattern matching is a type of mapping from what happens when some sequence of tokens is encountered and what ought to be predicted as the next tokens to come out.
The existing perspective is that this is useful for natural languages such as English, German, French, etc. Indeed, generative AI is customarily based on and referred to as large language models or LLMs. Why? Because the computational pattern matching is focused on natural languages, forming a model of what our everyday languages entail. After several initial years of trying this, AI researchers realized that you need lots of data to do proficient pattern matching and modeling. In the early days of generative AI, the models weren’t very good, partially due to a lack of scaling up.
At a macroscopic level, assume we need three crucial elements for our predictor mechanism:
- (1) Something that we can convert into tokens.
- (2) There is some pattern associated with inputs to outputs.
- (3) We have enough of the material to sufficiently pattern on.
If any of those assumed elements are unavailable or don’t exist, we are somewhat up a creek without a paddle. Allow me to elaborate on each of the three and why they are respectively vital.
It could be that we cannot convert into tokens whatever it is that we want to use. That’s a problem. We won’t be able to use our prediction models that are based on tokens (as an aside, we could potentially devise models that use something other than tokens).
Another sour possibility is that there aren’t any patterns to be found within the arrangement of the tokens. If there aren’t any patterns, the model can’t make useful predictions. It could be that the patterns are so hard to find that our existing pattern-identifying techniques won’t crack open the secret sauce. It could also be that there just aren’t any patterns at all, period, end of story.
Finally, the likelihood of finding patterns and reliably making predictions is often based on having lots and lots of whatever it is that we are trying to pattern on. If all you have is a drop in the bucket, the odds are it won’t be enough to garner a big picture. Things will be askew.
Throwing The Amazing Predictor At Whatever Works
Okay, now that we have those three elements in mind, we need to start finding new avenues worth venturing into.
I want you to take a moment and put your mind to hard work:
- The Big Question — What else is there other than natural language that provides a source of something that can be converted into tokens, contains patterns, and that we have sufficient volume of the thing that we can reasonably pattern match on it?
And, of course, of which we would want an AI system to be able to process for us.
There must be a buck to be made or some justifiable reason why we would go to the trouble to toss AI at it. I suppose you might do it for kicks but given the cost of churning out this type of AI, there should be a pot of gold at the end of the rainbow, one way or another.
Thinking, thinking, thinking.
Keep your thinking cap on and your mind activated.
You already know that we can do this with natural languages in terms of taking as input text and producing as output some associated text. The same can be said about audio. Generative AI is being used already to take as input audio, convert it into tokens, identify patterns based on available large volumes of audio, and produce audio outputs. Likewise, video is yet another mode, though the video is a lot harder to deal with than text or audio. See my coverage of multi-modal generative AI at the link here.
I’m sure that you know that coding or programming is already under the microscope for generative AI and LLMs. This is an interesting angle because though coding is text-based, it is not quite a natural language per se. You could argue that coding is an artificial language and not a conventional natural language. The beauty though is that it can be converted into tokens, patterns can be identified, and there is a lot of code out there to data train for pattern matching purposes.
Sorry that I keep telling you about possibilities that are already known or taken. That is though good to know about so that you aren’t trying to reinvent the wheel.
Ideas Being Early Days Floated
I will share with you some additional possibilities that are generally underway but still in the early stages of exploration:
- Game playing. You can use the same precepts to get AI to play games. Moves are actions that can be described and converted into tokens. Patterns can be identified. By collecting lots of games being played, data is plentiful.
- Stock market predictions. Consider stock prices as potential tokens. If you want to include other factors, such as the status of the economy, those can be similarly tokenized. Patterns can be presumably found and lots of data is available.
- Molecular structure predictions. Take the shapes or structures of molecules and convert them into tokens. There are patterns to be found. Lots of data is available.
- Route optimizations. Routing of traffic is essential and currently tends to be solved via symbolic or traditional mathematical means. The traffic parameters could be tokenized, patterns figured out, and lots of such data would be available for this.
Those are paths that are seriously being pursued. You are encouraged to jump in and help out. They are still cooking those meals, and the results are not yet finalized. There is ample room to make progress.
Okay, your homework is this.
Think about fields of one kind or another that may have not yet been explored for applying a generative AI or LLM-like capability. If you happen to be a domain expert in that field, you have a leg-up on this. I say that because you hopefully already know whether there are patterns afoot, you know why using AI for predictions would be valuable in that arena, and you possibly know if or where data can be found.
An added twist is this.
If there aren’t known patterns, you might be onto something especially enriching. Here’s the deal. If no one has yet found patterns, it could be that they just haven’t looked the right way. Prior efforts to find patterns might not have had the kind of computational power and pattern matching that we have with contemporary generative AI and LLMs.
The domain might be a sleeper. It is waiting for the right person to have the right vision. The heretofore unknown patterns could be unlocked via the right use of generative AI and LLMs or similar technology. I assure you that if that were the case, you might be in line for big bucks, big fame, and maybe even one of those vaunted Nobel prizes.
Isn’t that worth taking some dedicated time and attention to think about?
Yes, I would certainly say so, and I wish you the best of luck and urge you to get cracking. You can do it.
You may like
Noticias
Creé una presentación completa usando Gemini en Google Diaides, así es como fue
Published
8 horas agoon
23 marzo, 2025
Google Slides es una herramienta poderosa, pero crear una presentación completa puede llevar mucho tiempo. Recientemente, Google introdujo la integración de Gemini en diapositivas y todas las aplicaciones del espacio de trabajo. Ahora, solo necesita indicaciones de texto para crear presentaciones atractivas e imágenes de alta calidad para sus diapositivas. Tuve que verlo yo mismo, y decidí experimentar con Géminis y lo encargué con la construcción de una presentación completa.
En esta publicación, comparto mi viaje y revelo cómo Gemini manejó el desafío y si ofrece la promesa de presentaciones sin esfuerzo.
Relacionado
Google Gemini: Todo lo que necesita saber sobre la IA multimodal de próxima generación de Google
Google Gemini está aquí, con un enfoque completamente nuevo para la IA multimodal
Acceso a Géminis en las diapositivas de Google: requisitos

Antes de encender las hojas de Google en la web, repasemos los requisitos. Si bien varios modelos Gemini son gratuitos de descargar y usar, pagará más para desbloquear el asistente de IA en las aplicaciones de productividad de Google.
Debe comprar el plan avanzado de Gemini a $ 20 por mes. Después de eso, la opción Géminis aparece en Docs, Hojas, Gmail, Google Drive y Slides. Google también ofrece un mes de prueba gratuita para usuarios elegibles.
Dado que Google Slides es una solución web, puede explorar la integración de Gemini en escritorios de Windows, Mac y Chromebooks.
Explorando Géminis en las diapositivas de Google
Genere diapositivas utilizando un mensaje de texto
Después de habilitar Gemini en Google Slides, es hora de verificarlo en acción. En el siguiente ejemplo, crearé una presentación sobre los beneficios de un estilo de vida saludable. Mi objetivo es cubrir los beneficios de la nutrición, el ejercicio regular, el bienestar mental y el manejo del estrés. Siga los pasos a continuación.
-
Inicie las diapositivas de Google en la web e inicie sesión con los detalles de su cuenta de Google. Comience con una presentación en blanco.
-
Abra Géminis desde la esquina superior derecha y escriba un aviso.
Escribir un aviso es una parte crucial de su proceso de presentación. Dado que es un tema amplio y adaptable, sea lo más descriptivo posible. En nuestro caso, escribiré un aviso a continuación para mi diapositiva de introducción.
Genere una diapositiva con el título “Los beneficios de un estilo de vida saludable”. Agregue una definición breve de un estilo de vida saludable, enfatizando el equilibrio del bienestar físico, mental y nutricional.
Esto es lo que se le ocurrió a Géminis. Puede volver a intentarlo si no está satisfecho con los resultados y haga clic en Insertar para agregarlo.

Ahora, haga clic + + Para agregar una nueva diapositiva y continuar escribiendo indicaciones para generar nuevas diapositivas para su presentación.
Cree una diapositiva titulada “Nutrición: alimentar su cuerpo”. Agregue información sobre la importancia de las frutas y verduras.

A diferencia de Copilot en PowerPoint, no puede crear múltiples diapositivas a la vez. Debes describir cada diapositiva por separado. Por lo tanto, asegúrese de planificar el esquema de su presentación.
Después de eso, creé cuatro diapositivas nuevas utilizando las indicaciones de texto a continuación.
Cree una diapositiva titulada, “Ejercicio: moverse para un usted más saludable”. Agregue información sobre la cantidad recomendada de ejercicio por semana.

Crea una diapositiva titulada, “Bienestar mental: encontrar tu paz interior”. Agregue puntos de bala en buenos hábitos de sueño.

Genere una diapositiva que enumere los beneficios de un estilo de vida saludable, que incluye un aumento de la energía, un mejor estado de ánimo y un mejor sueño.

Cree una diapositiva de conclusión con pasos prácticos para adoptar un estilo de vida más saludable. Incluir puntos de bala orientados a la acción.

Hubo algunos casos en los que no estaba satisfecho con los resultados. Entonces, le pedí a Gemini que recreara esas diapositivas. Además, no te sorprenderá con diseños de diapositivas llamativas y animaciones. Debe agregarlos manualmente y completar su presentación.
En cualquier momento, puede escribir @Nombre del archivo Y solicite a Gemini que se refiera a un documento de su cuenta de Google Drive. Por ejemplo, si escribió una dieta vegetariana en un documento, puede pedirle a Gemini que se refiera a ella para sus diapositivas de presentación.
Estás usando diapositivas generadas por AI. La precisión puede recibir un éxito cuando se trata de temas complejos como IA, fotografía computacional, aprendizaje automático y más. Compruebe dos veces antes de compartir la presentación con otros.

Relacionado
Google Gemini: 5 maneras de usar el asistente a día a día de Google con IA
Puede hacer que muchas tareas cotidianas sean mucho más fáciles
Crear e insertar imágenes con Gemini
No tenía idea de que Géminis podía crear imágenes basadas en indicaciones de texto. Es un gran ahorro de tiempo, ya que no necesita buscar imágenes en la web para obtener imágenes adecuadas para su presentación. Generé un par de imágenes relevantes utilizando las indicaciones de texto a continuación.
Una imagen de una placa equilibrada con proteína magra, granos integrales y verduras.

Una fotografía de primer plano de un vaso de agua con rebanadas de limón y pepino.

Gemini le ofrece cuatro opciones de imagen para sus diapositivas. Puede verlos e insertarlos en sus diapositivas.
Géminis hizo mis diapositivas
Géminis en Google Slides abrió mis ojos al potencial de la IA en la creación de presentación. Si bien no es un reemplazo perfecto para la creatividad humana y el pensamiento estratégico, es una herramienta poderosa para racionalizar el proceso, especialmente para elaborar borradores iniciales y imágenes llamativas.
Aún así, la supervisión humana es crucial, pero si tiene plazos ajustados o desea explorar nuevas formas de crear diapositivas atractivas, pruebe a Gemini. Gemini Advanced desbloquea el asistente de IA de Google en otras aplicaciones de productividad como Google Sheets. Así es como puedes aumentar tus hojas de cálculo con Gemini.
Noticias
Google Assistant Transitions a Gemini: cambios clave por delante
Published
10 horas agoon
23 marzo, 2025
Google Assistant está evolucionando a Géminis, trayendo potentes nuevas capacidades de IA pero también descontinuando algunas características favoritas. Si usa el Asistente de Google para establecer temporizadores, reproducir música o controlar su hogar inteligente, prepárese para algunas interrupciones significativas a medida que la compañía comienza a reemplazar al asistente de nueve años con su chatbot Gemini más nuevo, más potente y alimentado por IA. Este artículo describirá los cambios clave que puede esperar, ayudándole a prepararse para la transición y comprender lo que será diferente.
Gemini representa un salto gigante en la capacidad en comparación con el Asistente de Google. Podrá chatear con Gemini de manera similar a la forma en que hablas con Google Assistant ahora, pero como se basa en modelos de lenguaje grande (LLM) con AI, Gemini puede ser mucho más conversacional y útil, capaz de realizar tareas más desafiantes y capaz de adaptarle sus respuestas específicamente a usted. Google ya ha comenzado la transición a Gemini. Los teléfonos inteligentes son los primeros en cambiar y serán seguidos por altavoces inteligentes, televisores, otros dispositivos domésticos, dispositivos portátiles y automóviles en los próximos meses. Los teléfonos inteligentes, con algunas excepciones importantes, se habrán mudado a Gemini por completo a fines de 2025, ya que “el asistente clásico de Google ya no se puede acceder en la mayoría de los dispositivos móviles o disponible para nuevas descargas en tiendas de aplicaciones móviles”, según Google.
Noticias
Cómo se puede mejorar la investigación profunda de Chatgpt con 8 características clave
Published
12 horas agoon
23 marzo, 2025
La herramienta de investigación profunda de Chatgpt es fantástica para profundizar en casi cualquier tema que elija, pero aún necesita algunas mejoras para ser realmente útiles. Utilizo investigaciones profundas todo el tiempo y creo que sería mucho mejor con estas características adicionales.
1
Parámetros personalizables
Cuando uso la investigación de chatgpt profunda, normalmente respondo preguntas de seguimiento para darle a la herramienta más contexto. Sin embargo, desearía poder usar parámetros personalizables en su lugar.
Imaginaría que esta característica funcione como filtros al comprar en línea. Me encantaría elegir cuántos recursos quiero que se analice ChatGPT, junto con los plazos publicados. Además, sería genial si pudiera buscar en función de diferentes palabras clave.
Los parámetros personalizables mantendrían mi investigación mucho más organizada. Siento que los resultados valdrían la pena el tiempo que lleva a ChatGPT realizar investigaciones profundas también. Hasta que esto suceda, hay al menos formas en que puede obligar a ChatGPT a usar fuentes de alta calidad.
2
Opciones de diseño de investigación
La función de investigación profunda de ChatGPT puede establecer información de múltiples maneras. Por ejemplo, utilizará tablas al comparar estadísticas u otros aspectos. En otros casos, la herramienta establecerá información en subsecciones integrales.
Si bien varias opciones de diseño son buenas, desearía que ChatGPT me permita elegir cómo quiero que presente información. A veces, veo contenido presentado en forma de oración cuando prefiero usar tablas.
A veces uso las indicaciones para pedirle a ChatGPT que presente información en mi formato preferido, pero desafortunadamente, no siempre escucha.
3
Una asignación mensual más grande
Quizás mi mayor queja con la herramienta de investigación profunda de Chatgpt es lo fácil que es usar sus créditos mensuales. Aunque esto está bien para los usuarios casuales, 10 consultas mensuales no son suficientes para las personas que regularmente necesitan realizar una investigación integral. Revisé mis consultas en dos días.
Podía entender diez consultas mensuales para usuarios gratuitos; En estos casos, en realidad creo que sería un buen valor. Sin embargo, como alguien que paga $ 20 por mes por ChatGPT, no puedo evitar sentir que no me dan el mejor servicio posible.

Por lo menos, creo que 15-20 consultas mensuales son justas para un plan positivo. Aumentaría aún más estas asignaciones para suscripciones de nivel superior. Operai podría incentivar a las personas a registrarse para estos planes al hacerlo, lo que resulta en una mejor experiencia del usuario y un aumento de los ingresos.
4
Una sección separada en chatgpt
Utilizo ChatGPT para múltiples conversaciones, ya sea que esté planeando una nueva parte de mi vida o quiero trabajar a través de mis pensamientos actuales. A medida que creo más chats, la interfaz se vuelve torpe y desorganizada. Molesto, no tengo forma de diferenciar entre conversaciones y discusiones ordinarias en las que he usado investigaciones profundas.
Si bien puedo crear nuevos proyectos a través de la barra lateral, prefiero que ChatGPT organice automáticamente mis conversaciones con una investigación profunda. Esta sería una mejora efectiva para la interfaz de usuario de ChatGPT, y no sería particularmente difícil de implementar.
Incluso si la aplicación no tuviera una sección separada, un diferenciador, como un ícono, sería útil.
5
Integración con GPTS personalizados
Los GPT personalizados son la función más subestimada de ChatGPT. Me encanta lo fácil que son para obtener el tipo de respuesta exacto que estaba buscando, y hay útiles GPT personalizados para todo tipo de intereses. Pero desafortunadamente, actualmente no puede integrarlos con la función de investigación profunda.
Siento que las respuestas serían mucho más precisas si tuvieran el contexto de GPT personalizados. Esto es particularmente cierto, considerando que algunos de mis chats normales tienen múltiples temas.

No sé cómo sería posible porque imagino que los dos programas entrarían en conflicto. Pero si hubiera una manera de integrar investigaciones profundas y GPT personalizados, no veo cómo cualquier otra herramienta de IA podría competir en esta área.
6
La capacidad de dividir el texto en trozos más pequeños
He comparado la investigación profunda de ChatGPT con herramientas similares, como el equivalente de Microsoft Copilot. Cuando se trata de respuestas detalladas, la investigación profunda se encuentra en la cabeza y los hombros por encima de su competencia. Pero al mismo tiempo, a veces veo enormes párrafos una vez que la investigación ha concluido.

La lectura de Skim en una pantalla es mucho más difícil que con un libro, y a veces pierdo los puntos clave en la investigación. Cuando esto sucede, la investigación tarda más de lo que debería. Romper el texto en trozos más pequeños sería una solución simple pero efectiva.
Si todo el texto es realmente importante, ChatGPT podría dividirlo en más subsecciones. De esa manera, podría identificar la información más esencial fácilmente.
7
La opción de excluir sitios web específicos
La información inexacta es uno de los muchos grandes problemas con ChatGPT, y lamentablemente, esto se extiende a la función de investigación profunda. Puedo examinar ciertos sitios web al investigar a través de motores de búsqueda, pero este no es el caso cuando se utiliza una investigación profunda, lo que significa que debo tener mucho cuidado para verificar los recursos.
He visto características similares en otros tipos de aplicaciones, como bloqueadores de sitios web. La forma en que veo esto, los usuarios podrían ingresar a la URL para excluir un sitio de la búsqueda. Me imagino que esto aumentaría el tiempo que lleva completar estas tareas, pero sería un gran éxito.
8
Audio
ChatGPT tiene algunas características de voz geniales, pero ninguna se aplica a una investigación profunda. Tengo que escribir indicaciones de texto y recibo respuestas escritas. Si bien normalmente estoy contento con estas búsquedas, a veces me gustaría usar audio.

Además de hablar por una investigación profunda, agradecería las respuestas escritas. Me encantaría que la herramienta me cuente sobre sus hallazgos y proporcione una transcripción más tarde. Esto sería interactivo y beneficioso para las personas que aprenden mejor a través de la escucha que la lectura.
Operai inevitablemente agregará nuevas características a la herramienta de investigación profunda de ChatGPT a su debido tiempo, y creo que debería priorizar algunas adiciones simples pero efectivas. Los parámetros personalizables conducirían a hallazgos más precisos, y tener más control sobre el diseño de información también sería bueno.
Related posts



































































































































































































































Trending
-
Startups10 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos10 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Tutoriales10 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups8 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos10 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups10 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos10 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Noticias8 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo