Connect with us

Noticias

La mayoría de los sistemas de IA supuestamente “abiertos” están en realidad cerrados, y eso es un problema

Published

on

Los modelos de IA “abiertos” tienen mucho que ofrecer. La práctica de compartir el código fuente con el público estimula la innovación y democratiza la IA como herramienta.

O eso dice la historia. Un nuevo análisis en Naturaleza le da un giro a la narrativa: la mayoría de los modelos de IA supuestamente “abiertos”, como Meta’s Llama 3, no son eso.

En lugar de alentar o beneficiar a las pequeñas empresas emergentes, la “retórica de la apertura con frecuencia se esgrime de maneras que… exacerban la concentración de poder” en las grandes empresas tecnológicas, escribieron David Widder de la Universidad de Cornell, Meredith Whittaker de la Signal Foundation y Sarah West de AI Now. Instituto.

¿Por qué preocuparse? Debatir sobre la apertura de la IA parece puramente académico. Pero con el creciente uso de ChatGPT y otros grandes modelos de lenguaje, los responsables políticos están luchando por ponerse al día. ¿Se pueden permitir modelos en escuelas o empresas? ¿Qué guías deberían existir para proteger contra el mal uso?

Y quizás lo más importante es que la mayoría de los modelos de IA están controlados por Google, Meta y otros gigantes tecnológicos, que tienen la infraestructura y los medios financieros para desarrollar o licenciar la tecnología y, a su vez, guiar la evolución de la IA para cumplir con sus incentivos financieros.

Los legisladores de todo el mundo han tomado nota. Este año, la Unión Europea adoptó la Ley de IA, la primera legislación integral del mundo para garantizar que los sistemas de IA utilizados sean “seguros, transparentes, no discriminatorios y respetuosos con el medio ambiente”. En septiembre, había más de 120 proyectos de ley sobre IA en el Congreso, que velaban por la privacidad, la rendición de cuentas y la transparencia.

En teoría, los modelos abiertos de IA pueden satisfacer esas necesidades. Pero “cuando se están dando forma a las políticas, las definiciones importan”, escribió el equipo.

En el nuevo análisis, desglosaron el concepto de “apertura” en los modelos de IA a lo largo de todo el ciclo de desarrollo y señalaron cómo se puede utilizar mal el término.

¿Qué es la ‘apertura’?

El término “código abierto” es casi tan antiguo como el propio software.

A principios de siglo, pequeños grupos de rebeldes informáticos publicaron códigos de software gratuito que cualquiera podía descargar y utilizar desafiando el control corporativo. Tenían una visión: el software de código abierto, como los procesadores de texto disponibles gratuitamente similares a los de Microsoft, podrían nivelar el campo de juego para los pequeños y permitir el acceso a personas que no podían permitirse la tecnología. El código también se convirtió en un campo de juego, donde los entusiastas ingenieros de software juguetearon con el código para descubrir fallas que necesitaban solución, lo que resultó en un software más utilizable y seguro.

Con la IA, la historia es diferente. Los grandes modelos de lenguaje se construyen con numerosas capas de “neuronas” artificiales interconectadas. Al igual que sus contrapartes biológicas, la estructura de esas conexiones influye en gran medida en el desempeño de un modelo en una tarea específica.

Los modelos se entrenan buscando en Internet textos, imágenes y, cada vez más, vídeos. A medida que estos datos de entrenamiento fluyen a través de sus redes neuronales, ajustan las fortalezas de las conexiones de sus neuronas artificiales (llamadas “pesos”) para que generen los resultados deseados. Luego, la mayoría de los sistemas son evaluados por personas para juzgar la precisión y la calidad de los resultados.

¿El problema? Comprender los procesos internos de estos sistemas no es sencillo. A diferencia del software tradicional, compartir solo los pesos y el código de un modelo de IA, sin los datos de entrenamiento subyacentes, dificulta que otras personas detecten posibles errores o amenazas a la seguridad.

Esto significa que conceptos previos del software de código abierto se están aplicando de “formas que no se adaptan a los sistemas de IA”, escribió el equipo, lo que genera confusión sobre el término.

lavado a cielo abierto

Los modelos de IA “abiertos” actuales abarcan un rango de apertura, pero en general tienen tres características principales.

Uno es la transparencia, o cuántos detalles sobre la configuración de un modelo de IA publica su creador. La serie Pythia de Eleuther AI, por ejemplo, permite a cualquiera descargar el código fuente, los datos de entrenamiento subyacentes y la documentación completa. También otorgan licencias del modelo de IA para una amplia reutilización, cumpliendo con la definición de “código abierto” de la Open Source Initiative, una organización sin fines de lucro que ha definido el término a medida que ha evolucionado durante casi tres décadas. En contraste, Llama 3 de Meta, aunque se describe como abierto, solo permite a las personas desarrollar su IA a través de una API (una especie de interfaz que permite que diferentes software se comuniquen, sin compartir el código subyacente) o descargar solo los pesos del modelo para jugar, pero con restricciones a su uso.

“Se trata de sistemas de ‘lavado abierto’ que se entienden mejor como cerrados”, escribieron los autores.

Una segunda característica es la reutilización, en el sentido de que otras personas pueden utilizar datos y detalles de un modelo de IA con licencia abierta (aunque a menudo solo a través de un servicio en la nube; hablaremos de esto más adelante). modelos para sus necesidades específicas.

“[This] “Es una característica clave defendida particularmente por los actores corporativos que invierten en la IA abierta”, escribió el equipo. Hay una razón: entrenar modelos de IA requiere una enorme potencia informática y recursos, que a menudo sólo están disponibles para las grandes empresas de tecnología. Llama 3, por ejemplo, fue entrenada con 15 billones de tokens, una unidad para procesar datos, como palabras o caracteres. Estos puntos críticos dificultan que las nuevas empresas creen sistemas de inteligencia artificial desde cero. En cambio, a menudo reentrenan sistemas “abiertos” para adaptarlos a una nueva tarea o ejecutarlos de manera más eficiente. El modelo AI Alpaca de Stanford, basado en Llama, por ejemplo, ganó interés por el hecho de que podía ejecutarse en una computadora portátil.

No hay duda de que muchas personas y empresas se han beneficiado de los modelos abiertos de IA. Pero para los autores, también pueden ser una barrera para la democratización de la IA.

El lado oscuro

Muchos sistemas abiertos de IA a gran escala hoy en día se entrenan en servidores en la nube, señalan los autores. El Instituto de Innovación Tecnológica de los Emiratos Árabes Unidos desarrolló Falcon 40B y lo entrenó en los servidores AWS de Amazon. La IA de MosaicML está “vinculada a Azure de Microsoft”. Incluso OpenAI se ha asociado con Microsoft para ofrecer sus nuevos modelos de IA a un precio.

Si bien la computación en la nube es extremadamente útil, limita quién puede realmente ejecutar modelos de IA en un puñado de grandes empresas y sus servidores. Alpaca de Stanford finalmente cerró parcialmente debido a la falta de recursos financieros.

El secreto en torno a los datos de entrenamiento es otra preocupación. “Muchos modelos de IA a gran escala se describen como negligencia abierta a la hora de proporcionar incluso información básica sobre los datos subyacentes utilizados para entrenar el sistema”, escribieron los autores.

Los grandes modelos de lenguaje procesan enormes cantidades de datos extraídos de Internet, algunos de los cuales tienen derechos de autor, lo que da lugar a una serie de demandas en curso. Cuando los conjuntos de datos no están disponibles fácilmente, o cuando son increíblemente grandes, es difícil verificar el rendimiento informado del modelo, o si los conjuntos de datos “blanquean la propiedad intelectual de otros”, según los autores.

El problema empeora cuando se construyen frameworks, a menudo desarrollados por grandes empresas tecnológicas, para minimizar el tiempo”[reinventing] la rueda”. Estos fragmentos de código, flujos de trabajo y herramientas de evaluación preescritos ayudan a los desarrolladores a desarrollar rápidamente un sistema de inteligencia artificial. Sin embargo, la mayoría de los ajustes no cambian el modelo en sí. En otras palabras, cualquier problema o sesgo potencial que exista dentro de los modelos también podría propagarse a las aplicaciones posteriores.

Un ecosistema de IA

Para los autores, desarrollar una IA que sea más abierta no se trata de evaluar un modelo a la vez. Más bien, se trata de tener en cuenta todo el ecosistema.

La mayoría de los debates sobre la apertura de la IA pasan por alto el panorama general. A medida que la IA avance, “es poco probable que la búsqueda de la apertura por sí sola produzca muchos beneficios”, escribió el equipo. En cambio, al elaborar políticas abiertas de IA se debe considerar todo el ciclo de desarrollo de la IA, desde la creación, la capacitación y el funcionamiento de sistemas de IA hasta sus usos prácticos y sus incentivos financieros.

“Fijar nuestras esperanzas en una IA ‘abierta’ de forma aislada no nos llevará a ese mundo”, escribió el equipo.

Crédito de la imagen: x / x

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

7 indicaciones de ChatGPT para reducir su carga de trabajo en un 50%

Published

on

Los teléfonos inteligentes ejemplifican la naturaleza de doble filo de la tecnología. Si bien nos conectan y aumentan la productividad, también pueden ser pozos de distracción sin fondo. De manera similar, la IA generativa tiene el poder de desviarnos, pero también puede potenciar la productividad cuando se usa intencionalmente. Un estudio realizado por la Oficina Nacional de Investigación Económica encontró que herramientas como ChatGPT pueden aumentar la productividad de la fuerza laboral en un promedio del 14%, y algunas empresas reportan aumentos de producción de hasta el 400%.

La conclusión es clara: la IA es una poderosa herramienta de productividad con el potencial de reducir las cargas de trabajo a la mitad, pero sólo con un plan de acción sólido. A medida que nos acercamos al final del año, muchos profesionales se concentran en terminar bien y al mismo tiempo priorizar el tiempo en familia y el descanso, ambos cruciales para una productividad sostenida. Con las indicaciones adecuadas, ChatGPT puede ayudarte a alcanzar tus objetivos y dejar espacio para lo más importante. Aquí hay algunos para comenzar.

Retire el trabajo de su plato

Imagina que estás preparando un banquete navideño. Hay una regla tácita en tu familia: no es comida a menos que haya pan en la mesa. Pero a menos que sea un panadero profesional, es probable que confíe la preparación de las baguettes a su panadería favorita. El razonamiento es simple: hornear pan llevaría horas y los resultados no serían tan buenos como los de la panadería. Lógicamente delegas.

En el trabajo, a veces dudamos en adoptar el mismo enfoque, pero no deberíamos hacerlo. Toma algo de tiempo acostumbrarse a delegar, pero si hay alguien más que puede completar una tarea más rápido y mejor que tú, entonces no delegar es un flaco favor para su organización. Puede contratar ChatGPT para identificar tareas a subcontratar.

“Me gustaría que me ayudes a analizar mis tareas actuales e identificar cuáles puedo delegar o subcontratar. Además, me brindes instrucciones claras para delegarlas de manera efectiva. [Insert list of tasks].”

Mejore su flujo de trabajo actual

Una vez que identifique las tareas de subcontratación, puede examinar las tareas restantes y determinar cuáles no exigen su atención personal. En cambio, estas tareas se pueden automatizar.

Estos pasos iniciales requieren una inversión inicial, mientras planificas tu día típico. Pero la automatización me ha ayudado a maximizar mi potencial y a mantenerme cuerdo mientras lo hago, una consideración especialmente relevante a medida que se acercan las vacaciones. También puede ayudarte.

“A continuación compartiré una descripción de mi día típico. Me gustaría que examinaras mis tareas diarias y sugirieras formas de automatizarlas. Además, proporcione una lista de las herramientas o sistemas que puedo utilizar, con una o dos frases sobre sus ventajas y desventajas. [Insert description]

“.

Identificar información relevante

En una encuesta reciente de Microsoft, el 62% de los encuestados dijeron que tenían dificultades para dedicar demasiado tiempo a buscar información en su jornada laboral. ChatGPT puede ser una herramienta revolucionaria. Puede analizar enormes cantidades de texto y datos y señalar la información relevante. En lugar de tener que examinar todo usted mismo, la herramienta de inteligencia artificial puede brindarle una gran ventaja.

“Me gustaría que analizaras este contenido/datos [insert text, data, or topic] e identificar las ideas más relevantes, los temas clave y las conclusiones prácticas. Específicamente estoy buscando [insert specific focus area or context, if applicable]. Presentar los hallazgos en un formato conciso para [a report, presentation, decision-making, etc.].”

Obtenga más de las reuniones

Una reunión es tan útil como sus conclusiones. Teniendo en cuenta la cantidad de tiempo que el profesional promedio dedica a las reuniones, vale la pena aprovechar las herramientas para aprovecharlas al máximo. Como recomienda Microsoft: “Piense en las reuniones como un artefacto digital y no sólo como un momento puntual”.

ChatGPT puede ayudarle a convertir notas de reuniones en artefactos sintetizados con conclusiones prácticas. En Jotform, utilizamos herramientas de toma de notas impulsadas por inteligencia artificial, como Otter, para liberar nuestras manos y mentes y poder estar completamente presentes. ChatGPT puede aumentar la utilidad de esas notas en cuestión de segundos.

“A continuación, compartiré mis notas de una reunión sobre [brief summary]. Me gustaría que los sintetice en un resumen claro con conclusiones prácticas, categorizadas por temas o decisiones clave. Resalte los próximos pasos, las responsabilidades asignadas y los plazos. Presente la información en un formato conciso y fácil de consultar. [Insert notes].”

Proyecto de puntos de partida fuertes

Las investigaciones confirman que ChatGPT aumenta la productividad en tareas como escribir cartas de presentación y correos electrónicos delicados. Un estudio del MIT analizó a 444 profesionales con educación universitaria a los que se les asignaron dos tareas de escritura incentivadas y específicas de su ocupación. ChatGPT no solo redujo el tiempo de las tareas, sino que también afectó la distribución del tiempo de las tareas. Con ChatGPT, la redacción de borradores disminuyó en más de un 50% y el tiempo de edición se duplicó. La conclusión: las herramientas de inteligencia artificial pueden reducir su carga de trabajo y dejarle más tiempo para concentrarse en perfeccionar los detalles.

Aquí hay un mensaje que puedes usar para pedirle a ChatGPT cualquier tipo de borrador:

“Necesito un primer borrador para [briefly describe the purpose, e.g., a cover letter, email, blog post, report, etc.]. El objetivo es [insert objective, e.g., persuade, inform, request, etc.]. El tono debe ser [insert tone, e.g., professional, conversational, concise, etc.]. Incluya estos puntos o detalles: [insert specific information or requirements].”

Es probable que sea necesario modificar el primer borrador, pero antes de sumergirse para perfeccionarlo, puede brindarle a ChatGPT comentarios inmediatos para mejorarlo, lo que me lleva al siguiente punto.

Reducir el cambio de contexto

El autor y profesor de Georgetown, Cal Newport, escribe periódicamente sobre los peligros del cambio de contexto: saltar de una tarea a otra mientras trabajamos. Newport explica: “[S]Desviar tu atención, aunque sea por uno o dos minutos, puede impedir significativamente tu función cognitiva durante mucho tiempo”. Y añade: “Más claramente: los cambios de contexto arruinan tu cerebro”. Si estás intentando concentrarte en una tarea, una distracción momentánea puede impedir significativamente tu productividad.

Usar ChatGPT puede ayudarte a mantenerte concentrado y encaminado. ¿Con qué frecuencia ha cambiado de navegador o ha revisado su teléfono inteligente en busca de un punto rápido, solo para distraerse con una notificación por correo electrónico, una tarea de compra en línea sin terminar o innumerables otras distracciones?

Como explica el fundador de Platformer, Casey Newton, dada la naturaleza conversacional de ChatGPT, puedes continuar tu investigación y hacer preguntas de seguimiento sin siquiera salir de tu navegador, lo que reduce efectivamente el riesgo de cambio de contexto.

“Quiero minimizar el cambio de contexto y mantener la concentración mientras trabajo en [insert task or project]. Me gustaría que actuaras como asistente de investigación y me ayudaras a investigar. [insert topic or research question]. Me gustaría que resumieras la información relevante de [insert source or paste relevant text]. Mantenme encaminado dividiendo la tarea en partes manejables y respondiendo de manera conversacional, para mantenerme involucrado sin necesidad de cambiar de pestaña o dispositivo”.

De manera más general, puede recurrir a ChatGPT para ayudar a agrupar tareas similares, otra estrategia para reducir el cambio de contexto.

“Me gustaría que examinaras mis tareas de hoy y me ayudaras a agruparlas para aumentar la eficiencia y reducir la probabilidad de cambio de contexto”.

Con suerte, con estas indicaciones podrá abordar de manera eficiente sus tareas antes de las vacaciones, dejándole el espacio y la energía para el tiempo familiar que tanto necesita.

Continue Reading

Noticias

¿Qué proveedor de IA debería elegir? Aquí están los 7 primeros (OpenAI sigue liderando)

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


Los proveedores están implementando nuevas herramientas de inteligencia artificial generativa todos los días en un mercado que se ha comparado con el Salvaje Oeste. Pero debido a que la tecnología es tan nueva y está en constante evolución, puede resultar extremadamente confusa, y los proveedores de plataformas a veces hacen promesas especulativas.

La firma de TI GAI Insights espera brindar cierta claridad a los tomadores de decisiones empresariales con el lanzamiento de la primera guía del comprador conocida sobre modelos de lenguajes grandes (LLM) y generación de IA. Revisó a más de dos docenas de proveedores e identificó siete líderes emergentes (OpenAI está muy por delante del resto). Además, los modelos propietarios, de código abierto y pequeños tendrán una gran demanda en 2025, a medida que la alta dirección priorice el gasto en IA.

“Estamos viendo una migración real de la concientización a la experimentación temprana para impulsar realmente los sistemas a la producción”, dijo a VentureBeat Paul Baier, director ejecutivo y cofundador de GAI Insights. “Esto está explotando, la IA está transformando toda la pila de TI empresarial”.

7 líderes emergentes

GAI Insights, que aspira a ser el “Gartner de la IA de generación”, revisó a 29 proveedores en casos de uso comunes de IA de generación empresarial, como servicio al cliente, soporte de ventas, marketing y cadenas de suministro. Descubrieron que OpenAI sigue firmemente a la cabeza, acaparando el 65% de la cuota de mercado.

La firma señala que la startup tiene asociaciones con multitud de proveedores de contenidos y chips (incluido Broadcom, con quien está desarrollando chips). “Obviamente son los primeros, ellos definieron la categoría”, dijo Baier. Sin embargo, señaló, la industria se está “dividiendo en subcategorías”.

Los otros seis proveedores que GAI Insights identificó como líderes emergentes (en orden alfabético):

  • Amazon (Titan, Bedrock): tiene un enfoque neutral respecto a los proveedores y es una “ventanilla única” para la implementación. También ofrece una infraestructura de IA personalizada en forma de chips de IA especializados como Trainium e Inferentia.
  • Anthropic (Sonnet, Haiku, Opus): es un competidor “formidable” de OpenAI, con modelos que cuentan con largas ventanas de contexto y funcionan bien en tareas de codificación. La compañía también tiene un fuerte enfoque en la seguridad de la IA y este año ha lanzado múltiples herramientas para uso empresarial junto con artefactos, uso de computadoras y recuperación contextual.
  • Cohere (Command R): ofrece modelos centrados en la empresa y capacidades multilingües, así como implementaciones locales y de nube privada. Sus modelos Embed y Rerank pueden mejorar la búsqueda y recuperación con generación aumentada de recuperación (RAG), lo cual es importante para las empresas que buscan trabajar con datos internos.
  • CustomGPT: tiene una oferta sin código y sus modelos presentan alta precisión y bajas tasas de alucinaciones. También tiene funciones empresariales como Sign-On y OAuth y proporciona análisis e información sobre cómo los empleados y clientes utilizan las herramientas.
  • Meta (Llama): Presenta modelos “mejores en su clase” que van desde pequeños y especializados hasta de vanguardia. Su serie Meta’s Llama 3, con 405 mil millones de parámetros, rivaliza con GPT-4o y Claude 3.5 Sonnet en tareas complejas como razonamiento, matemáticas, procesamiento multilingüe y comprensión de contexto prolongado.
  • Microsoft (Azure, Phi-3): adopta un enfoque dual: aprovecha las herramientas existentes de OpenAI mientras invierte en plataformas patentadas. La compañía también está reduciendo la dependencia de los chips mediante el desarrollo de los suyos propios, incluidos Maia 100 y Cobalt 100.

Algunos otros proveedores evaluados por GAI Insights incluyen SambaNova, IBM, Deepset, Glean, LangChain, LlamaIndex y Mistral AI.

Los proveedores fueron calificados en función de una variedad de factores, incluida la innovación de productos y servicios; claridad del producto y servicio y beneficios y características; trayectoria en el lanzamiento de productos y asociaciones; compradores objetivo definidos; calidad de los equipos técnicos y experiencia del equipo directivo; relaciones estratégicas y calidad de los inversionistas; dinero recaudado; y valoración.

Mientras tanto, Nvidia sigue dominando, con el 85% de la cuota de mercado. La empresa seguirá ofreciendo productos en todos los niveles de hardware y software, e innovará y crecerá en 2025 a un ritmo “vertiginoso”.

Si bien el mercado de la IA de generación aún se encuentra en sus primeras etapas (solo el 5% de las empresas tienen aplicaciones en producción), en 2025 se verá un crecimiento masivo, con el 33% de las empresas impulsando modelos a producción, proyecta GAI Insights. La IA de generación es la principal prioridad presupuestaria para los CIO y CTO en medio de una caída de 240 veces en los últimos 18 meses en el costo del cálculo de la IA.

Curiosamente, el 90% de las implementaciones actuales utilizan LLM propietarios (en comparación con el código abierto), una tendencia que la empresa denomina “Sea dueño de su propia inteligencia”. Esto se debe a la necesidad de una mayor privacidad de los datos, control y cumplimiento normativo. Los principales casos de uso de la IA de generación incluyen atención al cliente, codificación, resúmenes, generación de texto y gestión de contratos.

Pero en última instancia, señaló Baier, “en este momento hay una explosión en casi cualquier caso de uso”.

Señaló que se estima que el 90% de los datos no están estructurados y se encuentran en correos electrónicos, archivos PDF, vídeos y otras plataformas y se maravilló de que “la generación de IA nos permite hablar con las máquinas, nos permite desbloquear el valor de los datos no estructurados. Nunca antes habíamos podido hacer eso de forma rentable. Ahora podemos. Actualmente se está produciendo una impresionante revolución de TI”.

En 2025 también surgirá un mayor número de modelos de lenguaje pequeño (SLM) específicos de verticales, y también habrá demanda de modelos de código abierto (aunque su definición sea polémica). También habrá un mejor rendimiento con modelos aún más pequeños como Gemma (parámetros 2B a 7B), Phi-3 (parámetros 3,8 B a 7B) y Llama 3.2 (1B y 3B). GAI Insights señala que los modelos pequeños son rentables y seguros, y que ha habido desarrollos clave en la tokenización a nivel de bytes, la poda de peso y la destilación de conocimientos que están minimizando el tamaño y aumentando el rendimiento.

Además, se espera que la asistencia de voz sea la “interfaz principal” en 2025, ya que ofrece experiencias más personalizadas y se espera que la IA en el dispositivo experimente un impulso significativo. “Veremos un verdadero auge el próximo año cuando los teléfonos inteligentes comiencen a distribuirse con chips de inteligencia artificial integrados”, dijo Baier.

¿Veremos realmente agentes de IA en 2025?

Si bien los agentes de IA son todo el tema de conversación en las empresas en este momento, queda por ver qué tan viables serán en el próximo año. Hay muchos obstáculos que superar, señaló Baier, como la propagación no regulada, la IA agente que toma decisiones “poco confiables o cuestionables” y opera con datos de mala calidad.

Los agentes de IA aún no se han definido completamente, dijo, y los que se están implementando en este momento se limitan principalmente a aplicaciones internas y implementaciones a pequeña escala. “Vemos todo el revuelo en torno a los agentes de IA, pero pasarán años antes de que se adopten de manera generalizada en las empresas”, dijo Baier. “Son muy prometedores, pero no prometedores el año que viene”.

Factores a considerar al implementar IA de generación

Con el mercado tan saturado y las herramientas tan variadas, Baier ofreció algunos consejos críticos para que las empresas comenzaran. En primer lugar, tenga cuidado con la dependencia de los proveedores y acepte la realidad de que la pila de TI empresarial seguirá cambiando drásticamente durante los próximos 15 años.

Dado que las iniciativas de IA deben provenir de arriba, Baier sugiere que la alta dirección realice una revisión en profundidad con la junta directiva para explorar oportunidades, amenazas y prioridades. El director ejecutivo y los vicepresidentes también deben tener experiencia práctica (al menos tres horas para comenzar). Antes de implementarlo, considere realizar una prueba piloto de chatbot sin riesgo utilizando datos públicos para respaldar el aprendizaje práctico y experimentar con IA en el dispositivo para operaciones de campo.

Las empresas también deberían designar un ejecutivo para supervisar la integración, desarrollar un centro de excelencia y coordinar proyectos, aconseja Baier. Es igualmente importante implementar políticas y capacitación sobre el uso de IA genérica. Para respaldar la adopción, publique una política de uso, realice capacitación básica e identifique qué herramientas están aprobadas y qué información no debe ingresarse.

En definitiva, “no prohíban ChatGPT; sus empleados ya lo están utilizando”, afirma GAI.

Continue Reading

Noticias

7 mensajes de ChatGPT que estoy usando para mejorar mis regalos: aquí te explico cómo probarlos

Published

on

Cuando se trata de encontrar el regalo perfecto para mis seres queridos, sin importar cuál sea el trato, generalmente me encuentro en algún punto entre saber exactamente qué comprar y no tener la menor idea de por dónde empezar, incluso en Amazon. La verdad es que es más fácil comprar para algunas personas que para otras.

Por eso, este año he decidido abordar la entrega de regalos de forma diferente. Estoy reclutando a ChatGPT como mi compañero de lluvia de ideas. Después de todo, he usado un chatbot para ayudarme con otras vacaciones, ¿por qué no usarlo esta vez como mi elfo secreto?

Con las indicaciones adecuadas, convertí el proceso de selección de regalos en una colaboración creativa, aprovechando la IA para generar ideas de regalos bien pensadas, personalizadas y, a menudo, inesperadas. Aquí están las siete sugerencias de ChatGPT que he estado usando para mejorar mi juego de dar regalos y cómo han transformado la forma en que compro para las personas que me importan.

1. “¿Cuáles son las ideas de regalos únicas para alguien que ama [insert interest]?”

(Crédito de la imagen: futuro)

No importa quién sea la persona, este mensaje es mi punto de partida. Al especificar el interés del destinatario (ya sean deportes, manualidades o cuidado del césped), ChatGPT genera una lista de ideas que van más allá de lo obvio. ¡Déjame decirte que las ideas para regalos no decepcionan!

Por ejemplo, cuando pedí regalos para mi mamá, a quien le encanta hacer colchas, ChatGPT sugirió tantas ideas que nunca hubiera pensado en incluir una luz LED, un software de diseño o incluso entradas para un museo textil.

Estas ideas eran mucho más creativas que la tarjeta de regalo estándar que de otro modo habría elegido. ChatGPT puede ser un robot sin emociones, pero ciertamente hace un gran trabajo al agregar un toque de personalización al proceso de entrega de regalos.

2. “¿Qué regalo puedo dar que solucione [specific problem]?”

(Crédito de la imagen: futuro)

Si alguna vez quisiste hacer un regalo práctico sin ser aburrido, este mensaje cambiará las reglas del juego. Por ejemplo, cuando le conté a ChatGPT que mis hijos pasaban demasiado tiempo frente a la pantalla, me recomendó muchas opciones creativas para sacarlos al aire libre, incluido un scooter eléctrico e incluso binoculares.

A veces, con todas las ofertas e ideas a cada paso, es difícil saber qué comprar exactamente. Recurrir a ChatGPT para obtener obsequios que resuelvan un problema puede marcar la diferencia. ChatGPT tiene infinitas formas de buscar, lo que lo convierte en un punto de inflexión para aquellos de nosotros atrapados en el ajetreo de las vacaciones.

En este caso, sacar a los niños afuera es más bien un regalo para mí, pero en la mayoría de los casos, dar un regalo que resuelve un problema real para alguien demuestra que has estado prestando atención y que siempre eres apreciado.

3. “¿En qué ideas de regalos se inspiran?” [specific memory or shared experience]?”

(Crédito de la imagen: futuro)

Este mensaje me ayuda a aprovechar el lado emocional de dar regalos al conectar el presente con un momento especial. Cuando mencioné un viaje que mi hermana y yo hicimos a París, ChatGPT sugirió un mapa enmarcado de la ciudad, utensilios de cocina para repostería francesa, que también inspiraron la idea de una nueva cafetera.

Recurrir a ChatGPT en realidad generó otras ideas, como álbumes de recortes, accesorios de moda y un diario para usar en nuestro próximo viaje. Estas ideas convirtieron el regalo en más que un objeto, se convirtió en un símbolo de nuestro vínculo, que es sumamente especial.

4. “¿Cuáles son algunas ideas de regalos asequibles pero significativas para [relation or age group]?”

(Crédito de la imagen: futuro)

Seamos realistas: los presupuestos importan. Este mensaje ha sido invaluable para encontrar obsequios bien pensados ​​que no cuesten mucho dinero. Tengo sobrinas trillizas idénticas que ahora son preadolescentes y rápidamente se vuelven más individuales que nunca. Cada uno tiene su propio gusto y personalidad personal a pesar de verse exactamente iguales.

Cuando les pedí ideas de regalos asequibles, ChatGPT sugirió una combinación de diversión y originalidad, creativa y personal, incluido un rompecabezas personalizado y kits de aventuras de bricolaje. Me encantó la idea de los kits de aventuras de bricolaje empaquetados en una caja decorativa, que parecía profundamente personal pero costaba muy poco.

Este mensaje es especialmente bueno para familiares o conocidos cuando mantenerse dentro del presupuesto es una prioridad absoluta. Lo probé con profesores, conductores de autobuses y entrenadores y obtuve resultados igualmente inspiradores.

5. “¿Cuál es una forma creativa de empaquetar un regalo para alguien que ama?” [theme or hobby]?”

(Crédito de la imagen: futuro)

La presentación importa y este mensaje ha hecho que incluso los obsequios más simples parezcan extraordinarios. ChatGPT sugirió una vez envolver un libro de cocina en un paño de cocina a cuadros y atarlo con cordel para un amigo al que le encanta cocinar.

Continue Reading

Trending