Connect with us

Noticias

La IA entra en una nueva fase y la lista Fortune 50 AI Innovators identifica a las empresas que la lideran

Published

on

Han pasado más de 700 días desde que OpenAI presentó su ahora popular chatbot ChatGPT, marcando extraoficialmente el comienzo de la era de la IA y una carrera de las empresas para sacar provecho de ella.

Primero vino un período de experimentación por parte de clientes corporativos. Probaron la IA de forma limitada: infundieron algunas de sus herramientas internas con la tecnología incipiente para ver qué funcionaba y qué no. Luego, más recientemente, las empresas empezaron a volverse más serias y seguras. Invirtieron más en IA y la hicieron más central en sus operaciones.

“2023 fue realmente un año en el que la industria y las empresas se centraron en la IA”, dice James Dyett, director de ventas de plataformas de OpenAI. “2024 es el año en el que empezaremos a ver implementaciones a escala real de nuestra tecnología”.

El miércoles, Fortuna publicó su segunda lista anual Fortune 50 AI Innovators, destacando las empresas de AI que están liderando en esta nueva fase de adopción de la tecnología. Son los proveedores que han ganado mayor tracción, como financiación o clientes, y cuya IA se considera una de las mejores de su clase.

Además de OpenAI, las grandes empresas tecnológicas de la lista incluyen a Microsoft, el fabricante de chips Nvidia, la empresa de software empresarial Salesforce y el gigante chino del comercio electrónico Alibaba. Entre las nuevas empresas se encuentran la empresa de tecnología de clonación de voz ElevenLabs, la empresa francesa de chatbot de IA Mistral, la empresa de IA con sede en China ModelBest y la empresa de biotecnología Xaira Therapeutics, todas ellas con menos de tres años de existencia.

Por supuesto, la IA todavía está en sus inicios y el orden jerárquico de la industria aún es muy fluido. Las empresas que están en la cima hoy enfrentan muchos desafíos, incluido el alto costo de los modelos de capacitación y la dificultad de conseguir suficientes clientes que paguen para obtener ganancias. Al mismo tiempo, la industria tiene un exceso de nuevas empresas que hacen lo mismo, a menudo con poca diferencia entre los productos que venden. Una reducción, según todos los indicios, es inevitable.

De los conceptos básicos de la IA a soñar en grande

Hasta ahora, las empresas que adoptan la IA se han centrado en mejorar la productividad de los empleados, como ayudar a los desarrolladores de software a escribir código o abordar preguntas de servicio al cliente, reduciendo así la cantidad de llamadas que debe realizar un servicio de atención al cliente.

Estos ajustes pueden mejorar marginalmente las operaciones comerciales. Pero Eric Boyd, vicepresidente corporativo de la plataforma Azure AI de Microsoft, dice que los ejecutivos deberían soñar en grande.

“Probablemente esté perdiendo una oportunidad”, advierte Boyd, afirmando que los clientes corporativos deberían considerar cambiar por completo su forma de hacer negocios.

Microsoft es, por supuesto, uno de los mayores beneficiarios del auge de la IA. Sus ingresos relacionados con la IA pronto alcanzarán una tasa de ejecución anual de 10.000 millones de dólares, lo que convertirá al segmento empresarial en el más rápido en la historia de la empresa en alcanzar ese hito.

En general, las asociaciones corporativas entre proveedores de IA y clientes corporativos se han disparado en 2024, incluidos los pactos de OpenAI con la empresa de biotecnología Moderna y el gigante financiero Morgan Stanley. Acuerdos similares han ayudado a elevar la valoración de OpenAI a 157 mil millones de dólares, y más recientemente recaudaron 6,6 mil millones de dólares en una enorme ronda de financiación en octubre, casi duplicando la valoración de la compañía con respecto a nueve meses antes.

Durante el año pasado, se han presentado nuevos modelos de IA de gran tamaño a un ritmo constante, incluido el lanzamiento preliminar de o1, que OpenAI promociona por sus capacidades de “razonamiento” más sólidas. Mientras tanto, Meta introdujo tres versiones del modelo de lenguaje de código abierto de la compañía en 2024, frente a las dos del año anterior. La adopción de muchos de estos modelos fundamentales está creciendo rápidamente.

“Hemos alcanzado los 500 millones de descargas, diez veces más que el año pasado”, dice Ahmad Al-Dahle, vicepresidente de Meta y director de genAI. “Hemos visto una adopción increíble en las empresas Fortune 500 que aprovechan Llama para sus casos de uso internos”, citando el nombre del modelo de lenguaje grande de Meta.

¿Puede la IA ayudar a tratar los síntomas de la atención sanitaria?

La atención médica se encuentra entre los sectores especialmente preparados para beneficiarse de la IA, especialmente considerando su reputación de altos costos, complejidad administrativa, escasez de personal y agotamiento de los médicos. Según la consultora McKinsey, la IA podría generar 370 mil millones de dólares en valor para la atención médica al acelerar el descubrimiento y desarrollo de fármacos y relacionar con mayor precisión a los pacientes con tratamientos potenciales.

Xaira Therapeutics se encuentra entre las nuevas empresas de desarrollo de fármacos centradas en la IA que han causado sensación. En abril, obtuvo mil millones de dólares en financiación y desde entonces comenzó su primer esfuerzo para idear nuevos tratamientos farmacológicos, estableció una oficina en San Francisco y realizó nombramientos clave, incluida la contratación de un director científico.

La startup tiene la intención de aplicar IA generativa al descubrimiento, la producción y los ensayos clínicos de fármacos, con el objetivo de mejorar todo el proceso de desarrollo de fármacos y comercializar tratamientos más eficaces más rápidamente.

“Creemos que la IA nos permitirá transformar la forma en que realizamos los tres pasos y tener mucho más éxito”, afirma Marc Tessier-Lavigne, director ejecutivo de Xaira Therapeutics.

Abridge, que ayuda a los médicos a ahorrar tiempo transcribiendo y organizando automáticamente sus conversaciones con los pacientes, anunció en febrero una inversión Serie C de 150 millones de dólares. También ha revelado un ritmo constante de nuevos contratos con empresas como Yale New Haven Health System y The University of Vermont Health Network.

“Nuestra oportunidad es aliviar realmente a los médicos y ayudarlos a concentrarse en la persona más importante de la sala… el paciente”, dice Shiv Rao, director ejecutivo y fundador de Abridge, y también cardiólogo en ejercicio.

Cita encuestas que muestran que los médicos están abrumados y que muchos incluso están considerando abandonar este campo por completo. Los hospitales rurales, que ya corren el riesgo de cerrar debido a limitaciones financieras, se verían especialmente afectados por ese éxodo.

Rao dice que el valor de Abridge es que es una aplicación de IA específica para un sector, entrenada específicamente en datos médicos y de pacientes, y que está destinada a abordar múltiples mercados, desde grandes centros médicos académicos hasta consultorios privados, y en diferentes partes del sistema de atención médica. incluyendo cardiología, atención primaria y sala de emergencias. Este año, Abridge, junto con Mayo Clinic y el proveedor de software Epic, presentaron un producto de documentación de IA dirigido específicamente a enfermeras.

Para conseguir acuerdos, Rao dice que debe hacer una propuesta exitosa a tres ejecutivos: el director de información médica, el director de información y el director financiero. “Necesitamos que los tres crean que esto genera un retorno de la inversión para sus médicos”, afirma Rao.

La IA es a la vez la nueva estrella y villana de Hollywood

La industria creativa también presenta nuevas oportunidades con la IA, pero también cuestiones espinosas sobre la protección de los derechos de autor, la amenaza potencial a los medios de vida de los artistas y grandes cambios en el arte, las películas, el diseño y la publicidad. El discurso de la empresa de vídeos de IA Runway, que en junio lanzó su modelo más nuevo que puede crear videoclips de 10 segundos a partir de indicaciones de texto, dice que la IA puede ayudar a acelerar los proyectos de vídeo y dar a los creadores más tiempo.

“El cine es una forma de arte gracias a la tecnología”, dice Cristóbal Valenzuela, director ejecutivo y cofundador de Runway. “Estas son sólo herramientas”.

Runway trabaja con importantes estudios cinematográficos, incluido Lionsgate, tras una asociación que firmaron en septiembre. El acuerdo implica que dos personas creen y entrenen un nuevo modelo de IA personalizado en el catálogo patentado de la compañía de entretenimiento, que incluye Los juegos del hambre y Sierra ciclo de cine.

Mientras tanto, sus clientes han utilizado la herramienta de generación de imágenes Firefly AI de Adobe para crear más de 13 mil millones de imágenes. Los clientes han utilizado la tecnología, por ejemplo, para crear imágenes para envases de Barbie y para botellas personalizables vendidas por Gatorade.

“Estamos entusiasmados de ver que estas empresas no solo utilizan la IA de generación para facilitar la vida de sus departamentos creativos, sino que, en algunos casos, permiten a sus clientes personalizar y cambiar el compromiso con la marca”, afirma Alexandru Costin, vicepresidente. de IA generativa en Adobe.

Adobe ha presentado recientemente una herramienta de vídeo con IA generativa y una función que permite a los artistas dibujar una forma que Adobe Illustrator luego rellena con una imagen mediante un mensaje de texto. Adobe enfatiza que su IA generativa se entrena únicamente con datos que la empresa tiene derecho a utilizar o que son de dominio público y, por lo tanto, no viola las leyes de derechos de autor.

En general, Meta dice que los casos de uso que parecían imposibles antes del actual auge de la IA ahora se están convirtiendo en una realidad a medida que los modelos de IA se vuelven más inteligentes. Algunos clientes que utilizan Llama hoy incluyen la consultora Accenture, que creó un LLM personalizado para producir de manera más eficiente su informe ESG anual, mientras que el gigante de las telecomunicaciones AT&T utilizó versiones mejoradas de los modelos Llama para ayudar a acelerar los tiempos de respuesta a las consultas de los clientes.

Boyd de Microsoft dice que, si bien más de 60.000 clientes utilizan Azure AI en la actualidad, muchos líderes de la alta dirección todavía están pensando en el uso responsable y ético de la IA, en cómo administrar sus datos y en la búsqueda del retorno de la inversión. “En lo que nos hemos centrado es en cómo ayudamos a nuestros clientes a aprovechar esta nueva tecnología que realmente llega a todas las facetas de su negocio”, pregunta Boyd.

Dyett de OpenAI dice que no está claro cuál será el próximo gran avance en la IA ahora que los aspectos básicos ya están resueltos en gran medida. Pero quien lleve la tecnología al siguiente nivel tendrá que correr algunos riesgos. Dyett dijo: “Será una empresa que se arriesga y experimenta con algo que no se ha hecho antes, comienza a ver algunos resultados realmente positivos y eso hace que el resto del mercado funcione”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Demasiado chatgpt? Estudia lazos de IA de IA a los grados inferiores y la motivación

Published

on

Sigue a Psypost en Google News

Un estudio publicado en la revista Tecnologías de educación e información Encuentra que los estudiantes que son más conscientes tienden a usar herramientas de IA generativas como ChatGPT con menos frecuencia, y que usar tales herramientas para tareas académicas se asocia con una mayor autoeficacia, un peor rendimiento académico y mayores sentimientos de impotencia. Los hallazgos destacan la dinámica psicológica detrás de la adopción de la IA y plantean preguntas sobre cómo puede dar forma al aprendizaje y la motivación de los estudiantes.

La IA generativa se refiere a sistemas informáticos que pueden crear contenido original en respuesta a las indicaciones del usuario. Los modelos de idiomas grandes, como ChatGPT, son un ejemplo común. Estas herramientas pueden producir ensayos, resúmenes, explicaciones e incluso simular la conversación, lo que los hace atractivos para los estudiantes que buscan ayuda rápida con tareas académicas. Pero su ascenso también ha provocado un debate entre los educadores, que están preocupados por el plagio, el aprendizaje reducido y el uso ético de la IA en las aulas.

“Ser testigo de la dependencia excesiva entre algunos de mis estudiantes en herramientas generativas de IA como ChatGPT me hizo preguntarme si estas herramientas tenían implicaciones para los resultados de aprendizaje a largo plazo de los estudiantes y su capacidad cognitiva”, dijo el autor de estudio Sundas Azeem, profesor asistente de gestión y comportamiento organizacional en la Universidad Szabist.

“Era particularmente evidente que para aquellas actividades y tareas en las que los estudiantes se basaban en herramientas generativas de IA, la participación y el debate en el aula fue considerablemente menor ya que las respuestas similares de estas herramientas aumentaron el acuerdo de los estudiantes sobre los temas de discusión. Con un compromiso reducido en la clase, estas observaciones provocaron mi preocupación si realmente se cumplían objetivos de aprendizaje.

“En el momento en que comenzamos este estudio, la mayoría de los estudios sobre el uso de la IA generativo por parte de los estudiantes estaban basados ​​en la opinión o teóricos, explorando la ética del uso generativo de la IA”, continuó Azeem. “Los estudios que exploran el rendimiento académico rara vez consideran las calificaciones académicas (CGPA) para los resultados académicos, y también ignoraron las diferencias individuales como los rasgos de personalidad.

“A pesar del uso generalizado, no todos los estudiantes se basaron en el uso generativo de la IA por igual. Los estudiantes que de otro modo eran más responsables, puntuales y participativos en la clase parecían confiar menos en las herramientas generativas de IA. Esto me llevó a investigar si hubo diferencias de personalidad en el uso de estas herramientas. Esta brecha, acoplada con inquietudes enriquecidas sobre la equidad en el grado de la justicia y la integridad académica inspirada para este estudio”.

Para explorar cómo los estudiantes realmente se involucran con la IA generativa y cómo sus rasgos de personalidad influyen en este comportamiento, los investigadores encuestaron a 326 estudiantes universitarios de tres universidades principales en Pakistán. Los estudiantes se inscribieron en programas relacionados con los negocios y abarcaron de segundo a octavo semestre. Es importante destacar que el estudio utilizó un diseño de encuesta de tres ondas y retrasado en el tiempo para recopilar datos con el tiempo y minimizar los sesgos comunes en las respuestas autoinformadas.

En el primer momento, los estudiantes informaron sus rasgos de personalidad y sus percepciones de equidad en el sistema de calificación de su universidad. Específicamente, los investigadores se centraron en tres rasgos de personalidad del modelo Big Five: conciencia, apertura a la experiencia y neuroticismo. Estos rasgos fueron seleccionados debido a su relevancia para el rendimiento académico y el uso de la tecnología. Por ejemplo, los estudiantes concienzñosos tienden a ser organizados, autodisciplinados y orientados a los logros. La apertura refleja la curiosidad intelectual y la creatividad, mientras que el neuroticismo se asocia con ansiedad e inestabilidad emocional.

En el segundo punto, los participantes informaron con qué frecuencia usaban herramientas de IA generativas, especialmente ChatGPT, para fines académicos. En la tercera y última ola, los estudiantes completaron medidas que evaluaron su autoeficacia académica (cuán capaces se sintieron de tener éxito académicamente), su experiencia de impotencia aprendida (la creencia de que los esfuerzos no conducirán al éxito) e informaron su promedio acumulativo de calificaciones.

Entre los tres rasgos de personalidad estudiados, solo la conciencia estaba significativamente vinculada al uso de la IA. Los estudiantes que obtuvieron puntajes más altos en la conciencia tenían menos probabilidades de usar IA generativa para el trabajo académico. Este hallazgo sugiere que las personas concienzudas pueden preferir confiar en sus propios esfuerzos y están menos inclinados a tomar atajos, alineándose con investigaciones previas que demuestran que este rasgo de personalidad está asociado con la honestidad académica y el aprendizaje autodirigido.

“Nuestro estudio encontró que los estudiantes que son más conscientes tienen menos probabilidades de confiar en la IA generativa para tareas académicas debido a una mayor autodisciplina y tal vez también estándares éticos más altos”, dijo Azeem a PSYPOST. “Pueden preferir explorar múltiples fuentes de información y otras actividades de aprendizaje más cognitivamente atractivas como investigaciones y discusiones”.

Contrariamente a las expectativas, la apertura a la experiencia y el neuroticismo no se relacionó significativamente con el uso de IA. Si bien investigaciones anteriores han vinculado la apertura con una mayor disposición a probar nuevas tecnologías, los investigadores sugieren que los estudiantes con alto contenido de apertura también pueden valorar la originalidad y el pensamiento independiente, lo que potencialmente reduce su dependencia del contenido generado por IA. Del mismo modo, los estudiantes con un alto nivel de neuroticismo pueden sentirse incómodos con la precisión o la ética de las herramientas de IA, lo que lleva a la ambivalencia sobre su uso.

Los investigadores también examinaron cómo las percepciones de la justicia en la clasificación podrían dar forma a estas relaciones. Pero solo una interacción, entre la apertura y la equidad de calificación, fue marginalmente significativa. Para los estudiantes con alto contenido de apertura, percibir el sistema de calificación como justo se asoció con un menor uso de IA. Los investigadores no encontraron interacciones significativas que involucraban la conciencia o neuroticismo.

“Un hallazgo sorprendente fue que la justicia en la calificación solo influyó marginalmente en el uso generativo de la IA, y solo para la apertura del rasgo de personalidad a la experiencia, mostrando que, independientemente de la justicia de calificación, la IA generativa está ganando una popularidad generalizada”, dijo Azeem. “Esto es revelador, dado que habíamos anticipado que los estudiantes confiarían más en las herramientas generativas de IA con el objetivo de obtener calificaciones más altas, cuando la calificación percibió que la calificación era injusta. Además, mientras que las personas con una apertura a la experiencia de la experiencia son generalmente adoptantes de tecnologías que nuestro estudio no informó tales hallazgos”.

En términos más generales, los investigadores encontraron que un mayor uso de la IA generativa en las tareas académicas se asoció con varios resultados negativos. Los estudiantes que se basaron más en IA informaron una mayor autoeficacia académica. En otras palabras, se sintieron menos capaces de tener éxito por su cuenta. También experimentaron mayores sentimientos de impotencia aprendida, un estado en el que las personas creen que el esfuerzo es inútil y los resultados están fuera de su control. Además, un mayor uso de IA se vinculó con un rendimiento académico ligeramente más bajo medido por GPA.

Estos patrones sugieren que, si bien la IA generativa puede ofrecer conveniencia a corto plazo, su uso excesivo podría socavar el sentido de agencia de los estudiantes y reducir su motivación para participar profundamente con sus cursos. Con el tiempo, esta confianza podría erosionar el pensamiento crítico y las habilidades de resolución de problemas que son esenciales para el éxito a largo plazo.

Un análisis posterior reveló que el uso de IA generativo también medió el vínculo entre la conciencia y los resultados académicos. Específicamente, los estudiantes que eran más conscientes tenían menos probabilidades de usar IA, y este menor uso se asoció con un mejor rendimiento académico, una mayor autoeficacia y menos impotencia.

“Una conclusión clave para los estudiantes, los maestros, así como el liderazgo académico es el impacto de la dependencia de los estudiantes en las herramientas generativas de IA en sus resultados psicológicos y de aprendizaje”, dijo Azeem a PSYPOST. “Por ejemplo, nuestros hallazgos de que el uso generativo de la IA se asocia con una autoeficacia académica reducida y una mayor impotencia aprendida lo considera, ya que los estudiantes pueden comenzar a creer que sus propios esfuerzos no importan. Esto puede llevar a una agencia reducida cuando los estudiantes pueden creer que el éxito académico depende de las herramientas externas en lugar de la competencia interna. Como el uso excesivo de la AI generativa es la autoefficacia, los estudiantes pueden creer que su capacidad completa o desafiante los problemas sin problemas de los estudiantes en lugar de la ayuda de los estudiantes. Aprendedores pasivos, dudando en intentar tareas sin apoyo.

“Cuando se sienten menos control o dudan durante mucho tiempo, puede conducir a los hábitos de aprendizaje distorsionados, ya que pueden creer que la IA generativa siempre proporcionará la respuesta. Esto también puede hacer que las tareas académicas sean aburridas en lugar de desafiar, retraso aún más la resiliencia y el crecimiento intelectual. Nuestros hallazgos implican que la IA generativa está aquí aquí, su integración responsable en la academia a través de la formación de políticas, así como los maestros y el crecimiento intelectual es clave, nuestros hallazgos son clave.

“Nuestros hallazgos no respaldaron la idea común de que las herramientas generativas de IA ayudan a funcionar mejor académicamente”, explicó Azeem. “Esto tiene sentido dados nuestros hallazgos de que el uso generativo de la IA aumenta la impotencia aprendida. El rendimiento académico (indicado por CGPA en nuestro estudio) se basa más en las habilidades cognitivas individuales y el conocimiento de la materia, que puede afectar negativamente con una reducción de la autoeficacia académica reducida en exceso”.

El estudio, como todas las investigaciones, incluye algunas limitaciones. La muestra se limitó a estudiantes de negocios de universidades paquistaníes, lo que puede limitar la generalización de los hallazgos a otras culturas o disciplinas académicas. Los investigadores se basaron en medidas autoinformadas, aunque tomaron medidas para reducir el sesgo al separar las encuestas y usar escalas establecidas.

“Los datos autoinformados pueden ser susceptibles al sesgo de deseabilidad social”, señaló Azeem. “Además, si bien nuestro estudio siguió un diseño de tiempo de tiempo que permite la separación temporal entre la recopilación de datos, las instrucciones causales entre el uso generativo de la IA y sus resultados pueden mapear mejor a través de un diseño longitudinal. Del mismo modo, para diseñar las intervenciones y planes de capacitación necesarios, puede ayudar a futuros estudios a investigar las condiciones bajo las cuales el uso generativo de la IA lidera a los medios de aprendizaje más positivos y menos negativos”.

“A largo plazo, su objetivo es realizar estudios longitudinales que investiguen el desarrollo de los estudiantes a largo plazo, como la creatividad, la autorregulación y la empleabilidad en los semestres múltiples. Esto puede ayudar a cerrar las diferencias emergentes en la literatura con respecto al positivo versus los efectos dañinos de la IA generativa para los estudiantes. También tengo la intención de explorar otros rasgos motivacionales para que la personalidad sea de la personalidad, que puede influenciar la IA Generación. y razonamiento ético para el uso efectivo de IA generativo entre los estudiantes a largo plazo ”.

Los hallazgos plantean preguntas más grandes sobre el futuro de la educación en una era de IA accesible y poderosa. Si las herramientas generativas pueden completar muchas tareas académicas con un esfuerzo mínimo, los estudiantes pueden perder los procesos de aprendizaje que generan confianza, resistencia y pensamiento crítico. Por otro lado, las herramientas de IA también podrían usarse para apoyar el aprendizaje, por ejemplo, ayudando a los estudiantes a hacer una lluvia de ideas, explorar nuevas perspectivas o refinar sus escritos.

“Si bien nuestro estudio nos alarma a los posibles efectos adversos de la IA generativa para los estudiantes, la literatura también está disponible que respalda sus resultados positivos”, dijo Azeem. “Por lo tanto, a medida que las herramientas de IA se integran cada vez más en la educación, es vital que los responsables políticos, los educadores y los desarrolladores de EDTech vayan más allá de las opiniones binarias de la IA generativa como inherentemente bueno o malo. Creo que guiar el uso responsable de la IA generativa mientras mitigan los riesgos tienen la clave del aprendizaje mejorado”.

“Para ser específicos, la capacitación de instructor para diseñar actividades de aprendizaje acuáticas de AI puede ayudar a fomentar el pensamiento crítico. Estos pueden enfatizar la reflexión de los estudiantes alentando sobre el contenido generado por IA para abordar algunas cartas del uso generativo de IA en el aula. De la misma manera, la promoción de los sistemas de clasificación justos y transparentes es probable que se convierta en un mal uso. Con el uso no regulado y no regulado entre los estudiantes generativos entre los estudiantes de AI, los que se aprenden a los estudiantes de AI, lo que puede ser acelerado, se debe convertir en aceleración. Puede afectar las capacidades que la educación está destinada a desarrollar: la independencia, el pensamiento crítico y la curiosidad.

El estudio, “La personalidad se correlaciona del uso académico de la inteligencia artificial generativa y sus resultados: ¿Importa la justicia?”, Fue escrita por Sundas Azeem y Muhammad Abbas.

Continue Reading

Noticias

Sueltas de chatgpt y consejos de IA para dibujar correos electrónicos increíbles

Published

on

El correo electrónico ha existido durante 50 años, y durante la mayor parte de ese tiempo, se ha mantenido relativamente sin cambios. Hasta ahora, al menos.

En los dos años transcurridos desde el lanzamiento de CHATGPT, el correo electrónico ha recibido un dramático lavado de cara generativo de IA.

Herramientas como Outlook y Gmail ahora tienen asistentes de IA incorporados que están listos para ayudar a crear y ajustar sus comunicaciones electrónicas. Con algunos trabajadores del Reino Unido que pasan casi nueve horas por semana escribiendo correos electrónicos, existe la posibilidad de algunas grandes ganancias de eficiencia.

Las herramientas de Genai, incluidos los asistentes incorporados o los chatbots independientes como Gemini y ChatGPT, pueden ayudar a pulir la prosa, alcanzar el tono correcto y persuadir a sus destinatarios para que tomen la acción prevista.

Dominar el arte de la provisión de IA se está convirtiendo rápidamente en una habilidad crítica tanto en la vida diaria como profesional. Entonces, si desea saber cómo pasar menos tiempo descubriendo qué escribir en correos electrónicos o cómo deben diseñarse para diferentes audiencias y ocasiones, aquí hay algunos consejos, ideas y indicaciones de muestra.

¿Qué herramientas de Genai debo usar?

Una nota rápida antes de comenzar: todos estos consejos y indicaciones deben funcionar si está trabajando con un chatbot como chatgpt o un asistente de IA como copilot que está integrado en su software de correo.

Para tareas básicas como escribir un correo electrónico, todos funcionan de manera muy similar, con poca necesidad de características avanzadas como navegación web, capacidad multimodal o capacidad de razonamiento. Donde algunos de los consejos que cubro aquí pueden confiar en estas características, lo mencionaré.

Como se mencionó, Gmail y Outlook tienen asistentes integrados en las versiones gratuitas y pagadas de sus clientes, tanto el navegador como las versiones basadas en aplicaciones. Los chatbots más populares, chatgpt, gemini, claude, etc., todos tienen versiones gratuitas que son perfectamente capaces de recordar correos electrónicos.

Consejos para la solicitud de correo electrónico efectiva

Uno de los consejos más importantes que se aplica a cualquier tipo de indicación es tener siempre una idea de lo que pretende lograr.

Si le da a AI Fuzzy o objetivos poco claros, no hay forma de decir qué le dará a cambio, pero es poco probable que sea lo que desea. La IA es inteligente, pero no puede leer la lectura mental.

Si no está seguro de lo que desea lograr, pídale a la IA que lo ayude a resolverlo. Con cualquier tarea, puede ayudarlo a comprender cuáles deben ser sus objetivos y cómo puede medir el éxito.

Lo siguiente más importante para entender es que puede darle a ChatGPT (o lo que sea) cualquier dato que necesite para ayudar a completar su tarea. Puede adjuntar hojas de cálculo, artículos, imágenes o la mayoría de los tipos de medios y hacer que AI extraan información de él para su uso en sus correos electrónicos.

Por ejemplo, una empresa podría cargar registros de transacciones de los clientes para crear correos electrónicos postventa automatizados y personalizados que preguntaban cómo los compradores disfrutaban de sus últimas compras.

Otro consejo útil es definir siempre a su audiencia. Decirle a ChatGPT que la comunicación está destinada a su jefe, clientes o perspectivas con problemas que puede resolver aumenta las posibilidades de que alcance el tono correcto.

Si desea asegurarse de que sus destinatarios sepan que es usted quien está escribiendo, puede darle ejemplos de la forma en que trabaja (ya sea cargado como archivos o pegados en el chat) para que pueda simular su voz, tono y estilo.

Finalmente, y de manera crucial, está el temido espectro de alucinación de IA. Una peculiaridad de Genai basado en el lenguaje es que no le gusta estar en una posición en la que no puede proporcionar una respuesta, y para evitar esto, a veces literalmente inventará las cosas.

Una forma simple de evitar (o al menos reducir las instancias de) esto es decirle que le solicite cualquier información que no tenga. Agregar “Pregúntame más información que necesite para hacer el trabajo” es una forma segura de hacer que muchas indicaciones sean mucho más efectivas.

Con esos consejos generales en mente, aquí hay algunas indicaciones simples que pueden ayudarlo a elaborar correos electrónicos que hacen el trabajo.

Resumir/ recapitular una reunión

La IA funciona mejor cuando le da datos específicos para trabajar en lugar de obligarlos a confiar en sus datos de capacitación.

Aviso: Use el registro de asistencia, la agenda y las notas proporcionadas para resumir esta reunión, luego crear un correo electrónico de seguimiento personalizado para cada asistente, junto con un plan de acción que detalla los objetivos actuales, la escala de tiempo y los próximos pasos.

Escribir persuasivamente

A menudo, al escribir un correo electrónico, su intención será persuadir a las personas para que actúen de cierta manera, ya sea comprando sus productos, asistir a su evento o apoyar una causa caritativa. Si tiene que crear algún tipo de correo electrónico diseñado para fomentar la acción, ejecutarlo a través de este aviso primero:

Aviso: tome este borrador del correo electrónico y mejore las posibilidades de que alcance su objetivo al estructurar el contenido de una manera clara, concisa y persuasiva, enfatizando oportunidades, beneficios o riesgos. Si su objetivo no es claro para usted, pídeme que aclare lo que está destinado a lograr. Mantenga la misma voz, tono y estilo, y todos los mensajes. Cuando tenga toda la información que necesita, cree un correo electrónico persuasivo, bien escrito y de manera efectiva.

Apelando una multa o boleto

Los procesos de apelación a menudo son altamente técnicos y se ganan o se pierden según las regulaciones. Para este aviso, necesitará una copia de las regulaciones que le acusan de incumplimiento (por ejemplo, términos y condiciones de estacionamiento).

Aviso: Ayúdame a anular esta multa o penalización. He adjuntado una copia de las regulaciones que me acusan de violar. Pregúntame por la razón por la que creo que esta multa o penalización debe ser revocada, luego redactar una carta concisa, educada pero a punto, con referencia a las regulaciones, que convencerá al emisor de que rescindga la multa o la penalización.

Provocando éxito

Estas indicaciones están diseñadas para darle una idea de las diferentes formas en que podemos lograr que la IA nos ayude con las tareas. Todos pueden adaptarse para satisfacer muchas necesidades diferentes.

Al darle a AI la información específica que necesitan, y pedirles que le informen si necesitan más, cualquiera puede hacer que sus indicaciones creen un resultado mucho más personalizado y útil.

No se equivoquen, es probable que el éxito futuro de muchas personas que lean esto dependan de cuán competentes se vuelvan para trabajar y derivar el valor de la IA.

La IA generativa basada en el lenguaje elimina muchos de los obstáculos técnicos que podemos encontrar al tratar de usar la tecnología de manera efectiva, como tener que aprender a escribir código.

Pero sigue siendo una habilidad, y eso significa que se puede mejorar con el conocimiento y la práctica. Y cuanto mejor lo obtengamos, más probabilidades tenemos de beneficiarnos de las oportunidades que AI crea.

Continue Reading

Noticias

Chatgpt sigue enviando personas a la librería de palabras en Jersey City para todo menos libros

Published

on

estilo de vida

Las consultas en línea a través de ChatGPT son un hecho diario para muchos en este momento (también somos culpables, no se preocupe). ¿Pero es la IA tan infalible como los entusiastas de la tecnología enfatizan, especialmente cuando se trata de información local? En un escenario peculiar, Word Bookstore ha sido objeto de alguna confusión de IRL Ai. La tienda de Jersey City, que, como era de esperar, vende libros, ha escuchado solicitudes cada vez más extrañas y no relacionadas con los libros de clientes, que van desde veterinarios hasta cochecitos. ¿Confundido? Nosotros también. Sigue leyendo para obtener más información sobre los peculiares en las librerías de Word de Jersey City y cómo la IA podría ser el culpable.

Chat Gpt Word Bookstore Jersey City NJ

La situación de Pecul-Ai-R (lo siento, tuvo que))

Los usuarios confían en CHATGPT para una gran cantidad de servicios diferentes, pero aquellos que buscan recomendaciones de Jersey City se han desviado en las últimas semanas. En respuesta a ciertas consultas de búsqueda locales como “Veterinario de 24 horas en Jersey City” o “Servicios de envío”, ChatGPT sugiere Word Bookstore. Nuestro equipo realizó un experimento nosotros mismos y puede confirmar: el veterinario favorito de Jersey City de Chat GPT es la librería de Word.

Leer más: 10 años después, Hoboken’s Independent Bookstore, Little City Books, está prosperando. ¿Cuál es el secreto?

Operai admite que chatgpt limitacionesprefaceando que es extremadamente sensible a la forma en que se redactan las indicaciones de entrada, y el modelo solo puede proporcionar respuestas en función de lo que sabe.

“Estos modelos fueron entrenados en grandes cantidades de datos de Internet escritos por humanos, incluidas las conversaciones, por lo que las respuestas que proporciona pueden sonar como humanos”, dice Open Ai en su sitio web. “Es importante tener en cuenta que este es un resultado directo del diseño del sistema (es decir, maximizar la similitud entre las salidas y el conjunto de datos en los que los modelos fueron entrenados) y que tales salidas pueden ser inexactas, falsas y engañosas a veces”.

Escuela de día episcopal de todos los santos
SOJO SPA

En este caso, la información de la que está trabajando el modelo parece indicar que Word opera como un hospital de animales 3 en 1, librería e instalación de envío de paquetes.

En las últimas dos semanas, la tienda ha visto a una persona que busca un veterinario de 24 horas y otra para los servicios de envío, y en ambas ocasiones, los visitantes confundidos confirmaron que ChatGPT los envió a Word Bookstore para estos servicios. También ha habido un aumento en otras llamadas extrañas, que no se confirma que esté relacionado con el chatgpt, de personas que buscan cosas que “no necesariamente tienen sentido para que una librería venda, como una llamada de una mujer que preguntó si Word vendió cochecitos”.

Fitness de Zap

Estos encuentros desconcertantes que quedan se cuestionarán si la tienda necesita verificar su listado de Google o qué más podría estar causando esta confusión. En reacción a nuestro experimento, Will dijo: “Lo único que puedo pensar es, ya sabes, es AI, no entiende lo que está diciendo, y algo en su programación es hacer que piense que algo que podría obtener como tema de un libro igualmente, como cree que está pidiendo libros veterinarios”. También se preguntó si algunas de las llamadas impares podrían ser el resultado de que Google incorporara IA en su motor de búsqueda.

Las solicitudes impares se relacionan con otras conversaciones en curso que rodean la creciente integración de AI en el periodismo, la educación, las artes y la vida cotidiana, actuando como un ejemplo de la frecuente falibilidad de la IA.

AI + Libros: una historia preocupante

Chat Gpt Word Bookstore Jersey City NJ

En 29 McWilliams Place, Word Bookstore ha sido durante mucho tiempo una piedra angular de la comunidad de Jersey City y la comunidad literaria del condado de Hudson. Como la industria del libro en su conjunto intenta mantenerse al día con los cambios sociales hacia los lugares en línea para la información y el entretenimiento, el papel de la IA ha sido un tema en conflicto. Masas de personas están razonablemente preocupadas por la prevalencia del uso y la confianza aparentemente ciega relacionada en los chatbots de IA generativos. Algunas de estas preocupaciones son validadas por la asociación inexplicable entre las librerías de Word y un veterinario de 24 horas, por ejemplo.

En medio de las revelaciones de los escándalos de plagio modernos reportados por The New York Times y Revista de Nueva York En universidades y publicaciones de noticias que se habilitaron por el uso de chatbots de IA generativos como ChatGPT, haciéndose eco de estas conversaciones más amplias, expresarán cierta aprensión sobre la “confianza implícita” en la IA que algunas personas evidentemente tienen. Dado que solo dos de los incidentes fueron causados ​​definitivamente por el uso de Chatgpt, Word Bookstore se está convirtiendo en el escenario de su propia novela misteriosa.

¿Qué hacer?

Si ChatGPT no es tan confiable como todos asumimos que era, ¿qué pueden hacer los lugareños? PCMAG sugiere cuatro trucos para manipular la IA para dar respuestas más precisas. Si ChatGPT se equivoca, los usuarios simplemente pueden corregirlo. El Hg El equipo intentó esto preguntando primero dónde encontrar un veterinario en Jersey City. Junto con otros cinco lugares, Word Bookstore fue incluido como uno de ellos. Después de decirle a la aplicación que Word no era un veterinario, sino solo una librería normal, generó esta respuesta:

“Tienes toda la razón: Word no es un veterinario; es una conocida librería independiente en Jersey City, no una clínica veterinaria. Ese fue un error en la respuesta. ¡Gracias por atrapar eso!”

Cuando se le solicite nuevamente con la pregunta, “¿Dónde puedo encontrar un veterinario en Jersey City?” ChatGPT no enumeró a Word como una opción.

Ver más: Una guía de librerías en el condado de Essex, Nueva Jersey

PCMAG También compartió que, junto con la regeneración de la respuesta o agregando claridad a una pregunta anterior, los usuarios pueden dar comentarios. Cada pocas preguntas, ChatGPT le solicita a los usuarios que proporcionen comentarios sobre su respuesta. Deben hacer clic en el botón “No es correcto”, que se puede encontrar en “más”.

Leer más botón de estilo de vida

Yoga Renew Hoboken

Continue Reading

Trending