Connect with us

Noticias

Ofreciendo retorno de la inversión en la era ChatGPT

Published

on

La IA en una encrucijada: cómo las empresas pueden ofrecer un retorno de la inversión significativo en la era transformadora del ChatGPT y más allá

Cuando ChatGPT apareció por primera vez en escena a finales de 2022, se sintió como magia. La gente se maravilló de su capacidad para crear poesía, depurar código y responder preguntas con estilo conversacional. Los directores ejecutivos comenzaron a soñar con cómo la IA podría revolucionar sus negocios, automatizando tareas, personalizando las experiencias de los clientes y desbloqueando nuevas eficiencias. Pero ahora, unos años después, la fase de luna de miel ha terminado.

Las empresas se hacen una pregunta fundamental: ¿dónde está el retorno de la inversión?

Consideremos esta situación hipotética: una startup gasta 500.000 dólares en implementar un chatbot de IA para mejorar el servicio al cliente. Es ingenioso, fluido y receptivo. A los clientes les encanta… pero en realidad no reduce los costos ni genera nuevos ingresos. El chatbot es genial, claro, pero los ejecutivos comienzan a cuestionar su valor cuando se dan cuenta de que no ahorra dinero ni resuelve problemas de alta prioridad. Esta historia captura el dilema que enfrentan muchas organizaciones en la era de la IA: la admiración por la tecnología está generalizada, pero lo que realmente importa es el impacto tangible en el negocio.

Según nuevos datos de Ernst & Young LLP, del 95% de los líderes senior que reportan inversiones activas en IA dentro de sus organizaciones, se proyecta que la proporción de empresas que comprometen $10 millones o más casi se duplicará el próximo año, saltando del 16% al 30%. Sin embargo, a pesar de este aumento esperado en el gasto, la encuesta destaca una brecha crítica: muchos líderes están descuidando las capacidades fundamentales en las que se basa la IA para generar valor real.

Por qué es importante el ROI en las inversiones en IA

La inteligencia artificial ya no es una novedad; es una expectativa. Según una encuesta reciente de McKinsey, el 77% de las empresas utilizan la IA o exploran su potencial. Sin embargo, a pesar de este alto nivel de adopción, el mismo informe encontró que menos del 20% de las organizaciones obtienen retornos financieros significativos de sus iniciativas de IA.

Esto no es sólo un problema tecnológico; Es un problema de estrategia empresarial. Las empresas deben pasar de implementar IA porque está de moda a implementar IA porque ofrece un valor mensurable. Eso significa alinear los proyectos de IA con los objetivos comerciales centrales, realizar un seguimiento de los indicadores clave de desempeño (KPI) y garantizar que cada dólar gastado en IA genere resultados significativos.

Las ventajas de la IA para el retorno de la inversión

La IA tiene un potencial increíble para generar retorno de la inversión cuando se utiliza estratégicamente. Primero, destaca en la automatización de tareas repetitivas. Por ejemplo, la automatización robótica de procesos (RPA) puede reducir la entrada manual de datos hasta en un 80 %, liberando a los empleados para que se concentren en trabajos de mayor valor. En segundo lugar, la IA proporciona conocimientos incomparables al analizar vastos conjuntos de datos que los humanos simplemente no podían procesar. En industrias como el comercio minorista y las finanzas, estos conocimientos se traducen directamente en una mejor toma de decisiones y mayores ingresos.

Otra gran ventaja es la personalización.

Los sistemas de inteligencia artificial como los utilizados por Netflix y Spotify aprovechan los algoritmos de recomendación para adaptar el contenido a los usuarios individuales. Esta personalización no sólo deleita a los clientes; impulsa la retención, una métrica crucial para las empresas basadas en suscripción.

Un estudio sitúa el coste de adquisición de clientes de Netflix en 88 dólares por suscriptor; Dado que se necesitan alrededor de seis meses de ingresos para recuperar esa inversión por cliente, evitar que los suscriptores se desconecten es probablemente la mayor prioridad estratégica para las empresas de streaming. Finalmente, la escalabilidad de la IA significa que puede crecer con su negocio, ofreciendo un retorno de la inversión constante a medida que evolucionan las necesidades.

Los contras: desafíos para lograr el retorno de la inversión en IA

Sin embargo, el camino hacia el retorno de la inversión en IA no está exento de obstáculos. Un desafío importante es el costo. Entrenar modelos avanzados como GPT-4 o ajustar algoritmos para casos de uso específicos requiere una inversión inicial sustancial. Si a eso le sumamos los gastos continuos de almacenamiento de datos, potencia de procesamiento y personal calificado, la barrera financiera se vuelve significativa, especialmente para las organizaciones más pequeñas.

Otra desventaja es la exageración. Muchas empresas implementan la IA sin una comprensión clara de lo que puede y no puede hacer. Las expectativas desalineadas conducen a la desilusión cuando los proyectos no logran resultados rápidos. Además, una IA mal implementada puede incluso perjudicar el retorno de la inversión (pensemos en los chatbots que frustran a los clientes o en los sistemas predictivos que refuerzan los sesgos y provocan daños a la reputación o multas por cumplimiento).

Finalmente, está el factor humano. Los empleados pueden resistirse a la adopción de la IA, temiendo el desplazamiento laboral o dudando de las capacidades de la tecnología. Sin una formación adecuada y una gestión del cambio, incluso los mejores sistemas de IA pueden no lograr ganar terreno dentro de una organización.

Ejemplos del mundo real de retorno de la inversión en IA

Entonces ¿quién lo está haciendo bien?

Hoy en día, la IA y el retorno de la inversión se parecen mucho a ese tema adolescente sobre el sexo: todo el mundo habla de ello, todo el mundo piensa que los demás lo están haciendo, pero pocos lo hacen realmente bien. Aquí hay algunos ejemplos de mi libro AI First, que tienen un retorno de la inversión real.

1. Mantenimiento predictivo impulsado por IA en General Electric (GE)

General Electric ha adoptado el análisis predictivo basado en IA para transformar sus operaciones de mantenimiento. Al monitorear grandes cantidades de datos de sus equipos industriales, los sistemas de GE predicen fallas antes de que ocurran, reduciendo el tiempo de inactividad no planificado en un 15%. Y esa es sólo una aplicación de la IA dentro del negocio.

2. Gestión de inventarios con IA en Zara

El enfoque de Zara hacia la IA en la gestión de inventarios está tan de moda como su ropa. Al analizar el comportamiento de los clientes, los patrones de ventas y las tendencias de las redes sociales, Zara predice con precisión qué artículos desaparecerán de las estanterías. Este almacenamiento inteligente garantiza que las tiendas se mantengan frescas y relevantes al tiempo que reduce el exceso de inventario y el desperdicio. ¿El resultado? Mayores ventas, clientes satisfechos y menor huella medioambiental. De hecho, según la revista CTO, el 69% de los minoristas informan un aumento en los ingresos anuales después de adoptar la IA, mientras que el 72% de los que ya la aprovechan han experimentado una reducción en los costos operativos.

3. IA conversacional en Bank of America

La asistente virtual de Bank of America, Erica, ha revolucionado el servicio al cliente. Desde su lanzamiento, Erica ha superado los 2 mil millones de interacciones y ha ayudado a 42 millones de clientes, abordando tareas como consultas de saldo, consejos presupuestarios e incluso pagos de facturas. Esta solución de IA no solo reduce la carga de trabajo de los agentes humanos del call center, sino que también mejora la satisfacción del cliente. Las ganancias de eficiencia y las reducciones de costos se traducen en un retorno de la inversión mensurable para el gigante bancario.

4. Optimización del rendimiento de los cultivos en John Deere

John Deere está sembrando las semillas del éxito impulsado por la IA con su Ver y rociar tecnología. Aprovechando la visión por computadora y el aprendizaje automático, este sistema detecta malezas con precisión milimétrica y aplica herbicidas solo donde es necesario. Los agricultores que utilizan esta solución han informado de un ahorro promedio del 59 % en costos de herbicidas. Al reducir el desperdicio y aumentar el rendimiento de los cultivos, John Deere demuestra cómo la IA puede cultivar un futuro sostenible y rentable para la agricultura.

5. Aprendizaje adaptativo de IA con Khan Academy

Khan Academy está recurriendo a la IA para personalizar la educación de estudiantes de todo el mundo. Su plataforma de aprendizaje impulsada por IA se adapta al ritmo y la comprensión de cada estudiante, ofreciendo ejercicios y comentarios personalizados. Este enfoque individualizado mantiene a los alumnos interesados, les ayuda a dominar conceptos de forma más eficaz y reduce la tasa de abandono. Para los educadores, el retorno de la inversión es claro: mejores resultados para los estudiantes y una forma escalable y eficiente de enseñar a millones de personas en todo el mundo.

IA descentralizada: una nueva frontera para el retorno de la inversión

Más allá de la IA tradicional, que normalmente vive “en la nube” utilizando recursos informáticos centralizados, la IA descentralizada está emergiendo como un elemento de cambio, particularmente en industrias donde la privacidad de los datos y la colaboración son clave.

Éstos son sólo algunos ejemplos de empresas que están abriendo nuevos caminos en su industria:

MELLODDY: Descubrimiento descentralizado de fármacos mediante IA

El proyecto MELLODDY, una colaboración entre empresas farmacéuticas como Novartis y Merck, junto con socios tecnológicos como NVIDIA y Owkin, utiliza IA descentralizada para acelerar el descubrimiento de fármacos. Al entrenar modelos con datos confidenciales sin compartirlos, MELLODDY preserva la privacidad y al mismo tiempo permite avances en la medicina. Este enfoque ha reducido los costos de I+D y ha acelerado el proceso de descubrimiento de fármacos, generando un retorno de la inversión claro para las empresas participantes.

Optimización energética con Energy Web

La Energy Web Foundation aprovecha la IA descentralizada para optimizar las redes energéticas. Al permitir el intercambio seguro de datos entre las partes interesadas, la plataforma mejora la eficiencia de la red y reduce los costos operativos. Esto no sólo respalda los objetivos de sostenibilidad, sino que también genera importantes beneficios financieros para los proveedores de energía.

Hacer que el ROI de la IA sea personal: por qué me importa

La conversación sobre el retorno de la inversión no es sólo un ejercicio académico para mí: es personal. He trabajado en proyectos de IA que tuvieron un éxito brillante, impulsando la eficiencia y el crecimiento de los ingresos. Pero también estuve involucrado en iniciativas que fracasaron porque no estaban vinculadas a las prioridades comerciales. Esas experiencias me enseñaron una dura lección: el retorno de la inversión no es sólo un número; es un reflejo de si su estrategia de IA se basa en el impacto en el mundo real.

También he visto de primera mano cómo la IA puede cambiar vidas cuando se implementa cuidadosamente. Por ejemplo, la IA en la atención sanitaria está permitiendo diagnósticos más tempranos y mejores resultados para los pacientes. No se trata sólo del dinero; se trata del valor que la IA aporta a las personas y las comunidades.

Comenzar de a poco y mostrar éxito es realmente el camino a seguir. Las empresas que aprovechan la IA deben comenzar con proyectos enfocados y de alto impacto para demostrar valor rápidamente y generar confianza entre los equipos. Al demostrar un retorno de la inversión medible en iniciativas más pequeñas, las empresas pueden asegurar la aceptación de implementaciones de IA más grandes y ambiciosas. Este enfoque reduce el riesgo, garantiza ganancias tempranas y establece una base sólida para escalar las soluciones de IA.

El futuro del retorno de la inversión en IA

A medida que la tecnología de IA siga evolucionando, la conversación sobre el retorno de la inversión se volverá aún más crítica. La IA generativa, por ejemplo, ofrece un enorme potencial para la creación de contenidos, el diseño de productos y más. Pero para justificar sus costos, las empresas deben garantizar que estas herramientas brinden beneficios mensurables, ya sea en términos de ahorro de tiempo, compromiso del cliente o crecimiento de los ingresos.

La IA descentralizada también es prometedora para industrias como la atención médica, la energía y las finanzas. Al permitir la colaboración sin comprometer la privacidad de los datos, ofrece un camino hacia la innovación que es a la vez ético y rentable.

Hacer del ROI de la IA su prioridad

El mensaje es claro: la IA ya no se trata sólo de innovación; se trata de resultados. Las empresas que puedan demostrar un claro retorno de la inversión (ROI) de sus iniciativas de IA liderarán el camino y establecerán puntos de referencia a seguir por otros. Ya sea mediante mantenimiento predictivo, personalización o aprovechando el superpoder de la IA descentralizada para preservar la privacidad, la clave es alinear la tecnología con los objetivos comerciales y realizar un seguimiento riguroso de los resultados.

A medida que avanzamos, recordemos que la IA no es una solución mágica: es una herramienta. Y como toda herramienta, su valor depende del uso que le demos. Al centrarnos en el ROI, podemos garantizar que la IA no sólo sea emocionante sino también transformadora. Después de todo, en el acelerado mundo actual, ofrecer valor mensurable no sólo es importante: es esencial.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

OpenAI Can Stop Pretending – The Atlantic

Published

on

OpenAI is a strange company for strange times. Valued at $300 billion—roughly the same as seven Fords or one and a half PepsiCos—the AI start-up has an era-defining product in ChatGPT and is racing to be the first to build superintelligent machines. The company is also, to the apparent frustration of its CEO Sam Altman, beholden to its nonprofit status.

When OpenAI was founded in 2015, it was meant to be a research lab that would work toward the goal of AI that is “safe” and “benefits all of humanity.” There wasn’t supposed to be any pressure—or desire, really—to make money. Later, in 2019, OpenAI created a for-profit subsidiary to better attract investors—the types of people who might otherwise turn to the less scrupulous corporations that dot Silicon Valley. But even then, that part of the organization was under the nonprofit side’s control. At the time, it had released no consumer products and capped how much money its investors could make.

Then came ChatGPT. OpenAI’s leadership had intended for the bot to provide insight into how people would use AI without any particular hope for widespread adoption. But ChatGPT became a hit, kicking “off a growth curve like nothing we have ever seen,” as Altman wrote in an essay this past January. The product was so alluring that the entire tech industry seemed to pivot overnight into an AI arms race. Now, two and a half years since the chatbot’s release, Altman says some half a billion people use the program each week, and he is chasing that success with new features and products—for shopping, coding, health care, finance, and seemingly any other industry imaginable. OpenAI is behaving like a typical business, because its rivals are typical businesses, and massive ones at that: Google and Meta, among others.

Now 2015 feels like a very long time ago, and the charitable origins have turned into a ball and chain for OpenAI. Last December, after facing concerns from potential investors that pouring money into the company wouldn’t pay off because of the nonprofit mission and complicated governance structure, the organization announced plans to change that: OpenAI was seeking to transition to a for-profit. The company argued that this was necessary to meet the tremendous costs of building advanced AI models. A nonprofit arm would still exist, though it would separately pursue “charitable initiatives”—and it would not have any say over the actions of the for-profit, which would convert into a public-benefit corporation, or PBC. Corporate backers appeared satisfied: In March, the Japanese firm Softbank conditioned billions of dollars in investments on OpenAI changing its structure.

Resistance came as swiftly as the new funding. Elon Musk—a co-founder of OpenAI who has since created his own rival firm, xAI, and seems to take every opportunity to undermine Altman—wrote on X that OpenAI “was funded as an open source, nonprofit, but has become a closed source, profit-maximizer.” He had already sued the company for abandoning its founding mission in favor of financial gain, and claimed that the December proposal was further proof. Many unlikely allies emerged soon after. Attorneys general in multiple states, nonprofit groups, former OpenAI employees, outside AI experts, economists, lawyers, and three Nobel laureates all have raised concerns about the pivot, even petitioning to submit briefs to Musk’s lawsuit.

OpenAI backtracked, announcing a new plan earlier this month that would have the nonprofit remain in charge. Steve Sharpe, a spokesperson for OpenAI, told me over email that the new proposed structure “puts us on the best path to” build a technology “that could become one of the most powerful and beneficial tools in human history.” (The Atlantic entered into a corporate partnership with OpenAI in 2024.)

Yet OpenAI’s pursuit of industry-wide dominance shows no real signs of having hit a roadblock. The company has a close relationship with the Trump administration and is leading perhaps the biggest AI infrastructure buildout in history. Just this month, OpenAI announced a partnership with the United Arab Emirates and an expansion into personal gadgets—a forthcoming “family of devices” developed with Jony Ive, former chief design officer at Apple. For-profit or not, the future of AI still appears to be very much in Altman’s hands.


Why all the worry about corporate structure anyway? Governance, boardroom processes, legal arcana—these things are not what sci-fi dreams are made of. Yet those concerned with the societal dangers that generative AI, and thus OpenAI, pose feel these matters are of profound importance. The still more powerful artificial “general” intelligence, or AGI, that OpenAI and its competitors are chasing could theoretically cause mass unemployment, worsen the spread of misinformation, and violate all sorts of privacy laws. In the highest-flung doomsday scenarios, the technology brings about civilizational collapse. Altman has expressed these concerns himself—and so OpenAI’s 2019 structure, which gave the nonprofit final say over the for-profit’s actions, was meant to guide the company toward building the technology responsibly instead of rushing to release new AI products, sell subscriptions, and stay ahead of competitors.

“OpenAI’s nonprofit mission, together with the legal structures committing it to that mission, were a big part of my decision to join and remain at the company,” Jacob Hilton, a former OpenAI employee who contributed to ChatGPT, among other projects, told me. In April, Hilton and a number of his former colleagues, represented by the Harvard law professor Lawrence Lessig, wrote a letter to the court hearing Musk’s lawsuit, arguing that a large part of OpenAI’s success depended on its commitment to safety and the benefit of humanity. To renege on, or at least minimize, that mission was a betrayal.

The concerns extend well beyond former employees. Geoffrey Hinton, a computer scientist at the University of Toronto who last year received a Nobel Prize for his AI research, told me that OpenAI’s original structure would better help “prevent a super intelligent AI from ever wanting to take over.” Hinton is one of the Nobel laureates who has publicly opposed the tech company’s for-profit shift, alongside the economists Joseph Stiglitz and Oliver Hart. The three academics, joining a number of influential lawyers, economists, and AI experts, in addition to several former OpenAI employees, including Hilton, signed an open letter in April urging the attorneys general in Delaware and California—where the company’s nonprofit was incorporated and where the company is headquartered, respectively—to closely investigate the December proposal. According to its most recent tax filing, OpenAI is intended to build AGI “that safely benefits humanity, unconstrained by a need to generate financial return,” so disempowering the nonprofit seemed, to the signatories, self-evidently contradictory.

Read: ‘We’re definitely going to build a bunker before we release AGI’

In its initial proposal to transition to a for-profit, OpenAI still would have had some accountability as a public-benefit corporation: A PBC legally has to try to make profits for shareholders alongside pursuing a designated “public benefit” (in this case, building “safe” and “beneficial” AI as outlined in OpenAI’s founding mission). In its December announcement, OpenAI described the restructure as “the next step in our mission.” But Michael Dorff, another signatory to the open letter and a law professor at UCLA who studies public-benefit corporations, explained to me that PBCs aren’t necessarily an effective way to bring about public good. “They are not great enforcement tools,” he said—they can “nudge” a company toward a given cause but do not give regulators much authority over that commitment. (Anthropic and xAI, two of OpenAI’s main competitors, are also public-benefit corporations.)

OpenAI’s proposed conversion also raised a whole other issue—a precedent for taking resources accrued under charitable intentions and repurposing them for profitable pursuits. And so yet another coalition, composed of nonprofits and advocacy groups, wrote its own petition for OpenAI’s plans to be investigated, with the aim of preventing charitable organizations from being leveraged for financial gain in the future.

Regulators, it turned out, were already watching. Three days after OpenAI’s December announcement of the plans to revoke nonprofit oversight, Kathy Jennings, the attorney general of Delaware, notified the court presiding over Musk’s lawsuit that her office was reviewing the proposed restructure to ensure that the corporation was fulfilling its charitable interest to build AI that benefits all of humanity. California’s attorney general, Rob Bonta, was reviewing the restructure, as well.

This ultimately led OpenAI to change plans. “We made the decision for the nonprofit to stay in control after hearing from civic leaders and having discussions with the offices of the Attorneys General of California and Delaware,” Altman wrote in a letter to OpenAI employees earlier this month. The for-profit, meanwhile, will still transition to a PBC.

The new plan is not yet a done deal: The offices of the attorneys general told me that they are reviewing the new proposal. Microsoft, OpenAI’s closest corporate partner, has not yet agreed to the new structure.


One could be forgiven for wondering what all the drama is for. Amid tension over OpenAI’s corporate structure, the organization’s corporate development hasn’t so much as flinched. In just the past few weeks, the company has announced a new CEO of applications, someone to directly oversee and expand business operations; OpenAI for Countries, an initiative focused on building AI infrastructure around the world; and Codex, a powerful AI “agent” that does coding tasks. To OpenAI, these endeavors legitimately contribute to benefiting humanity: building more and more useful AI tools; bringing those tools and the necessary infrastructure to run them to people around the world; drastically increasing the productivity of software engineers. No matter OpenAI’s ultimate aims, in a race against Google and Meta, some commercial moves are necessary to stay ahead. And enriching OpenAI’s investors and improving people’s lives are not necessarily mutually exclusive.

The greater issue is this: There is no universal definition for “safe” or “beneficial” AI. A chatbot might help doctors process paperwork faster and help a student float through high school without learning a thing; an AI research assistant could help climate scientists arrive at novel insights while also consuming huge amounts of water and fossil fuels. Whatever definition OpenAI applies will be largely determined by its board. Altman, in his May letter to employees, contended that OpenAI is on the best path “to continue to make rapid, safe progress and to put great AI in the hands of everyone.” But everyone, in this case, has to trust OpenAI’s definition of safe progress.

The nonprofit has not always been the most effective check on the company. In 2023, the nonprofit board—which then and now had “control” over the for-profit subsidiary—removed Altman from his position as CEO. But the company’s employees revolted, and he was reinstated shortly thereafter with the support of Microsoft. In other words, “control” on paper does not always amount to much in reality. Sharpe, the OpenAI spokesperson, said the nonprofit will be able to appoint and remove directors to OpenAI’s separate for-profit board, but declined to clarify whether its board will be able to remove executives (such as the CEO). The company is “continuing to work through the specific governance mandate in consultation with relevant stakeholders,” he said.

Sharpe also told me that OpenAI will remove the cap on shareholder returns, which he said will satisfy the conditions for SoftBank’s billions of dollars in investment. A top SoftBank executive has said “nothing has really changed” with OpenAI’s restructure, despite the nonprofit retaining control. If investors are now satisfied, the underlying legal structure is irrelevant. Marc Toberoff, a lawyer representing Musk in his lawsuit against OpenAI, wrote in a statement that “SoftBank pulled back the curtain on OpenAI’s corporate theater and said the quiet part out loud. OpenAI’s recent ‘restructuring’ proposal is nothing but window dressing.”

Lessig, the lawyer who represented the former OpenAI employees, told me that “it’s outrageous that we are allowing the development of this potentially catastrophic technology with nobody at any level doing any effective oversight of it.” Two years ago, Altman, in Senate testimony, seemed to agree with that notion: He told lawmakers that “regulatory intervention by governments will be critical to mitigate the risks” of powerful AI. But earlier this month, only a few days after writing to his employees and investors that “as AI accelerates, our commitment to safety grows stronger,” he told the Senate something else: Too much regulation would be “disastrous” for America’s AI industry. Perhaps—but it might also be in the best interests of humanity.

Continue Reading

Noticias

Los Arkansanos centrales que adoptan herramientas de IA como ChatGPT, pero citan preocupaciones ambientales y de precisión | La gazette demócrata de Arkansas

Published

on

El futuro es ahora. Los vehículos autónomos están llevando a las personas a casa después de la noche, los robots humanoides pronto pueden estar doblando la ropa, y compañías como la IA abierta han hecho que la inteligencia artificial sea accesible para casi cualquier persona con conexión a Internet.

Reuters informó que los usuarios activos semanales de OpenAI superaron a los 400 millones en febrero, y un estudio del Centro de Investigación Pew publicado en enero encontró que el 26% de los adolescentes usaban ChatGPT para el trabajo escolar en 2024, frente al 13% del año anterior.

Si bien las críticas a la inteligencia artificial, como su impacto negativo en el medio ambiente y el pensamiento crítico, han circulado en línea y en conversaciones en la mesa de la cena, parece que la IA generativa está aquí para quedarse.

Operai, Inc., una organización de inteligencia artificial con sede en San Francisco, lanzó el chatgpt al público en noviembre de 2022. Este chatbot es un tipo de inteligencia artificial que está capacitada para comprender y generar texto.

Christine Keene, de 58 años, que trabaja como escritora de contenido en la compañía de desarrollo de software con sede en Cincinnati, Paycor, dice que comenzó a usar ChatGPT solo tres semanas después de su lanzamiento y ahora lo usa junto con otros chatbots de IA generativos como Claude y Gemini para completar tareas laborales todos los días.

Antes de la IA generativa, Keene dijo que le tomaría alrededor de dos semanas completar un estudio de caso del cliente. Ahora le toma tres horas.

“La evolución de ChatGPT por sí sola ha sido notable”, dijo en una entrevista telefónica a principios de este mes. “Ha pasado desde que solo conecta un mensaje simple y escupe lo que sea que sea real, ahora, en realidad puede buscar en vivo Internet y mostrar su proceso de pensamiento”.

Desde 2022, OpenAI ha lanzado varias iteraciones de ChatGPT, y las características adicionales, como el modo de chat de voz y el análisis de imágenes, han ampliado sus capacidades.

A pesar de estos avances, Keene dijo que todavía practica precaución al usar el chatbot. Ella verifica las respuestas generadas ejecutando documentos por parte del departamento legal y de cumplimiento de su empresa.

“Esa es una de mis grandes cosas es que nunca tomas nada que te dé al pie de la letra”, dijo. “Es su responsabilidad como usuario verificarlo”.

Keene fue una de las 54 personas, de 16 a 58 años, que respondió a una encuesta de Arkansas Democrat-Gazette sobre cómo y por qué los Arkansanos centrales usan ChatGPT y otros chatbots. De los 54 encuestados, el 81.5 % dijo que usan chatbots, mientras que el 18.5 % ha optado por no usarlos en absoluto.

Facilita la vida

Varios encuestados elogiaron a los chatbots por su conveniencia, velocidad y la simplicidad de las respuestas generadas.

“(It) hace que mi vida cotidiana sea más fácil”, dijo Ben Wood, un residente de Little Rock de 35 años que usa Chatgpt, Grok y Gemini varias veces al día. “(Lo uso) para) cualquier cosa, desde la asignación de cartera, respuestas médicas, resumen de artículos, etc.”

Kate Lawson, una joven de 30 años de Little Rock, dijo que usa ChatGPT varias veces al día como “tipo de asistente todo en uno, terapeuta y socio creativo”. Law dijo que lo usa para escribir correos electrónicos, organizar sus pensamientos o incluso procesar emociones.

“Es como tener un segundo cerebro de apoyo y sin juicio que me ayuda a navegar en la enseñanza, la escuela de posgrado y la vida en general”, dijo.

Miedos, dudas y preocupaciones ambientales

Si bien ChatGPT ayuda a los usuarios con una variedad de tareas, el 66% de los encuestados dijeron que tenían temores y dudas en torno al uso, citando el impacto ambiental e inexactitud en particular.

Carsyn Cann, de 24 años, dijo que ocasionalmente usará ChatGPT para resumir un largo comunicado de prensa o artículo, pero duda en usarlo debido a “preocupaciones ambientales sobre el funcionamiento de los centros de datos, el efecto negativo que tiene en nuestro sistema educativo y cómo a menudo puede dar información incorrecta”.

Quinn Schach, de 25 años, de Little Rock, que utiliza principalmente ChatGPT para obtener ayuda con las tareas laborales y escolares, dijo: “Creo que los problemas conservacionistas son preocupantes, a saber, la cantidad de agua que supuestamente se está utilizando para alimentar el sistema. En realidad no he considerado tanto, pero parece preocupante si de hecho es cierto”.

En los últimos años, los gigantes tecnológicos como Meta y Google han acudido a los estados de Sun Belt para construir centros de datos en parte debido a costos de electricidad relativamente económicos. Estas instalaciones, que respaldan la capacitación y operación de modelos de idiomas como ChatGPT, consumen cantidades significativas de recursos ambientales limitados, como el agua y la electricidad.

Según el Departamento de Energía de los EE. UU., Los centros de datos del sitio web son “uno de los tipos de construcción más intensivos en energía, que consume de 10 a 50 veces la energía por espacio de piso de una oficina comercial típica”.

Un informe del Departamento de Energía de los Estados Unidos publicado a fines del año pasado proyectó que, para 2028, los centros de datos podrían consumir doble o incluso triplicar su participación actual del total de electricidad de los Estados Unidos, impulsadas en gran medida por las crecientes demandas de energía de la inteligencia artificial.

Además del alto consumo de energía, los centros de datos requieren cantidades sustanciales de agua, algunos utilizando entre 1 y 5 millones de galones por día, informó el Washington Post. Según un informe ambiental de 2023 de Google, la compañía utilizó 5.6 mil millones de galones de agua a nivel mundial en 2022, con 5.2 mil millones de galones dedicados exclusivamente a las operaciones de centros de datos.

Dos encuestados, ambas mujeres de 26 años, dijeron que eligen no usar ChatGPT debido a su impacto negativo en el medio ambiente.

Información inexacta

Aunque usa ChatGPT de una a tres veces por semana, Scott Banks, residente de Little Rock, de 35 años, dijo que teme las consecuencias del uso generalizado.

“Me preocupa que las personas más jóvenes, especialmente los estudiantes en la escuela secundaria, sean demasiado en CHATGPT y que las habilidades de escritura que son necesarias para tener una educación completa se atrofiarán. Del mismo modo, me preocupa que las personas mayores, especialmente aquellas que no están familiarizadas con la tecnología, no se den cuenta de que el CHATGPT es solo un modelo de lenguaje y en realidad no” conocen “. Pueden lidiar demasiado y no darse cuenta de que les da falsas o que sean falsas o en la información precisa”. “.

Frank McCown, presidente de informática de la Universidad de Harding, dijo: “Definitivamente quiero que mis alumnos sepan cómo usar herramientas de IA, pero también saben dónde están bastante limitados”.

Al estructurar sus clases de codificación, dijo que alienta a los estudiantes a tener una comprensión fundamental de los programas antes de alentarlos, más adelante en el semestre, a usar herramientas de IA para aumentar la eficiencia en las tareas. De esta manera, dijo, pueden criticar los resultados generados para la precisión.

“De hecho, intentaremos usar la IA para escribir algunos programas, y señalaremos cómo cometió errores o realmente no eligió una buena metodología … o cómo realmente produjo la respuesta incorrecta”, dijo McCown.

Drew Fowler, de 24 años, estudiante de medicina de primer año en las ciencias médicas de la Universidad de Arkansas, dijo que usa ChatGPT varias veces a la semana para ayudar con su trabajo escolar generando preguntas de práctica basadas en diapositivas. También lo ayuda a romper temas complicados.

“Y esta semana lo usé y me vinculó a algunos artículos y revistas que fueron útiles para lo que íbamos a pasar. Por lo tanto, fue una especie de buena herramienta de búsqueda, aparte de los motores de búsqueda de Google y Bing”, dijo Fowler en una entrevista de seguimiento a principios de este mes.

Sin embargo, el estudiante de Med descubrió que el chatbot no siempre es preciso y puede presentar información falsa con confianza.

Una vez, después de pedirle a ChatGPT que identifique una sección transversal de un cerebro basada en una imagen, Fowler dijo que el chatbot continuó identificando erróneamente la parte del cerebro que se muestra incluso cuando intentó retroceder.

“Simplemente se duplicó y me dijo que la respuesta incorrecta era correcta … pero supongo que tuvo más problemas para leer fotos e imágenes”, dijo Fowler.

Instancias como estas han hecho que Fowler use el chatbot más como una herramienta de detección que una fuente de información final.

“Me gusta salir de la confianza pero verificar el método. Así que confío en que me está dando la respuesta correcta, pero definitivamente trato de encontrar una fuente secundaria que pueda verificar para obtener mucha información”, dijo.

Y Fowler no está solo en esta experiencia. Un análisis de 2024 realizado por investigadores de la Universidad de Purdue encontró que el 52% de las respuestas de ChatGPT contienen información incorrecta.

Algunos encuestados también cuestionaron su capacidad para proporcionar comentarios útiles.

“A veces parece darme un pulgar en el trabajo que sé que necesita más mejora. No es súper honesto”, dijo Halina Hunt, de 21 años.

McCown dijo que sus alumnos habían expresado su preocupación en torno a los chatbots que plagan el trabajo de los demás, ya que está capacitado utilizando un amplio conjunto de datos que incluye la propiedad intelectual de los demás.

“No me gusta que la idea de que OpenAi se le permita robar las obras protegidas por derechos de autor de autores y editores para capacitar a su chatbot. Debería ser ilegal, si de alguna manera no está ya”, un estudiante de Harding de 19 años que elige no usar ChatGPT escribió en su respuesta de encuestas.

Pero la mayoría de los encuestados dijo que ChatGPT se ha vuelto indispensable para ellos.

El profesor de la Universidad de Harding, Joe Faith, dijo que usa IA generativa con frecuencia para hacer una lluvia de ideas de ideas de proyectos para sus alumnos, depurar un código delicado o crear imágenes personalizadas para las presentaciones. La licenciatura de la universidad en inteligencia artificial, la creación de Faith, comenzará en el otoño.

“Una de las grandes luchas con la enseñanza es que estás buscando imágenes para ayudar a mostrar ideas, pero a veces no hay una imagen que coincida exactamente con lo que estás buscando. Pero, con IA, puedo tener libertad creativa. Puedo crear una imagen que parezca exactamente como quiero”, dijo.

Faith también usa la magia creativa de la IA para generar imágenes de sí mismo en diferentes formas, desde Muppet hasta crochet Doll, para una serie que publica en su cuenta de LinkedIn.

“Hago estas cosas divertidas como esa, solo para mostrarle a la gente algunos de los lados más suaves de [AI]”Él dijo.” No todo es serio todo el tiempo “.

Continue Reading

Noticias

¿Por qué son tan confusos los nombres de los chatgpt? GPT 4O, O3, 4.1 mini y más explicado

Published

on

Si alguna vez has abierto chatgpt y te has sentido desconcertado por la sopa del alfabeto de los nombres de los modelos, como GPT-4O, O3, O4-Mini, no estás solo.

Openai (la compañía detrás de ChatGPT) no lo hace exactamente fácil con sus convenciones de nombres. Pero comprender cuáles son estos modelos, qué pueden hacer y cómo acceder a ellos puede ayudarlo a aprovechar al máximo Chatgpt

Continue Reading

Trending