Connect with us

Noticias

CHATGPT-4 para abordar las preguntas frecuentes centradas en el paciente en la práctica clínica de degeneración macular relacionada con la edad

Published

on

Un grupo diverso de médicos oculares evaluó las respuestas de ChatGPT-4 a preguntas frecuentes sobre AMD como coherente, objetiva, integral y segura. El dominio de coherencia se evaluó más alto, seguido de seguridad, realidad y amplitud. Si bien las puntuaciones Likert fueron generalmente agradables a nivel de grupo, las calificaciones de los evaluadores fueron variables, con más de la mitad de las preguntas que obtuvieron una puntuación inferior a 4 dentro de los dominios de hecho e integridad. Los comentarios de texto libre identificaron áreas de déficit, y un número sustancial de preguntas obtenidas por debajo de un nivel de “acuerdo” en los dominios de calidad clave, especialmente con respecto a la realidad, la especificidad y la aplicabilidad de la información, y su contextualización.

Rendimiento de ChatGPT-4 al responder a las preguntas frecuentes en AMD

Ferro Desideri et al. [15] Comparó los tres LLM en responder asesoramiento médico general (15 preguntas) y consejos relacionados con inyecciones intravítreas (13 preguntas) para AMD y utilizaron tres especialistas en Retina para evaluar su precisión y suficiencia (amplitud). Específico para el rendimiento de ChatGPT, los autores encontraron que las respuestas de 12/15 a las preguntas generales de asesoramiento médico se consideraron precisas y suficientes, y las otras tres respuestas fueron parcialmente precisas y suficientes. Para las preguntas relacionadas con las inyecciones intravítreas, las respuestas 10/13 se consideraron precisas y suficientes, y tres fueron parcialmente precisas y suficientes. Estos resultados sugirieron una visión optimista de las respuestas LLM. Sin embargo, su estudio no informó sobre qué características de las respuestas se consideraron solo parcialmente precisas. Además, aunque los autores informaron un alto nivel de suficiencia de las respuestas (análogos a la amplitud en nuestro trabajo actual), nuestros resultados demostraron calificaciones más bajas en este dominio de calidad. El enfoque metodológico también difería, ya que nuestro estudio utilizó una escala Likert, que proporciona más granularidad que su calificación descriptiva trinarizada. Como se indica en los métodos, una escala de 5 puntos permite la expresión de puntos de vista más “extremos” y opiniones más templadas (y, por lo tanto, granularidad), en relación con una escala de 3 puntos, al tiempo que mantiene una mayor eficiencia y una confiabilidad de prueba potencialmente mejor en comparación con escalas más grandes, como una escala de 10 puntos, como una escala de 10 puntos, como una escala de 10 puntos [20].

Cheong et al. [16] Evaluó las respuestas de varios chatbots, incluido el chatgpt-4, con las preguntas relacionadas con la mácula y la retina. Tres especialistas en la retina capacitados en becas evaluaron las respuestas de chatbot utilizando una escala Likert de 3 puntos (0–2) y resumieron los puntajes en los grados para reflejar un enfoque de consenso para la evaluación. Descubrieron que el 83.3% de las respuestas de ChatGPT-4 a las preguntas de AMD eran “buenas” (su calificación más alta), sin ninguna de las respuestas consideradas “pobres” (su calificación más baja). ChatGPT-4 (y 3.5) superó a los otros chatbots en el estudio, y los autores concluyeron que son potencialmente capaces de responder preguntas relacionadas con enfermedades retinianas, como la AMD. Diferencias entre nuestro presente estudio y el trabajo de Cheong et al. [16] incluyó el alcance de las preguntas y el método de clasificación. Su lista de preguntas de AMD se relacionó principalmente temáticamente con el tratamiento y el asesoramiento asociado, como las vitaminas y los procesos relacionados con las inyecciones intravítreas, con algunas preguntas altamente específicas (como una pregunta relacionada con verteporfina (Visudyne, Bausch y Lomb, Ontario, Canadá) y Ranibizumab (Lucentis, novartis AG, Basel, suiza); no es probable que el Chatbot, no sea el Chatbot, lo que usa el Chatbot, lo que usa el Chatbot. término). Si bien su enfoque de consenso fue útil para obtener una impresión general de calidad, no facilitó el análisis de la variabilidad entre los calificadores.

Muntean et al. [17] realizó un estudio que comparó las respuestas de ChatGPT-4, Palm2 y tres oftalmólogos con preguntas de escenario específicas, incorporando una viñeta de fondo (como la que Asker de la pregunta es un paciente con AMD) que puede ser relevante para formular el resultado. Utilizando estas permutaciones, los autores analizaron los resultados de 133 preguntas a lo largo de seis ejes de calidad, algunos de los cuales se superpusieron con nuestros dominios de calidad. Utilizando dos revisores de oftalmólogos, los autores informaron resultados muy positivos para las respuestas de ChatGPT 4, con el 88-100% de las respuestas que obtuvieron una puntuación perfecta de 5 (en una escala Likert de 5 puntos) que fueron más altas en comparación con nuestros resultados. Las diferencias clave entre su metodología y el presente estudio podrían explicar las diferencias en los resultados. Una diferencia fue la amplitud del sistema y el usuario indica la entrada de Muntean et al. [17]que incluye varias advertencias importantes, dos de las cuales fueron para preguntarle al chatbot para explicar por qué una pregunta puede no tener sentido en lugar de responder una pregunta confusa o incorrecta, y no compartir información falsa si el chatbot no sabe la respuesta. Hubo muchos casos en el presente estudio en los que la información no era precisa o relevante para la pregunta, lo que podría abordarse mediante la inclusión de estas indicaciones. Prefañar y contextualizar la pregunta podría ayudar a proporcionar asesoramiento más relevante y seguro en las respuestas. A pesar del optimismo en la mayoría de los dominios de calidad, Muntean et al. [17] También resalte los déficits relacionados con las respuestas en términos de su reflejo del consenso clínico y científico (es decir, el conocimiento médico contemporáneo y correcto) y no falta información importante, similar a las críticas planteadas en nuestros resultados.

En general, la literatura previa relacionada con el uso de chatbot en AMD ha sido principalmente positiva, especialmente con respecto a la precisión y la integridad de las respuestas. Sin embargo, nuestro estudio fue relativamente menos positivo, posiblemente debido a una mayor diversidad de calificadores, una gama más amplia de preguntas y el uso de una escala Likert de 5 puntos en más dominios de calidad. Como era de esperar, si bien la coherencia era el dominio mejor calificado, su importancia es posiblemente menor que la de seguridad y realidad, ya que estos reflejan los riesgos potenciales para la comunidad con el uso de chatbot no supervisado.

Variabilidad en las evaluaciones entre evaluadores y por grupo profesional

El equipo diverso de evaluadores en el presente estudio indica que la precisión o utilidad de los chatbots puede diferir dependiendo del entorno clínico y la base de pacientes. Por ejemplo, las prácticas optométricas generales tienen más probabilidades de ver a los pacientes en riesgo de AMD o con etapas anteriores de AMD. Por el contrario, las clínicas de oftalmología especializadas tienen más probabilidades de ver pacientes con etapas más avanzadas de AMD y aquellos que requieren tratamientos, como inyecciones intravítreas. Otros servicios específicos, como clínicas de baja visión y configuraciones de atención colaborativa, también pueden afectar la base de pacientes y la información esperada del chatbot [22, 23].

El grupo optometrista devolvió clasificaciones más bajas en comparación con el grupo de oftalmólogo. Una explicación para esto puede ser la actitud más conservadora del grupo optometrista, que comprendía a los médicos que trabajan en un entorno principalmente académico. Las críticas relacionadas con la integridad de las respuestas de chatbot pueden reflejar un hábito profesional de cubrir más información y contenido, dado más tiempo de asistencia por parte del grupo profesional. El entorno clínico académico puede reflejar una actitud más crítica del grupo optometrista en el presente estudio, buscando un lenguaje más preciso con respecto a los resultados de chatbot.

Otra explicación es la posible heterogeneidad entre todos los evaluadores, y la aceptabilidad de diferentes niveles de precisión de las declaraciones de chatbot. Aunque existen pautas para el cuidado de pacientes con AMD [24,25,26]las diferencias a nivel profesional también pueden inyectar sesgos en la interpretación de las salidas de chatbot. A pesar de las pautas autorizadas, también se sabe que el consenso sobre las declaraciones sobre la AMD y entre las profesiones puede ser difícil de lograr, debido a la amplia heterogeneidad de las prácticas clínicas y la presentación del paciente. [27].

Separar dominios de calidad en la evaluación de las respuestas de chatbot

Se esperaba la coherencia que se calificó más alto, dada la naturaleza de la tecnología LLM Chatbot [28]. Este dominio de la calidad de respuesta de chatbot tiende a estar altamente calificado dentro de la literatura en muchos campos. Un problema notable fue la falta de citas en algunas de las respuestas. [29].

En cuanto a la seguridad, una característica de muchas de las respuestas fueron recomendaciones para buscar asesoramiento experto de un profesional de la atención. Esto fue particularmente importante para las preguntas temáticas del tratamiento. Sin embargo, varias preguntas fueron calificadas de manera pobre en seguridad por otras razones, especialmente debido a los malos consejos sobre pruebas o intervenciones innecesarias. Un ejemplo que fue criticado repetidamente fueron las pruebas genéticas, que, en el momento del estudio, no es una prueba clínica de rutina para AMD [30].

La fáctica también tenía muchas preguntas con calificaciones subóptimas. Un problema planteado por Muntean et al. [17] fue el papel de las indicaciones del sistema para garantizar una respuesta apropiada, y las respuestas a nuestro enfoque destacaron aún más fallas de prominencia de la información. Varias de las respuestas de chatbot pueden haber sido estrictamente ciertas, pero estaban muy alejadas de la práctica clínica rutinaria, y la falta de priorización de información importante significaba que los hechos no estaban representados con precisión.

El problema de la prominencia de la información también se reflejó en puntajes de baja integridad. Las respuestas de chatbot a veces incluirían información de nicho, como ayudas de baja visión y telescopios. Muntean et al. [17] Intentó evitar esta limitación agregando el escenario de un paciente para prefacionar la pregunta. Sin embargo, nuevamente, un laico que usa la tecnología LLM puede no tener la experiencia para agregar esta información para optimizar la respuesta. Una limitación de los LLM previamente capacitados es la información potencial anticuada, donde las tecnologías y tratamientos emergentes no pueden incluirse en las respuestas.

Limitaciones

Hemos descrito previamente las limitaciones del enfoque de calificación subjetiva para evaluar las respuestas de LLM [18]. Las combinaciones de Likert de múltiples puntos u otras escalas granulares y tener más alumnos pueden ayudar a superar los datos subjetivos sesgados. Aunque las escalas Likert de 5 puntos son más granulares que las escalas trinarias, todavía existe el potencial de los efectos de techo o piso [31]. Esto se vio con muchas de las preguntas con un puntaje de 4 o más. Los estudios de esta naturaleza también carecen de una verdad fundamental, en lugar de depender de la validez determinada por los expertos. Los estándares de referencia están disponibles al comparar diferentes LLM o resultados expertos generados por humanos, pero también tienen problemas con la subjetividad.

Nuestra lista de preguntas fue comisariada de varias fuentes autorizadas y, en gran parte, se simplificó para fines de brevedad. Como se describió anteriormente, cómo se ingresan las preguntas en los chatbots pueden contribuir a la generación de respuesta. Nuestro objetivo era mantener las preguntas simples y amplias. Los estudios futuros con más granularidad podrían proporcionar más información.

Finalmente, comprender más a fondo la implementación clínica requeriría la entrada del usuario final, como los pacientes en riesgo o que tienen AMD. Junto con una mayor consulta de partes interesadas, existen desafíos éticos bien documentados que ocurren en paralelo a los problemas clínicos de precisión, con muchas preocupaciones como la privacidad y la seguridad, la propiedad intelectual, la transparencia y la responsabilidad, el sesgo y la explicabilidad, entre otros [32]. Esta es otra consideración para los médicos antes del despliegue generalizado.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Lo que significa para los padres

Published

on

Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.

En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.

Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.

Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres

Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.

Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.

¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes

Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.

Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.

La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.

Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.

Géminis AI y derechos de los niños: lo que dicen las advertencias

Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños? Nos recuerda que los riesgos reales son paralelos al potencial de IA.

Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.

El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.

El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.

El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.

La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.

También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.

Lo que los padres pueden (y no) controlar con Géminis Ai

Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.

El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.

Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.

Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.

Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.

La carga de IA para los padres: ¿Quién está realmente a cargo?

La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.

Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.

Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.

Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.

Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.

Continue Reading

Noticias

La función de ‘lienzo’ de Gemini es sorprendentemente excelente para el procesamiento y la codificación de textos

Published

on


AI no viene a tu trabajo. Probablemente? Mira, es complicado. Y cualquiera que haya jugado con un chatbot probablemente se haya preguntado “,Este ¿Es con qué quieren reemplazar a un humano? “Es una preocupación válida, porque los chatbots de IA generativos como Géminis de Google no son muy útiles. Para mi sorpresa, sin embargo, la función de lona de Gemini puede ser.

Diré por adelantado, voy a esto como un escéptico de IA generativopero tampoco soy un doomer de IA. Hay algunas situaciones, como Creación de texto alternativo para imágenes para aumentar la accesibilidad-Donde las herramientas basadas en AI pueden ser útiles. Prefiero encontrar dónde las herramientas pueden ser realmente útiles e ignorar el ruido. Con ese fin, el lienzo de Géminis es lo único que hace que Gemini sea realmente útil para mí. En lugar de solo pedirle a una IA que me escriba, me da un espacio de trabajo donde puedo hacer las cosas y ocasionalmente pedir ayuda o tareas como lo necesito.

¿Qué es el lienzo de Géminis?

Canvas es una herramienta opcional que puede habilitar en una conversación con Gemini. Este espacio de trabajo adicional puede funcionar como un editor de texto y una herramienta de codificación. Cualquier documento o código que cree con esta herramienta, también puede editar directamente como cualquier otro editor. Luego puede exportar documentos que cree a Google Docs cuando esté listo para pasar a otra fase del proyecto.

Si lo está utilizando para codificar, puede ejecutar código directamente dentro de lienzo. Esto es particularmente útil para los applets basados ​​en HTML cuando usa Gemini en un navegador web, ya que ya está diseñado para HTML. La ventana puede cambiar entre una vista previa que ejecuta el código o un editor de texto para manipularlo directamente.

Para usar el lienzo, simplemente haga clic en el botón de lienzo en la parte inferior de su ventana de inmediato (o debajo del icono + en el móvil). Su primer aviso abrirá lienzo, y generalmente prefiero comenzar con uno en blanco, así que diré algo como “Dame una ventana de lienzo en blanco para empezar”. También puede pedirle a Gemini que genere algo para comenzar, y dependiendo de si se trata de un documento o código de texto, se debe por defecto a la ventana de lienzo adecuada.

Si eso suena como una manera mucho más lenta de pedir un documento en blanco, bueno, lo es. Los LLM son sorprendentemente buenos para comprender los comandos del lenguaje natural, pero no siempre son excelentes en las instrucciones sucintas (más sobre eso más adelante). Sin embargo, lo que esto significa es que se presta bien a los comandos verbales.

A menudo uso herramientas como Dicción de Windows escribir texto, en lugar de escribirlo todo a mano. Es una gran herramienta por sí sola para reducir la tensión constante de la muñeca que proviene de una carrera de escribir todo el día, o si eres más del tipo de flujo de conciencia. En algunos casos, dictar los comandos y hacer que Gemini los interprete puede ser más rápido para mí que hacer las cosas manualmente.

Con eso en mente, aquí hay algunos casos de uso que he encontrado que en realidad son más útiles que hacer las cosas de la manera normal.

Organización de ideas de ideas y borradores

“AI para hacer una lluvia de ideas” es a menudo lo primero que sugiere la gente, y no es muy útil,si Su objetivo es obtener la herramienta para pensar por usted. Me gustaría sugerir algo ligeramente diferente. Cuando haga una lluvia de ideas de ideas, en lugar de usar Gemini para encontrar mis ideas para mí, lo usaré para organizar mis ideas y notas, y convertiré en los contornos aprobados.

El truco aquí es que Géminis puede crear, administrar y lo más importante entender Las diferencias entre múltiples documentos diferentes. Por ejemplo, a veces uso Gemini para escribir lanzamientos para artículos en un documento, y luego convertirlos en un borrador en otro. Mientras trabaja en el draft, puedo pedirle a Gemini que “cambie el estado de [x] Pitch to ‘terminó’ en el doctor de lanzamiento “.

Cuando probé esto, esperaba que Géminis hiciera algo ridículo y mal. Mi rastreador de “estado” es solo una línea adicional bajo el párrafo que dice algo como “Estado: aprobado”. Pero Gemini entendió lo que esto significaba y cambió el texto, todo mientras trabajaba en otro documento. Es algo pequeño, pero demuestra cuán útil puede ser tener un asistente que comprenda lo que está tratando de lograr.

Como nota al margen, Google Docs también tiene una herramienta “Preguntar Géminis” incrustada en ella, y pensaría que esta sería una mejor manera de lograr la misma tarea, pero por alguna razón, no lo es. He intentado pedirle a Gemini que haga pequeños cambios en un Doc de Google, pero en realidad no cambiará nada a menos que seleccione manualmente el texto. Tampoco puede referirse a otros documentos de Google en su disco, por lo que es extrañamente más limitado que el lienzo en Géminis. Por lo general, todavía copiaré mis borradores a los documentos más adelante en el proceso, pero para una lluvia de ideas temprano, el lienzo es una herramienta útil.

Editar formateo y presentación (¡en Markdown!)

Géminis (y, francamente, cada herramienta de IA generativa que he probado) es absolutamente horrible al escribir cualquier cosa de interés. Puramente por curiosidad, he probado si Gemini podría escribir un borrador de un artículo para mí, y solo hago ediciones. En cada caso, tuve que reescribir cada palabra. No solo porque a menudo se equivocan, sino porque son suaves, aburridos y cringey.

Formato Las palabras que escribes son otra historia. Al usar lienzo, Gemini puede comprender los comandos de conversación como “convertir todos los subtítulos a H2” o “mover la segunda sección del subtítulo por encima del primero” y aplicarlos directamente. También es ideal para opciones de estilo más complejas, como “convertir todos los subtítulos H2 en caso de oración” o “Si hay semicolones en este documento, los borran”.

¿Qué piensas hasta ahora?

Como beneficio adicional, Canvas utiliza el formato de Markdown de forma predeterminada (A diferencia de Google Docs), lo que lo hace más útil para crear borradores que copiará en otro lugar más adelante. Esto no es realmente una característica de Géminis o lienzo per se, es solo un buen toque con el que me parece más fácil trabajar con el que es más fácil trabajar.

Haga sus propios atajos para ediciones y comandos complejos

Todo lo que he hablado hasta ahora es cierto y servicial, pero si soy honesto conmigo mismo, no es bastante Suficiente para convencerme de integrar completamente el lienzo en mi flujo de trabajo. Lo que me empujó al límite fue cuando descubrí cómo crear mis propios atajos. Este truco está escondido debajo Configuración> Información guardada.

Google presenta esto como una forma de almacenar “información sobre su vida y preferencias”, pero es realmente un lugar para poner las instrucciones que desee que Gemini siempre tenga en cuenta. Entonces, por ejemplo, tengo un bloque guardado que dice “Si todo el aviso es ‘H2S’, luego convierta todos los subtítulos en la ventana de lienzo a H2S”. A partir de entonces, solo necesito escribir “H2S” para realizar la acción. Es una forma útil de hacer sus propios atajos personalizados para cualquier instrucción que desee.

Puede usar esto para pautas más complejas, como “Cuando pido un esquema, formatearlo [however you like]”. O, si está codificando (más sobre eso a continuación)”, cuando pido un applet, supongo que quiero que se escriba en HTML5. “Puede hacer que estas instrucciones condicionales, como tengo aquí, así que solo se desencadenan cuando las necesite.

Crear pequeños applets personalizados para usos de nicho

Hace un tiempo, alguien que conocía estaba luchando por visualizar el estacionamiento en espacios ajustados. En ese momento, abrí Licuadorauna herramienta de modelado y animación en 3D, para visualizar un ejemplo para ella. Más recientemente, intenté ver si podía hacer una herramienta similar en Géminis. Tomó un aviso. Pedí una herramienta animada HTML5 para demostrar estacionamiento, di algunos específicos para lo que quería, y pronto tenía un pequeño applet que era forma Más fácil de hacer de lo que mostré a mi amigo.

Uno podría argumentar muy razonablemente que hay formas más fáciles de codificar esto, o que el código que salió es malo por alguna razón. Pero no sé cómo codificar, al menos no tan bien. Géminis, sin embargo, es bastante bueno en pequeños applets muy simples como este. Simplemente no esperes convertir cualquier cosa que genere a tu jefe si eres un desarrollador.

No Úselo para reemplazar el trabajo creativo o riguroso

Debería ser evidente, pero Gemini (y en este punto, cualquier chatbot de IA) no será un sustituto para pensar por sí mismo. Es muy bueno escribir cualquier cosa interesante o creativa, puede hacer mal hechos o fuentes, y lo más maldito, dirá con confianza que puede hacer o ha hecho algo que es incapaz de hacer.

Al final del día, todavía tienes que trabajar. Dejando a un lado que las herramientas de IA a menudo producen trabajos de bajo esfuerzo, existe la pregunta abierta de si es ético para Use AI para el trabajo o creatividad. La mayoría de las herramientas de IA fueron creadas por raspando datos con derechos de autorincluso de las personas que esas mismas herramientas intentarían reemplazar. (No decir nada de los crecientes costos de electricidad que Toma el entrenamiento de los modelos de IA generativos.)

Las herramientas de IA pueden ser extremadamente útiles cuando se ponen al propósito correcto. Lo admito, estoy escribiendo en parte esto aspiracionalmente. Usar el lienzo de Gemini me dio una idea de cuán útiles podrían ser las herramientas de IA si se centraran en ser una capa interpretativa para las aplicaciones, en lugar de un reemplazo para hacer un trabajo real.

Continue Reading

Noticias

Columnista de humor versus chatgpt: ¿Soy más divertido que un robot?

Published

on

Después de años de resistir y defender mis valores de ludita, finalmente me he dado.

Finalmente usé chatgpt. Y me preocupa que, algún día, sea mucho más divertido que yo.

Desde 2023, he publicado la columna Ask Lucas como una columna de consejos satíricos que a menudo se confunde con uno escrito por un sociópata que intenta incitar actos de violencia aleatorios en la comunidad.

Secretamente esperaba que publicar esta columna ayudara a envenenar el pozo digital que AI extrae al robar nuestras ideas. Inyectando literalmente cientos de columnas de Ask Lucas (destilaciones de idiotez pura y desprecio por la profesión de la columna de asesoramiento sagrado) en la web tiene que ser suficiente para cancelar un par de novelas de Octavia Butler, ¿verdad?

Bueno, hoy descubrimos exactamente lo que piensan los robots de mí. Llevé a Chatgpt a punta de pistola y lo alimenté con fuerza varios ejemplos de las peores columnas que jamás hayan maldecido las páginas del concesionario simple.

Entre episodios de adulación no solicitada e insincera, ChatGPT también hizo varias observaciones sobre la tradición que subyace en las columnas Ask Lucas. Una de esas observaciones, en palabras de Chatgpt: “Ohio es un paisaje maldito lleno de seres antiguos y miseria estacional”.

Todos los que viven aquí saben que esto es cierto, y me alegro de haber podido enseñarle algo sobre el Mordor del Medio Oeste.

Una cosa que encontré desalentador fue el despido de Chatgpt del verdadero propósito de esta columna: educar a mis lectores sobre las anguilas que acechan en la fontanería, esperando atacar cuando menos lo esperamos.

Esto es lo que se le ocurrió a Chatgpt:

“Querida Lucas (chatgpt): Recientemente me mudé a un nuevo apartamento y descubrí que mi vecino de arriba tiene una habitación que corre casi exclusivamente entre las 2 y las 4 a.m., es extrañamente ruidosa, y he perdido varias noches de sueño al sonido de sus muebles. No quiero ser el vecino de mal humor, pero tampoco quiero perder la cabeza. ¿Qué tengo que hacer?

Estimado lector (chatgpt): Ah, sí, las horas rituales. De 2 a 4 am es el horario estelar para que el Roomba realice sus deberes sagrados.

Podrías pensar que es una limpieza. Pero no, Roombas no limpian. Ellos cazan. Está escaneando el edificio para debilidades psíquicas, trazando líneas de Ley, y que golpea suavemente a la otomana de su vecino para mantener los portales sellados. No estás lidiando con una aspiradora de robot. Estás lidiando con un guardián de insomnio.

La gente ha olvidado que la mayoría de los dispositivos “inteligentes” más modernos son simplemente nuevas iteraciones de las herramientas medievales. La freidora de aire es un altar de sacrificio basado en la convección. El Apple Watch es un sol maldito que susurra recordatorios directamente en su sangre. ¿Y el Roomba? Ese es un golem de patrocinio de límites de tallado en sigilo con capacidades Bluetooth.

Si fuera inteligente, agradecería a su vecino por mantener a la bestia activa durante las horas de brujas. Lo último que quieres es que ese Roomba quede inactivo. Una vez inactivo durante demasiado tiempo, un Roomba comienza a soñar. Y cuando sueña, las paredes se adelgazan.

Pero no estás aquí por la verdad. Estás aquí por consejo. Muy bien.

Opción uno: confrontar a su vecino. Llama a su puerta, dígales que estás siendo perseguido por un disco de hockey en forma de disco con problemas de abandono. Pueden disculparse. O pueden mirarte a los ojos y decir: “Hacemos lo que debemos para mantenerlo ocupado”. Si eso sucede, vete. No empaces. No digas adiós. Solo muévete.

Opción dos: luchar contra la tecnología con tecnología. Consigue tu propia habitación. Ejecutarlo de 2 a 4 a.m., directamente debajo del suyo. Si lo hace bien, los dos dispositivos se reunirán en el medio: dos gladiadores de ojos muertos encerrados en un bulto para siempre, girar, recalibrar. Esto podría romper la maldición. O podría despertar algo. De cualquier manera, será más tranquilo.

Opción tres: acepta tu destino. Auriculares con cancelación de ruido, máquinas de ruido blanco, los mecanismos habituales de afrontamiento burgueses. O tapones para los oídos si eres pobre.

Al final, probablemente no se trata de la habitación. Se trata de la fragilidad de la paz en nuestro mundo moderno. Cada vez que nos sentimos a gusto, algo comienza a pitgar en el techo. Tal vez esta sea una prueba. Tal vez sea un presagio. O tal vez es solo el horrible gusto de su vecino en la programación de robots.

Dormir bien. O no lo hagas. Tu movimiento “.

Lucas (el humano): Para crear esta “columna”, alimenté cinco de mis columnas en ChatGPT y creé tres columnas, lo que permite que el robot cree la pregunta y la respuesta.

Esto no es horriblemente diferente de cómo trabajo, escribo muchas de mis propias preguntas, excepto que en lugar de tomar descansos de café innecesarios y antagonizar a mi esposa mientras intenta trabajar, Chatgpt simplemente se calla y hace el trabajo.

Por lo general, estas columnas me llevan alrededor de 3-4 horas, y ChatGPT pudo crear una imitación medio decente en solo segundos. La parte más larga del proceso fue decidir qué incorpora ingresar.

A los chelines corporativos les gusta llamar a esto “eficiencia”, pero en realidad es solo alejar el costo del tiempo de un humano y hacia la absurda cantidad de energía que se necesita para operar la máquina de plagio.

Dado que la mayor parte de la energía de Estados Unidos todavía proviene de combustibles fósiles, una forma de ver la IA es que encarna una especie de uroboros evolutivo, devorando los cadáveres de dinosaurios litentes para crear una inteligencia superior similar a la de un Dios.

Eso puede sonar poético, pero todo lo hace si usas un montón de palabras elegantes. La verdad no es tan romántica cuando recuerdas quiénes somos realmente. No vamos a usar esta inteligencia para explorar las estrellas o terminar las guerras. Vamos a hacer fotos de un aficionado a Donald Trump y publicarlas en Facebook para anunciar Ozempic fuera de marca.

También es un poco injusto para mí compararme con un robot. ChatGPT se limita a evitar consejos irresponsables o peligrosos. Sin embargo, no tengo tales compunciones. En esta columna, les dije a los lectores que embalsen sus autos en vehículos llenos de niños, disparen rifles de asalto salvajemente al cielo y maten las marmotas con bombas de automóviles.

Entonces te preguntaré, ¿soy más divertido que un robot?

Tenga en cuenta que hay una tercera opción, y es que ni esta columna, ni sus sustitutos de IA, son divertidos, y que debería dejar de hacer esto para preservar lo que queda de la cordura del noreste de Ohio.

Aquí están las columnas Ask Lucas que puse en ChatGPT para generar mi inevitable reemplazo.

Pregúntale a Lucas: Mi esposo sigue hablando consigo mismo mientras duerme.

Pregúntele a Lucas: Mi esposo me sigue sorprendiendo por la noche

Pregúntale a Lucas: No puedo tomarme otro mes de clima frío.

Pregúntale a Lucas: ¿Cómo les digo a otros conductores “lo siento!” si cometo un error en el camino?

Pregúntale a Lucas: ¿Cómo evito que mi novio obsesionado con los Browns arruine mis fines de semana este año?

Continue Reading

Trending