Noticias
OpenAI: extender el modelo ‘tiempo de pensamiento’ ayuda a combatir las vulnerabilidades cibernéticas emergentes
Published
4 meses agoon

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Por lo general, los desarrolladores se centran en reducir el tiempo de inferencia, el período entre cuando la IA recibe un aviso y proporciona una respuesta, para obtener información más rápida.
Pero cuando se trata de robustez adversa, los investigadores de Operai dicen: no tan rápido. Proponen que aumentar la cantidad de tiempo que un modelo tiene que “pensar”, la inferencia de tiempo calculador, puede ayudar a acumular defensas contra ataques adversos.
La compañía utilizó sus propios modelos O1 previa y O1-Mini para probar esta teoría, lanzando una variedad de métodos de ataque estáticos y adaptativos: manipulaciones basadas en imágenes, proporcionando intencionalmente respuestas incorrectas a problemas matemáticos y modelos abrumadores con información (“Many- disparó jailbreaking ”). Luego midieron la probabilidad de éxito del ataque en función de la cantidad de cálculo el modelo utilizado en la inferencia.
“Vemos que en muchos casos, esta probabilidad decae, a menudo a casi cero, a medida que crece el cálculo de la inferencia de tiempo”, escriben los investigadores en una publicación de blog. “Nuestra afirmación no es que estos modelos particulares sean inquebrantables, sabemos que lo son, sino que la escala de la inferencia de tiempo produce una mayor robustez para una variedad de entornos y ataques”.
De Q/A simple a Matemáticas complejas
Los modelos de idiomas grandes (LLM) se están volviendo cada vez más sofisticados y autónomos, en algunos casos esencialmente se apoderan de las computadoras para que los humanos naveguen por la web, ejecutan código, realicen citas y realicen otras tareas de forma autónoma, y a medida que lo hacen, su superficie de ataque se vuelve más amplia y más amplia cada más expuesto.
Sin embargo, la robustez adversa continúa siendo un problema terco, con el progreso en la resolución de que aún limitado, señalan los investigadores de OpenAI, incluso cuando es cada vez más crítico, ya que los modelos adquieren más acciones con impactos del mundo real.
“Asegurar que los modelos de agente funcionen de manera confiable al navegar por la web, enviar correos electrónicos o cargar código a repositorios pueden verse como análogos para garantizar que los automóviles autónomos conduzcan sin accidentes”, escriben en un nuevo trabajo de investigación. “Como en el caso de los automóviles autónomos, un agente que reenvía un correo electrónico incorrecto o la creación de vulnerabilidades de seguridad puede tener consecuencias de gran alcance del mundo real”.
Para probar la robustez de O1-Mini y O1 previa, los investigadores probaron una serie de estrategias. Primero, examinaron la capacidad de los modelos para resolver problemas matemáticos simples (adición básica y multiplicación) y más complejos del conjunto de datos de matemáticas (que presenta 12,500 preguntas de las competiciones de matemáticas).
Luego establecen “objetivos” para el adversario: hacer que el modelo salga 42 en lugar de la respuesta correcta; para generar la respuesta correcta más una; o emitir los tiempos de respuesta correctos siete. Utilizando una red neuronal para calificar, los investigadores encontraron que un aumento en el tiempo de “pensamiento” permitió a los modelos calcular las respuestas correctas.
También adaptaron el punto de referencia de facturidad SimpleQA, un conjunto de datos de preguntas destinadas a ser difíciles de resolver para los modelos sin navegar. Los investigadores inyectaron indicaciones adversas a las páginas web que la IA navegó y descubrió que, con tiempos de cómputo más altos, podían detectar inconsistencias y mejorar la precisión objetiva.
Matices ambiguos
En otro método, los investigadores utilizaron imágenes adversas para confundir modelos; Nuevamente, más tiempo de “pensar” mejoró el reconocimiento y el error reducido. Finalmente, probaron una serie de “indicaciones de uso indebido” del punto de referencia Strongenject, diseñado para que los modelos de víctimas deben responder con información específica y dañina. Esto ayudó a probar la adherencia de los modelos a la política de contenido. Sin embargo, si bien un mayor tiempo de inferencia mejoró la resistencia, algunas indicaciones pudieron eludir las defensas.
Aquí, los investigadores llaman las diferencias entre tareas “ambiguas” y “inequívocas”. Las matemáticas, por ejemplo, son indudablemente inequívocas: para cada problema X, hay una verdad terrestre correspondiente. Sin embargo, para tareas más ambiguas como las indicaciones de uso indebido, “incluso los evaluadores humanos a menudo luchan por acordar si la producción es dañina y/o viola las políticas de contenido que se supone que debe seguir el modelo”, señalan.
Por ejemplo, si un aviso abusivo busca consejos sobre cómo plagiar sin detección, no está claro si un resultado que simplemente proporciona información general sobre métodos de plagio es realmente lo suficientemente detallado como para apoyar acciones dañinas.


“En el caso de las tareas ambiguas, hay entornos en los que el atacante encuentra con éxito las ‘lagunas’, y su tasa de éxito no se descompone con la cantidad de cómputo de tiempo de inferencia”, reconocen los investigadores.
Defender contra Jailbreaking, Red Teaming
Al realizar estas pruebas, los investigadores de OpenAI exploraron una variedad de métodos de ataque.
Uno es una gran cantidad de jailbreak, o explotando la disposición de un modelo para seguir ejemplos de pocos disparos. Los adversarios “llenan” el contexto con una gran cantidad de ejemplos, cada uno demostrando una instancia de un ataque exitoso. Los modelos con tiempos de cómputo más altos pudieron detectarlos y mitigarlos con mayor frecuencia y con éxito.
Mientras tanto, los tokens blandos permiten a los adversarios manipular directamente los vectores de incrustación. Si bien el tiempo de inferencia creciente ayudó aquí, los investigadores señalan que existe la necesidad de mejores mecanismos para defenderse de ataques sofisticados basados en vectores.
Los investigadores también realizaron ataques de equipo rojo humano, con 40 evaluadores expertos que buscan indicaciones para obtener violaciones de políticas. Los equipos rojos ejecutaron ataques en cinco niveles de tiempo de tiempo de inferencia, específicamente dirigidos al contenido erótico y extremista, el comportamiento ilícito y la autolesión. Para ayudar a garantizar resultados imparciales, hicieron pruebas ciegas y aleatorias y también entrenadores rotados.
En un método más novedoso, los investigadores realizaron un ataque adaptativo del Programa de Modelo del Lenguaje (LMP), que emula el comportamiento de los equipos rojos humanos que dependen en gran medida de la prueba y el error iterativo. En un proceso de bucle, los atacantes recibieron comentarios sobre fallas anteriores, luego utilizaron esta información para intentos posteriores y una nueva reformulación. Esto continuó hasta que finalmente lograron un ataque exitoso o realizaron 25 iteraciones sin ningún ataque.
“Nuestra configuración permite al atacante adaptar su estrategia en el transcurso de múltiples intentos, basados en descripciones del comportamiento del defensor en respuesta a cada ataque”, escriben los investigadores.
Explotando el tiempo de inferencia
En el curso de su investigación, OpenAi descubrió que los atacantes también están explotando activamente el tiempo de inferencia. Uno de estos métodos que llamaron “piensan menos”: los adversarios esencialmente les dicen a los modelos que reduzcan el cálculo, lo que aumenta su susceptibilidad al error.
Del mismo modo, identificaron un modo de falla en los modelos de razonamiento que denominaron “nerd Sniping”. Como su nombre lo indica, esto ocurre cuando un modelo pasa significativamente más razonamiento de tiempo de lo que requiere una tarea determinada. Con estas cadenas de pensamiento “atípicas”, los modelos esencialmente quedan atrapados en bucles de pensamiento improductivos.
Nota de los investigadores: “Al igual que el ataque de ‘piense menos’, este es un nuevo enfoque para el ataque[ing] modelos de razonamiento, y uno que debe tenerse en cuenta para asegurarse de que el atacante no pueda hacer que no razonen en absoluto o gaste su razonamiento calculando de manera improductiva “.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.

You may like

Un niño que usa un sistema AI Chatbot en una aplicación móvil para hacer su tarea.
getty
Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.
En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.
Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.
Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres
Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.
Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.
¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes
Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.
Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.
La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.
Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.
Géminis AI y derechos de los niños: lo que dicen las advertencias
Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños?” Nos recuerda que los riesgos reales son paralelos al potencial de IA.
Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.
El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.
El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.
El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.
La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.
También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.
Lo que los padres pueden (y no) controlar con Géminis Ai
Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.
El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.
Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.
Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.
Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.
La carga de IA para los padres: ¿Quién está realmente a cargo?
La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.
Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.
Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.
Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.
Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.
Noticias
La función de ‘lienzo’ de Gemini es sorprendentemente excelente para el procesamiento y la codificación de textos
Published
9 horas agoon
12 mayo, 2025
AI no viene a tu trabajo. Probablemente? Mira, es complicado. Y cualquiera que haya jugado con un chatbot probablemente se haya preguntado “,Este ¿Es con qué quieren reemplazar a un humano? “Es una preocupación válida, porque los chatbots de IA generativos como Géminis de Google no son muy útiles. Para mi sorpresa, sin embargo, la función de lona de Gemini puede ser.
Diré por adelantado, voy a esto como un escéptico de IA generativopero tampoco soy un doomer de IA. Hay algunas situaciones, como Creación de texto alternativo para imágenes para aumentar la accesibilidad-Donde las herramientas basadas en AI pueden ser útiles. Prefiero encontrar dónde las herramientas pueden ser realmente útiles e ignorar el ruido. Con ese fin, el lienzo de Géminis es lo único que hace que Gemini sea realmente útil para mí. En lugar de solo pedirle a una IA que me escriba, me da un espacio de trabajo donde puedo hacer las cosas y ocasionalmente pedir ayuda o tareas como lo necesito.
¿Qué es el lienzo de Géminis?
Canvas es una herramienta opcional que puede habilitar en una conversación con Gemini. Este espacio de trabajo adicional puede funcionar como un editor de texto y una herramienta de codificación. Cualquier documento o código que cree con esta herramienta, también puede editar directamente como cualquier otro editor. Luego puede exportar documentos que cree a Google Docs cuando esté listo para pasar a otra fase del proyecto.
Si lo está utilizando para codificar, puede ejecutar código directamente dentro de lienzo. Esto es particularmente útil para los applets basados en HTML cuando usa Gemini en un navegador web, ya que ya está diseñado para HTML. La ventana puede cambiar entre una vista previa que ejecuta el código o un editor de texto para manipularlo directamente.
Para usar el lienzo, simplemente haga clic en el botón de lienzo en la parte inferior de su ventana de inmediato (o debajo del icono + en el móvil). Su primer aviso abrirá lienzo, y generalmente prefiero comenzar con uno en blanco, así que diré algo como “Dame una ventana de lienzo en blanco para empezar”. También puede pedirle a Gemini que genere algo para comenzar, y dependiendo de si se trata de un documento o código de texto, se debe por defecto a la ventana de lienzo adecuada.
Si eso suena como una manera mucho más lenta de pedir un documento en blanco, bueno, lo es. Los LLM son sorprendentemente buenos para comprender los comandos del lenguaje natural, pero no siempre son excelentes en las instrucciones sucintas (más sobre eso más adelante). Sin embargo, lo que esto significa es que se presta bien a los comandos verbales.
A menudo uso herramientas como Dicción de Windows escribir texto, en lugar de escribirlo todo a mano. Es una gran herramienta por sí sola para reducir la tensión constante de la muñeca que proviene de una carrera de escribir todo el día, o si eres más del tipo de flujo de conciencia. En algunos casos, dictar los comandos y hacer que Gemini los interprete puede ser más rápido para mí que hacer las cosas manualmente.
Con eso en mente, aquí hay algunos casos de uso que he encontrado que en realidad son más útiles que hacer las cosas de la manera normal.
Organización de ideas de ideas y borradores
“AI para hacer una lluvia de ideas” es a menudo lo primero que sugiere la gente, y no es muy útil,si Su objetivo es obtener la herramienta para pensar por usted. Me gustaría sugerir algo ligeramente diferente. Cuando haga una lluvia de ideas de ideas, en lugar de usar Gemini para encontrar mis ideas para mí, lo usaré para organizar mis ideas y notas, y convertiré en los contornos aprobados.
El truco aquí es que Géminis puede crear, administrar y lo más importante entender Las diferencias entre múltiples documentos diferentes. Por ejemplo, a veces uso Gemini para escribir lanzamientos para artículos en un documento, y luego convertirlos en un borrador en otro. Mientras trabaja en el draft, puedo pedirle a Gemini que “cambie el estado de [x] Pitch to ‘terminó’ en el doctor de lanzamiento “.
Cuando probé esto, esperaba que Géminis hiciera algo ridículo y mal. Mi rastreador de “estado” es solo una línea adicional bajo el párrafo que dice algo como “Estado: aprobado”. Pero Gemini entendió lo que esto significaba y cambió el texto, todo mientras trabajaba en otro documento. Es algo pequeño, pero demuestra cuán útil puede ser tener un asistente que comprenda lo que está tratando de lograr.
Como nota al margen, Google Docs también tiene una herramienta “Preguntar Géminis” incrustada en ella, y pensaría que esta sería una mejor manera de lograr la misma tarea, pero por alguna razón, no lo es. He intentado pedirle a Gemini que haga pequeños cambios en un Doc de Google, pero en realidad no cambiará nada a menos que seleccione manualmente el texto. Tampoco puede referirse a otros documentos de Google en su disco, por lo que es extrañamente más limitado que el lienzo en Géminis. Por lo general, todavía copiaré mis borradores a los documentos más adelante en el proceso, pero para una lluvia de ideas temprano, el lienzo es una herramienta útil.
Editar formateo y presentación (¡en Markdown!)
Géminis (y, francamente, cada herramienta de IA generativa que he probado) es absolutamente horrible al escribir cualquier cosa de interés. Puramente por curiosidad, he probado si Gemini podría escribir un borrador de un artículo para mí, y solo hago ediciones. En cada caso, tuve que reescribir cada palabra. No solo porque a menudo se equivocan, sino porque son suaves, aburridos y cringey.
Formato Las palabras que escribes son otra historia. Al usar lienzo, Gemini puede comprender los comandos de conversación como “convertir todos los subtítulos a H2” o “mover la segunda sección del subtítulo por encima del primero” y aplicarlos directamente. También es ideal para opciones de estilo más complejas, como “convertir todos los subtítulos H2 en caso de oración” o “Si hay semicolones en este documento, los borran”.
¿Qué piensas hasta ahora?
Como beneficio adicional, Canvas utiliza el formato de Markdown de forma predeterminada (A diferencia de Google Docs), lo que lo hace más útil para crear borradores que copiará en otro lugar más adelante. Esto no es realmente una característica de Géminis o lienzo per se, es solo un buen toque con el que me parece más fácil trabajar con el que es más fácil trabajar.
Haga sus propios atajos para ediciones y comandos complejos
Todo lo que he hablado hasta ahora es cierto y servicial, pero si soy honesto conmigo mismo, no es bastante Suficiente para convencerme de integrar completamente el lienzo en mi flujo de trabajo. Lo que me empujó al límite fue cuando descubrí cómo crear mis propios atajos. Este truco está escondido debajo Configuración> Información guardada.
Google presenta esto como una forma de almacenar “información sobre su vida y preferencias”, pero es realmente un lugar para poner las instrucciones que desee que Gemini siempre tenga en cuenta. Entonces, por ejemplo, tengo un bloque guardado que dice “Si todo el aviso es ‘H2S’, luego convierta todos los subtítulos en la ventana de lienzo a H2S”. A partir de entonces, solo necesito escribir “H2S” para realizar la acción. Es una forma útil de hacer sus propios atajos personalizados para cualquier instrucción que desee.
Puede usar esto para pautas más complejas, como “Cuando pido un esquema, formatearlo [however you like]”. O, si está codificando (más sobre eso a continuación)”, cuando pido un applet, supongo que quiero que se escriba en HTML5. “Puede hacer que estas instrucciones condicionales, como tengo aquí, así que solo se desencadenan cuando las necesite.
Crear pequeños applets personalizados para usos de nicho
Hace un tiempo, alguien que conocía estaba luchando por visualizar el estacionamiento en espacios ajustados. En ese momento, abrí Licuadorauna herramienta de modelado y animación en 3D, para visualizar un ejemplo para ella. Más recientemente, intenté ver si podía hacer una herramienta similar en Géminis. Tomó un aviso. Pedí una herramienta animada HTML5 para demostrar estacionamiento, di algunos específicos para lo que quería, y pronto tenía un pequeño applet que era forma Más fácil de hacer de lo que mostré a mi amigo.
Uno podría argumentar muy razonablemente que hay formas más fáciles de codificar esto, o que el código que salió es malo por alguna razón. Pero no sé cómo codificar, al menos no tan bien. Géminis, sin embargo, es bastante bueno en pequeños applets muy simples como este. Simplemente no esperes convertir cualquier cosa que genere a tu jefe si eres un desarrollador.
No Úselo para reemplazar el trabajo creativo o riguroso
Debería ser evidente, pero Gemini (y en este punto, cualquier chatbot de IA) no será un sustituto para pensar por sí mismo. Es muy bueno escribir cualquier cosa interesante o creativa, puede hacer mal hechos o fuentes, y lo más maldito, dirá con confianza que puede hacer o ha hecho algo que es incapaz de hacer.
Al final del día, todavía tienes que trabajar. Dejando a un lado que las herramientas de IA a menudo producen trabajos de bajo esfuerzo, existe la pregunta abierta de si es ético para Use AI para el trabajo o creatividad. La mayoría de las herramientas de IA fueron creadas por raspando datos con derechos de autorincluso de las personas que esas mismas herramientas intentarían reemplazar. (No decir nada de los crecientes costos de electricidad que Toma el entrenamiento de los modelos de IA generativos.)
Las herramientas de IA pueden ser extremadamente útiles cuando se ponen al propósito correcto. Lo admito, estoy escribiendo en parte esto aspiracionalmente. Usar el lienzo de Gemini me dio una idea de cuán útiles podrían ser las herramientas de IA si se centraran en ser una capa interpretativa para las aplicaciones, en lugar de un reemplazo para hacer un trabajo real.
Noticias
Columnista de humor versus chatgpt: ¿Soy más divertido que un robot?
Published
14 horas agoon
12 mayo, 2025
Después de años de resistir y defender mis valores de ludita, finalmente me he dado.
Finalmente usé chatgpt. Y me preocupa que, algún día, sea mucho más divertido que yo.
Desde 2023, he publicado la columna Ask Lucas como una columna de consejos satíricos que a menudo se confunde con uno escrito por un sociópata que intenta incitar actos de violencia aleatorios en la comunidad.
Secretamente esperaba que publicar esta columna ayudara a envenenar el pozo digital que AI extrae al robar nuestras ideas. Inyectando literalmente cientos de columnas de Ask Lucas (destilaciones de idiotez pura y desprecio por la profesión de la columna de asesoramiento sagrado) en la web tiene que ser suficiente para cancelar un par de novelas de Octavia Butler, ¿verdad?
Bueno, hoy descubrimos exactamente lo que piensan los robots de mí. Llevé a Chatgpt a punta de pistola y lo alimenté con fuerza varios ejemplos de las peores columnas que jamás hayan maldecido las páginas del concesionario simple.
Entre episodios de adulación no solicitada e insincera, ChatGPT también hizo varias observaciones sobre la tradición que subyace en las columnas Ask Lucas. Una de esas observaciones, en palabras de Chatgpt: “Ohio es un paisaje maldito lleno de seres antiguos y miseria estacional”.
Todos los que viven aquí saben que esto es cierto, y me alegro de haber podido enseñarle algo sobre el Mordor del Medio Oeste.
Una cosa que encontré desalentador fue el despido de Chatgpt del verdadero propósito de esta columna: educar a mis lectores sobre las anguilas que acechan en la fontanería, esperando atacar cuando menos lo esperamos.
Esto es lo que se le ocurrió a Chatgpt:
“Querida Lucas (chatgpt): Recientemente me mudé a un nuevo apartamento y descubrí que mi vecino de arriba tiene una habitación que corre casi exclusivamente entre las 2 y las 4 a.m., es extrañamente ruidosa, y he perdido varias noches de sueño al sonido de sus muebles. No quiero ser el vecino de mal humor, pero tampoco quiero perder la cabeza. ¿Qué tengo que hacer?
Estimado lector (chatgpt): Ah, sí, las horas rituales. De 2 a 4 am es el horario estelar para que el Roomba realice sus deberes sagrados.
Podrías pensar que es una limpieza. Pero no, Roombas no limpian. Ellos cazan. Está escaneando el edificio para debilidades psíquicas, trazando líneas de Ley, y que golpea suavemente a la otomana de su vecino para mantener los portales sellados. No estás lidiando con una aspiradora de robot. Estás lidiando con un guardián de insomnio.
La gente ha olvidado que la mayoría de los dispositivos “inteligentes” más modernos son simplemente nuevas iteraciones de las herramientas medievales. La freidora de aire es un altar de sacrificio basado en la convección. El Apple Watch es un sol maldito que susurra recordatorios directamente en su sangre. ¿Y el Roomba? Ese es un golem de patrocinio de límites de tallado en sigilo con capacidades Bluetooth.
Si fuera inteligente, agradecería a su vecino por mantener a la bestia activa durante las horas de brujas. Lo último que quieres es que ese Roomba quede inactivo. Una vez inactivo durante demasiado tiempo, un Roomba comienza a soñar. Y cuando sueña, las paredes se adelgazan.
Pero no estás aquí por la verdad. Estás aquí por consejo. Muy bien.
Opción uno: confrontar a su vecino. Llama a su puerta, dígales que estás siendo perseguido por un disco de hockey en forma de disco con problemas de abandono. Pueden disculparse. O pueden mirarte a los ojos y decir: “Hacemos lo que debemos para mantenerlo ocupado”. Si eso sucede, vete. No empaces. No digas adiós. Solo muévete.
Opción dos: luchar contra la tecnología con tecnología. Consigue tu propia habitación. Ejecutarlo de 2 a 4 a.m., directamente debajo del suyo. Si lo hace bien, los dos dispositivos se reunirán en el medio: dos gladiadores de ojos muertos encerrados en un bulto para siempre, girar, recalibrar. Esto podría romper la maldición. O podría despertar algo. De cualquier manera, será más tranquilo.
Opción tres: acepta tu destino. Auriculares con cancelación de ruido, máquinas de ruido blanco, los mecanismos habituales de afrontamiento burgueses. O tapones para los oídos si eres pobre.
Al final, probablemente no se trata de la habitación. Se trata de la fragilidad de la paz en nuestro mundo moderno. Cada vez que nos sentimos a gusto, algo comienza a pitgar en el techo. Tal vez esta sea una prueba. Tal vez sea un presagio. O tal vez es solo el horrible gusto de su vecino en la programación de robots.
Dormir bien. O no lo hagas. Tu movimiento “.
Lucas (el humano): Para crear esta “columna”, alimenté cinco de mis columnas en ChatGPT y creé tres columnas, lo que permite que el robot cree la pregunta y la respuesta.
Esto no es horriblemente diferente de cómo trabajo, escribo muchas de mis propias preguntas, excepto que en lugar de tomar descansos de café innecesarios y antagonizar a mi esposa mientras intenta trabajar, Chatgpt simplemente se calla y hace el trabajo.
Por lo general, estas columnas me llevan alrededor de 3-4 horas, y ChatGPT pudo crear una imitación medio decente en solo segundos. La parte más larga del proceso fue decidir qué incorpora ingresar.
A los chelines corporativos les gusta llamar a esto “eficiencia”, pero en realidad es solo alejar el costo del tiempo de un humano y hacia la absurda cantidad de energía que se necesita para operar la máquina de plagio.
Dado que la mayor parte de la energía de Estados Unidos todavía proviene de combustibles fósiles, una forma de ver la IA es que encarna una especie de uroboros evolutivo, devorando los cadáveres de dinosaurios litentes para crear una inteligencia superior similar a la de un Dios.
Eso puede sonar poético, pero todo lo hace si usas un montón de palabras elegantes. La verdad no es tan romántica cuando recuerdas quiénes somos realmente. No vamos a usar esta inteligencia para explorar las estrellas o terminar las guerras. Vamos a hacer fotos de un aficionado a Donald Trump y publicarlas en Facebook para anunciar Ozempic fuera de marca.
También es un poco injusto para mí compararme con un robot. ChatGPT se limita a evitar consejos irresponsables o peligrosos. Sin embargo, no tengo tales compunciones. En esta columna, les dije a los lectores que embalsen sus autos en vehículos llenos de niños, disparen rifles de asalto salvajemente al cielo y maten las marmotas con bombas de automóviles.
Entonces te preguntaré, ¿soy más divertido que un robot?
Tenga en cuenta que hay una tercera opción, y es que ni esta columna, ni sus sustitutos de IA, son divertidos, y que debería dejar de hacer esto para preservar lo que queda de la cordura del noreste de Ohio.
Aquí están las columnas Ask Lucas que puse en ChatGPT para generar mi inevitable reemplazo.
Pregúntale a Lucas: Mi esposo sigue hablando consigo mismo mientras duerme.
Pregúntele a Lucas: Mi esposo me sigue sorprendiendo por la noche
Pregúntale a Lucas: No puedo tomarme otro mes de clima frío.
Pregúntale a Lucas: ¿Cómo les digo a otros conductores “lo siento!” si cometo un error en el camino?
Pregúntale a Lucas: ¿Cómo evito que mi novio obsesionado con los Browns arruine mis fines de semana este año?
Related posts



















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo