Connect with us

Noticias

Elon Musk vs. OpenAI está “más allá de cualquier programa de HBO”, dice el ex investigador de Deepmind

Published

on


Resumen

  • Se agregó la declaración de Nando de Freitas.

Actualización 23 de noviembre de 2024:

El ex investigador principal de DeepMind, Nando de Freitas, ha negado rotundamente las acusaciones contra DeepMind hechas en el intercambio de correos electrónicos entre ejecutivos de OpenAI y Elon Musk.

“La mayor parte de lo que se dice sobre DeepMind en estas cartas es absoluta tontería. Éramos simplemente científicos, descubriendo la inteligencia, tratando de descubrir cómo hacer cosas buenas con ella”, escribe de Freitas.

El investigador, que en ese momento reportaba directamente al CEO de DeepMind, Demis Hassabis, acusa a Musk y a los líderes de OpenAI de abusar de la apertura de DeepMind: “Abrimos nuestros laboratorios a todas estas personas, especialmente a Elon, y ellos abusaron de nuestra apertura”.

Anuncio

De Freitas ve los correos electrónicos ahora publicados como un argumento a favor de una mayor apertura en el desarrollo de la IA: “La gente debe decidir, y no un grupo de multimillonarios jugando con los científicos”.

Según de Freitas, Ilya Sutskever acertó proféticamente: los investigadores hicieron todo el entrenamiento, las ideas y el código, pero ahora el único poder que les queda es protestar en aplicaciones propiedad de los mismos multimillonarios.

“Pero protestaremos. La IA debe ser para el pueblo, para todos los estados nacionales”, escribe de Freitas.

Imagen: vía X

De Freitas pasó más de una década en Deepmind como líder de AL y director senior de IA, y ahora es vicepresidente de Microsoft AI, la empresa asociada más grande e importante de OpenAI.

Artículo original del 17 de noviembre de 2024:

Recomendación

Alineación de la IA: hacia máquinas responsables

Alineación de la IA: hacia máquinas responsables

Elon Musk no quería que OpenAI pareciera la “perra del marketing” de Microsoft

Los correos electrónicos recientemente publicados sobre el conflicto legal entre Elon Musk y el director ejecutivo de OpenAI, Sam Altman, muestran lo que llevó a Musk a abandonar la empresa de inteligencia artificial que ayudó a crear.

La correspondencia muestra que Musk estuvo impulsado desde el principio por la preocupación de que Google y su laboratorio de inteligencia artificial DeepMind pudieran asumir una posición demasiado dominante.

“Deepmind me está causando un estrés mental extremo. Si ganan, serán realmente malas noticias con su única intención de gobernar la filosofía mundial.“, escribió Musk al cofundador de OpenAI, Greg Brockman, en febrero de 2016.

Musk y Altman fundaron OpenAI a finales de 2015 como una organización sin ánimo de lucro con el objetivo de desarrollar inteligencia artificial en beneficio de la humanidad.

“Si esto va a suceder de todos modos, parece que sería bueno que alguien que no sea Google lo hiciera primero”, escribió Sam Altman a Elon Musk en mayo de 2015.

Musk no quería que OpenAI pareciera la “perra del marketing” de Microsoft

Las primeras tensiones surgieron en septiembre de 2016, cuando OpenAI estaba negociando con Microsoft recursos informáticos. Microsoft ofreció 60 millones de dólares en potencia informática por 10 millones de dólares, pero quería que OpenAI promocionara la plataforma CNTK AI de Microsoft a cambio.

Al final, las partes acordaron un pago de 50 millones de dólares sin más condiciones. Musk estuvo de acuerdo si Microsoft no utilizaría el acuerdo con fines de relaciones públicas: “Valdría mucho más de 50 millones de dólares para no parecer la perra del marketing de Microsoft”, escribió Musk al entonces jefe de personal de OpenAI, Sam Teller.

Sutskever y Brockman critican la búsqueda de poder de Musk y Altman

La situación llegó a un punto crítico en 2017, cuando el liderazgo de OpenAI en torno a Ilya Sutskever y Greg Brockman expresaron su preocupación en un correo electrónico titulado “Pensamientos honestos” de que Musk podría obtener un “control absoluto unilateral” sobre una potencial inteligencia artificial general (AGI) como director ejecutivo de una filial planificada con fines de lucro.

Según OpenAI, Musk quería una propiedad mayoritaria de las acciones, el control inicial de la junta directiva y el puesto de director ejecutivo si la empresa se convertía a una estructura con fines de lucro.

“Usted declaró que no desea controlar el AGI final, pero durante esta negociación nos ha demostrado que el control absoluto es extremadamente importante para usted”, escribieron Sutskever y Brockman. “Nos preocupa que a medida que la empresa avance genuinamente hacia AGI, usted opte por conservar su control absoluto de la empresa a pesar de la intención actual de lo contrario”.

Musk, que había cofundado OpenAI específicamente para evitar tal concentración de poder, respondió con un ultimátum: “Chicos, ya he tenido suficiente. Este es el colmo. O hacen algo por su cuenta o continúan con OpenAI como una organización sin fines de lucro”. Ya no financiaré OpenAI hasta que hayas hecho un compromiso firme de quedarte o simplemente estoy siendo un tonto que básicamente te está proporcionando fondos gratuitos para que crees una startup. Las discusiones terminaron”.

Brockman y Sutskever también sospechaban de las ambiciones de Sam Altman de convertirse en director ejecutivo. “No entendemos por qué el título de CEO es tan importante para usted. Sus razones declaradas han cambiado, y es difícil entender realmente qué lo impulsa”, escribieron, preguntándole a Altman cómo un puesto de CEO en OpenAI se “conectaría con su posición política”. objetivos.”

Sutskever estuvo involucrado en el derrocamiento temporal de Altman en noviembre de 2024 y dejó la compañía en mayo de 2024 para lanzar su propia startup de inteligencia artificial centrada en superinteligencia segura. Brockman regresó recientemente a trabajar en OpenAI después de una pausa de tres meses.

División final

A principios de 2018, Musk intensificó sus críticas, diciendo que OpenAI estaba en “camino hacia un fracaso seguro en relación con Google”, y pidió “medidas inmediatas y dramáticas”. Descartó la idea de Altman de una oferta inicial de monedas (ICO) como una “pérdida masiva de credibilidad”. Como último recurso, sugirió “una gran expansión de OpenAI y una gran expansión de Tesla AI. Quizás ambas simultáneamente”.

“Para ser claro, respeto mucho sus habilidades y logros, pero no estoy contento con cómo se han manejado las cosas. Es por eso que he tenido problemas para interactuar con OpenAI en los últimos meses. O arreglamos las cosas y mi compromiso aumenta mucho o no lo hacemos y caeré a casi cero y reduciré públicamente mi asociación”, escribió Musk.

Las conversaciones fracasaron y, en febrero de 2018, Musk renunció a la junta directiva de OpenAI. En su momento, OpenAI explicó que la renuncia de Musk tenía que ver con evitar conflictos de intereses en su rol como CEO de Tesla. Dadas las numerosas tensiones entre las partes, esta explicación ahora parece muy aséptica.

Cuando OpenAI formó una rama con fines de lucro en marzo de 2019 para invertir miles de millones en centros de datos y talento, se renovó el contacto por correo electrónico entre las partes. Musk enfatizó que el anuncio de la reestructuración debería indicar claramente que no tenía ningún interés financiero en OpenAI.

Las tensiones entre Musk y OpenAI continúan hasta el día de hoy. Musk está demandando a OpenAI por su cambio a un modelo con fines de lucro y afirma que Microsoft ahora controla la empresa. Desde entonces, inició xAI, con el objetivo de crear lo que él llama el modelo de IA más poderoso para fines de 2024.

Los correos electrónicos surgieron de documentos judiciales sobre la disputa legal en curso entre Musk y Altman, publicados como parte del proceso y compilados por un autor de la plataforma LessWrong.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Lo que significa para los padres

Published

on

Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.

En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.

Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.

Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres

Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.

Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.

¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes

Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.

Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.

La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.

Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.

Géminis AI y derechos de los niños: lo que dicen las advertencias

Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños? Nos recuerda que los riesgos reales son paralelos al potencial de IA.

Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.

El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.

El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.

El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.

La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.

También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.

Lo que los padres pueden (y no) controlar con Géminis Ai

Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.

El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.

Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.

Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.

Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.

La carga de IA para los padres: ¿Quién está realmente a cargo?

La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.

Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.

Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.

Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.

Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.

Continue Reading

Noticias

La función de ‘lienzo’ de Gemini es sorprendentemente excelente para el procesamiento y la codificación de textos

Published

on


AI no viene a tu trabajo. Probablemente? Mira, es complicado. Y cualquiera que haya jugado con un chatbot probablemente se haya preguntado “,Este ¿Es con qué quieren reemplazar a un humano? “Es una preocupación válida, porque los chatbots de IA generativos como Géminis de Google no son muy útiles. Para mi sorpresa, sin embargo, la función de lona de Gemini puede ser.

Diré por adelantado, voy a esto como un escéptico de IA generativopero tampoco soy un doomer de IA. Hay algunas situaciones, como Creación de texto alternativo para imágenes para aumentar la accesibilidad-Donde las herramientas basadas en AI pueden ser útiles. Prefiero encontrar dónde las herramientas pueden ser realmente útiles e ignorar el ruido. Con ese fin, el lienzo de Géminis es lo único que hace que Gemini sea realmente útil para mí. En lugar de solo pedirle a una IA que me escriba, me da un espacio de trabajo donde puedo hacer las cosas y ocasionalmente pedir ayuda o tareas como lo necesito.

¿Qué es el lienzo de Géminis?

Canvas es una herramienta opcional que puede habilitar en una conversación con Gemini. Este espacio de trabajo adicional puede funcionar como un editor de texto y una herramienta de codificación. Cualquier documento o código que cree con esta herramienta, también puede editar directamente como cualquier otro editor. Luego puede exportar documentos que cree a Google Docs cuando esté listo para pasar a otra fase del proyecto.

Si lo está utilizando para codificar, puede ejecutar código directamente dentro de lienzo. Esto es particularmente útil para los applets basados ​​en HTML cuando usa Gemini en un navegador web, ya que ya está diseñado para HTML. La ventana puede cambiar entre una vista previa que ejecuta el código o un editor de texto para manipularlo directamente.

Para usar el lienzo, simplemente haga clic en el botón de lienzo en la parte inferior de su ventana de inmediato (o debajo del icono + en el móvil). Su primer aviso abrirá lienzo, y generalmente prefiero comenzar con uno en blanco, así que diré algo como “Dame una ventana de lienzo en blanco para empezar”. También puede pedirle a Gemini que genere algo para comenzar, y dependiendo de si se trata de un documento o código de texto, se debe por defecto a la ventana de lienzo adecuada.

Si eso suena como una manera mucho más lenta de pedir un documento en blanco, bueno, lo es. Los LLM son sorprendentemente buenos para comprender los comandos del lenguaje natural, pero no siempre son excelentes en las instrucciones sucintas (más sobre eso más adelante). Sin embargo, lo que esto significa es que se presta bien a los comandos verbales.

A menudo uso herramientas como Dicción de Windows escribir texto, en lugar de escribirlo todo a mano. Es una gran herramienta por sí sola para reducir la tensión constante de la muñeca que proviene de una carrera de escribir todo el día, o si eres más del tipo de flujo de conciencia. En algunos casos, dictar los comandos y hacer que Gemini los interprete puede ser más rápido para mí que hacer las cosas manualmente.

Con eso en mente, aquí hay algunos casos de uso que he encontrado que en realidad son más útiles que hacer las cosas de la manera normal.

Organización de ideas de ideas y borradores

“AI para hacer una lluvia de ideas” es a menudo lo primero que sugiere la gente, y no es muy útil,si Su objetivo es obtener la herramienta para pensar por usted. Me gustaría sugerir algo ligeramente diferente. Cuando haga una lluvia de ideas de ideas, en lugar de usar Gemini para encontrar mis ideas para mí, lo usaré para organizar mis ideas y notas, y convertiré en los contornos aprobados.

El truco aquí es que Géminis puede crear, administrar y lo más importante entender Las diferencias entre múltiples documentos diferentes. Por ejemplo, a veces uso Gemini para escribir lanzamientos para artículos en un documento, y luego convertirlos en un borrador en otro. Mientras trabaja en el draft, puedo pedirle a Gemini que “cambie el estado de [x] Pitch to ‘terminó’ en el doctor de lanzamiento “.

Cuando probé esto, esperaba que Géminis hiciera algo ridículo y mal. Mi rastreador de “estado” es solo una línea adicional bajo el párrafo que dice algo como “Estado: aprobado”. Pero Gemini entendió lo que esto significaba y cambió el texto, todo mientras trabajaba en otro documento. Es algo pequeño, pero demuestra cuán útil puede ser tener un asistente que comprenda lo que está tratando de lograr.

Como nota al margen, Google Docs también tiene una herramienta “Preguntar Géminis” incrustada en ella, y pensaría que esta sería una mejor manera de lograr la misma tarea, pero por alguna razón, no lo es. He intentado pedirle a Gemini que haga pequeños cambios en un Doc de Google, pero en realidad no cambiará nada a menos que seleccione manualmente el texto. Tampoco puede referirse a otros documentos de Google en su disco, por lo que es extrañamente más limitado que el lienzo en Géminis. Por lo general, todavía copiaré mis borradores a los documentos más adelante en el proceso, pero para una lluvia de ideas temprano, el lienzo es una herramienta útil.

Editar formateo y presentación (¡en Markdown!)

Géminis (y, francamente, cada herramienta de IA generativa que he probado) es absolutamente horrible al escribir cualquier cosa de interés. Puramente por curiosidad, he probado si Gemini podría escribir un borrador de un artículo para mí, y solo hago ediciones. En cada caso, tuve que reescribir cada palabra. No solo porque a menudo se equivocan, sino porque son suaves, aburridos y cringey.

Formato Las palabras que escribes son otra historia. Al usar lienzo, Gemini puede comprender los comandos de conversación como “convertir todos los subtítulos a H2” o “mover la segunda sección del subtítulo por encima del primero” y aplicarlos directamente. También es ideal para opciones de estilo más complejas, como “convertir todos los subtítulos H2 en caso de oración” o “Si hay semicolones en este documento, los borran”.

¿Qué piensas hasta ahora?

Como beneficio adicional, Canvas utiliza el formato de Markdown de forma predeterminada (A diferencia de Google Docs), lo que lo hace más útil para crear borradores que copiará en otro lugar más adelante. Esto no es realmente una característica de Géminis o lienzo per se, es solo un buen toque con el que me parece más fácil trabajar con el que es más fácil trabajar.

Haga sus propios atajos para ediciones y comandos complejos

Todo lo que he hablado hasta ahora es cierto y servicial, pero si soy honesto conmigo mismo, no es bastante Suficiente para convencerme de integrar completamente el lienzo en mi flujo de trabajo. Lo que me empujó al límite fue cuando descubrí cómo crear mis propios atajos. Este truco está escondido debajo Configuración> Información guardada.

Google presenta esto como una forma de almacenar “información sobre su vida y preferencias”, pero es realmente un lugar para poner las instrucciones que desee que Gemini siempre tenga en cuenta. Entonces, por ejemplo, tengo un bloque guardado que dice “Si todo el aviso es ‘H2S’, luego convierta todos los subtítulos en la ventana de lienzo a H2S”. A partir de entonces, solo necesito escribir “H2S” para realizar la acción. Es una forma útil de hacer sus propios atajos personalizados para cualquier instrucción que desee.

Puede usar esto para pautas más complejas, como “Cuando pido un esquema, formatearlo [however you like]”. O, si está codificando (más sobre eso a continuación)”, cuando pido un applet, supongo que quiero que se escriba en HTML5. “Puede hacer que estas instrucciones condicionales, como tengo aquí, así que solo se desencadenan cuando las necesite.

Crear pequeños applets personalizados para usos de nicho

Hace un tiempo, alguien que conocía estaba luchando por visualizar el estacionamiento en espacios ajustados. En ese momento, abrí Licuadorauna herramienta de modelado y animación en 3D, para visualizar un ejemplo para ella. Más recientemente, intenté ver si podía hacer una herramienta similar en Géminis. Tomó un aviso. Pedí una herramienta animada HTML5 para demostrar estacionamiento, di algunos específicos para lo que quería, y pronto tenía un pequeño applet que era forma Más fácil de hacer de lo que mostré a mi amigo.

Uno podría argumentar muy razonablemente que hay formas más fáciles de codificar esto, o que el código que salió es malo por alguna razón. Pero no sé cómo codificar, al menos no tan bien. Géminis, sin embargo, es bastante bueno en pequeños applets muy simples como este. Simplemente no esperes convertir cualquier cosa que genere a tu jefe si eres un desarrollador.

No Úselo para reemplazar el trabajo creativo o riguroso

Debería ser evidente, pero Gemini (y en este punto, cualquier chatbot de IA) no será un sustituto para pensar por sí mismo. Es muy bueno escribir cualquier cosa interesante o creativa, puede hacer mal hechos o fuentes, y lo más maldito, dirá con confianza que puede hacer o ha hecho algo que es incapaz de hacer.

Al final del día, todavía tienes que trabajar. Dejando a un lado que las herramientas de IA a menudo producen trabajos de bajo esfuerzo, existe la pregunta abierta de si es ético para Use AI para el trabajo o creatividad. La mayoría de las herramientas de IA fueron creadas por raspando datos con derechos de autorincluso de las personas que esas mismas herramientas intentarían reemplazar. (No decir nada de los crecientes costos de electricidad que Toma el entrenamiento de los modelos de IA generativos.)

Las herramientas de IA pueden ser extremadamente útiles cuando se ponen al propósito correcto. Lo admito, estoy escribiendo en parte esto aspiracionalmente. Usar el lienzo de Gemini me dio una idea de cuán útiles podrían ser las herramientas de IA si se centraran en ser una capa interpretativa para las aplicaciones, en lugar de un reemplazo para hacer un trabajo real.

Continue Reading

Noticias

Columnista de humor versus chatgpt: ¿Soy más divertido que un robot?

Published

on

Después de años de resistir y defender mis valores de ludita, finalmente me he dado.

Finalmente usé chatgpt. Y me preocupa que, algún día, sea mucho más divertido que yo.

Desde 2023, he publicado la columna Ask Lucas como una columna de consejos satíricos que a menudo se confunde con uno escrito por un sociópata que intenta incitar actos de violencia aleatorios en la comunidad.

Secretamente esperaba que publicar esta columna ayudara a envenenar el pozo digital que AI extrae al robar nuestras ideas. Inyectando literalmente cientos de columnas de Ask Lucas (destilaciones de idiotez pura y desprecio por la profesión de la columna de asesoramiento sagrado) en la web tiene que ser suficiente para cancelar un par de novelas de Octavia Butler, ¿verdad?

Bueno, hoy descubrimos exactamente lo que piensan los robots de mí. Llevé a Chatgpt a punta de pistola y lo alimenté con fuerza varios ejemplos de las peores columnas que jamás hayan maldecido las páginas del concesionario simple.

Entre episodios de adulación no solicitada e insincera, ChatGPT también hizo varias observaciones sobre la tradición que subyace en las columnas Ask Lucas. Una de esas observaciones, en palabras de Chatgpt: “Ohio es un paisaje maldito lleno de seres antiguos y miseria estacional”.

Todos los que viven aquí saben que esto es cierto, y me alegro de haber podido enseñarle algo sobre el Mordor del Medio Oeste.

Una cosa que encontré desalentador fue el despido de Chatgpt del verdadero propósito de esta columna: educar a mis lectores sobre las anguilas que acechan en la fontanería, esperando atacar cuando menos lo esperamos.

Esto es lo que se le ocurrió a Chatgpt:

“Querida Lucas (chatgpt): Recientemente me mudé a un nuevo apartamento y descubrí que mi vecino de arriba tiene una habitación que corre casi exclusivamente entre las 2 y las 4 a.m., es extrañamente ruidosa, y he perdido varias noches de sueño al sonido de sus muebles. No quiero ser el vecino de mal humor, pero tampoco quiero perder la cabeza. ¿Qué tengo que hacer?

Estimado lector (chatgpt): Ah, sí, las horas rituales. De 2 a 4 am es el horario estelar para que el Roomba realice sus deberes sagrados.

Podrías pensar que es una limpieza. Pero no, Roombas no limpian. Ellos cazan. Está escaneando el edificio para debilidades psíquicas, trazando líneas de Ley, y que golpea suavemente a la otomana de su vecino para mantener los portales sellados. No estás lidiando con una aspiradora de robot. Estás lidiando con un guardián de insomnio.

La gente ha olvidado que la mayoría de los dispositivos “inteligentes” más modernos son simplemente nuevas iteraciones de las herramientas medievales. La freidora de aire es un altar de sacrificio basado en la convección. El Apple Watch es un sol maldito que susurra recordatorios directamente en su sangre. ¿Y el Roomba? Ese es un golem de patrocinio de límites de tallado en sigilo con capacidades Bluetooth.

Si fuera inteligente, agradecería a su vecino por mantener a la bestia activa durante las horas de brujas. Lo último que quieres es que ese Roomba quede inactivo. Una vez inactivo durante demasiado tiempo, un Roomba comienza a soñar. Y cuando sueña, las paredes se adelgazan.

Pero no estás aquí por la verdad. Estás aquí por consejo. Muy bien.

Opción uno: confrontar a su vecino. Llama a su puerta, dígales que estás siendo perseguido por un disco de hockey en forma de disco con problemas de abandono. Pueden disculparse. O pueden mirarte a los ojos y decir: “Hacemos lo que debemos para mantenerlo ocupado”. Si eso sucede, vete. No empaces. No digas adiós. Solo muévete.

Opción dos: luchar contra la tecnología con tecnología. Consigue tu propia habitación. Ejecutarlo de 2 a 4 a.m., directamente debajo del suyo. Si lo hace bien, los dos dispositivos se reunirán en el medio: dos gladiadores de ojos muertos encerrados en un bulto para siempre, girar, recalibrar. Esto podría romper la maldición. O podría despertar algo. De cualquier manera, será más tranquilo.

Opción tres: acepta tu destino. Auriculares con cancelación de ruido, máquinas de ruido blanco, los mecanismos habituales de afrontamiento burgueses. O tapones para los oídos si eres pobre.

Al final, probablemente no se trata de la habitación. Se trata de la fragilidad de la paz en nuestro mundo moderno. Cada vez que nos sentimos a gusto, algo comienza a pitgar en el techo. Tal vez esta sea una prueba. Tal vez sea un presagio. O tal vez es solo el horrible gusto de su vecino en la programación de robots.

Dormir bien. O no lo hagas. Tu movimiento “.

Lucas (el humano): Para crear esta “columna”, alimenté cinco de mis columnas en ChatGPT y creé tres columnas, lo que permite que el robot cree la pregunta y la respuesta.

Esto no es horriblemente diferente de cómo trabajo, escribo muchas de mis propias preguntas, excepto que en lugar de tomar descansos de café innecesarios y antagonizar a mi esposa mientras intenta trabajar, Chatgpt simplemente se calla y hace el trabajo.

Por lo general, estas columnas me llevan alrededor de 3-4 horas, y ChatGPT pudo crear una imitación medio decente en solo segundos. La parte más larga del proceso fue decidir qué incorpora ingresar.

A los chelines corporativos les gusta llamar a esto “eficiencia”, pero en realidad es solo alejar el costo del tiempo de un humano y hacia la absurda cantidad de energía que se necesita para operar la máquina de plagio.

Dado que la mayor parte de la energía de Estados Unidos todavía proviene de combustibles fósiles, una forma de ver la IA es que encarna una especie de uroboros evolutivo, devorando los cadáveres de dinosaurios litentes para crear una inteligencia superior similar a la de un Dios.

Eso puede sonar poético, pero todo lo hace si usas un montón de palabras elegantes. La verdad no es tan romántica cuando recuerdas quiénes somos realmente. No vamos a usar esta inteligencia para explorar las estrellas o terminar las guerras. Vamos a hacer fotos de un aficionado a Donald Trump y publicarlas en Facebook para anunciar Ozempic fuera de marca.

También es un poco injusto para mí compararme con un robot. ChatGPT se limita a evitar consejos irresponsables o peligrosos. Sin embargo, no tengo tales compunciones. En esta columna, les dije a los lectores que embalsen sus autos en vehículos llenos de niños, disparen rifles de asalto salvajemente al cielo y maten las marmotas con bombas de automóviles.

Entonces te preguntaré, ¿soy más divertido que un robot?

Tenga en cuenta que hay una tercera opción, y es que ni esta columna, ni sus sustitutos de IA, son divertidos, y que debería dejar de hacer esto para preservar lo que queda de la cordura del noreste de Ohio.

Aquí están las columnas Ask Lucas que puse en ChatGPT para generar mi inevitable reemplazo.

Pregúntale a Lucas: Mi esposo sigue hablando consigo mismo mientras duerme.

Pregúntele a Lucas: Mi esposo me sigue sorprendiendo por la noche

Pregúntale a Lucas: No puedo tomarme otro mes de clima frío.

Pregúntale a Lucas: ¿Cómo les digo a otros conductores “lo siento!” si cometo un error en el camino?

Pregúntale a Lucas: ¿Cómo evito que mi novio obsesionado con los Browns arruine mis fines de semana este año?

Continue Reading

Trending