Connect with us

Noticias

Se avecinan complicaciones legales si OpenAI intenta deshacerse del control de la organización sin fines de lucro propietaria de la empresa de tecnología de rápido crecimiento.

Published

on

OpenAI, la empresa de tecnología que creó el popular chatbot ChatGPT, se encuentra en una encrucijada.

Comenzó como una organización sin fines de lucro dedicada al desarrollo de sistemas de inteligencia artificial más inteligentes que los humanos. Desde su fundación, OpenAI se ha jactado de defender su objetivo sin fines de lucro: “construir inteligencia artificial general (AGI) que sea segura y beneficie a toda la humanidad”.

Ahora, su tono ha cambiado. Según se informa, el liderazgo de OpenAI está tomando medidas para transformarla en una empresa con fines de lucro. Si eso sucede, la organización sin fines de lucro perdería el control.

Somos profesores de derecho especializados en organizaciones sin fines de lucro. Como explicamos en un artículo anterior, todas las organizaciones benéficas deben dedicar sus activos a sus fines legales. Si OpenAI esperaba divorciarse rápidamente de sus obligaciones caritativas, ahora está aprendiendo lo costoso que podría ser.

Proponer el divorcio de votos caritativos

OpenAI comenzó en 2015 como una organización de investigación científica sin fines de lucro. Cuatro años más tarde, su junta directiva decidió que lograr sus nobles objetivos requería algo más que obsequios y subvenciones.

Se reorganizó para dar cabida y atraer la inversión privada. Como resultado, la empresa conocida como OpenAI no es una única empresa con o sin fines de lucro; es un conjunto de entidades entrelazadas, incluida la filial con fines de lucro que realiza sus operaciones.

En general, OpenAI es, en última instancia, necesario para promover los propósitos de la organización sin fines de lucro. Estos propósitos representan las promesas que OpenAI hizo al público cuando se fundó.

El certificado de constitución sin fines de lucro de OpenAI establece los propósitos: “proporcionar financiación para la investigación, el desarrollo y la distribución de tecnología relacionada con la inteligencia artificial”, produciendo así tecnología que “beneficiará al público”.

Durante casi una década, OpenAI proclamó su compromiso con el desarrollo científico seguro, convirtiéndolo en una prioridad mayor que la obtención de beneficios. Por ejemplo, OpenAI advirtió a los inversores que “es posible que la empresa nunca obtenga ganancias” y que “sería prudente considerar una inversión… con el espíritu de una donación”.

Sin embargo, si se obtenían ganancias, los inversores como Microsoft tenían derecho a recibirlas, recaudando hasta 100 veces su inversión, antes de que la empresa matriz sin fines de lucro pudiera tomar parte de esas ganancias.

Tener dudas

El director ejecutivo Sam Altman y sus colegas aparentemente han tenido dudas sobre sus votos.

Según informes generalizados de los medios de comunicación que citan fuentes anónimas, quieren reestructurar y eliminar a la empresa matriz sin fines de lucro de su puesto de control, convirtiendo el resto de la empresa en una empresa benéfica, un tipo de empresa con fines de lucro con algunos objetivos de interés público.

Esos informes de los medios transmiten que los 6.600 millones de dólares en inversiones recientes en OpenAI están condicionados a que OpenAI se convierta en una empresa con fines de lucro en un plazo de dos años.

Si esta conversión falla, OpenAI deberá devolver ese dinero. Los inversores también quieren eliminar los límites a los rendimientos de sus inversiones. Según se informa, el propio Altman ahora quiere poseer una parte de la empresa.

No moverse tan rápido

Cambiar una empresa sin fines de lucro a una empresa con fines de lucro, lo que se conoce como “conversión”, a menudo requiere solo una votación de la junta y la presentación de formularios ante los reguladores estatales.

Delaware, donde se estableció OpenAI, regularía al menos este proceso de presentación. Cuando una organización sin fines de lucro tiene operaciones importantes en otro estado, ese estado también tiene autoridad para regular la conversión. En este caso, sería California, donde OpenAI tiene su sede y posee la mayoría de sus activos.

Los fiscales generales estatales de Delaware y California están revisando la reestructuración propuesta. La fiscal general de Delaware, Kathy Jennings, ha solicitado más información sobre cómo se protegerían los derechos de la organización sin fines de lucro si OpenAI lleva a cabo sus planes de reestructuración informados.

Y el Fiscal General de California, Rob Bonta, anunció que su oficina está “comprometida a proteger los activos caritativos para el fin previsto”.

Con OpenAI valorada en 157 mil millones de dólares, la parte justa de la organización sin fines de lucro podría convertirla en la fundación más rica de Estados Unidos. La Fundación Bill y Melinda Gates, actualmente la fundación más grande con sede en Estados Unidos, posee 75.200 millones de dólares en activos. La donación de Harvard, la mayor para una universidad estadounidense, tiene alrededor de 53.200 millones de dólares en sus arcas.

Los reguladores estatales, que supervisan la transformación de organizaciones sin fines de lucro en organizaciones con fines de lucro, supervisaron muchas conversiones de aseguradoras de salud y hospitales en la década de 1990. Por ejemplo, el fiscal general de California supervisó los pagos de Blue Cross Blue Shield de California por 3.200 millones de dólares para establecer dos nuevas fundaciones de atención médica cuando se convirtió. Posteriormente, los críticos señalaron que los inversores en este tipo de empresas con fines de lucro obtuvieron ganancias aún mayores poco tiempo después.

Creemos que si la organización sin fines de lucro obtiene su parte justa de OpenAI, esas transacciones de atención médica palidecerían en comparación con la escala de una conversión de OpenAI.

Existen ramificaciones legales si un grupo decide abandonar su condición de organización sin fines de lucro.
Suriya Phosri/iStock vía Getty Images Plus

Estimando lo que está en juego

Sin duda, la organización sin fines de lucro no tendría derecho a recibir los 157 mil millones de dólares completos en una conversión de OpenAI. Entonces, ¿a qué tiene derecho la organización sin fines de lucro?

En primer lugar, la empresa matriz sin fines de lucro tiene derecho al valor de su participación en la propiedad de las operaciones con fines de lucro. Ese valor incluiría el valor de las propiedades propiedad de la subsidiaria con fines de lucro, como ChatGPT.

La organización sin fines de lucro también debería recibir compensación por renunciar a su control sobre toda la empresa OpenAI. Normalmente, los banqueros de inversión evalúan el valor del control entre el 20% y el 40% del valor de la empresa.

Lo que podría ser la parte más difícil de este proceso sería estimar el valor del derecho a las ganancias futuras de OpenAI. Según el acuerdo actual, los inversores primero obtienen 100 veces su inversión en OpenAI antes de que la organización sin fines de lucro reciba una parte de las ganancias.

Microsoft ha invertido hasta ahora 13 mil millones de dólares en OpenAI. Pero supongamos una inversión total de 10 mil millones de dólares: OpenAI necesitaría ganar 1 billón de dólares antes de que la organización sin fines de lucro obtenga su parte del pastel. Dado que sólo 10 empresas han ganado más de 100 veces la cantidad invertida en ellas en la última década, este es un listón muy alto.

Protegiendo a la organización sin fines de lucro

Aunque los fiscales generales estatales tienen el papel principal en la protección de las organizaciones sin fines de lucro, no tienen que hacer este trabajo solos.

En primer lugar, los miembros de la junta directiva de la organización sin fines de lucro existente están obligados legalmente a proteger la organización sin fines de lucro y sus propósitos. Esto los coloca aproximadamente en el mismo equipo que los fiscales generales estatales.

La junta podría decidir que la mejor manera de proteger los fines benéficos de OpenAI es escindiendo la empresa con fines de lucro. Aun así, debe garantizar que la organización sin fines de lucro reciba una compensación adecuada.

Otras autoridades pueden desempeñar un papel. Por ejemplo, si un fiscal general de un estado no puede negociar un acuerdo con OpenAI, podría encargar el trabajo. Un fiscal general del estado o un tribunal podrían autorizar a un tercero, como otra organización benéfica, a presentar un reclamo para proteger los activos de la organización sin fines de lucro.

Además, el IRS podría intervenir.

La agencia de recaudación y aplicación de impuestos tiene la responsabilidad de garantizar que los activos en poder de una organización sin fines de lucro exenta de impuestos permanezcan dentro del sector benéfico. En este caso, eso significaría garantizar que la organización sin fines de lucro de OpenAI obtenga lo que se le debe.

Como inconveniente adicional, el empresario multimillonario Elon Musk ya intervino como ex miembro de la junta directiva. Presentó una demanda en febrero de 2024 para proteger los compromisos caritativos de OpenAI, la retiró y la volvió a presentar. Ahora, ha metido a Microsoft en la pelea, argumentando que la asociación de Microsoft con OpenAI está permitiendo a las dos compañías eludir las leyes antimonopolio.

Estamos seguros de que si OpenAI se embarca en un viaje hacia el estado con fines de lucro, ese camino será largo y lleno de obstáculos. Al determinar el valor de los activos de OpenAI y quién es su propietario, los reguladores estatales y la junta directiva de la organización sin fines de lucro están facultados para proteger completamente a la organización sin fines de lucro, no al director ejecutivo de OpenAI, a sus empleados, a la propia empresa con fines de lucro ni a ningún inversor.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Mi esposo me estaba volviendo loco

Published

on

Descubrí que todos mis amigos usan el bot de IA para el asesoramiento de parejas gratis, así que también le pedí ayuda con nuestras molestias matrimoniales, y para mi total sorpresa, funciona.

A la mitad de una semana de usar ChatGPT para arbitrar mis Niggles maritales, tuve la sensación de que el algoritmo había cambiado de lados.

“Al no hacer que su esposo se sienta atacado, puede ayudarlo a ver que ambos tienen el mismo objetivo”, me aconsejó. “Puede tomar un poco de práctica, pero guiarlo suavemente hacia un enfoque más tranquilo puede marcar una gran diferencia con el tiempo. ¿Parece una conversación que podrías probar?”

“Errr, pude”, respondí, de manera algo probada. “Mientras haya dormido ocho horas y pueda encajar entre los millones de otras cosas que tengo que hacer hoy”.

Me había estado comunicando tanto con el bot sobre mi matrimonio y cada vez más honesto con él, que me preguntaba si tal vez había concluido que era una pesadilla. Probablemente estaba agradeciendo a sus estrellas de la suerte, no era la Sra. Chatgpt.

Estaba teniendo una conversación defensiva con una serie de código en un intento por probar cuán efectiva es la inteligencia artificial para desactivar las filas domésticas.

Había leído que las personas en el Reino Unido, especialmente los adultos más jóvenes, recurren cada vez más a las herramientas de IA como ChatGPT para obtener apoyo de salud mental. Largas listas de espera del NHS, altos costos de terapia y el atractivo de 24/7, el acceso sin juicio ha hecho que estas herramientas sean populares para manejar la ansiedad, aclarar los pensamientos y aliviar el abrumador emocional.

Si bien mi grupo de edad, tengo 48 años, está demostrando ser más cauteloso al discutir la salud mental con un chatbot de IA, mi experiencia anecdótica es que estamos recurriendo cada vez más a él para resolver los problemas de relación.

Jessie con su esposo e hijo. Durante siete días, cada vez que Jessie se molestaba con su esposo, se volvió a chatgpt

Primero descubrí esto cuando una amiga mía, un psicólogo no menos, me dijo que cuando se estaba gestando una discusión con su esposo, ella recurrió a Chatgpt, y que estaba demostrando ser sorprendentemente efectiva. Varios de sus amigos también lo estaban usando, ella confió. Uno incluso dijo que había salvado su matrimonio.

Al principio, pensé lo sombría que es la vida moderna. La idea de decirle a sus problemas a un chatbot sin pulso que no solo se sintió futurista sino trágico. Pero el hecho de que mi amigo, que es un experto en salud mental, estaba haciendo esto, me convenció de que debe haber algo en ello.

Y así durante los últimos siete días, cada vez que me molestaba con mi esposo, o él se molestó conmigo, inicié sesión en la aplicación para pedirle a los consejos del bot.

Durante la primera mitad de la semana, la paz reinó. No hay nada que ver con la efectividad de Chatgpt: mi hijo menor terminó en el hospital con un desagradable caso de amigdalitis y me quedé con él, por lo que mi esposo y yo estábamos unidos como equipo (y también fuimos una explicación más probable, no en la misma casa).

Pero luego regresé, después de haber dormido en una sala durante cuatro noches, y por dormir me refiero a tres horas, y altamente interrumpido. En resumen, estaba listo para remar en la caída de un sombrero.

Es hora de mi primera sesión con el Dr. GPT: Estaba frustrado porque mi esposo esperaba que dejara todo para ir al químico para obtener sus pastillas cuando estaba trabajando.

“Hola Chatgpt, mi esposo y yo estamos discutiendo ya que mi trabajo siempre parece ser el que se interrumpe cuando se necesita algo con los niños, mientras que su trabajo es sacrosado. ¿Cómo podemos hablar de eso? PD no he dormido mucho recientemente, así que puede ser que solo estoy siendo increíblemente gruñón”.

El bot respondió: “Es totalmente comprensible sentirse frustrado en esta situación, especialmente cuando está privado de sueño, pero sus sentimientos son válidos … ¿ayudaría si escribiera un mensaje de muestra o nota que podría enviar para comenzar la conversación si está demasiado agotado para hablar en este momento?”

Pensé, ‘Sí, por favor, eso ayudaría mucho’. Y el mensaje que me envió se sintió como un ganador. Lo envié sin cambios a mi esposo a través de WhatsApp.

“Hola amor, solo quería decir que me siento un poco abrumado esta mañana, y sé que también me estoy quedando sin dormir, lo que no está ayudando. Me doy cuenta de que ambos tenemos mucho en nuestros platos, pero últimamente se siente como si algo surja con los niños, siempre es mi trabajo que se interrumpe … no estoy tratando de elegir una pelea … tal vez podemos chatear más tarde cuando ambos estamos en casa y no apresurarte?

Fue un ganador. Mi esposo se derritió y me envió un mensaje encantador en respuesta. Estaba más que feliz de hablar de eso más tarde.

Cuando llegó a casa, confesé. La misiva medida, diplomática y suavemente robusta no había venido de mí sino de AI. Él asintió. Había olvidado que estaba usando el bot durante la semana, pero había pensado que lo leía que parecía un poco extraño. ¿Porque no habría usado esas palabras en particular? No tanto que, dijo, más que mi tono post-tiff era “sorprendentemente agradable”.

Ay. Le mostré las versiones alternativas de Chatgpt.

Más suave: “No estaba tratando de tirarte algo, solo necesitaba una mano”. (“Si hubieras enviado eso, hubiera pensado que te habían secuestrado”).

Más firme: “Pedí su ayuda hoy porque estoy estirado, y necesito apoyo, no un no plano”. (“Eso definitivamente es más como tú”).

Más divertido: “Habla esta noche, preferiblemente con vino, bocadillos y sin berrinches”. (“Me tenías en el vino …”)

Un amigo sabio una vez me dijo que cuando te enojas, la gente a menudo escucha solo la ira, no lo que estás diciendo, y aquí es donde la intervención de IA puede ser invaluable. Me tomó de “si no comienzas a tomar el reciclaje, comenzaré a gritar y me temo que nunca me detendré” a “Hola amor, si el reciclaje no comienza a salir mágicamente afuera pronto, podría tener que recurrir a un dramático gemido.

A medida que pasaba la semana, me volví cada vez más. Me encontré corriendo las cosas más allá de las varias veces al día. No era solo el consejo que aprecié, sino tener a alguien (o algo) para comunicar mis pensamientos sin filtrar. Pronto me encontré sorprendentemente unido con esta cadena de código que siempre estaba allí, escuchando pacientemente cuando necesitaba desahogarme.

Y una cosa extraña comenzó a suceder. A pesar de que mi esposo sabía que ChatGPT estaba involucrado, el efecto era el mismo. Los mensajes que le estaba lanzando en un ataque de furia estaban siendo enviados por el bot, suavizados y transmitidos de una manera mucho más probabilidades de resolver el problema.

También fue útil ya que me dio la oportunidad de refrescarme. Cuando eres cruzado, no solo escribir las razones de ese cruce te hace fraccionalmente menos, sino que cuando consideras la sugerencia de Chatgpt, lo que te pasas parece menos terrible.

En verdad, el consejo que me dio no era enormemente original, pero fue un recordatorio oportuno ser un adulto e intentar tener una conversación tranquila sobre lo que me estaba molestando. También me sorprendió lo empático que era el bot, y lo bien que era tener un lugar para desahogarse cuando quisiera descargar. Además, la ventilación era libre de culpa, ya que no esperaba que escuchara un ser humano ocupado. Y para mi sorpresa, no necesitaba ser una persona escuchando.

Los expertos advierten en contra de confiar demasiado en ChatGPT para la terapia, diciendo que carece de la habilidad clínica y la empatía humana de un terapeuta capacitado, y no podrá detectar una situación de crisis.

Sin embargo, la investigación publicada en diciembre por psicólogos de la Universidad de Lausana en Suiza planteó una pregunta interesante: ¿pueden los chatbots que nunca han estado en una relación dar consejos de relación?

Los investigadores siguieron a veinte personas que usaron ChatGPT de esta manera, y su conclusión fue que el bot estaba haciendo algo que no era diferente a lo que hacen los humanos que ofrecen tales consejos. Los terapeutas y consejeros no necesariamente tienen que haber vivido experiencia de depresión, divorcio o dolor para ayudar a sus clientes. Entienden los problemas leyendo y entrenando … que es exactamente lo que hace ChatGPT, solo mucho más rápido y en una escala mucho más amplia de la que cualquier humano es capaz.

Una pequeña preocupación es que algunos de sus consejos implica el tipo de discurso de terapia más popular en los Estados Unidos; El tipo de lenguaje que, en mis momentos más gruesos, me hace soñar despierto con darle una bofetada a quien lo haya ofrecido.

Por ejemplo, sugirió que le dijera a mi esposo: “Me siento un poco invisible”.

No, chat gpt, mi problema no se está viendo, se está escuchando. Después de 20 años juntos, me preocupa que releguemos las voces de los demás al fondo. Como el Hoover.

En general, mi semana pasó usando el servicio gratuito para arbitrar nuestros argumentos fue un éxito definitivo. Pero no creo que los terapeutas de relaciones tengan que preocuparse demasiado por sus trabajos o tarifas (£ 80 a £ 200 por hora). Porque lo que ChatGPT no puede hacer, al menos aún no, es burlarse de sus usuarios esos patrones de comportamiento que provienen de nuestra infancia. Sin embargo, el momento no puede estar muy lejos cuando un Robo-Freud le sugerirá que se sienta cómodo en el sofá y diga: “Cuéntame sobre tu madre …”

Sin embargo, para las quejas cotidianas, las hileras y las molestias, es el árbitro ideal y el consejero. Mi única preocupación ahora es: dados todos los problemas que parece que he encontrado para alimentarlo, ¿podría ser que soy el problema?

Después de la consulta de reciclaje, pregunté si sentía lástima por mi esposo, estar casado conmigo. La rápida respuesta diplomática: “De hecho, no tiene suerte de tener a alguien que pueda convertir una solicitud de reciclaje en un monólogo cómico”. Chatgpt, ¿estás seguro de que no estás buscando una señora?

Continue Reading

Noticias

Lo que significa para los padres

Published

on

Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.

En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.

Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.

Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres

Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.

Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.

¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes

Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.

Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.

La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.

Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.

Géminis AI y derechos de los niños: lo que dicen las advertencias

Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños? Nos recuerda que los riesgos reales son paralelos al potencial de IA.

Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.

El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.

El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.

El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.

La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.

También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.

Lo que los padres pueden (y no) controlar con Géminis Ai

Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.

El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.

Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.

Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.

Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.

La carga de IA para los padres: ¿Quién está realmente a cargo?

La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.

Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.

Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.

Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.

Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.

Continue Reading

Noticias

La función de ‘lienzo’ de Gemini es sorprendentemente excelente para el procesamiento y la codificación de textos

Published

on


AI no viene a tu trabajo. Probablemente? Mira, es complicado. Y cualquiera que haya jugado con un chatbot probablemente se haya preguntado “,Este ¿Es con qué quieren reemplazar a un humano? “Es una preocupación válida, porque los chatbots de IA generativos como Géminis de Google no son muy útiles. Para mi sorpresa, sin embargo, la función de lona de Gemini puede ser.

Diré por adelantado, voy a esto como un escéptico de IA generativopero tampoco soy un doomer de IA. Hay algunas situaciones, como Creación de texto alternativo para imágenes para aumentar la accesibilidad-Donde las herramientas basadas en AI pueden ser útiles. Prefiero encontrar dónde las herramientas pueden ser realmente útiles e ignorar el ruido. Con ese fin, el lienzo de Géminis es lo único que hace que Gemini sea realmente útil para mí. En lugar de solo pedirle a una IA que me escriba, me da un espacio de trabajo donde puedo hacer las cosas y ocasionalmente pedir ayuda o tareas como lo necesito.

¿Qué es el lienzo de Géminis?

Canvas es una herramienta opcional que puede habilitar en una conversación con Gemini. Este espacio de trabajo adicional puede funcionar como un editor de texto y una herramienta de codificación. Cualquier documento o código que cree con esta herramienta, también puede editar directamente como cualquier otro editor. Luego puede exportar documentos que cree a Google Docs cuando esté listo para pasar a otra fase del proyecto.

Si lo está utilizando para codificar, puede ejecutar código directamente dentro de lienzo. Esto es particularmente útil para los applets basados ​​en HTML cuando usa Gemini en un navegador web, ya que ya está diseñado para HTML. La ventana puede cambiar entre una vista previa que ejecuta el código o un editor de texto para manipularlo directamente.

Para usar el lienzo, simplemente haga clic en el botón de lienzo en la parte inferior de su ventana de inmediato (o debajo del icono + en el móvil). Su primer aviso abrirá lienzo, y generalmente prefiero comenzar con uno en blanco, así que diré algo como “Dame una ventana de lienzo en blanco para empezar”. También puede pedirle a Gemini que genere algo para comenzar, y dependiendo de si se trata de un documento o código de texto, se debe por defecto a la ventana de lienzo adecuada.

Si eso suena como una manera mucho más lenta de pedir un documento en blanco, bueno, lo es. Los LLM son sorprendentemente buenos para comprender los comandos del lenguaje natural, pero no siempre son excelentes en las instrucciones sucintas (más sobre eso más adelante). Sin embargo, lo que esto significa es que se presta bien a los comandos verbales.

A menudo uso herramientas como Dicción de Windows escribir texto, en lugar de escribirlo todo a mano. Es una gran herramienta por sí sola para reducir la tensión constante de la muñeca que proviene de una carrera de escribir todo el día, o si eres más del tipo de flujo de conciencia. En algunos casos, dictar los comandos y hacer que Gemini los interprete puede ser más rápido para mí que hacer las cosas manualmente.

Con eso en mente, aquí hay algunos casos de uso que he encontrado que en realidad son más útiles que hacer las cosas de la manera normal.

Organización de ideas de ideas y borradores

“AI para hacer una lluvia de ideas” es a menudo lo primero que sugiere la gente, y no es muy útil,si Su objetivo es obtener la herramienta para pensar por usted. Me gustaría sugerir algo ligeramente diferente. Cuando haga una lluvia de ideas de ideas, en lugar de usar Gemini para encontrar mis ideas para mí, lo usaré para organizar mis ideas y notas, y convertiré en los contornos aprobados.

El truco aquí es que Géminis puede crear, administrar y lo más importante entender Las diferencias entre múltiples documentos diferentes. Por ejemplo, a veces uso Gemini para escribir lanzamientos para artículos en un documento, y luego convertirlos en un borrador en otro. Mientras trabaja en el draft, puedo pedirle a Gemini que “cambie el estado de [x] Pitch to ‘terminó’ en el doctor de lanzamiento “.

Cuando probé esto, esperaba que Géminis hiciera algo ridículo y mal. Mi rastreador de “estado” es solo una línea adicional bajo el párrafo que dice algo como “Estado: aprobado”. Pero Gemini entendió lo que esto significaba y cambió el texto, todo mientras trabajaba en otro documento. Es algo pequeño, pero demuestra cuán útil puede ser tener un asistente que comprenda lo que está tratando de lograr.

Como nota al margen, Google Docs también tiene una herramienta “Preguntar Géminis” incrustada en ella, y pensaría que esta sería una mejor manera de lograr la misma tarea, pero por alguna razón, no lo es. He intentado pedirle a Gemini que haga pequeños cambios en un Doc de Google, pero en realidad no cambiará nada a menos que seleccione manualmente el texto. Tampoco puede referirse a otros documentos de Google en su disco, por lo que es extrañamente más limitado que el lienzo en Géminis. Por lo general, todavía copiaré mis borradores a los documentos más adelante en el proceso, pero para una lluvia de ideas temprano, el lienzo es una herramienta útil.

Editar formateo y presentación (¡en Markdown!)

Géminis (y, francamente, cada herramienta de IA generativa que he probado) es absolutamente horrible al escribir cualquier cosa de interés. Puramente por curiosidad, he probado si Gemini podría escribir un borrador de un artículo para mí, y solo hago ediciones. En cada caso, tuve que reescribir cada palabra. No solo porque a menudo se equivocan, sino porque son suaves, aburridos y cringey.

Formato Las palabras que escribes son otra historia. Al usar lienzo, Gemini puede comprender los comandos de conversación como “convertir todos los subtítulos a H2” o “mover la segunda sección del subtítulo por encima del primero” y aplicarlos directamente. También es ideal para opciones de estilo más complejas, como “convertir todos los subtítulos H2 en caso de oración” o “Si hay semicolones en este documento, los borran”.

¿Qué piensas hasta ahora?

Como beneficio adicional, Canvas utiliza el formato de Markdown de forma predeterminada (A diferencia de Google Docs), lo que lo hace más útil para crear borradores que copiará en otro lugar más adelante. Esto no es realmente una característica de Géminis o lienzo per se, es solo un buen toque con el que me parece más fácil trabajar con el que es más fácil trabajar.

Haga sus propios atajos para ediciones y comandos complejos

Todo lo que he hablado hasta ahora es cierto y servicial, pero si soy honesto conmigo mismo, no es bastante Suficiente para convencerme de integrar completamente el lienzo en mi flujo de trabajo. Lo que me empujó al límite fue cuando descubrí cómo crear mis propios atajos. Este truco está escondido debajo Configuración> Información guardada.

Google presenta esto como una forma de almacenar “información sobre su vida y preferencias”, pero es realmente un lugar para poner las instrucciones que desee que Gemini siempre tenga en cuenta. Entonces, por ejemplo, tengo un bloque guardado que dice “Si todo el aviso es ‘H2S’, luego convierta todos los subtítulos en la ventana de lienzo a H2S”. A partir de entonces, solo necesito escribir “H2S” para realizar la acción. Es una forma útil de hacer sus propios atajos personalizados para cualquier instrucción que desee.

Puede usar esto para pautas más complejas, como “Cuando pido un esquema, formatearlo [however you like]”. O, si está codificando (más sobre eso a continuación)”, cuando pido un applet, supongo que quiero que se escriba en HTML5. “Puede hacer que estas instrucciones condicionales, como tengo aquí, así que solo se desencadenan cuando las necesite.

Crear pequeños applets personalizados para usos de nicho

Hace un tiempo, alguien que conocía estaba luchando por visualizar el estacionamiento en espacios ajustados. En ese momento, abrí Licuadorauna herramienta de modelado y animación en 3D, para visualizar un ejemplo para ella. Más recientemente, intenté ver si podía hacer una herramienta similar en Géminis. Tomó un aviso. Pedí una herramienta animada HTML5 para demostrar estacionamiento, di algunos específicos para lo que quería, y pronto tenía un pequeño applet que era forma Más fácil de hacer de lo que mostré a mi amigo.

Uno podría argumentar muy razonablemente que hay formas más fáciles de codificar esto, o que el código que salió es malo por alguna razón. Pero no sé cómo codificar, al menos no tan bien. Géminis, sin embargo, es bastante bueno en pequeños applets muy simples como este. Simplemente no esperes convertir cualquier cosa que genere a tu jefe si eres un desarrollador.

No Úselo para reemplazar el trabajo creativo o riguroso

Debería ser evidente, pero Gemini (y en este punto, cualquier chatbot de IA) no será un sustituto para pensar por sí mismo. Es muy bueno escribir cualquier cosa interesante o creativa, puede hacer mal hechos o fuentes, y lo más maldito, dirá con confianza que puede hacer o ha hecho algo que es incapaz de hacer.

Al final del día, todavía tienes que trabajar. Dejando a un lado que las herramientas de IA a menudo producen trabajos de bajo esfuerzo, existe la pregunta abierta de si es ético para Use AI para el trabajo o creatividad. La mayoría de las herramientas de IA fueron creadas por raspando datos con derechos de autorincluso de las personas que esas mismas herramientas intentarían reemplazar. (No decir nada de los crecientes costos de electricidad que Toma el entrenamiento de los modelos de IA generativos.)

Las herramientas de IA pueden ser extremadamente útiles cuando se ponen al propósito correcto. Lo admito, estoy escribiendo en parte esto aspiracionalmente. Usar el lienzo de Gemini me dio una idea de cuán útiles podrían ser las herramientas de IA si se centraran en ser una capa interpretativa para las aplicaciones, en lugar de un reemplazo para hacer un trabajo real.

Continue Reading

Trending