Noticias
OpenAI se vio afectado por la salida de otro experto en seguridad de IA y nuevas reclamaciones sobre infracción de derechos de autor
OpenAI perdió a otro investigador de seguridad de IA con una larga trayectoria y se vio afectado por acusaciones de otro ex investigador de que la compañía violó la ley de derechos de autor en el entrenamiento de sus modelos. Ambos casos plantean serias dudas sobre los métodos, la cultura, la dirección y el futuro de OpenAI.
El miércoles, Miles Brundage, que actualmente lideraba un equipo encargado de pensar en políticas para ayudar tanto a la empresa como a la sociedad en general a preparar la llegada de la “inteligencia general artificial” o AGI, anunció que dejaría la empresa el viernes después de más de seis años para poder continuar su trabajo con menos limitaciones.
En una extensa publicación de Substack, Brundage dijo que OpenAI había impuesto límites cada vez más restrictivos a lo que podía decir en las investigaciones publicadas. También dijo que, al fundar o unirse a una organización sin fines de lucro sobre políticas de IA, esperaba ser más eficaz a la hora de advertir a la gente sobre la urgencia en torno a los peligros de la IA, ya que “las afirmaciones en este sentido a menudo se descartan como exageraciones cuando provienen de la industria”.
“La atención que merece la seguridad”
La publicación de Brundage no atacó abiertamente a su futuro ex empleador; de hecho, mencionó al CEO Sam Altman como una de las muchas personas que brindaron “aportes sobre versiones anteriores de este borrador”, pero sí se quejó extensamente sobre Las empresas de IA en general “no necesariamente [giving] La seguridad de la IA recibe la atención que merece de forma predeterminada”.
“Hay muchas razones para esto, una de las cuales es una desalineación entre los intereses privados y sociales, que la regulación puede ayudar a reducir. También existen dificultades en torno a los compromisos creíbles y la verificación de los niveles de seguridad, que incentivan aún más los recortes”, escribió Brundage. “Se toman atajos en una variedad de áreas, incluida la prevención de resultados nocivos y alucinados, así como la inversión para prevenir los riesgos catastróficos en el horizonte”.
La partida de Brundage extiende una serie de renuncias de alto perfil de OpenAI este año, incluidas Mira Murati, su directora de tecnología, así como Ilya Sutskever, cofundador de la compañía y ex director científico, muchas de las cuales estaban explícitamente o probablemente relacionadas. a la postura cambiante de la empresa sobre la seguridad de la IA.
La partida de Brundage extiende una serie de renuncias de alto perfil de OpenAI este año, incluidas Mira Murati, su directora de tecnología, así como Ilya Sutskever, cofundador de la compañía y ex director científico, muchas de las cuales fueron explícitamente o probablemente relacionado con el cambio de postura de la empresa sobre la seguridad de la IA.
OpenAI se fundó inicialmente como una casa de investigación para el desarrollo de IA segura, pero con el tiempo la necesidad de una importante financiación externa (recientemente recaudó una ronda de 6.600 millones de dólares con una valoración de 157.000 millones de dólares) ha inclinado gradualmente la balanza hacia su lado con fines de lucro. que probablemente pronto se convierta formalmente en el componente estructural dominante de OpenAI.
Los cofundadores Sutskever y John Schulman dejaron OpenAI este año para centrarse en la IA segura. Sutskever fundó su propia empresa y Schulman se unió a Anthropic, archirrival de OpenAI, al igual que Jan Leike, un colega clave de Sutskever que declaró que “en los últimos años, la cultura y los procesos de seguridad [at OpenAI] han pasado a un segundo plano ante los productos brillantes”.
Ya en agosto, había quedado claro que alrededor de la mitad del personal centrado en la seguridad de OpenAI se había marchado en los últimos meses, y eso fue antes de la dramática salida de Murati, quien con frecuencia tuvo que resolver discusiones entre los investigadores de la empresa que priorizan la seguridad y sus equipo comercial más entusiasta, como Fortuna reportada. Por ejemplo, al personal de OpenAI se le dio sólo nueve días para probar la seguridad del potente modo GPT4-o de la empresa antes de su lanzamiento, según fuentes familiarizadas con la situación.
En una señal más del cambio en el enfoque de seguridad de OpenAI, Brundage dijo que el equipo de preparación de AGI que lideraba se está disolviendo y su personal se “distribuye entre otros equipos”. Su subequipo de investigación económica pasará a ser responsabilidad del nuevo economista jefe de OpenAI, Ronnie Chatterji, dijo. No especificó cómo se redistribuiría el resto del personal.
También vale la pena señalar que Brundage no es la primera persona en OpenAI que enfrenta problemas con la investigación que desea publicar. Después de la dramática y breve expulsión de Altman el año pasado por parte de la junta directiva centrada en la seguridad de OpenAI, se supo que Altman había criticado previamente a la entonces miembro de la junta Helen Toner porque era coautora de un artículo sobre seguridad de la IA que implícitamente criticaba a la empresa.
Modelo insostenible
Las preocupaciones sobre la cultura y el método de OpenAI también se vieron aumentadas por otra historia el miércoles. El New York Times publicó un artículo importante sobre Suchir Balaji, un investigador de IA que pasó casi cuatro años en OpenAI antes de irse en agosto.
Balaji dice que se fue porque se dio cuenta de que OpenAI estaba infringiendo la ley de derechos de autor al entrenar sus modelos con datos protegidos por derechos de autor de la web, y porque decidió que los chatbots como ChatGPT eran más dañinos que beneficiosos para la sociedad.
Una vez más, la transformación de OpenAI de un equipo de investigación a un generador de dinero es central aquí. “Con un proyecto de investigación, en términos generales, puedes entrenar con cualquier dato. Esa era la mentalidad en ese momento”, dijo Balaji al Veces. Ahora afirma que los modelos de IA amenazan la viabilidad comercial de las empresas que generaron esos datos en primer lugar, diciendo: “Este no es un modelo sostenible para el ecosistema de Internet en su conjunto”.
OpenAI y muchos de sus pares han sido demandados por los titulares de derechos de autor por esa capacitación, que implicó copiar mares de datos para que los sistemas de las empresas pudieran ingerirlos y aprender de ellos. No se cree que esos modelos de IA contengan copias completas de los datos como tales, y rara vez generan copias cercanas en respuesta a las indicaciones de los usuarios; es la copia inicial no autorizada a la que generalmente apuntan las demandas.
La defensa estándar en tales casos es que las empresas acusadas de violar los derechos de autor argumenten que la forma en que utilizan las obras protegidas por derechos de autor debería constituir un “uso justo”: que los derechos de autor no fueron infringidos porque las empresas transformaron las obras protegidas por derechos de autor en otra cosa, de una manera no de manera explotadora, los utilizó de una manera que no compitiera directamente con los titulares originales de los derechos de autor ni les impidiera explotar la obra de manera similar, ni sirviera al interés público. La defensa es más fácil de aplicar a casos de uso no comercial y siempre la deciden los jueces caso por caso.
En una publicación de blog del miércoles, Balaji se sumergió en la ley de derechos de autor de EE. UU. pertinente y evaluó cómo sus pruebas para establecer el “uso justo” se relacionaban con las prácticas de datos de OpenAI. Alegó que la llegada de ChatGPT había afectado negativamente el tráfico a destinos como el sitio de preguntas y respuestas para desarrolladores Stack Overflow, y dijo que la producción de ChatGPT podría en algunos casos sustituir la información encontrada en ese sitio. También presentó un razonamiento matemático que, según afirmó, podría usarse para determinar los vínculos entre la salida de un modelo de IA y sus datos de entrenamiento.
Balaji es informático y no abogado. Y hay muchos abogados de derechos de autor que creen que una defensa del uso legítimo del uso de obras protegidas por derechos de autor en el entrenamiento de modelos de IA debería tener éxito. Sin embargo, la intervención de Balaji sin duda llamará la atención de los abogados que representan a los editores y autores de libros que han demandado a OpenAI por infracción de derechos de autor. Parece probable que su análisis interno termine desempeñando algún papel en estos casos, cuyo resultado podría determinar la economía futura de la IA generativa y posiblemente el futuro de empresas como OpenAI.
Es raro que los empleados de las empresas de IA hagan públicas sus preocupaciones sobre los derechos de autor. Hasta ahora, el caso más significativo probablemente haya sido el de Ed Newton-Rex, quien fue jefe de audio en Stability AI antes de renunciar el pasado noviembre con la afirmación de que “los modelos de IA generativa actuales pueden claramente usarse para crear obras que compitan con los derechos de autor”. “Las obras en las que están entrenados, por lo que no veo cómo el uso de obras protegidas por derechos de autor para entrenar modelos generativos de IA de esta naturaleza puede considerarse un uso legítimo”.
“Construimos nuestros modelos de IA utilizando datos disponibles públicamente, de una manera protegida por el uso legítimo y principios relacionados, y respaldados por precedentes legales de larga data y ampliamente aceptados”, dijo un portavoz de OpenAI en un comunicado. “Consideramos que este principio es justo para los creadores, necesario para los innovadores y fundamental para la competitividad de Estados Unidos”.
“Estoy emocionado de seguir su impacto”
Mientras tanto, el portavoz de OpenAI dijo que el “plan de Brundage de apostar por la investigación independiente sobre políticas de IA le brinda la oportunidad de tener un impacto a una escala más amplia, y estamos entusiasmados de aprender de su trabajo y seguir su impacto”.
“Confiamos en que en su nuevo cargo, Miles seguirá elevando el listón de la calidad de la formulación de políticas en la industria y el gobierno”, dijeron.
Brundage había visto reducido el alcance de su trabajo en OpenAI a lo largo de su carrera en la empresa, pasando del desarrollo de metodologías de pruebas de seguridad de la IA y la investigación sobre cuestiones actuales de gobernanza nacional e internacional relacionadas con la IA hasta un enfoque exclusivo en el manejo de un potencial sobrehumano. AGI, en lugar de los riesgos de seguridad a corto plazo de la IA.
Mientras tanto, OpenAI ha contratado a un grupo cada vez mayor de expertos en políticas de gran impacto, muchos de ellos con amplia experiencia política, de seguridad nacional o diplomática, para encabezar equipos que analizan diversos aspectos de la gobernanza y las políticas de la IA. Contrató a Anna Makanju, una exfuncionaria de seguridad nacional de la administración Obama que había trabajado en funciones políticas en Starlink y Facebook de SpaceX, para supervisar su contacto inicial con funcionarios gubernamentales tanto en Washington, DC como en todo el mundo. Actualmente es vicepresidenta de impacto global de OpenAI. Más recientemente, contrató al veterano agente político Chris Lehane, que también había desempeñado un papel en comunicaciones y políticas en Airbnb, para que fuera su vicepresidente de asuntos globales. Chatterji, quien se hace cargo del equipo de economía que anteriormente dependía de Brundage, trabajó anteriormente en varios roles de asesoría en las Casas Blancas del presidente Joe Biden y del presidente Barack Obama y también se desempeñó como economista jefe en el Departamento de Comercio.
No es raro en las empresas de tecnología de rápido crecimiento ver que los primeros empleados ven sus funciones circunscritas por la incorporación posterior de personal de alto nivel. En Silicon Valley, esto a menudo se conoce como “ponerse en capas”. Y, aunque no se menciona explícitamente en la publicación del blog de Brundage, puede ser que la pérdida de su unidad económica a manos de Chatterji, después de la pérdida anterior de algunas de sus investigaciones sobre políticas de IA a corto plazo a manos de Makanju y Lehane, fuera la gota que colmó el vaso. . Brundage no respondió de inmediato a las solicitudes de comentarios para esta historia.
Brundage aprovechó su publicación para exponer las cuestiones en las que se centrará ahora. Estos incluyen: evaluar y pronosticar el progreso de la IA; la regulación de la seguridad y protección de la IA de frontera; Los impactos económicos de la IA; la aceleración de casos de uso positivos para la IA; política en torno a la distribución de hardware de IA; y la “gran estrategia general de IA” de alto nivel.
Advirtió que “ni OpenAI ni ningún otro laboratorio de vanguardia” estaba realmente preparado para la llegada de AGI, ni tampoco el mundo exterior. “Para ser claros, no creo que esta sea una declaración controvertida entre los líderes de OpenAI”, subrayó, antes de argumentar que la gente debería seguir trabajando en la empresa siempre y cuando “se tomen en serio el hecho de que sus acciones y declaraciones contribuyen a la cultura de la organización y puede crear dependencias de trayectoria positivas o negativas a medida que la organización comienza a administrar capacidades extremadamente avanzadas”.
Brundage señaló que OpenAI le había ofrecido financiación, créditos informáticos e incluso acceso temprano al modelo para ayudarlo en su próximo trabajo.
Sin embargo, dijo que aún no había decidido si aceptaría esas ofertas, ya que “pueden comprometer la realidad y/o la percepción de independencia”.
Noticias
OpenAI elimina datos clave y se intensifica la demanda por derechos de autor
Un acontecimiento reciente en la batalla legal en curso entre OpenAI y los principales medios de comunicación, incluidos Los New York Times y Noticias diariasha llamado la atención en las comunidades tecnológica y legal.
Los abogados que representan a estos editores afirman que los ingenieros de OpenAI eliminaron accidentalmente datos cruciales que podrían haber respaldado su caso en una demanda que acusa a la empresa de inteligencia artificial de extraer contenido protegido por derechos de autor para entrenar sus modelos sin permiso.
Este incidente pone de relieve la tensión entre las tecnologías emergentes de IA y los derechos de propiedad intelectual. Esto es lo que sucedió y por qué es importante.
¿Qué pasó? El incidente de eliminación de datos
En un giro inusual, los ingenieros de OpenAI borraron los datos almacenados en una máquina virtual configurada para que los editores buscaran su material protegido por derechos de autor.
La demanda gira en torno a afirmaciones de que OpenAI utilizó artículos con derechos de autor, incluidos los de The New York Times y Daily News, para entrenar sus modelos de IA, como GPT-4, sin obtener los permisos o licencias necesarios.
En otoño, OpenAI acordó proporcionar dos máquinas virtuales a los equipos legales de los demandantes. Estas máquinas permitirían a los expertos buscar en los vastos conjuntos de entrenamiento de IA de OpenAI para ver si el contenido de las empresas se había utilizado sin consentimiento.
Después de semanas de búsqueda, los expertos habían acumulado más de 150 horas de trabajo, hasta que los datos fueron eliminados el 14 de noviembre.
Los abogados de los editores presentaron una carta en el Tribunal de Distrito de EE. UU. para el Distrito Sur de Nueva York, explicando que los ingenieros de OpenAI habían borrado accidentalmente datos críticos que podrían haber ayudado a rastrear dónde y cómo se utilizaron los artículos de los editores en el entrenamiento de los modelos.
Si bien se recuperaron algunos datos, las estructuras de carpetas y los nombres de los archivos se perdieron “irremediablemente”, lo que hizo que los datos recuperados fueran inútiles para la investigación. Este error obliga a los demandantes a recrear su trabajo desde cero.
¿Por qué es importante esto?
Esta eliminación podría tener un impacto significativo en el caso legal. Si los demandantes no pueden probar su afirmación de que OpenAI utilizó sus artículos sin permiso, puede resultar difícil responsabilizar a la empresa.
Aunque OpenAI intentó recuperar los datos, el incidente generó preocupaciones sobre la integridad de la gestión de datos de la empresa y su capacidad para cumplir con las obligaciones legales en lo que respecta al respeto de los derechos de propiedad intelectual.
Además, el equipo legal de los editores enfatizó que, si bien no creen que la eliminación haya sido intencional, subraya una cuestión crítica: OpenAI es la única entidad con acceso a sus propios conjuntos de datos.
La empresa podría estar mejor posicionada para realizar búsquedas exhaustivas para localizar cualquier contenido infractor. Sin embargo, sin una cooperación transparente, el proceso podría verse gravemente obstaculizado.
La defensa de OpenAI: uso legítimo frente a infracción de derechos de autor
En respuesta a estas demandas, OpenAI ha defendido constantemente su posición, argumentando que utilizar datos disponibles públicamente, incluidos artículos de noticias, para entrenar modelos de IA es una forma de “uso justo”.
Según esta doctrina legal, las empresas pueden utilizar material protegido por derechos de autor sin permiso si se utiliza con fines como investigación, educación o comentarios.
OpenAI cree que, dado que sus modelos, como GPT-4, se basan en grandes cantidades de contenido disponible públicamente, no necesita compensar a los titulares de derechos de autor, incluso si su tecnología genera ingresos al proporcionar servicios basados en IA.
Sin embargo, la legalidad de esta defensa sigue siendo un área gris. Si bien OpenAI ha firmado acuerdos de licencia con varios editores destacados, incluidos La prensa asociada, Información privilegiada sobre negociosy Tiempos financieroslos términos de estos acuerdos no han sido revelados.
Los informes sugieren que editores como Dotdash Meredith, la empresa matriz de Gentepodría estar recibiendo pagos sustanciales y, según se informa, Dotdash consiguió un acuerdo anual de 16 millones de dólares.
Estas asociaciones parecen ser parte de la estrategia de OpenAI para mitigar posibles riesgos de infracción de derechos de autor, pero la cuestión más amplia del uso de contenido protegido por derechos de autor sin consentimiento sigue siendo importante.
Las implicaciones legales y éticas
El caso OpenAI es un recordatorio de que los límites entre la innovación y la ley de propiedad intelectual siguen siendo turbios, especialmente en el campo de la IA en rápida evolución.
También destaca una preocupación más amplia: a medida que las tecnologías de inteligencia artificial se vuelven más sofisticadas, la línea entre lo que constituye “uso legítimo” y la infracción de derechos de autor es cada vez más difícil de trazar.
Para los editores, este caso plantea preguntas importantes sobre si deberían ser compensados por su trabajo utilizado en la capacitación en IA o si las empresas de IA deberían tener más libertad para construir modelos utilizando la gran cantidad de datos disponibles en Internet.
Si el argumento de OpenAI de que extraer datos disponibles públicamente constituye un uso legítimo se sostiene en los tribunales, podría sentar un precedente que cambie el panorama tanto para los creadores de contenido como para las empresas de tecnología.
¿Qué sigue en el caso?
Por ahora, la batalla legal está lejos de terminar. Si bien OpenAI no ha confirmado ni negado que haya utilizado ninguna obra específica protegida por derechos de autor, se espera que la demanda se prolongue durante algún tiempo.
Los próximos meses probablemente serán críticos para determinar cómo las empresas de IA manejarán las cuestiones de derechos de autor en el futuro. Los editores están siguiendo de cerca este caso, ya que su resultado podría remodelar la forma en que se utiliza el contenido para entrenar la IA y cómo se compensa a los creadores por su trabajo.
Un debate creciente sobre la IA y los derechos de autor
Este caso es parte de un debate más amplio sobre cómo debería evolucionar la ley de propiedad intelectual en la era de la inteligencia artificial.
Muchos creadores y editores de contenido están preocupados por las implicaciones de que la IA elimine su trabajo sin permiso, mientras que los desarrolladores de IA argumentan que tales prácticas son esenciales para construir tecnologías innovadoras que beneficien a la sociedad.
En los próximos años, es posible que veamos más casos como este, a medida que el mundo de la IA siga expandiéndose. Es probable que los tribunales tengan que decidir cómo equilibrar los intereses de los creadores, los consumidores y las empresas de tecnología de una manera que respalde tanto la innovación como la equidad.
Ejemplos del mundo real: ¿quién se ve afectado?
El impacto de este caso no se limita a las grandes editoriales como Los New York Times y Noticias diarias. Los creadores de contenidos más pequeños, los blogueros y los periodistas independientes también pueden sentir los efectos dominó del resultado.
Si a las empresas de inteligencia artificial se les permite extraer contenido sin licenciarlo, podría socavar el valor del trabajo original y la propiedad intelectual para todos los creadores.
Por otro lado, si los tribunales deciden que las empresas de inteligencia artificial deben pagar por el contenido que utilizan, esto podría proporcionar nuevas fuentes de ingresos para aquellos cuyo trabajo impulsa los algoritmos. Este es un momento crítico en la intersección de la tecnología, el derecho y la creatividad.
Al profundizar en esta disputa legal, podemos ver que el camino a seguir requerirá una cuidadosa consideración tanto de los principios legales como de las consideraciones éticas que rodean a la IA. Queda por ver si se exigirá a OpenAI que compense a los medios de comunicación por su contenido o si sus acciones se considerarán “uso justo”.
Pero una cosa está clara: la relación entre las empresas de IA y los creadores de contenido está entrando en un territorio inexplorado, y su resolución podría sentar las bases para la forma en que las futuras generaciones de IA interactuarán con el contenido que da forma a nuestro mundo digital.
Noticias
¿Quién será el próximo presidente del Comité Nacional Demócrata? Le preguntamos a ChatGPT
La carrera por el liderazgo del Comité Nacional Demócrata (DNC) ha comenzado oficialmente. El ex gobernador de Maryland, Martin O’Malley, y Ken Martin, presidente del Partido Demócrata-Campesino-Laborista de Minnesota, han surgido como los primeros candidatos oficiales.
La selección del nuevo presidente será fundamental para dar forma a la estrategia y dirección del partido de cara a las elecciones presidenciales de 2028.
Pero, ¿quién terminará reemplazando al actual presidente del Comité Nacional Demócrata, Jaime Harrison, quien ocupa el cargo desde enero de 2021? Semana de noticias preguntó la herramienta de IA generativa, ChatGPT, qué candidato cree que saldrá victorioso.
¿Quién ganará la carrera por el liderazgo del Comité Nacional Demócrata?
Semana de noticias preguntó Chat GPT “La carrera por el liderazgo del Comité Nacional Demócrata (DNC) ha comenzado oficialmente. El puesto quedará vacante en marzo cuando el actual presidente Jaime Harrison se prepara para dimitir. ¿Quién será el próximo presidente del DNC?”
Se pidió a la herramienta de IA generativa que viera una lista de los posibles candidatos, explicara por qué serían buenas opciones y sugiriera quién tenía probabilidades de ganar.
“El Comité Nacional Demócrata (DNC) elegirá un nuevo presidente para marzo de 2025, tras la decisión de Jaime Harrison de dimitir”, respondió Chat GPT. “Varios demócratas destacados han surgido como candidatos potenciales para este papel fundamental”.
Candidatos declarados
Ken Martín
Martin, que actualmente se desempeña como presidente del Partido Demócrata-Campesino-Laborista de Minnesota y vicepresidente del Comité Nacional Demócrata, anunció su candidatura el 19 de noviembre. Aporta una amplia experiencia en la organización del partido y ha obtenido el apoyo de varios líderes y progresistas del partido estatal.
Semana de noticias se ha puesto en contacto con Martin por correo electrónico para solicitar comentarios.
Martín O’Malley
El exgobernador de Maryland y candidato presidencial de 2016 declaró su candidatura a la presidencia del Comité Nacional Demócrata el 18 de noviembre. O’Malley enfatiza la necesidad de que el partido se reconecte con los estadounidenses comunes y corrientes y se centre en la seguridad económica.
Semana de noticias se ha comunicado con Martin a través de un comentario en un formulario en línea.
Candidatos potenciales
Ben Wikler
Como presidente del Partido Demócrata de Wisconsin, Wikler ha desempeñado un papel decisivo en la movilización de votantes en un estado clave en el campo de batalla. Sus habilidades organizativas y su éxito en Wisconsin lo convierten en un fuerte contendiente.
Semana de noticias se ha puesto en contacto con Wikler por correo electrónico para hacer comentarios
Emanuel Rahm
Según se informa, el actual embajador de Estados Unidos en Japón y ex alcalde de Chicago está considerando postularse para presidente del Comité Nacional Demócrata. La amplia experiencia política de Emanuel y su capacidad de recaudación de fondos podrían ser activos valiosos para el partido.
Semana de noticias se ha comunicado con Emanuel por correo electrónico para solicitar comentarios.
Mitch Landrieu
El ex alcalde de Nueva Orleans y zar de infraestructura de la Casa Blanca ha sido mencionado como candidato potencial. La experiencia de Landrieu en proyectos de infraestructura y gobernanza urbana podría proporcionar una ventaja estratégica.
Semana de noticias se ha comunicado con Landrieu por correo electrónico para solicitar comentarios.
Resultado probable
Si bien es prematuro predecir el resultado definitivo, la entrada temprana de Ken Martin en la carrera y su apoyo sustancial de los miembros del Comité Nacional Demócrata lo posicionan como un candidato fuerte. Sin embargo, la dinámica podría cambiar a medida que otros candidatos formalicen sus candidaturas y presenten sus visiones para el futuro del partido.
La selección del próximo presidente del Comité Nacional Demócrata influirá significativamente en la estrategia y dirección del Partido Demócrata en los próximos años, especialmente después de los recientes resultados electorales.
¿Cuándo se decidirá el próximo presidente del Comité Nacional Demócrata?
Se espera que el Comité Nacional Demócrata elija a su próximo presidente antes del 1 de marzo de 2025. Las reglas del partido exigen que la elección de liderazgo se lleve a cabo antes de esta fecha, según Ballotpedia.
Aunque aún no se ha anunciado la fecha exacta, las elecciones generalmente tienen lugar durante la reunión de invierno del comité.
¿Tienes una historia? Semana de noticias debería estar cubriendo? ¿Tienes alguna pregunta sobre esta historia? Póngase en contacto con [email protected].
Noticias
13 sencillos consejos y trucos de Google Gemini para lograr la máxima productividad
Mucho más que un simple chatbot talentoso, Google Gemini ofrece funcionalidad de IA multimodal y una interactividad potente e indolora. El nivel más alto de Google One, uno de los mejores servicios de almacenamiento en la nube de la actualidad, incluye convenientemente acceso a su versión más potente.
Emitir indicaciones sencillas y generar texto escrito competente resulta fácil para los nuevos usuarios de Gemini, pero su conjunto de herramientas en constante expansión proporciona impresionantes mejoras en la productividad. Estas son algunas de las formas más útiles de utilizar el agente de inteligencia artificial de Google en constante mejora para ahorrar tiempo y aumentar el rendimiento.
Relacionado
Primeros pasos con Google Gemini: conceptos básicos del último asistente de Android
Si quieres probar Géminis, estos consejos y trucos te ayudarán
13 Actualizar la gestión del tiempo y las rutinas de autocuidado
Aprenda hábitos eficientes y prácticas efectivas.
Alimentar a Géminis con una lista completa de tareas pendientes, completa con tareas recurrentes y actividades únicas, puede generar un cronograma conciso que priorice su rutina personal, las próximas fechas límite importantes o los nuevos hábitos que está tratando de adquirir. Alternativamente, brinde al agente de IA un resumen detallado de cómo pasó los últimos días, y podrá brindarle consejos sobre cómo optimizar su agenda para que todo se ajuste más cómodamente.
En su vida profesional, delinear las necesidades y los recursos de un proyecto le permite a Gemini analizar las formas más rentables y rentables de lograr sus objetivos. Después de todo, nada ayuda más a desarrollar la eficiencia de una máquina que preguntarle a una máquina.
12 Obtenga esquemas sencillos de videos de YouTube
No pierdas el tiempo sentado viendo vídeos extendidos
A veces, los creadores de información se van por la tangente y los expertos educados se vuelven prolijos. En lugar de esperar vídeos largos para ir al grano, o intentar mantener todos los elementos en orden en tu cabeza, pídele a Gemini un resumen. Puede seleccionar los puntos más importantes a lo largo de una producción y presentarlos en un formato fácil de leer.
Funciona especialmente bien con vídeos instructivos, como tutoriales de reparación y cocina, pero resulta útil con todo tipo de contenido. Incluso puede ayudar a evitar anuncios tediosos para aquellos que aún no están suscritos a YouTube Premium.
Relacionado
El vicepresidente senior de Arm explica el verdadero impacto de la IA, y no es lo que piensas
Nuestra entrevista con el ejecutivo de Arm, Chris Bergey
11 Resumir conjuntos de datos grandes y complejos
Analizar cantidades abrumadoras de información
Si tiene una hoja de cálculo con demasiadas páginas y columnas para entenderla rápidamente, pídale a Gemini que la desglose por usted. Puede extraer inferencias generales de toda la colección de datos, investigar tendencias dentro de categorías individuales e incluso ayudar a desarrollar gráficos para visualizar la información. Puede solicitar resultados más simples o más complejos si todavía tiene problemas para comprender un documento o necesita información más detallada.
10 Autocompletar hojas de cálculo según el contexto
Complete rápidamente la entrada de datos repetitivos
Fuente: Google
La función mejorada Smart Fill de Gemini en Google Sheets detecta patrones y proporciona soluciones automatizadas para la tediosa entrada de texto. Transfiere rápidamente datos relativamente simples de una columna o formato a otro. Gemini Autofill agrega una capa de integración de IA, identifica relaciones más complejas y sugiere formas de registrarlas de manera clara y efectiva. Estas dos características ejemplifican la utilidad de lo que algunos llaman un “autocompletado glorificado”.
Relacionado
8 formas de usar Gemini en Google Sheets
Google Sheets con Gemini garantiza que tu día sea más fácil
9 Analice fácilmente la calidad SEO de los sitios web
Consulte las entradas del blog y los editoriales para comprobar su exhaustividad.
Un mensaje rápido le permite a Gemini examinar qué tan bien usted o un medio crearon un sitio. Puede compilar un informe sobre la cohesión de encabezados, meta descripciones, palabras clave y enlaces entrelazados. También puede usarlo junto con la página de resultados del motor de búsqueda para ver qué tan bien se está conectando con lo que quiere el público. Sobresale especialmente en generar preguntas de personas que también hacen y fragmentos destacados.
Con acceso a la herramienta de prueba de datos estructurados de Google, pocos agentes de inteligencia artificial pueden igualar la capacidad de Gemini para analizar la estructura y navegación de una página. Sin embargo, al igual que con otras solicitudes directas de análisis, asegúrese de comprobar los sentidos de las respuestas de Géminis. En lugar de confiar en que sus consejos de SEO sean correctos, utilice sus afirmaciones para comparar la página con las técnicas de SEO actuales y establecidas, y prepárese para solicitar revisiones o una segunda opinión.
8 Solucionar problemas y verificar el código
Rebotar ideas de programación de un modelo programado.
Los programadores han utilizado durante mucho tiempo patos de goma como oyentes inanimados para ayudar a encontrar problemas que se escapan de las grietas. Géminis puede responder, lo que lo hace aún más efectivo. Puede brindarle numerosos puntos de partida y métodos para abordar una tarea de programación y evaluar la eficiencia con la que se ejecutará su código ya escrito.
Querrá comparar sus sugerencias con sus conocimientos y recursos y, a veces, se topa con callejones sin salida o alucina, pero es mucho más efectivo que un juguete de baño.
7 Crea itinerarios de viaje inspiradores
Deje que Géminis actúe como trampolín para sus planes de vacaciones
Utilice Gemini para Google Sheets para crear planes de viaje perfectos, ya sea para un viaje de trabajo o recreativo. Puede dirigirlo a los sitios más famosos, mostrarle más atracciones que pasan desapercibidas e incluso presentarle algunos lugares locales oscuros. Naturalmente, siempre puedes utilizar sus itinerarios de muestra para ayudarte a pensar dónde quieres ir y qué quieres hacer, eliminando el estrés de planificar salidas de larga distancia.
6 Diseñe indicaciones de IA más efectivas
Cómo Gemini te ayuda a usar Gemini
Decirle al asistente de inteligencia artificial que necesita ayuda con el mensaje de Géminis correcto puede desbloquear estrategias que de otro modo tendría que investigar y adivinar. Esto tiene sentido, porque ¿qué conoce mejor a Géminis que él? Describir sus necesidades, incluido el contexto, el formato y el grado de especificidad, puede reducir la cantidad de tiempo necesario para obtener información útil. También puede adaptar el resultado al tono adecuado para comunicarse con grupos específicos de personas.
Relacionado
Aquí se explica cómo avisar a Géminis, según Google
Google publicó una hoja de trucos para aprovechar al máximo su herramienta de IA
5 Simplifique la redacción técnica para lectores generales
Reduzca la jerga y optimice los temas complicados
Para un escritor técnico que explica temas avanzados a generalistas, o para un profano que intenta comprender las complejidades de un campo de alta tecnología, Gemini hace maravillas al simplificar temas confusos. Reemplaza la terminología específica de un campo con una redacción sencilla y ayuda a lectores y escritores de ambos extremos del espectro a mantenerse en sintonía.
4 Encuentre respuestas a preguntas oscuras
Cuando la Búsqueda de Google no es suficiente
Es difícil obtener las respuestas exactas a algunas preguntas, pero el vasto Gráfico de conocimiento de Google vincula su enorme variedad de información de maneras poderosas. Mejora su capacidad para investigar y crear contenido informativo en profundidad, especialmente cuando utiliza Gemini en Google Docs.
Gemini y otros LLM cometen errores y siempre necesitarás volver a verificar sus respuestas, pero copiar y pegar rápidamente lo hace fácil. Al menos, buscar en la web a través de Gemini le brinda el trampolín perfecto para responder consultas extremadamente específicas.
3 Implementar fórmulas avanzadas de hojas de cálculo
Omita el proceso de dominar Google Sheets
Ya no necesitas pasar incontables horas dominando hojas de cálculo para implementar las fórmulas más efectivas. Gemini para Google Sheets ya hace un trabajo fantástico al sugerir las operaciones correctas y siempre está mejorando. La gestión competente de hojas de cálculo puede hacer o deshacer un equipo, lo que la convierte en una poderosa herramienta profesional.
2 Prepárese para entrevistas y reuniones importantes
Haga que Géminis haga las preguntas para evitar que lo tomen por sorpresa
Fuente: Policía de Android
No hay nada mejor que practicar para entrevistas individuales y paneles de discusión grupales. Proporcione a Gemini su tesis, currículum o tema y recursos de discusión, y pídale que le interrogue sobre contenido relacionado. Rápidamente desarrollarás una comprensión más profunda de tu propio material e incluso podría ayudarte a conseguir un trabajo o un ascenso.
1 Ajuste los agentes de IA de Gems personalizados
Tenga a mano asistentes de IA personalizados en todo momento
Fuente: Google
Los agentes de IA de Google Gems le permiten personalizar un agente específico para los temas, formatos y tonos que necesita habitualmente. Desarrolla el tuyo propio y mantenlo a tu lado para tus tareas más habituales. Esto puede reducir en gran medida la cantidad de tiempo y esfuerzo que se necesita para usar la IA, de otra manera que Gemini te ayuda a usarla.
Relacionado
Cómo crear chatbots de IA personalizados con Gemini Gems
Crea un chatbot personalizado usando Gemini Gems
Las posibilidades casi infinitas siguen aumentando
A medida que Google integre aún más Gemini en servicios potentes como la aplicación Workspace, su efectividad solo mejorará, especialmente considerando el procesamiento de IA en el dispositivo que permiten los mejores teléfonos inteligentes de la actualidad. Reduce la complejidad de la capacitación, la comunicación, el resumen y la creación, y puede ayudarlo a mantener sus pensamientos en orden cuando aparentemente tiene demasiada información que manejar.
Si utiliza estos u otros consejos de productividad con frecuencia, probablemente se beneficiará de una suscripción Gemini Advanced, que brinda acceso a un procesamiento más potente que el Gemini estándar.
-
Recursos6 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Startups6 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos6 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos6 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Eventos6 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias4 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo
-
Estudiar IA6 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales6 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes