Connect with us

Noticias

Sora de OpenAI está aquí. Todavía hay tiempo para prepararse para la amenaza que representan estas tecnologías

Published

on

Sam Gregory es director ejecutivo de la organización mundial de derechos humanos WITNESS.

A principios de este año, OpenAI anunció Sora, “un modelo de IA que puede crear escenas realistas e imaginativas a partir de instrucciones de texto”. Esta semana, el producto se lanzó oficialmente. Los usuarios que pagan pueden generar videos con una resolución de 1080p, de hasta 20 segundos de duración. Con una mezcla de emoción (como alguien profundamente arraigado en el mundo expresivo y documental del vídeo) y miedo (como alguien que lucha con las realidades del engaño del vídeo realista), he estado leyendo la tarjeta del sistema y mirando las especificaciones técnicas iniciales y los ejemplos. compartido por los primeros usuarios.

A continuación presentamos algunas reflexiones iniciales basadas en nuestra experiencia dentro de la iniciativa ‘Prepare, Don’t Panic’ en WITNESS centrada en la IA generativa multimodal, considerando los riesgos del engaño con el vídeo generativo. ¿Cuáles son las formas en que productos como Sora –ya que es una de una serie de herramientas de conversión de texto e imagen en video que están surgiendo ahora– podrían usarse para socavar el periodismo de primera línea y el trabajo de derechos humanos si no se diseñan, distribuyen o usan de manera inclusiva y responsablemente?

1. Tanto la falsificación directa como lo “real mal contextualizado” son importantes.

La primera observación es quizás la más obvia. Los videos realistas de eventos ficticios, y especialmente el contexto ficticio o las adiciones a eventos reales, se alinean con los patrones existentes de compartir videos e imágenes falsos (por ejemplo, videos mal contextualizados o ligeramente editados, transpuestos de una fecha u hora a otro lugar o eventos escenificados). donde los detalles exactos no importan siempre y cuando se ajusten lo suficientemente convincentemente a las suposiciones. Aunque Sora, hasta el momento, no maneja muy bien la física de los humanos (esta no sería una herramienta para generar imágenes de protesta particularmente creíbles, por ejemplo) ni permite a la mayoría de los usuarios usar personas reales como indicaciones, vale la pena considerar que Esta es la peor tecnología que jamás haya existido y no está claro si esa restricción a personas reales durará.

2. El contexto es clave y, sin embargo, la recontextualización de la hora, la fecha, la integridad de los medios y el contexto circundante es difícil incluso ahora.

La evaluación de la confiabilidad del contenido se basa en el conocimiento contextual: del género, el autor, los orígenes del material y otras señales contextuales importantes antes y después de que se filmara el metraje. Es por eso que el trabajo de inteligencia de código abierto (OSINT) en derechos humanos y periodismo busca múltiples fuentes y por qué enfoques de alfabetización mediática como SIFT nos alientan a ‘Investigar la fuente’, ‘Encontrar cobertura alternativa’ y ‘Rastrear el original’.

Disponemos de herramientas para una búsqueda directa inversa de imágenes (y de vídeos mediante búsqueda de fotogramas), aunque no para audio, y tenemos enfoques de procedencia emergentes que ayudan al público y a los analistas a descubrir el contexto de un vídeo, como el estándar C2PA para Metadatos firmados criptográficamente que rastrean la receta de la IA y los humanos en un contenido. Empresas como Google también han estado explorando cómo indicar mejor el contexto del contenido en la búsqueda. En este sentido, es bueno ver que OpenAI está invirtiendo tanto en enfoques de procedencia (incluidas señales C2PA en videos generados) como en un motor de búsqueda inversa interno para su propio contenido de video sintético. Si bien no están completos, estos esfuerzos son un comienzo importante.

Sin embargo, otras funcionalidades de Sora comprometen directamente la capacidad más amplia de comprender el contexto o confundirlo: por ejemplo, Sora puede agregar video (esencialmente pintar el video) “hacia adelante” en el tiempo desde una imagen fuente existente, lo que plantea complejidades en torno a la falsificación del contexto. .

3. No todas las personas reales están igualmente protegidas.

Hasta ahora, Sora no generará imágenes basadas en imágenes semilla de personas reales, excepto para un subconjunto de usuarios, pero indican una posible implementación más allá de eso. Durante los últimos dieciocho meses, WITNESS ha estado ejecutando un mecanismo de respuesta rápida para sospechas de IA engañosa en la naturaleza, una Fuerza de Respuesta Rápida Deepfakes. Una lección aprendida de nuestra experiencia y de una observación más amplia del deepfakery es que las personas reales en los medios sintéticos son complicadas: no son sólo figuras públicas prominentes las que son blanco de contenido engañoso de IA e imágenes sintéticas íntimas o no consensuadas, sino también individuos privados y personas de menor rango. Figuras públicas de nivel medio que carecen de la prominencia para ser etiquetadas para protección dentro de un modelo. Y no hay un acuerdo amplio sobre cuándo y si los medios sintéticos satíricos hiperrealistas dirigidos a individuos están bien, o sobre cómo moderarlos.

4. El estilo engañoso importa.

WITNESS señaló previamente a OpenAI (señalando que no fuimos invitados al equipo rojo) que una forma en que funciona el contenido engañoso es aprovechando la heurística de estilo; por ejemplo, las imágenes móviles temblorosas son una heurística para contenido UGC creíble. La Tarjeta de seguridad se centra principalmente en el equipo rojo de contenido infractor, lo cual es importante, pero no lo es tanto cuando se trata de contenido que confunde el contexto o cambia el contexto. Hay alguna referencia interesante a abordar el uso indebido a través de nuestro modelo y mitigaciones del sistema y al uso de “clasificadores para marcar estilos o técnicas de filtrado que podrían producir videos engañosos en el contexto de las elecciones, reduciendo así el riesgo de uso indebido en el mundo real”, aunque las elecciones son, Por supuesto, este es sólo un escenario cuando se trata de posibles daños políticos.

Todas estas preguntas surgen en un contexto de incertidumbre pública sobre cómo se utiliza la IA en el contenido con el que interactúan y brechas fundamentales a nivel mundial en el acceso a herramientas de detección que perjudican de manera inequitativa a los periodistas de primera línea y a la sociedad civil.

Con Sora y otras herramientas de generación de videos de IA ya muy avanzados desde su etapa de ‘Will Smith comiendo espaguetis’ y con avances potencialmente significativos en realismo, duración y ubicuidad en el horizonte, necesitamos una atención renovada e inclusiva a las salvaguardas. Necesitamos asegurarnos de que las empresas que desarrollan estos sistemas generativos impulsen la creatividad y la comunicación en lugar del engaño y el daño. Esto significa establecer medidas concretas para garantizar que comprendamos cuándo se utilizan, prevenir sus usos nocivos y equipar a los periodistas, la sociedad civil y el público con herramientas para detectar sus videos engañosos en la naturaleza.

Lectura relacionada

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

‘One day I overheard my boss saying: just put it in ChatGPT’: the workers who lost their jobs to AI | Artificial intelligence (AI)

Published

on

‘They called it an experiment aimed at younger audiences’

Mateusz Demski, 31, journalist, Kraków, Poland

I’ve been a freelance journalist for 10 years, usually writing for magazines and websites about cinema. I presented a morning show on Radio Kraków twice a week for about two years. It was only one part of my work, but I really enjoyed it. It was about culture and cinema, and featured a range of people, from artists to activists. I remember interviewing Ukrainians about the Russian invasion for the first programme I presented, back in 2022.

I was let go in August 2024, alongside a dozen co-workers who were also part-time. We were told the radio station was having financial problems. I was relatively OK with it, as I had other income streams. But a few months later I heard that Radio Kraków was launching programmes hosted by three AI characters. Each had AI-generated photographs, a biography and a specific personality. They called it an “experiment” aimed at younger audiences.

One of the first shows they did was a live “interview” with Polish poet Wisława Szymborska, winner of the 1996 Nobel prize for literature, who had died 12 years earlier. What are the ethics of using the likeness of a dead person? Szymborska is a symbol of Polish intellectual culture, so it caused outrage. I couldn’t understand it: radio is created by people for other people. We cannot replace our experiences, emotions or voices with avatars.

One of my colleagues who was laid off is queer. One of the new AI avatars was called Alex, a non-binary student and a “specialist” in queer subjects. In Poland, we are still fighting for queer rights, and as journalists it’s incumbent on us to have real representation when reporting on this. For my colleague and the LGBTQ+ community, it was shocking and damaging to hear their lived experience and knowledge being imitated by AI.

Some of us who had been laid off started a petition against the station, calling for regulation and to get the AI shows taken off air. We got tens of thousands of people to sign – actors, journalists, artists, but also listeners. Hundreds of young people didn’t want to listen to an AI show.

The station has since scrapped the avatars, largely because of the success of our campaign. It’s now student-run. The station claim this is about offering mentorship, but it’s also a cheaper alternative to hiring qualified journalists. I guess it’s better than AI, though.

There are still no clear regulations covering its use in Poland. I’m not campaigning for regulation because I lost my job to AI: I’m campaigning because I’m worried about the ethics of all of this; about misinformation and deceiving listeners.I’m a realist – I’m not completely against AI. I think it can be used responsibly to do the boring bits of our job. But we can’t substitute complex thinking with machines. AI can’t replace our curiosity, creativity or emotional intelligence.


‘Even those who’ve kept their jobs have had their wages reduced’

Lina Meilina, 30, illustrator, Bandung, Indonesia

Lina Meilina: ‘Since AI took off, my workload has plummeted.’ Photograph: Muhammad Fadli/The Guardian

I’ve been drawing and painting since I was a kid. Even in kindergarten, I was doodling. By elementary school I was drawing comics and my teachers knew I had potential. I have strict, traditional parents who told me art wouldn’t make me any money, but I wanted to follow my dreams. Now I make anime-style illustrations, and most of my income comes from commissions: I draw bespoke characters for clients, and also create my own.

Even before AI tools arrived, it wasn’t easy. Indonesia doesn’t take artists seriously and copyright laws are weak. I’ve seen people steal my work and put it on merch to sell on retail websites such as AliExpress. I have to get them taken down myself, screenshotting pages one by one to report them to the site’s admin. Now, AI makes it harder to prove ownership, because it can take your art and make slight changes, so it’s not a direct copy.

I first learned about generative AI a few years ago, watching a YouTuber introduce viewers to the software Midjourney, which generates images based on prompts. He asked the program to produce an image in the style of comic book artist Alex Ross. The finished work was good, with Ross’s distinctive hyper-realistic style and colour palette. I remember thinking, “Oh shit, this is going to be a disaster.”

Since last year, when AI really took off, my workload has plummeted. I used to get up to 15 commissions a month; now I get around five. People can take your art and feed it into an AI program to create work. A follower of mine recently used AI to portray my characters doing something inappropriate. I tried to report it, but the platform said it didn’t violate its copyright policy.

One of the main platforms freelance artists use to get work recently launched a campaign called “Nobody cares if you use AI”, encouraging clients and artists to embrace AI tools. Well, I care, as do a lot of my colleagues.

Even the Indonesian government is using AI art: they recently released a video promoting a scheme that provides free lunches for students. It’s a great initiative, but it breaks my heart that they used AI instead of commissioning a talented Indonesian artist.

I used to work in a small studio as a storyboard artist for TV commercials. Since AI appeared, I’ve seen colleagues lose jobs because companies are using Midjourney. Even those who’ve kept their jobs have had their wages reduced – and pay in south-east Asia is already low.

Maybe my mum was right that I shouldn’t be an artist. I’ve had to look for other sources of income – at the moment, I make cosplay props on commission. I love illustrating, but if I keep losing clients because of AI, I’ll probably go into  prop-making full-time.


‘I feel devastated for the younger generation – it’s taking all the creative jobs’

Annabel Beales, 49, copywriter, Southampton, UK

Annabel Beales: ‘Losing my dream job was devastating.’ Photograph: Peter Flude/The Guardian

I landed my dream job in 2023, writing content for a garden centre. I mostly did search engine optimisation, and wrote gardening tips for their magazine and blog. My colleagues were friendly and the hours were flexible.

I’ve always loved reading and writing. I was brought up on a farm with no television, so I was always at the library, reading Judy Blume books. If I didn’t like the ending, I would rewrite it. But I never thought then that I could pursue writing as a career: where I’m from, it was hard to break into anything creative – people either worked as nurses or at the local car manufacturer. Even though I wanted to be a writer, my mum had always told me to have a back-up plan.

Copywriting didn’t come to me straight away, so I did secretarial work for years, and admin roles in the public sector. I’d heard of some friends who needed a copywriter for their businesses, and I was interested in writing professionally, so I enrolled on an online course. It cost a month’s wages and took eight months to complete, but I enjoyed the creativity.

I got the gardening centre job a few months later. I’d interview different experts to write blogs on topics such as growing potatoes or planting trees. I threw myself into it and passed my probation.

Around eight months in, I noticed I was getting less work. One day, I overheard my boss saying to a colleague, “Just put it in ChatGPT.” The marketing department started to use it more often to write their blogs, and they were just asking me to proofread. I remember walking around the company’s beautiful gardens with my manager and asking him if AI would replace me, and he stressed that my job was safe.

skip past newsletter promotion

Six weeks later, I was called to a meeting with HR. They told me they were letting me go immediately. It was just before Christmas. Thankfully, I got a temp role doing admin work in January, but going back to that after having my dream writing job was devastating.

The company’s website is sad to see now. It’s all AI-generated and factual – there’s no substance, or sense of actually enjoying gardening. AI scares the hell out of me. I feel devastated for the younger generation – it’s taking all the creative jobs.

I’m now a PA in cancer research in the university sector. I feel more settled, but I regret going into copywriting. I got the job at the gardening centre at a time when my mum was terminally ill. I remember asking her whether I should take it, as it would mean I wouldn’t be able to spend as much time with her. She told me to follow my dreams and go for it. I thought I’d be there for years, working as a copywriter until I retired. Looking back, I wish I had spent more time with my mum instead.


‘Listening to a series I’d recorded, I heard my character say a line – but it wasn’t my voice’

Richie Tavake, 31, voice actor, San Francisco, US

Richie Tavake: ‘When characters are voiced well, people relate to them.’ Photograph: Cayce Clifford/The Guardian

I’ve spent 10 years training to be a voice actor. It takes skill it’s my job to bring honesty to the story I tell. I recently played the main character, Jessie, in a survival video game. Jessie crash-lands on a snowy mountain – as his voice, I have to consider whether he’s injured, how he feels and the shock he’s in.

My mum encouraged me to try acting classes while I was at university, as it was something I had always talked about doing. Immediately, I was hooked, and after a few semesters I decided to pursue it professionally. I started training seriously while taking customer service jobs to support myself. My first gig in a professional studio was an Animal Farm audio drama in 2023, in which I played Napoleon. It was a great experience to get mic’d up and perform with a whole cast.

The effect of generative AI in my industry is something I’ve felt personally. Recently, I was listening to an audio drama series I’d recorded and heard my character say a line, but it wasn’t my voice. I hadn’t recorded that section. I contacted the producer, who told me he had input my voice into AI software to say the extra line. But he hadn’t asked my permission. I later found out he had uploaded my voice to a platform, allowing other producers to access it. I requested its removal, but it took me a week, and I had to speak to five people to get it done.

The Screen Actors Guild, SAG-AFTRA, began a strike last year against certain major video games studios because voice actors were unhappy with the lack of protections against AI. Developers can record actors, then AI can use those initial chunks of audio to generate further recordings. Actors don’t get paid for any of the extra AI-generated stuff, and they lose their jobs. I’ve seen it happen.

One client told me straight out that they have started using generative AI for their voices because it’s faster. But when characters are written and voiced well, people relate to them. Take Batman, who was voiced by the late Kevin Conroy in the animated series. People appreciated his work because he brought the character to life. When done right, people will value it and pay money for it.

There is also the issue of diversity. I’m American-Samoan and I wouldn’t be happy to hear a Samoan voice generated by AI – it could be inaccurate and even offensive. It’s just a bunch of numbers and words imitating a culture I was brought up in. A great example of this is Ghost of Tsushima, a video game that’s based in Japan. All the cast were of Japanese heritage: they were in tune with the culture and they brought so much honesty to the story. AI can’t replicate that. It’s a machine; it doesn’t have that background and it never will.


‘I never anticipated they’d get rid of me

Jadun Sykes, 28, graphic designer, Wakefield, UK

Jadun Sykes: ‘My advice? Learn as many skills as possible.’ Photograph: courtesy of Jadun Sykes

As a kid I was always arty – sketching, making Play-Doh sculptures. I studied game design and art at college, and went down an Adobe Photoshop rabbit hole. It was fun and I was good at it, so I decided to turn it into a career, starting at the company when I was 21. They sell a platform that creates landing pages and email layouts. I’d design the templates and do bespoke work for clients.

When generative AI came along, the company was very vocal about using it as a tool to help clients get creative. As a company that sells digital automation, developments in AI fit them well. I knew they were introducing it to do things like writing emails and generating images, but I never anticipated they’d get rid of me: I’d been there six years and was their only graphic designer. My redundancy came totally out of the blue. One day, HR told me my role was no longer required as much of my work was being replaced by AI.

I made a YouTube video about my experience. It went viral and I received hundreds of responses from graphic designers in the same boat, which made me realise I’m not the only victim – it’s happening globally, and it takes a huge mental toll. I went to college, I studied, I did six years of work. Was it all for nothing?

After I was let go, I spent months looking for a job. I didn’t find work in graphic design, but did get a job as a content creator at a PC manufacturer. I make videos of the production line, interview staff members and do some social media. I’m not worried here: my employers don’t agree with replacing human roles with AI. I may use it to edit pictures but only to enhance something a human created – say, to remove cables in the back of a product image. We would never post an image entirely generated by AI, which is what my old company is doing. My advice to every graphic designer is to learn as many skills as possible. You have to be prepared.

Continue Reading

Noticias

El objetivo de Chatgpt es ser un ‘super asistente’ para cada parte de tu vida

Published

on

Gracias al proceso de descubrimiento legal, el juicio antimonopolio de Google con el Departamento de Justicia ha proporcionado una visión fascinante del futuro de ChatGPT.

Un documento interno de estrategia de Operai titulado “CHATGPT: H1 2025 Strategy” describe la aspiración de la compañía para construir un “Super Asistente de IA que lo entienda profundamente y es su interfaz para Internet”. Aunque el documento está muy redactado en partes, revela que OpenAI tiene como objetivo que ChatGPT pronto se convierta en mucho más que en un chatbot.

“En la primera mitad del próximo año, comenzaremos a evolucionar ChatGPT a un súper asistente: uno que lo conoce, comprenda lo que le importa y ayuda con cualquier tarea que una persona inteligente, confiable e emocionalmente inteligente con una computadora pueda hacer”, lee el documento de finales de 2024. “La sincronización es adecuada. Los modelos como 02 y 03 finalmente son lo suficientemente inteligentes como para realizar tareas de agente de la computación, como el uso de la computadora, las herramientas como el uso de la computadora, las herramientas pueden ser correctas, la capacidad de los modelos a las acciones de 02 y la capacidad de 03 es lo suficientemente inteligente como para realizar las tareas de los agentes. Los paradigmas de interacción como la multimodalidad y la interfaz de usuario generativa permiten que ChatGPT y los usuarios se expresen de la mejor manera para la tarea “.

El documento continúa describiendo a un “Super Asistente” como “una entidad inteligente con habilidades en forma de T” para tareas ampliamente aplicables y de nicho. “La parte amplia se trata de facilitar la vida: responder una pregunta, encontrar un hogar, contactar a un abogado, unirse a un gimnasio, planificar vacaciones, comprar regalos, administrar calendarios, realizar un seguimiento de las TODO, enviar correos electrónicos”. Menciona la codificación como un ejemplo temprano de una tarea más nicho.

Incluso cuando lee las redacciones, está claro que OpenAi ve el hardware como esencial para su futuro, y que quiere que las personas piensen en ChatGPT como no solo como una herramienta, sino como un compañero. Esto rastrea con Sam Altman Recientemente diciendo que los jóvenes están usando ChatGPT como un “asesor de vida”.

“Hoy, ChatGPT está en nuestras vidas a través de los factores de forma existentes: nuestro sitio web, teléfono y aplicaciones de escritorio”, dice otra parte del documento de estrategia. “Pero nuestra visión para ChatGPT es ayudarlo con toda su vida, sin importar dónde se encuentre. En casa, debería ayudar a responder preguntas, reproducir música y sugerir recetas. Sobre la marcha, debería ayudarlo a llegar a lugares, encontrar los mejores restaurantes o ponerse al día con amigos. En el trabajo, debería ayudarlo a tomar notas de reuniones o prepararse para la gran presentación. Y en solo caminatas, debería ayudarlo a reflexionar y Wind Down”.

Al mismo tiempo, Operai se encuentra en una posición tambaleante. Su infraestructura no puede manejar el creciente uso de ChatGPT, lo que explica el enfoque de Altman en la construcción de centros de datos. En una sección del documento que describe la competencia AI Chatbot, la compañía escribe que “estamos liderando aquí, pero no podemos descansar”, y que “el crecimiento y los ingresos no se alinearán para siempre”.

Reconoce que hay “poderosos titulares que aprovecharán su distribución para ventender sus propios productos”, y afirma que OpenAI abogará por la regulación que requiere que otras plataformas permitan a las personas establecer ChatGPT como el asistente predeterminado. (Casualmente, se rumorea que Apple pronto permitirá que los usuarios de iOS también seleccionen Gemini de Google para consultas Siri. Meta AI solo alcanzó mil millones de usuarios, gracias principalmente a sus muchos ganchos en Instagram, WhatsApp y Facebook).

“Tenemos lo que necesitamos para ganar: uno de los productos de más rápido crecimiento de todos los tiempos, una marca definida por categorías, un líder de investigación (razonamiento, multimodal), un líder de cómputo, un equipo de investigación de clase mundial y un número cada vez mayor de personas efectivas con agencias motivadas para enviar”, dice el documento de Openai. “No confiamos en los anuncios, dándonos flexibilidad sobre qué construir. Nuestra cultura valora la velocidad, los movimientos audaces y la autodisrupción. Mantener estas ventajas es un trabajo duro pero, si lo hacemos, durarán por un tiempo”.

  • Pollos de manzana: Por primera vez en una década, Apple no tendrá a sus ejecutivos participar en John Gruber’s Podcast anual después de WWDC Live. Gruber recientemente escribió el ensayo viral “Algo está podrido en el estado de Cupertino”, que se discutió ampliamente en los círculos de manzanas. Aunque no ha conectado públicamente esa pieza crítica con la compañía que se retira de su podcast, es fácil ver la línea de transmisión. Dice mucho sobre el estado de Apple cuando sus líderes ni siquiera quieren participar en lo que históricamente ha sido un foro amistoso.
  • Elon estaba alto: Como Elon almizcle intenta replantear la visión del público sobre él haciendo entrevistas sobre SpaceX, The New York Times informa que el año pasado, estaba tomando tanta ketamina que “estaba afectando su vejiga”. Según los informes, “viajó con una caja de medicamentos diarias que contenía unas 20 píldoras, incluidas las de las marcas del estimulante Adderall”. Tanto el almizcle como la Casa Blanca han tenido múltiples oportunidades para refutar directamente este informe, y no lo han hecho. Ahora, Musk se está alejando al menos parcialmente de Doge junto con tenientes clave como Steve Davis. Dege puede ser un fracaso basado en las propias esperanzas declaradas de Musk para los recortes de gastos, pero su cercanía con Trump ciertamente ha ayudado a rescatar a X de la ruina financiera y cultivar el negocio de SpaceX. Ahora, el trabajo más difícil comienza: salvar a Tesla.

“La forma en que hacemos el ranking es sacrosanto para nosotros”. – CEO de Google Sundar Pichai en Descifradorexplicando por qué los resultados de búsqueda de la compañía no se cambiarán para el presidente Trump o cualquier otra persona.

“En comparación con los cambios tecnológicos anteriores, estoy un poco más preocupado por el impacto laboral … sí, las personas se adaptarán, pero es posible que no se adapten lo suficientemente rápido”. – CEO antrópico Dario amodei en CNN Da la alarma sobre la tecnología que está desarrollando.

“Meta es una compañía muy diferente a la que era hace nueve años cuando me despidieron”. – Fundador de Anduril Palmer Luckey narración Ashlee Vance Por qué se está vinculando con Mark Zuckerberg Para hacer auriculares para el ejército.

  • El aplanamiento de la organización AI de Meta ha entrado en vigencia, con VP Ahmad al-Dahle ya no supervisa a todo el grupo. Ahora, es co-lidera “Fundaciones AGI” con Amir FrenkelVicepresidente de ingeniería, mientras Connor Hayes ejecuta todos los productos de IA. Los tres hombres ahora informan a Meta CPO Chris Coxque ha enmarcado diplomáticamente los cambios como una forma de “dar a cada organización más propiedad”.
  • Cofundador de Xbox J Allard lidera un nuevo grupo de dispositivos ‘Breakthrough’ en Amazon llamado Zeroone. Uno de los dispositivos estará relacionado con el hogar inteligente, según los listados de trabajo.
  • CJ Mahoneyun ex funcionario de la administración Trump, está siendo promovido a asesor general de Microsoft, que también ha contratado Lisa Mónaco de la última administración de Biden para liderar la política global.
  • Reed Hastings se une a la junta de antrópico “porque creo en su enfoque para el desarrollo de la IA y para ayudar a la humanidad al progreso”. (Se une a la Junta Corporativa de Anthrope, no a la Junta Supervisora ​​de su Fideicomiso de Beneficio Público que puede contratar y despedir a los directores corporativos).
  • Barrios de Sebastiánanteriormente SVP en Mercado Libre, se une a Roblox como vicepresidente sénior de ingeniería para varias áreas, incluidos anuncios, descubrimiento de juegos y el trabajo de moneda virtual de la compañía.
  • Fidji Simo’s El reemplazo en Instacart será director de negocios Chris Rogersquien se convertirá en el próximo CEO de la compañía el 15 de agosto después de que ella se une oficialmente a OpenAI.

Si aún no lo ha hecho, no olvide suscribirse a El bordeque incluye acceso ilimitado a Línea de comando y todos nuestros informes.

Como siempre, agradezco sus comentarios, especialmente si tiene pensamientos sobre este tema o una idea de la historia para compartir. Puede responder aquí o hacerme hacer más información sobre la señal.

Continue Reading

Noticias

10 formas excelentes pero inesperadas de usar ChatGPT: los usuarios de Reddit revelan sus consejos de energía

Published

on

Como parte de mi trabajo, siempre estoy buscando nuevas formas de usar CHATGPT, para poder compartir algunos de los mejores ejemplos con los lectores de TechRadar.

El otro día, mientras navegaba por Reddit, me topé con un hilo de u/bn_from_zentara titulado “¿Qué es lo más inesperado y realmente útil que ha usado Chatgpt para que nunca habías imaginado que una IA podría ayudar?” Y me ha impresionado seriamente algunas de las ideas.

Continue Reading

Trending