Connect with us

Noticias

Guionista nominado al Oscar admite haber pedido ideas cinematográficas a ChatGPT

Published

on

La inteligencia artificial se ha convertido en un componente importante de todas las nuevas tecnologías, lo que facilita aún más algunas funciones. Sin embargo, desde entonces personas que trabajan en un entorno creativo han denunciado el uso de plataformas de inteligencia artificial, incluida la industria cinematográfica.

A medida que la IA se convierte en una parte cada vez más importante de la vida cotidiana de todos, la industria del entretenimiento también está interesada en utilizar sus ventajas. En una nueva publicación en Facebook, el guionista nominado al Oscar Paul Schrader, quien escribió los guiones de películas como 1976 Taxista y 2017 Primera reformadaacaba de revelar que ha probado ChatGPT en busca de ideas para películas. Aún más, el cineasta quedó impresionado con los resultados y con la precisión con la que cumplían sus peticiones especiales.

Relacionado

Estafador que utilizó imágenes de IA de Brad Pitt estafó a una mujer para que le entregara 850.000 dólares

Brad Pitt es la última estrella cuyo nombre se utilizó para estafar a alguien y obtener una suma deslumbrante.

“ESTOY ATURDIDO”, comenzaba el mensaje de Schrader. “Acabo de pedirle a chatgpt “una idea para la película de Paul Schrader”. Luego Paul Thomas Anderson. Luego Quentin Tarantino. Luego Armonía Korine. Luego Ingmar Bergman. Luego Rossellini. Lang. Scorsese. Murnau. Capra. Vado. Speilberg. Linchar.”

¿Por qué los escritores deberían sentarse durante meses buscando una buena idea cuando la IA puede proporcionarla en segundos?

Y continuó: “Cada idea que se le ocurrió a chatgpt (en unos segundos) fue buena. Y originales. Y desarrollado. ¿Por qué los escritores deberían sentarse durante meses buscando una buena idea cuando la IA puede proporcionarla en segundos?

Relacionado

Brad Pitt responde a la historia viral de un estafador que engañó a un fan por 850.000 dólares utilizando fotos del actor con IA

Una mujer francesa le dio 850.000 dólares a un estafador que supuestamente se hacía pasar por Brad Pitt.

No todos estuvieron de acuerdo, aunque la publicación recibió más de 1,5 mil reacciones y más de 300 comentarios. “Pablo, ¿está todo bien?” preguntó un seguidor, y otro respondió: “Jesús Pablo… deja de promocionar esa mierda, por favor”. Otro preguntó: “¿Ai escribió esto?”

Un comentario diferente profundiza aún más la conversación, destacando que, “Nos molesta cuando sugieres que un alma no es un requisito para ser un buen escritor. El mito del artista como un espíritu con llaves místicas del reino es una religión secular, “Bebé, y nos molesta cuando denigras a nuestros dioses al insinuar que una gran narración es simplemente hacer rompecabezas, y que los rompecabezas solo requieren información para construirse, no se requiere espiritualidad ni alma”.

Paul Schraber admite haber usado ChatGPT para trabajar

Justo un día antes, el escritor de 78 años explicó que había usado ChatGPT años atrás pidiendo mejoras. “AI. Acabo de enviar a chatgpt un script que escribí hace algunos años y pedí mejoras.“, compartió en una publicación el 16 de enero.”En cinco segundos respondió con notas tan buenas o mejores que las que jamás haya recibido un ejecutivo de cine.“.

Una publicación anterior profundizó más en la inteligencia artificial. “Me acabo de dar cuenta de que la IA es más inteligente que yo. Tiene mejores ideas, tiene formas más eficientes de ejecutarlas. Este es un momento existencial, similar a lo que Kasparov sintió en 1997 cuando se dio cuenta de que Deep Blue le iba a ganar al ajedrez”.

También mencionó la película de 2013 aclamada por la crítica. Suprotagonizada por Joaquin Phoenix y Scarlett Johansson como la voz de un sistema de inteligencia artificial del que se enamora. “Es aún más relevante, profético y profundamente espeluznante que hace diez años. Esta película crece en estatura. Me gustó entonces y me encanta ahora. Sólo hay una igual”.

El guionista recibió una nominación al Premio de la Academia por su trabajo en la película de 2017. Primera reformada al Mejor Guión Original. Su trabajo más reciente fue el drama 2024. Oh, Canadáque también dirigió y coescribió con Russell Banks. Fue protagonizada por Richard Gere, Uma Thurman y Jacob Elordi. Su próxima película será Non Compos Mentisuna película negra sobre la “obsesión sexual”, describió en el Festival de Cine de Cannes.

Fuente: Facebook

primer-cartel-reformado.jpg

El pastor de una iglesia histórica de un pequeño pueblo lucha contra la desesperación y cuestiona su fe después de encontrarse con un feligrés y su esposa embarazada, que están envueltos en activismo ambiental y profundas dudas existenciales. Este encuentro lleva al pastor a un viaje oscuro e introspectivo, desafiando sus puntos de vista sobre la religión, la rectitud y la redención.

Director

Pablo Schrader

Fecha de lanzamiento

18 de mayo de 2018

Elenco

Ethan Hawke, Amanda Seyfried, Cedric the Entertainer, Victoria Hill, Philip Ettinger, Michael Gaston, Bill Hoag, Kristin Villanueva

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

DeepSeek-R1 de código abierto utiliza aprendizaje por refuerzo puro para igualar OpenAI o1, con un costo un 95 % menor

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder en la industria. Más información


La startup china de IA DeepSeek, conocida por desafiar a los principales proveedores de IA con tecnologías de código abierto, acaba de lanzar otra bomba: un nuevo LLM de razonamiento abierto llamado DeepSeek-R1.

Basado en el modelo de mezcla de expertos DeepSeek V3 recientemente introducido, DeepSeek-R1 iguala el rendimiento de o1, el LLM de razonamiento fronterizo de OpenAI, en tareas de matemáticas, codificación y razonamiento. ¿La mejor parte? Lo hace a un costo mucho más tentador, resultando ser entre un 90 y un 95% más asequible que este último.

El lanzamiento marca un gran paso adelante en el ámbito del código abierto. Muestra que los modelos abiertos están cerrando aún más la brecha con los modelos comerciales cerrados en la carrera hacia la inteligencia artificial general (AGI). Para mostrar la destreza de su trabajo, DeepSeek también utilizó R1 para destilar seis modelos Llama y Qwen, llevando su rendimiento a nuevos niveles. En un caso, la versión destilada de Qwen-1.5B superó a modelos mucho más grandes, GPT-4o y Claude 3.5 Sonnet, en pruebas comparativas matemáticas seleccionadas.

Estos modelos destilados, junto con el R1 principal, son de código abierto y están disponibles en Hugging Face bajo una licencia del MIT.

¿Qué aporta DeepSeek-R1?

La atención se está centrando en la inteligencia artificial general (AGI), un nivel de IA que puede realizar tareas intelectuales como los humanos. Muchos equipos están redoblando esfuerzos para mejorar las capacidades de razonamiento de los modelos. OpenAI dio el primer paso notable en este ámbito con su modelo o1, que utiliza un proceso de razonamiento en cadena de pensamiento para abordar un problema. A través del RL (aprendizaje por refuerzo u optimización impulsada por recompensas), o1 aprende a perfeccionar su cadena de pensamiento y refinar las estrategias que utiliza; en última instancia, aprende a reconocer y corregir sus errores, o a probar nuevos enfoques cuando los actuales no funcionan.

Ahora, continuando con el trabajo en esta dirección, DeepSeek ha lanzado DeepSeek-R1, que utiliza una combinación de RL y ajuste fino supervisado para manejar tareas de razonamiento complejas y igualar el rendimiento de o1.

Cuando se probó, DeepSeek-R1 obtuvo una puntuación del 79,8 % en las pruebas de matemáticas AIME 2024 y del 97,3 % en MATH-500. También logró una calificación de 2029 en Codeforces, mejor que el 96,3% de los programadores humanos. Por el contrario, o1-1217 obtuvo una puntuación del 79,2%, 96,4% y 96,6% respectivamente en estos puntos de referencia.

También demostró un sólido conocimiento general, con una precisión del 90,8% en MMLU, justo detrás del 91,8% de o1.

Rendimiento de DeepSeek-R1 frente a OpenAI o1 y o1-mini

El canal de formación

El rendimiento de razonamiento de DeepSeek-R1 marca una gran victoria para la startup china en el espacio de la IA dominado por Estados Unidos, especialmente porque todo el trabajo es de código abierto, incluida la forma en que la empresa entrenó todo.

Sin embargo, el trabajo no es tan sencillo como parece.

Según el artículo que describe la investigación, DeepSeek-R1 se desarrolló como una versión mejorada de DeepSeek-R1-Zero, un modelo innovador entrenado únicamente a partir del aprendizaje por refuerzo.

La compañía utilizó por primera vez DeepSeek-V3-base como modelo base, desarrollando sus capacidades de razonamiento sin emplear datos supervisados, enfocándose esencialmente solo en su autoevolución a través de un proceso de prueba y error puro basado en RL. Desarrollada intrínsecamente a partir del trabajo, esta capacidad garantiza que el modelo pueda resolver tareas de razonamiento cada vez más complejas aprovechando el cálculo de tiempo de prueba extendido para explorar y refinar sus procesos de pensamiento con mayor profundidad.

“Durante el entrenamiento, DeepSeek-R1-Zero emergió naturalmente con numerosos comportamientos de razonamiento poderosos e interesantes”, señalan los investigadores en el artículo. “Después de miles de pasos de RL, DeepSeek-R1-Zero exhibe un rendimiento excelente en pruebas comparativas de razonamiento. Por ejemplo, la puntuación pass@1 en AIME 2024 aumenta del 15,6% al 71,0%, y con la votación mayoritaria, la puntuación mejora aún más hasta el 86,7%, igualando el rendimiento de OpenAI-o1-0912”.

Sin embargo, a pesar de mostrar un rendimiento mejorado, incluidos comportamientos como la reflexión y la exploración de alternativas, el modelo inicial mostró algunos problemas, incluida una legibilidad deficiente y una mezcla de idiomas. Para solucionar este problema, la empresa se basó en el trabajo realizado para R1-Zero, utilizando un enfoque de varias etapas que combina aprendizaje supervisado y aprendizaje reforzado, y así creó el modelo R1 mejorado.

“Específicamente, comenzamos recopilando miles de datos de arranque en frío para ajustar el modelo DeepSeek-V3-Base”, explicaron los investigadores. “Después de esto, realizamos RL orientada al razonamiento como DeepSeek-R1-Zero. Al acercarse a la convergencia en el proceso de RL, creamos nuevos datos SFT mediante muestreo de rechazo en el punto de control de RL, combinados con datos supervisados ​​de DeepSeek-V3 en dominios como escritura, control de calidad factual y autoconocimiento, y luego volvemos a entrenar el DeepSeek-V3. -Modelo básico. Después de realizar ajustes con los nuevos datos, el punto de control se somete a un proceso de RL adicional, teniendo en cuenta las indicaciones de todos los escenarios. Después de estos pasos, obtuvimos un punto de control llamado DeepSeek-R1, que logra un rendimiento a la par con OpenAI-o1-1217”.

Mucho más asequible que o1

Además de un rendimiento mejorado que casi iguala al o1 de OpenAI en todos los puntos de referencia, el nuevo DeepSeek-R1 también es muy asequible. Específicamente, mientras que OpenAI o1 cuesta $15 por millón de tokens de entrada y $60 por millón de tokens de salida, DeepSeek Reasoner, que se basa en el modelo R1, cuesta $0,55 por millón de entradas y $2,19 por millón de tokens de salida.

El modelo se puede probar como “DeepThink” en la plataforma de chat DeepSeek, que es similar a ChatGPT. Los usuarios interesados ​​pueden acceder a los pesos de los modelos y al repositorio de códigos a través de Hugging Face, bajo una licencia del MIT, o pueden utilizar la API para una integración directa.

Continue Reading

Noticias

La FTC expresa su preocupación por la inversión de 13.000 millones de dólares de Microsoft en OpenAI

Published

on

La Comisión Federal de Comercio (FTC) ha planteado preocupaciones antimonopolio con respecto a la inversión de 13.750 millones de dólares del gigante tecnológico Microsoft en OpenAI.

En un informe, la comisión sugirió que la inversión podría extender el dominio de Microsoft en la computación en la nube al mercado emergente de la IA.

El informe destacó varias preocupaciones potenciales en materia de competencia, entre ellas: el impacto de las asociaciones en el acceso a insumos clave como recursos informáticos y talento de ingeniería; el aumento potencial en los costos de cambio para los socios desarrolladores de IA.

El informe también indicó la posibilidad de que los socios de los proveedores de servicios en la nube obtengan acceso a información técnica y comercial confidencial a la que otros no pueden acceder.

En enero de 2024, la FTC inició una investigación sobre las colaboraciones entre los principales proveedores de la nube de las grandes tecnologías y empresas de inteligencia artificial generativa, como Google, Amazon, Microsoft, OpenAI y Anthropic.

Estos pedidos estaban dirigidos a cinco empresas involucradas en tres inversiones multimillonarias distintas: Microsoft y OpenAI, Amazon y Anthropic, y Alphabet y Anthropic.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por eso le ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

La presidenta de la FTC, Lina Khan, dijo: “A medida que las empresas implementan rápidamente tecnologías de IA generativa, los encargados de hacer cumplir la ley y los formuladores de políticas deben permanecer alerta para protegerse contra estrategias comerciales que socavan los mercados abiertos, las oportunidades y la innovación.

“El informe de la FTC arroja luz sobre cómo las asociaciones entre grandes empresas tecnológicas pueden crear bloqueos, privar a las empresas emergentes de insumos clave de IA y revelar información confidencial que puede socavar la competencia leal”.

La FTC señaló que una empresa de tecnología recibió acceso a información confidencial sobre el desempeño financiero de una startup de inteligencia artificial, incluidas tendencias de ingresos semanales y actualizaciones de clientes.

Además, algunos acuerdos permiten a las empresas de tecnología acceder a los resultados de los modelos de IA, denominados “datos sintéticos”, para entrenar sus propios modelos de IA.

La publicación de noticias citó a la asesora general adjunta de Microsoft, Rima Alaily, diciendo: “La asociación entre Microsoft y OpenAI ha permitido una de las nuevas empresas de IA más exitosas del mundo y ha estimulado una ola de inversión e innovación en tecnología sin precedentes en la industria, creando miles de nuevos startups en los EE. UU. y en todo el mundo”.

El informe sugiere que estas asociaciones podrían dar lugar a que las empresas de tecnología tengan derechos de exclusividad sobre las herramientas de IA, lo que disuadiría a las empresas de IA de colaborar con múltiples empresas de tecnología.


Continue Reading

Noticias

El modelo mini AI o3 de OpenAI está listo para su lanzamiento

Published

on

OpenAI, con el apoyo de Microsoft, se está preparando para lanzar su último modelo de IA racional, el o3 mini, a principios de 2025.

El director ejecutivo de OpenAI, Sam Altman, confirmó este desarrollo a través de una publicación en la plataforma de redes sociales X.

El lanzamiento incluirá tanto la interfaz de programación de aplicaciones (API) como una versión actualizada de ChatGPT, según Reuters.

El modelo o3 mini se basa en el impulso de los lanzamientos anteriores de OpenAI.

En diciembre de 2024, la compañía anunció que estaba probando modelos de razonamiento avanzado, o3 y o3 mini, diseñados para abordar tareas más complejas en comparación con iteraciones anteriores.

Estos modelos pretenden superar a sus predecesores en ámbitos como la ciencia, las matemáticas y la codificación.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por eso le ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

En septiembre de 2024, OpenAI presentó sus modelos de IA o1, que se centraron en abordar consultas más difíciles asignando más tiempo para el procesamiento.

En ese momento: “Hemos desarrollado una nueva serie de modelos de IA diseñados para dedicar más tiempo a pensar antes de responder. Pueden razonar a través de tareas complejas y resolver problemas más difíciles que los modelos anteriores en ciencias, codificación y matemáticas”.

Los avances de OpenAI se producen en medio de una creciente competencia de gigantes tecnológicos como Google y Apple.

Recientemente, la compañía presentó una función beta llamada Tasks for ChatGPT, que marca su entrada al mercado de asistentes virtuales junto con competidores como Siri de Apple y Alexa de Amazon.

El lanzamiento de ChatGPT a finales de 2022 provocó una oleada de inversiones en empresas de inteligencia artificial, y su creciente popularidad e innovaciones de productos permitieron a OpenAI obtener 6.600 millones de dólares en financiación.

Por otra parte, OpenAI está entrenando un nuevo modelo de IA llamado GPT-4b micro en colaboración con Retro Biosciences, una startup de ciencia de la longevidad que tiene como objetivo extender la vida humana, informa el Revisión de tecnología del MIT.

Respaldado por Altman Retro ha estado colaborando con OpenAI en esta investigación durante aproximadamente un año.

El micromodelo GPT-4b se centra en la reingeniería de proteínas, en particular los factores de Yamanaka, que tienen la capacidad de transformar células de la piel humana en células madre con características juveniles.


Continue Reading

Trending