Bienvenido 9to5Neural. AI se mueve rápidamente. Te ayudamos a seguir el ritmo. En nuestra edición inaugural, estamos explorando el inicio de la próxima frontera para OpenAi, la solución reflexiva de Anthrope a una crítica de IA común y la orden ejecutiva presidencial de IA Ping-pong. Empecemos a darle sentido a lo último en noticias de AI.
Chatgpt se pone a trabajar con el operador
Operai lanzó recientemente la edición de 18k Gold Apple Watch de ChatGPT. ChatGPT Pro es una suscripción de $ 200/mes que hace que Tim Cook desee que Apple tuviera ese tipo de ingresos recurrentes por cliente.
A partir de hoy, ChatGPT Pro también les da a los entusiastas de la IA una nueva razón importante para suscribirse más allá de los límites de solicitud más altos.
Conocer al operador. Operai lo llama “una vista previa de investigación de un agente que puede usar su propio navegador para realizar tareas para usted”. Desde la creación de memes hasta ordenar comestibles y completar formularios, el operador de Dubs Operai uno de sus primeros agentes que ejecutará tareas que le da.
Hoy estamos lanzando Operator, un agente que puede ir a la web para realizar tareas por usted. Usando su propio navegador, puede mirar una página web e interactuar con él escribiendo, haciendo clic y desplazándose. Actualmente es una vista previa de investigación, lo que significa que tiene limitaciones y evolucionará en función de los comentarios de los usuarios.
El operador no siempre estará detrás de un muro de pago de $ 200/mes. Operai planea abrir el acceso a esta herramienta de IA para usuarios pagados de Plus, Team y Enterprise en el futuro. Por ahora, el operador está disponible para todos los clientes de ChatGPT Pro en los EE. UU. En Operator.chatgpt.com.
Operai dice que el operador funciona con su nueva tecnología de agente de uso de computadora (CUA).
Powering Operator es un agente de uso informático (CUA), un modelo que combina las capacidades de visión de GPT-4O con un razonamiento avanzado a través del aprendizaje de refuerzo. CUA está entrenado para interactuar con las interfaces gráficas de usuario (GUI): los botones, los menús y los campos de texto que las personas ven en una pantalla, tal como lo hacen los humanos. Esto le da la flexibilidad para realizar tareas digitales sin usar API específicas de SO o Web. […]
Si bien el CUA sigue siendo temprano y tiene limitaciones, establece nuevos resultados de referencia de última generación, logrando una tasa de éxito del 38.1% en OsWorld para tareas completas de uso de la computadora, y 58.1% en Webarena y 87% en WebVoyager para Web Baseded Web. tareas. Estos resultados destacan la capacidad de CUA para navegar y operar en diversos entornos utilizando un solo espacio de acción general.
Supongo que este es tan bueno como cualquier otro para anunciar que estoy renunciando 9to5Neural para pasar más tiempo con mi familia.
Todas las futuras ediciones de 9to5Neural será traído a usted por el operador. Tengo plena fe en el agente que usa la computadora para traducir las noticias de IA para la humanidad en el futuro.
Espera, no, hablé demasiado pronto. Aparentemente hay un problema con nuestra suscripción ChatGPT Pro. ¡Estoy de vuelta en la silla de montar!
Pero en serio, el operador es claramente un gran problema. Miraremos hacia atrás en enero de 2025 como un hito en el avance de AI. La tecnología de agente de usuario de la computadora también puede satisfacer a los escépticos de IA que siguen preguntando cuándo se acerca el chatgpt-5.
¿La otra gran historia de Operai esta semana? Stargate. O como dijo Sam Altman en X: “Grande. hermoso. edificios “.
¿Qué es Stargate? Básicamente un gran cerebro de computadora en Texas. Operai detalló la iniciativa esta semana:
El proyecto Stargate es una nueva compañía que tiene la intención de invertir $ 500 mil millones en los próximos cuatro años construyendo una nueva infraestructura de IA para OpenAI en los Estados Unidos. Comenzaremos a implementar $ 100 mil millones de inmediato. Esta infraestructura asegurará el liderazgo estadounidense en IA, creará cientos de miles de empleos estadounidenses y generará un beneficio económico masivo para todo el mundo. Este proyecto no solo apoyará la reindustrialización de los Estados Unidos, sino que también proporcionará una capacidad estratégica para proteger la seguridad nacional de Estados Unidos y sus aliados.
Los financiadores de renta variable iniciales en Stargate son SoftBank, OpenAI, Oracle y MGX. Softbank y OpenAI son los socios principales de Stargate, con SoftBank que tiene responsabilidad financiera y OpenAi que tiene responsabilidad operativa. El hijo de Masayoshi será el presidente.
Arm, Microsoft, Nvidia, Oracle y OpenAI son los socios de tecnología iniciales clave. La construcción está actualmente en marcha, comenzando en Texas, y estamos evaluando sitios potenciales en todo el país para más campus a medida que finalizamos los acuerdos definitivos.
Como parte de Stargate, Oracle, Nvidia y OpenAi colaborarán de cerca para construir y operar este sistema informático.
Detrás de cada ambiciosa firma de IA hay un multimillonario ambicioso, por supuesto, y los multimillonarios están luchando en X sobre las finanzas de Stargate.
Elon Musk, cuya firma XAI no tiene participación en Stargate, respondió al anuncio en X, diciendo “en realidad no tienen el dinero”. Musk agregó que tiene la buena autoridad de que SoftBank tiene “muy menos de $ 10B asegurado”.
Altman, por otro lado, confía en que las partes involucradas tienen fondos asegurados.
Mientras tanto, el jefe de Operai dice que cayó en la trampa de personajes no jugable con respecto a Trump (ahora que Trump ha hecho que su personaje sea jugable, refiriéndose a Stargate).
Francamente, soy mucho más optimista sobre las perspectivas del operador de ChatGPT que en las complejidades de relaciones de los multimillonarios.
Mientras tanto, Anthrope, que siempre ha tenido un enfoque más medido para la seguridad de la IA, está lanzando una nueva herramienta prometedora para su chatbot Claude llamado citas.
Hoy, estamos lanzando citas, una nueva característica de API que permite que Claude fundamente sus respuestas en los documentos de origen. Claude ahora puede proporcionar referencias detalladas a las oraciones y pasajes exactos que utiliza para generar respuestas, lo que lleva a resultados más verificables y confiables. […]
Anteriormente, los desarrolladores se basaban en indicaciones complejas que instruyen a Claude que incluya información de origen, lo que a menudo resulta en un rendimiento inconsistente y una inversión significativa en el tiempo en ingeniería y pruebas rápidas. Con las citas, los usuarios ahora pueden agregar documentos de origen a la ventana de contexto, y al consultar el modelo, Claude cita automáticamente las afirmaciones en su salida que se infieren de esas fuentes.
Nuestras evaluaciones internas muestran que las capacidades de citas incorporadas de Claude superan a la mayoría de las implementaciones personalizadas, aumentando la precisión de recuerdo hasta en un 15%.
Anthrope apunta a casos de uso relevantes que incluyen consultas de atención al cliente y tareas de resumen de documentos.
¿La mejor toma? Kyle B. Russel en X, no se necesitan citas:
Claude 3.5 Sonnet y Claude 3.5 Haiku están listos para las citas a partir de hoy, y Anthrope tiene documentación lista para su exploración.
New Ai EO triunfa la última AI EO
Después de ese breve descanso de la política presidencial, volvamos a la política estadounidense sobre IA.
El presidente Trump continuó su carrera de firma de la orden ejecutiva de maratón el jueves, revocando la orden ejecutiva de la administración Biden sobre la política de IA con la orden ejecutiva de la administración Trump sobre la política de IA.
En caso de que lo haya olvidado, el EO de Biden en IA se centró en la seguridad de la inteligencia artificial, los estándares de infraestructura, la mitigación de la interrupción laboral y el contenido de IA de la marca de agua para la transparencia. En resumen, la orden ejecutiva de Biden:
Enfatizó el desarrollo seguro, seguro y confiable de la inteligencia artificial (IA).
Estándares obligatorios para infraestructura crítica, mejoras de ciberseguridad y supervisión de proyectos financiados por el gobierno federal.
Abordó los desafíos sociales, incluida la mitigación de las interrupciones laborales, el avance de la equidad y la protección de los derechos civiles.
Requerido contenido generado por IA para incluir marcas de agua para la transparencia y distinguirlo del material creado por humanos.
Según el informe AP, la orden ejecutiva de AI de Trump revoca las políticas gubernamentales pasadas que “actúan como barreras para la innovación de IA estadounidense”, y agrega que Estados Unidos debe “desarrollar sistemas de IA que estén libres de sesgos ideológicos o agendas sociales diseñadas”, según la orden ejecutiva.
Además de la amplia Directiva de Política, el AI EO del presidente Trump autoriza el “desarrollo de un plan de acción de IA dentro de los 180 días”, según el AP, que estará encabezado por un asesor especial para AI y Crypto David Sacks, el ex ejecutivo de Paypal designado por Triunfo.
En el futuro, las compañías tecnológicas ya no necesitarán revelar con el gobierno el desarrollo de modelos de IA que cruzan un cierto umbral de potencia.
Competencia profunda de Deepseek R1
Mientras tanto, la competencia de IA no solo está sucediendo entre las empresas estadounidenses. Esta semana, la firma china de IA Deepseek lanzó su familia Model R1 a la naturaleza.
Lo único de R1 es que el modelo puede ejecutarse localmente con rendimiento comparable al modelo ChatGPT 4O de OpenAI. Los modelos locales tienden a seguir a los modelos que operan fuera de máquina, lo que hace que valga la pena ver este modelo de desarrollo y que valga la pena ver.
La captura? R1 naturalmente tiene una visión aprobada por el estado de la historia mundial cuando se trata de temas como la protesta de Tiananmen Square de 1989 y la masacre o la independencia de Taiwán. Ya sabes, en caso de que las apuestas para quién gana la carrera de IA ya no estuviera clara.
Más sobre lo último en desarrollos de IA en la próxima edición de 9to5Neural – ¡Solo en 9to5mac!
Los mejores accesorios para iPhone
FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.
Ayer, estaba en los pasillos de Emberdeep, hundiendo una daga en llamas entre las placas de armadura de latón de un robot hecho en enano, esperando haber tirado suficiente daño para deshabilitarlo por completo. Hoy estoy en mi escritorio, escribiendo los resultados de mi primera experiencia jugando Dungeons & Dragons con chatgpt.
Para aquellos que no están al tanto Dungeons & Dragons es un juego de rol de fantasía en el que te sientas alrededor de una mesa, asumes el papel de un héroe y juegas a través del conjunto de aventuras ante ti por el árbitro (o maestro de mazmorras), dados dolores para determinar los resultados de tus acciones.
El mes pasado, un bot de IA que maneja el soporte técnico para Cursor, una herramienta prometedora para programadores de computadoras, alertó a varios clientes sobre un cambio en la política de la empresa. Dijo que ya no se les permitía usar el cursor en más de una sola computadora.
En publicaciones enojadas a tableros de mensajes de Internet, los clientes se quejaron. Algunos cancelaron sus cuentas del cursor. Y algunos se pusieron aún más enojados cuando se dieron cuenta de lo que había sucedido: el bot Ai había anunciado un cambio de política que no existía.
“No tenemos esa política. Por supuesto, es libre de usar el cursor en múltiples máquinas”, escribió el director ejecutivo y cofundador de la compañía, Michael Truell, en una publicación de Reddit. “Desafortunadamente, esta es una respuesta incorrecta de un bot de soporte de IA de primera línea”.
Más de dos años después de la llegada de ChatGPT, compañías tecnológicas, trabajadores de oficina y consumidores cotidianos están utilizando bots de IA para una gran variedad de tareas. Pero todavía no hay forma de garantizar que estos sistemas produzcan información precisa.
Las tecnologías más nuevas y poderosas, los llamados sistemas de razonamiento de compañías como Openi, Google y la nueva empresa china Deepseek, están generando más errores, no menos. A medida que sus habilidades matemáticas han mejorado notablemente, su manejo de los hechos se ha vuelto más agitado. No está del todo claro por qué.
Los bots de IA de hoy se basan en sistemas matemáticos complejos que aprenden sus habilidades al analizar enormes cantidades de datos digitales. No hacen, y no pueden, decidir qué es verdad y qué es falso. A veces, simplemente crean cosas, un fenómeno que algunos investigadores de IA llaman alucinaciones. En una prueba, las tasas de alucinación de los sistemas de IA más nuevos fueron tan altas como del 79 por ciento.
Estos sistemas utilizan probabilidades matemáticas para adivinar la mejor respuesta, no un conjunto estricto de reglas definidas por ingenieros humanos. Entonces cometen un cierto número de errores. “A pesar de nuestros mejores esfuerzos, siempre alucinarán”, dijo AMR Awadallah, director ejecutivo de Vectara, una nueva empresa que construye herramientas de inteligencia artificial para las empresas y un ex ejecutivo de Google. “Eso nunca desaparecerá”.
Durante varios años, este fenómeno ha generado preocupaciones sobre la confiabilidad de estos sistemas. Aunque son útiles en algunas situaciones, como escribir documentos de términos, resumir documentos de la oficina y generar código de computadora, sus errores pueden causar problemas.
Los bots de IA vinculados a motores de búsqueda como Google y Bing a veces generan resultados de búsqueda que son ridículamente incorrectos. Si les pides un buen maratón en la costa oeste, podrían sugerir una carrera en Filadelfia. Si le dicen el número de hogares en Illinois, podrían citar una fuente que no incluye esa información.
Esas alucinaciones pueden no ser un gran problema para muchas personas, pero es un problema grave para cualquier persona que use la tecnología con documentos judiciales, información médica o datos comerciales confidenciales.
“Pasas mucho tiempo tratando de averiguar qué respuestas son objetivas y cuáles no”, dijo Pratik Verma, cofundador y director ejecutivo de Okahu, una compañía que ayuda a las empresas a navegar por el problema de alucinación. “No lidiar con estos errores correctamente básicamente elimina el valor de los sistemas AI, que se supone que automatizarán las tareas para usted”.
Cursor y el Sr. Truerell no respondieron a las solicitudes de comentarios.
Durante más de dos años, compañías como OpenAI y Google mejoraron constantemente sus sistemas de IA y redujeron la frecuencia de estos errores. Pero con el uso de nuevos sistemas de razonamiento, los errores están aumentando. Los últimos sistemas Operai alucinan a un ritmo más alto que el sistema anterior de la compañía, según las propias pruebas de la compañía.
La compañía descubrió que O3, su sistema más poderoso, alucinó el 33 por ciento del tiempo al ejecutar su prueba de referencia Personqa, que implica responder preguntas sobre figuras públicas. Eso es más del doble de la tasa de alucinación del sistema de razonamiento anterior de OpenAI, llamado O1. El nuevo O4-Mini alucinado a una tasa aún más alta: 48 por ciento.
Cuando se ejecuta otra prueba llamada SimpleQA, que hace preguntas más generales, las tasas de alucinación para O3 y O4-Mini fueron 51 por ciento y 79 por ciento. El sistema anterior, O1, alucinó el 44 por ciento del tiempo.
En un artículo que detalla las pruebas, OpenAi dijo que se necesitaba más investigación para comprender la causa de estos resultados. Debido a que los sistemas de IA aprenden de más datos de los que las personas pueden envolver la cabeza, los tecnólogos luchan por determinar por qué se comportan de las formas en que lo hacen.
“Las alucinaciones no son inherentemente más frecuentes en los modelos de razonamiento, aunque estamos trabajando activamente para reducir las tasas más altas de alucinación que vimos en O3 y O4-Mini”, dijo una portavoz de la compañía, Gaby Raila. “Continuaremos nuestra investigación sobre alucinaciones en todos los modelos para mejorar la precisión y la confiabilidad”.
Hannaneh Hajishirzi, profesor de la Universidad de Washington e investigador del Instituto Allen para la Inteligencia Artificial, es parte de un equipo que recientemente ideó una forma de rastrear el comportamiento de un sistema a los datos individuales en los que estaba capacitado. Pero debido a que los sistemas aprenden de tantos datos, y porque pueden generar casi cualquier cosa, esta nueva herramienta no puede explicar todo. “Todavía no sabemos cómo funcionan exactamente estos modelos”, dijo.
Las pruebas de compañías e investigadores independientes indican que las tasas de alucinación también están aumentando para modelos de razonamiento de compañías como Google y Deepseek.
Desde finales de 2023, la compañía del Sr. Awadallah, Vectara, ha rastreado con qué frecuencia los chatbots se desvanecen de la verdad. La compañía le pide a estos sistemas que realicen una tarea directa que se verifique fácilmente: resumir artículos de noticias específicos. Incluso entonces, los chatbots inventan la información persistentemente.
La investigación original de Vacerara estimó que en esta situación los chatbots constituyeron información al menos el 3 por ciento del tiempo y, a veces, hasta el 27 por ciento.
En el año y medio desde entonces, compañías como OpenAI y Google empujaron esos números hacia el rango de 1 o 2 por ciento. Otros, como la nueva empresa de San Francisco antrópica, rondaban el 4 por ciento. Pero las tasas de alucinación en esta prueba han aumentado con los sistemas de razonamiento. El sistema de razonamiento de Deepseek, R1, alucinó el 14.3 por ciento del tiempo. El O3 de Openai subió a 6.8.
(El New York Times ha demandado a Openai y a su socio, Microsoft, acusándolos de infracción de derechos de autor con respecto al contenido de noticias relacionados con los sistemas de IA. Openai y Microsoft han negado esas afirmaciones).
Durante años, compañías como OpenAI se basaron en un concepto simple: cuantos más datos de Internet alimentan en sus sistemas de inteligencia artificial, mejor funcionarían esos sistemas. Pero usaron casi todo el texto en inglés en Internet, lo que significaba que necesitaban una nueva forma de mejorar sus chatbots.
Por lo tanto, estas compañías se inclinan más en una técnica que los científicos llaman aprendizaje de refuerzo. Con este proceso, un sistema puede aprender el comportamiento a través de prueba y error. Funciona bien en ciertas áreas, como las matemáticas y la programación de computadoras. Pero se está quedando corto en otras áreas.
“La forma en que se capacitan estos sistemas, comenzarán a centrarse en una tarea y comenzarán a olvidarse de otros”, dijo Laura Pérez-Beltrachini, investigadora de la Universidad de Edimburgo que se encuentra entre un equipo que examina de cerca el problema de la alucinación.
Otro problema es que los modelos de razonamiento están diseñados para pasar tiempo “pensando” a través de problemas complejos antes de decidirse por una respuesta. A medida que intentan abordar un problema paso a paso, corren el riesgo de alucinar en cada paso. Los errores pueden agotarse a medida que pasan más tiempo pensando.
Los últimos bots revelan cada paso a los usuarios, lo que significa que los usuarios también pueden ver cada error. Los investigadores también han encontrado que en muchos casos, los pasos que muestran un bot no están relacionados con la respuesta que finalmente ofrece.
“Lo que el sistema dice que está pensando no es necesariamente lo que está pensando”, dijo Aryo Pradipta Gema, investigador de IA en la Universidad de Edimburgo y miembro de Anthrope.
Me estoy riendo a reír. Le pedí a Chatgpt que me convirtiera en una figura de acción para poder montar la ola de la tendencia viral de IA, y wow, lo hizo. Me convirtió en una figura de estrella de rock en cuero ajustado, adecuado para edades de 4 años en adelante.
La divertida tendencia de la figura de acción se ha expandido en las redes sociales. También se llama la tendencia de “Barbie Box”.
Es difícil determinar el origen, pero probablemente esté viendo a sus amigos, familiares y colegas que comparten imágenes de sí mismos reinventados como juguetes empaquetados.
Aquí le mostramos cómo usar un chatbot de IA para hacer una imagen propia y cómo imprimirla en 3D para que pueda poseer esa figura de acción personalizada en la vida real.
Cómo hacer una figura de acción de IA de ti mismo
Paso 1: Visite a Chatgpt, que ahora ofrece generación de imágenes gratuita para todos. Le pregunté a Chatgpt cuántas imágenes me dejaría hacer gratis, y decía que haría hasta 15 por día. Después de eso, la generación de imágenes se detiene para los usuarios gratuitos hasta que el límite se reinicia.
Paso 2: Pregunté a ChatGPT para obtener orientación sobre cómo convertirme en una figura de acción, y solicitó una foto de cuerpo completo. Puede cargar imágenes desde el cuadro “Preguntar cualquier cosa”. Encontré una toma no muy clara de mis archivos de fotos y la envié. Lo suficientemente bueno, pensé.
Ampliar imagen
Esta es la imagen de cuerpo completo con la que le di Chatgpt para trabajar.
Amanda Kooser/CNET
Paso 3: El servicio de IA me pidió preferencias para atuendo o disfraz, pose o expresión, accesorios o armas, nombre o título para la figura de acción y el estilo de embalaje, como inspirados en el libro retro, moderno o cómico. Puedes ser tan detallado o vago como quieras. Fui con Vague: “Me gustaría que mi atuendo se viera como una estrella de rock con una pose de mecedor, una guitarra y un estilo de empaque retro”.
Paso 4: Espera, luego comparte. Puede tomar Chatgpt unos momentos para generar su figura de acción. Si le gusta lo que ve, continúe y descárguelo y lo espínea en tus sociales.
Ampliar imagen
Aquí está la gloria completa de mi figura de acción de IA.
Chatgpt
Paso 5 (opcional): Si ChatGPT no lo clava del todo, solicite ajustes. Probé una nueva versión con jeans azules y una guitarra de telecaster rosa. Entregó, pero olvidó la parte de la figura de acción y la nueva imagen parecía más eliminada de mi apariencia facial real. Un tercer ajuste me llevó al territorio de Billy Idol cuando le pedí el cabello rubio puntiagudo. La pierna de mi figura de acción terminó fuera de la ventana de embalaje “de plástico”. Lo intenté de nuevo.
Ampliar imagen
Esto no se parece en nada a mí.
Chatgpt
No esperes la perfección. Cuanto más pedía cambios, más extraño que tenía. Finalmente, Chatgpt me convirtió en una figura de Jon Bon Jovi-esque con tres dedos en mi mano izquierda tocando una guitarra con siete cuerdas.
Cómo imprimir en 3D tu creación
Nuestro experto en impresión 3D de CNET residente, James Bricknell, ha llevado esta locura un paso más allá y, utilizando una tecnología inteligente de IA, una de estas imágenes ChatGPT impresas en 3D. Está aquí para explicar el proceso.
James Bricknell / Cnet
Tan pronto como vi la primera imagen de figura de acción de ChatGPT, supe que quería crear una versión impresa en 3D. Convertir una imagen en un modelo 3D puede ser complicado, a veces que involucra grandes plataformas de cámara y mucho software inteligente, pero los últimos avances de IA significan que crear algo simple y divertido es mucho más fácil. Cuando el editor de CNET en Large Scott Stein publicó su figura de acción en los hilos, pensé que era un buen lugar para comenzar.
Paso 1: Edición de la imagen. Es probable que su primera imagen sea una figura en un paquete de ampolla. Eso se ve increíble, pero gran parte del exceso de obras de arte no se traducirán cuando la impresión en 3D. Deberá recortar la mayor cantidad de material extraño que pueda, enfocándose en el modelo con un fondo de color sólido si es posible.
Puede encontrar que necesita ajustar la imagen aún más para obtener un buen render 3D. Tuve que dibujar una línea entre las gafas y las cejas de Scott para que el software de modelado pudiera reconocerlos como dos objetos separados.
James Bricknell / Cnet
Paso 2: Access Maker World’s Maker Lab. Bambu Lab hace que algunas de las mejores impresoras 3D disponibles hoy en día, y tiene un excelente sitio web para encontrar modelos 3D para imprimir. Maker World tiene una pestaña llamada Maker Lab, donde la compañía tiene una gran cantidad de interesantes proyectos de IA.
El que queremos está en la parte inferior, llamado Imagen al modelo 3D. Deberá crear un inicio de sesión para usar esta función, pero es gratuita para registrarse.
Mundo del creador
Paso 3: Importa tu imagen. Una vez que haga clic en el Intentarél Botón, se le pedirá que cargue la imagen recortada desde el paso uno. Cuando lo haga, la IA entrará en acción para crear algo imprimible en 3D. Esto lleva unos minutos y puede que no le dé la imagen perfecta en su primer intento. Si no le gusta la salida, puede probar una imagen diferente o eliminar el fondo de su imagen para hacer que el modelo salga.
Este proceso cuesta a los créditos mundiales, pero comienza con algunos como parte de su registro. Afortunadamente, solo paga el crédito cuando descarga el modelo terminado. Esto significa que eres libre de probar múltiples renders diferentes para hacerlo bien. Cuando esté feliz, haga clic exportar para descargar el modelo.
James Bricknell / Cnet
Paso 4: Importar a su cortadora. El archivo descargado tiene un formato de archivo .obj, que reconoce casi cada cortadora de impresión 3D. Usé el estudio Bambu Bambu de Bambu Lab, pero podría usar Prusa Slader o cualquier otra cortadora para su impresora 3D específica. La mayoría de las cortadoras tienen una función de reparación y puede valer la pena ejecutar su modelo a través de él. No encontré ningún error en mis pruebas, pero es mejor estar seguro.
Si tiene una impresora con un sistema de color, ahora sería el momento de pintar los colores que deseó en su modelo. Si no lo hace, entonces simplemente imprimirá como un solo objeto de color.
Nota: Es posible que su modelo no tenga pies planos. Noté que este modelo no, así que tuve que asegurarme de que los soportes estuvieran activos en las plantas de sus pies para mantenerlo en posición vertical.
James Bricknell / Cnet
Paso 5: Envíe su modelo a la impresora 3D. Una vez que haya realizado todos los otros pasos, es hora de imprimir. Estaba usando el nuevo Bambu Lab H2D y me llevó un poco más de 11 horas obtener una impresión 3D a todo color. Una impresión de un solo color tomaría significativamente menos tiempo. También aumenté el tamaño del modelo en un 150% ya que la producción mundial de fabricantes era bastante pequeña.
Puedes ver que usé mucho apoyo para asegurarme de que sus brazos y anteojos no se rompieran en el proceso de impresión. En este punto, puede comenzar a pensar en posibles accesorios. Imprimí un pequeño auricular VR para ir con la figura de Scott que pegué a la mano. Creo que lo redondeó bien.
James Bricknell / Cnet
Paso 6: disfruta de la presencia de tu nuevo mini me. Eso es todo. Ahora tiene una pequeña figura de acción basada en su imagen de chatgpt. No llevó mucho tiempo, y el uso de Maker Lab Ai lo salvó potencialmente cientos de horas aprendiendo a modelarlo usted mismo. Sin embargo, no es perfecto. Un modelador 3D profesional podría hacer un trabajo mucho mejor y hacerlo articular para arrancar. Pero para un pequeño proyecto divertido, esto es excelente.
Inspiración para tu figura de acción de IA
¿Necesitas algo de inspiración? Mira estas divertidas y divertidas figuras de acción de IA compartidas en las redes sociales.
El correo real del Reino Unido llevó a Instagram para compartir su adorable cifra de acción “postie”, completa con un sobre y un chaleco de seguridad opcional.
Ampliar imagen
El Royal Mail hizo una cifra de acción postie generada por IA.
Instagram/captura de pantalla por CNET
Cuenta de fanático de Seinfeld Seinfeldism generó una serie de imágenes relacionadas con Seinfeld. El Kramer es perfecto.
Ampliar imagen
Esta figura de acción de Kramer generada por AI parece que debería ser una mercancía oficial.
X/captura de pantalla por CNET
Las cajas de Barbie no son solo para humanos. Bear, un pastor alemán con 134,000 seguidores de Instagram, se ve bastante dulce como un juguete.
Ampliar imagen
Los perros también hacen buenas figuras de acción.
Instagram/captura de pantalla por CNET
ChatGPT es razonablemente hábil para tomar una foto de cuerpo completo y transformarla en un juguete falso. Por lo menos, debería reírte bien. Sea creativo con él. Toco en una banda de rock. Chatgpt fue sorprendentemente precisa: mi figura de acción estaba vestida de la forma en que me visto en una noche de concierto, a pesar de que me hizo parecer un poco como una mujer Bruce Springsteen. Rock On, chatgpt.
This website uses cookies so that we can provide you with the best user experience possible. Cookie information is stored in your browser and performs functions such as recognising you when you return to our website and helping our team to understand which sections of the website you find most interesting and useful.
Strictly Necessary Cookies
Strictly Necessary Cookie should be enabled at all times so that we can save your preferences for cookie settings.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.