Operai lanzó su modelo O3-Mini exactamente hace una semana, ofreciendo a los usuarios gratuitos y pagados una alternativa más precisa, más rápida y más barata a O1-Mini. Ahora, Operai ha actualizado el O3-Mini para incluir una cadena de pensamiento actualizada.
Operai anunció a través de una publicación X que los usuarios gratuitos y pagados ahora podrían ver el proceso de razonamiento que atraviesa el O3-Mini antes de llegar a una conclusión. Por ejemplo, en la publicación, un usuario preguntó, ¿cómo no es hoy un viernes? Y bajo el menú desplegable que muestra cuánto tiempo tardó, el modelo delineó en cada paso de su cadena de pensamiento que le permitió aterrizar en su respuesta.
Comprender cómo llegó el modelo a la conclusión es útil porque no solo ayuda a los usuarios a verificar la precisión de la conclusión, sino que también enseña a los usuarios cómo podrían haber llegado a esa respuesta ellos mismos. Esto es particularmente útil para las indicaciones matemáticas o de codificación, en las que ver los pasos podría permitirle recrearlos la próxima vez que encuentre un problema similar.
Los suscriptores de ChatGPT pagados también podrán ver la cadena de pensamiento actualizada en O3-Mini en el alto esfuerzo de razonamiento. Como su nombre lo indica, el razonamiento alto solo permite que el modelo aplique más potencia de cómputo para preguntas más avanzadas que requieren un razonamiento más alto. En el X Post anunciando la función, OpenAi arroja el término cadena de pensamiento (COT), pero ¿qué significa realmente?
De la misma manera, le pediría a una persona que explique su razonamiento paso a paso, la provisión de cuna alienta a un LLM a romper un problema complejo en pasos lógicos, más pequeños y solucionables. Al compartir estos pasos de razonamiento con los usuarios, el modelo se vuelve más interpretable, lo que permite a los usuarios dirigir mejor sus respuestas e identificar errores en el razonamiento.
Más sobre el razonamiento de la cadena de pensamiento de OpenAi en ZDNET
No es ningún secreto que la IA es la tendencia definitoria de nuestra generación, pero ¿qué significa eso realmente? Muy pronto, la IA será profundamente generalizada en nuestras vidas y la columna vertebral de la industria se está construyendo hoy.
El moderador Shirin Ghaffary (reportero, Bloomberg News) lidera un panel de expertos que incluye; Chase Lochmiller (Crusoe, CEO) Costi Perricos (Deloitte, líder empresarial Global Genai) Varun Mohan (Codeium, cofundador y CEO) que preguntan, ¿cómo estamos construyendo la infraestructura para apoyar esta revolución tecnológica global masiva?
¿Cómo se ven algunas de las tendencias globales en términos de escala tanto la infraestructura como la adopción? Escuche a los expertos en toda la cadena de valor, desde la construcción de centros de datos hasta plataformas en la nube y productos de IA para comprender cómo se amplía esta masiva en la infraestructura y las ofertas está promoviendo la innovación y los negocios al tiempo que mitiga los riesgos sociales, económicos y ambientales de escalar la IA.
La votación ya está abierta, tengo que preguntar, vote por Bruce Burke
¡Noticias emocionantes! El editor de Neural News Network, Bruce Burke, ha sido seleccionado para participar en la competencia Entrepreneur of Impact. Un ganador visionario aparecerá en Forbes, recibirá $ 25,000 y tendrá una sesión de tutoría individual con el propio Daymond John de The Shark Tank. ¡Vota por el editor de tu red de noticias neuronales!
Haga clic aquí para votar por Bruce Burke en Entrepreneur of Impact
Estoy proponiendo construir una organización de noticias e información totalmente automatizada que se alimente con IA que crea artículos de noticias, videos, podcasts, inmersiones profundas, informes especiales, documentos blancos y más, centrado en el mundo en constante expansión de la IA.
Actualmente estoy en el puesto 12, ¡he avanzado al top 15 con solo cuatro días para el final!
Agradecería su voto y volveré a publicar cuando comience la votación. He configurado mi perfil que describe mi propuesta vinculada a continuación. ¡Por favor vote hoy!
Haga clic aquí para votar por Bruce Burke en Entrepreneur of Impact
Cara abrazada y Inteligencia física han lanzado en silencio PI0 (pi-cero) Esta semana, el primer modelo fundamental para robots que traduce los comandos del lenguaje natural directamente en acciones físicas.
“PI0 es el modelo de acción del lenguaje de visión más avanzado”, anunció Remi Cadene, un científico principal de investigación de Hugging Face, anunció en un X publicar que rápidamente llamó la atención a través de la comunidad de IA. “Se necesita comandos de lenguaje natural como entrada y produce directamente el comportamiento autónomo”.
Este lanzamiento marca un momento crucial en robótica: la primera vez que se ha puesto ampliamente un modelo de base para robots a través de una plataforma de código abierto. Al igual que la generación de texto revolucionada por ChatGPT, PI0 tiene como objetivo transformar cómo los robots aprenden y ejecutan tareas.
El modelo, desarrollado originalmente por la inteligencia física y ahora portada a abrazar la cara Plataforma lerobotpuede realizar tareas complejas como la lavandería plegable, las mesas de autobuses y empacar comestibles, actividades que tradicionalmente han sido extremadamente desafiantes para que los robots dominen.
“Los robots de hoy son especialistas estrechos, programados para movimientos repetitivos en entornos coreografiados”, escribió el equipo de investigación de inteligencia física en su Post de anuncio. “PI0 cambia eso, permitiendo que los robots aprendan y sigan las instrucciones del usuario, haciendo que la programación sea tan simple como decirle al robot lo que desea hacer”.
La tecnología detrás de PI0 representa un logro técnico significativo. El modelo fue entrenado en datos de siete plataformas robóticas diferentes y 68 tareas únicas, lo que le permite manejar todo, desde delicadas tareas de manipulación hasta procedimientos complejos de múltiples pasos. Emplea una técnica novedosa llamada Flow Matching para producir trayectorias de acción suaves y en tiempo real a 50Hz, lo que la hace muy precisa y adaptable para la implementación del mundo real.
Más sobre abrazar la cara y la inteligencia física Pi-Zero en VentureBeat
Los humanos son terribles al detectar mentiras, dice el psicólogo Riccardo Loconte … pero ¿y si tuviéramos una herramienta con IA para ayudar? Presenta el trabajo de su equipo capacitando con éxito una IA para reconocer las falsedades en ciertos contextos, estableciendo las bases para un mundo donde todo, desde la seguridad nacional hasta las redes sociales, es un poco más segura, y un poco más éticamente complicado. Grabado en Tedai Viena el 19 de octubre de 2024.
Me he asociado con Mother On It, su socio autorizado para navegar por el complejo panorama de la tecnología actual. Pasar sobre TI se especializa en proporcionar soluciones de hardware, software y ciberseguridad de vanguardia adaptadas a sus necesidades.
Desde una infraestructura de TI robusta hasta aplicaciones AL avanzadas, moverse sobre TI facilita a las empresas a prosperar en la era digital. Contacte avanzando sobre él con todos sus requisitos de TI, IA y ciberseguridad. Llame a +1 (727) 490-9418, o envíe un correo electrónico: info@movingonit.com
Echa un vistazo a seguir su nuevo comunicado de prensa en Cybersecurity Dive | HAGA CLIC AQUÍ
Para aquellos que aman el Luxo Jr. de Pixar, los ingenieros de Apple desarrollaron una lámpara que gira con emoción mientras obedece todos tus caprichos.
Hace treinta y nueve años, los Wizards de CG en Pixar nos hicieron creer que una lámpara de escritorio sin rostro podría ser enormemente expresiva e increíblemente linda. Apple, con su mente puesta en la robótica del hogar, nos muestra cómo se vería una lámpara tan adorable en la vida real.
El gigante tecnológico ha estado trabajando en una lámpara que es un poco tonta mientras intenta responder a sus solicitudes, y puede ser el dispositivo habilitado para la inteligencia de Apple que quiero en mi vida, más que cualquier asistente de IA en mi iPhone.
Manzana Investigación de aprendizaje automático La división publicó un Documento de investigación relativamente corto al repositorio de preimpresión ARXIV el mes pasado que detalla su “diseño de movimiento expresivo y funcional para robot no antropomórfico”. MacRumors vio el artículo y subió un video de YouTube de la lámpara expresiva en acción.
Es un dispositivo que recuerda inmediatamente a la mascota Luxo Jr. de Pixar, y de alguna manera es igual de lindo. Los ingenieros hicieron un gesto para que la lámpara avance o mire en una dirección particular. En lugar de simplemente moverse linealmente, la lámpara actuó a partes iguales confundidas y curiosas, con varios estados de “atención”, “actitud” y “expresión”, según el artículo. Apple llama a este marco Elegnt, un acrónimo torpe de “diseño de movimiento expresivo y funcional para robot no antropomórfico”.
Sabes qué, Apple puede estar en el dinero aquí. El robot expresivo es mucho más entretenido que uno que simplemente hace lo que le dices. En un punto culminante, el brazo del robot intentó extenderse para ver una nota que su brazo no podía alcanzar, antes de sacudir la cabeza en el desánimo y disculparse con una voz generada por IA.
Más sobre el marco Elegnt de Apple en Gizmodo
Mo Gawdat, el ex director de negocios de Google X, autor más vendido, fundador de la Fundación ‘One Billion Happy’ y cofundador de ‘Sonstrable’, se une a Scott para discutir el estado de la IA, donde está hoy, cómo es evolucionando, y lo que eso significa para nuestro futuro. También entran en el último libro de Mo, Unstressable: A Practical Guide to to Stress Living, en el podcast Prof G.
Utilizar código de descuento NEURAL ¡Por un ahorro de $ 15 en Decatxt 3, con envío gratis!
El Decatxt 3 utiliza un sistema “acorde” único, similar a un piano. Al presionar diferentes combinaciones de las dos teclas en cada dedo, puede generar cualquier letra o símbolo.
Además, con una sola tecla de presión o una combinación con las teclas del pulgar, puede acceder a todo el alfabeto. Esto hace que aprender, usar y dominar el Decatxt 3 sea una brisa.
Haga clic aquí para leer más sobre el teclado Decatxt 3, BT con una mano de Wayne Rasanen.
El Decatxt 3 es una solución perfecta para personas con temblores de manos, habilidades motoras deficientes, condiciones como EM, pérdida de extremidades o incluso deterioro de la visión. Se conecta a través de Bluetooth y se puede atar a cualquier mano, haciéndolo cómodo y versátil para todos.
El nuevo ganador anual del premio anual de I + D, Decatxt 3, se presentará en un próximo número del boletín de Florida Alliance for Assistive Services & Technology (FAAST).
Póngase en contacto con Wayne Rasanen, fundador de In10Did, para obtener más información sobre Decatxt 3
¡Esperar! ¿El R1 es genial ahora?
Si está leyendo esto, es probable que ya conozca el viaje en el que ha estado el conejo R1, saltando alto con expectativas construidas en CES, y luego cae por la madriguera del conejo después del lanzamiento.
“Evite este gadget AI”, escribió Mark Spoonauer, editor en jefe de Spoonauer Revisión del conejo R1y en esos primeros días, era difícil estar en desacuerdo. Esta era una caja apenas terminada media que era lenta, poco confiable e inexacta en lo que se suponía que debía hacer.
Pero han pasado 12 meses. ¿Dónde está el conejo R1 ahora? Bueno, con una implacable tubería de actualizaciones e nuevas ideas de IA … ¡¿En realidad es bastante bueno ahora?
No es el dispositivo innovador que el CEO y fundador Jesse Lyu prometió en el escenario hace tantos meses. Pero con el modelo de acción grande (LAM) en pleno apogeo, interfaz de usuario generativa, voz mágica, personalización R-Cade y todo lo intermedio, esta es ahora una de las formas más divertidas de interactuar con la IA que he usado. Entonces, antes de ir más allá, volvamos a la revisión de Spoonauer y revisemos la lista de verificación de los contras que justifican esa revisión de 1.5 estrellas, y veamos si han sido arreglados.
Más sobre el modelo de acción grande actualizado del conejo en la guía de Tom
El lunes 3 de febrero de 2025, el diálogo en Utokyo Globe #14 celebró un evento con el Sr. Sam Altman (CEO de OpenAI) y su CPO (Director de Producto), el Sr. Kevin Weil como parte de su serie “Diálogo”. El presidente Teruo Fujii y el vicepresidente ejecutivo Kaori Hayashi dieron la bienvenida a los dos invitados, junto con 36 estudiantes cuya especialidad variaron desde la ingeniería hasta la medicina y la filosofía.
El profesor Yujin Yaguchi, director del Centro de Educación Global (Globe), se desempeñó como moderador. Al comienzo del evento, el Laboratorio de Inami/Monnai del Centro de Investigación de Ciencia y Tecnología Avanzadas de la Universidad de Tokio mostró y explicó los “Jizai Arms” como un ejemplo de muchas actividades de investigación emocionantes que tienen lugar en la Universidad.
Posteriormente, el presidente Fujii y el EVP Hayashi tuvieron una breve discusión sobre el uso y el futuro de la IA con el Sr. Altman y el Sr. Weil, seguidos de una sesión de preguntas y respuestas entre los oradores y los participantes.
Eso es todo por hoy, pero AI se está moviendo rápido, ¡como, comente y suscríbase para obtener más noticias de IA! ¡Por favor, vote por mí en la competencia de emprendedor de impacto hoy! Gracias por apoyar a mis socios y a mí, así es como mantengo la red de noticias neuronales gratis.