Connect with us

Noticias

OpenAI Deep Research Explains Itself

Published

on

If you will be in San Francisco on February 13th, consider attending my reader dinner, New World Dinner 4.

I asked OpenAI Deep Research to explain itself. The result is impressively factual, at least at an initial read-through. I did catch a few errors, which are identified in footnotes, but it is impressively few errors.

More specifically, I asked for “a thorough report on the technical breakthrough in hardware, algorithm design, product engineering, and logistics necessary to create OpenAI Deep Research.” I have edited it briefly to reduce redundancy, but the factual content is largely unchanged.

The reports generated by ODR can be heavily repetitive and seen artificially long. Ideas spill out of their designated section and are repeated (sometimes in ways that are not relevant) in other sections. The excessive use of brackets for examples in run-on sentences also bothers me. Both these elements remain to some degree in the edited version, but are heavily edited out. There was some amount of topic drift outside of the specified topics.

Enjoy the following, informative of ODR in both form and content!

“OpenAI Deep Research Explains Itself” ~ GPT-4o

Early AI Hardware (Pre-GPU/TPU): Before GPUs and TPUs became dominant, researchers experimented with various specialized hardware for AI. Early vector processors and co-processors were used to accelerate linear algebra operations central to neural networks. Intel’s ETANN in the late 1980s used analog circuits for neural computations​. By the early 1990s, all-digital neural network chips (e.g. the Nestor/Intel Ni1000) appeared, and digital signal processors (DSPs) were repurposed to speed up tasks like optical character recognition​. Field-programmable gate arrays (FPGAs) were also explored for neural network acceleration as early as the 1990s​, offering customizable hardware pipelines, though they often traded off maximum throughput for flexibility. These pre-GPU advances established the principle that domain-specific hardware could dramatically boost AI workloads by exploiting parallelism and low-precision arithmetic, a lesson that paved the way for later GPU and TPU innovations.

Graphics Processing Units (GPUs): Originally designed for rendering graphics, GPUs in the 2000s were retrofitted for general-purpose computing, excelling in the matrix and vector operations needed for machine learning. A modern GPU contains thousands of smaller cores arranged for massive parallelism, a large on-board memory (VRAM), and a fast memory hierarchy optimized for throughput. GPU manufacturers introduced AI-specific architectural features. For example, NVIDIA’s Volta architecture (2017) added Tensor Cores that perform mixed-precision matrix multiply-accumulate operations, delivering up to ~125 TFLOPS on 16-bit calculations in a single chip​. These innovations dramatically increased training speed by performing many multiply-adds in hardware concurrently. GPUs also leverage high-bandwidth memory (HBM in newer models) to feed data to the cores quickly, and use programming models like CUDA to let developers optimize memory access patterns and parallel execution. Thanks to their programmability and an existing ecosystem from the graphics world, GPUs became the workhorse for neural networks​.

Tensor Processing Units (TPUs) and ASICs: TPUs are application-specific integrated circuits (ASICs) developed by Google specifically for neural network workloads. First deployed in Google’s data centers in 2015, the TPU v1 was tailored for the inference phase of deep learning. Its core was a 65,536-unit systolic array (matrix multiply unit) operating on 8-bit integers, achieving a peak of 92 trillion operations per second, backed by 28 MiB of on-chip SRAM for fast data access​. By stripping out general-purpose features (caches, branch prediction, etc.), TPUs sacrificed versatility in favor of determinism and efficiency. The initial TPU proved to be “about 15×–30× faster at inference than the contemporary GPU or CPU” (Nvidia K80 and Intel Haswell), while delivering 30×–80× higher performance per watt​. Such gains came partly from the TPU’s streamlined dataflow design and aggressive low-precision computing. Subsequent TPU generations (v2, v3, v4) incorporated support for training (using bfloat16/FP16 for higher numeric range), much larger on-chip memory and high-bandwidth off-chip memory (HBM), and massive scalability via specialized interconnects between chips in a TPU pod. TPUs are cloud-hosted and optimized for Google’s software stack (TensorFlow XLA compiler). They are essentially hardware-as-a-service for AI. Other companies have similarly built AI ASICs – e.g. Amazon’s Inferentia for inference and Trainium for training in AWS data centers – aiming to outperform general GPUs by focusing on the matrix/tensor operations common to deep learning​. These ASICs exemplify the trend of vertical integration, where the hardware is co-designed with machine learning algorithms for maximum efficiency.

GPU vs. TPU – Performance, Cost, and Scalability: GPUs and TPUs represent two different approaches to AI hardware:

  • Raw Performance: TPUs tend to have an edge in raw throughput for dense tensor operations. For example, a single TPU v3 core can deliver 123 TFLOPs for BF16 multiply-add, comparable to or higher than a high-end GPU, and Google reported order-of-magnitude gains in throughput per dollar for TPUs on large neural workloads​ (infoq.com). However, GPUs have narrowed the gap by introducing similar tensor accelerators and by excelling at tasks requiring flexibility or high precision (e.g. scientific computing or custom operations). For many models, modern GPUs achieve training speeds on par with TPU pods when using optimized libraries.

  • Cost & Ecosystem: GPUs benefit from economies of scale and a broad market. They can be deployed from a single desktop up to supercomputer clusters, and the GPU software ecosystem (CUDA, PyTorch, etc.) is very mature. This makes GPUs highly adaptable – researchers can experiment with new model types without waiting for new hardware. TPUs can offer lower cost-per-training for large production workloads, but they are less accessible for small-scale use and require using Google’s platform. Cost also depends on utilization – a TPU pod is cost-effective when fully utilized for large training jobs, whereas idle time or smaller jobs might waste its capacity.

  • Scalability: Both GPUs and TPUs scale to massive clusters, but the strategies differ. GPU clusters often use high-speed interconnects like NVLink and InfiniBand to connect dozens or hundreds of GPUs; Nvidia’s DGX SuperPOD, for instance, uses InfiniBand to ensure 1600+ GB/s cross-node bandwidth for scaling to thousands of GPUs. Google’s TPU pods, on the other hand, have an ultra-fast custom mesh network connecting up to thousands of TPU chips, allowing near-linear scaling on training jobs designed for TPU infrastructure. In practice, TPUs can be easier to scale for very large training runs because the hardware and software are designed together. GPU clusters can also scale well but may require more engineering by the user.

  • Adaptability: GPUs are general-purpose processors. Aside from neural nets, they can accelerate graphics, physics simulations, or data analytics. This versatility means a GPU investment can be repurposed across different workloads and GPUs readily accommodate new model architectures or dynamic neural network operations that weren’t anticipated by hardware designers. TPUs, in contrast, are more specialized for matrix-heavy neural network patterns. Within their domain TPUs are programmable. They support many network architectures via high-level TensorFlow/XLA code. Moreover, Google continues to broaden their capabilities each generation. In summary, GPUs offer broad adaptability and a huge community/stack, while TPUs offer brute-force efficiency for mainstream deep learning tasks.

From Early AI Algorithms to Transformers: The evolution of AI algorithms has been marked by a series of breakthroughs that increased model expressiveness and scalability. Early AI models in the mid-20th century were limited by computational power and algorithmic understanding. The introduction of backpropagation in the 1980s enabled multi-layer neural networks to learn complex functions, leading to the first wave of deep learning (e.g. LeCun’s CNN for handwriting in 1989). Recurrent neural networks (RNNs) and their gated variants (LSTMs, GRUs in the 1990s) brought sequence modeling to the forefront, proving effective for speech and language by maintaining state across time steps. However, RNNs suffered from sequential processing constraints – they process one token at a time, making it hard to parallelize and capturing long-range dependencies was tricky even with gating mechanisms​ (mchromiak.github.io).

In the mid-2010s, the attention mechanism emerged as a game-changer. First used alongside RNNs in machine translation (Bahdanau et al., 2015) to allow models to focus on relevant parts of the input sequence, attention opened the door to better context handling. The culmination of these ideas was the Transformer architecture (Vaswani et al., 2017), which eschewed recurrence entirely and relied solely on attention to model global relationships in sequences. By encoding the position of tokens and using multi-head self-attention, Transformers can attend to different parts of a sequence in parallel, overcoming the bottlenecks of RNNs. This parallelism meant that Transformers could be trained much faster on GPUs/TPUs than RNN-based models for the same sequence lengths​ (mchromiak.github.io).

Within just a couple of years, transformers became the foundation of most state-of-the-art models in NLP, vision, and beyond, owing to their scalability and superior performance on long-range dependencies. They made major algorithmic breakthroughs: Multi-head attention allows the model to learn different types of relationships simultaneously. Positional encoding injects order information without recurrence. These were key enablers for this transformer revolution​. These innovations, along with techniques like layer normalization and residual connections, allowed training extremely deep networks that converge faster and generalize better, setting the stage for today’s large-scale models.

Key Components Enabling Transformers: A few specific innovations were crucial for modern transformer-based networks.

(1) Scaled Dot-Product Attention – a mechanism that lets the model weigh the relevance of different tokens to each other, with a scaling factor to keep gradients stable. This idea, combined with multi-head attention, means the model effectively has multiple attention “subspaces” to capture different aspects of similarity in the data.

(2) Positional Encoding – since transformers have no built-in notion of word order (unlike RNNs which process sequentially), Vaswani et al. introduced adding sinusoidal position embeddings to token representations, giving the model awareness of sequence positions​. This allowed the attention mechanism to consider relative positions.

(3) Feed-Forward and Residual Layers – each transformer layer includes a position-wise feed-forward network and uses residual connections and layer normalization, which help train very deep architectures by mitigating vanishing gradients and stabilizing learning.

(4) Parallelization Strategies – transformers significantly reduce the number of sequential operations needed to relate two distant positions in a sequence. In RNN-based models, the number of steps to connect tokens grows linearly with their distance. Transformers reduce this to one attention pass regardless of distance​. This property, combined with parallel computation of sequence elements, means training time can be dramatically shorter for long sequences. Replacing recurrence with self-attention “leads to significantly shorter training time” due to the ability to parallelize sequence processing​ (mchromiak.github.io) .

Additionally, researchers developed better optimization techniques (like Adam optimizer, learning rate schedulers) and training tricks (dropout, initialization schemes). While not specific to transformers, they enabled stable training of very large models that would have been unstable before. The transformer architecture’s success is a prime example of algorithm design co-evolving with hardware capabilities. It trades off some computational intensity (O(n²) attention) for much greater parallelism, which is a good trade in the era of abundant GPU/TPU compute.

Evolution of “Chain of Thought” Reasoning: A recent algorithmic development in AI is the concept of chain-of-thought (CoT) reasoning, particularly in large language models. Instead of providing an answer directly, the model is encouraged to generate a sequence of intermediate reasoning steps – essentially, to “think out loud.” Wei et al. (2022) demonstrated that simply by prompting a sufficiently large language model to output a step-by-step solution, one can significantly boost its problem-solving capabilities​. This was surprising because it did not require changing the model’s architecture – it leveraged the model’s latent knowledge when guided properly.

The CoT approach improves problem-solving efficiency because the model can break a tough problem into smaller chunks, reducing errors at each step and allowing backtracking if needed. It’s an active research area, with work showing that chain-of-thought methods can lead to emergent abilities in very large models that smaller models do not exhibit​.

Best Practices for Large-Scale AI Software: Engineering around large AI models (such as GPT-3-scale transformers) requires disciplined software practices to ensure reliability and efficiency. Teams now adopt MLOps practices – an extension of DevOps for machine learning – to streamline the model lifecycle from development to deployment. MLOps involves automation of data pipelines, reproducible training runs, model versioning, CI/CD for model deployment, and continuous monitoring of models in production​ (developer.harness.io).

Challenges in Training and Tuning at Scale: Training large AI models brings unique engineering challenges. The sheer scale of data and parameters means that distributed training is often necessary – no single machine has enough memory or compute. This requires strategies like data parallelism (split batches across GPUs), model parallelism (split the model itself across devices), or pipeline parallelism (chaining model segments on different hardware) – often all three in hybrid forms for trillion-parameter models. Sophisticated frameworks have been developed to automate these sharding strategies, but engineering oversight is needed to handle issues like synchronization, communication overhead, and fault tolerance. Google’s GPipe (2019) demonstrated how pipeline parallelism can train giant models by partitioning layers across accelerators and using micro-batches to keep all partitions busy​. Such techniques require careful orchestration to ensure that each batch of data and the model partitions are in the right place at the right time. Engineers must also optimize the training throughput by tuning things like batch size (too small and GPUs underutilize, too large and convergence might slow or memory overflows).

Deployment, Inference, and MLOps: Once a model is trained, serving it to end-users at scale is another engineering feat. Large models often need to run on clusters of machines with accelerators to handle high query volumes with low latency. Best practices here include efficient serving architectures and model compression. The latter uses techniques like knowledge distillation, quantization, or sparse pruning to reduce model size and speed up inference.

Inference optimizations like using half-precision or INT8 quantized models can dramatically cut costs. Many industry deployments now run neural nets in INT8 where accuracy permits, since it doubles the throughput on compatible hardware. From a software engineering standpoint, deploying AI models involves a robust CI/CD pipeline: new model versions should go through automated integration tests.

MLOps also covers monitoring and maintenance: models in production need continuous monitoring for data drift, performance drift, and even adversarial or unexpected inputs. If anomalies are detected, an automated pipeline might trigger a model retraining or fallback to a safe model. Automation is key – leading AI firms have continuous training systems where models are periodically retrained on fresh data and redeployed, much like how software is continuously integrated and deployed​ (ml-ops.org, developer.harness.io). All these engineering practices ensure that large-scale AI models remain reliable, accurate, and efficient as they move from research to real-world products.

AI Hardware Supply Chain Challenges: The rapid growth of AI has put enormous strain on the global hardware supply chain. Cutting-edge AI training and inference rely on advanced semiconductors (GPUs, TPUs, ASICs), which in turn depend on a complex, global semiconductor manufacturing pipeline. In recent years, demand for AI chips has surged – Deloitte projected AI chip sales would account for 11% of a $576B semiconductor market in 2024, with generative AI and LLMs driving many enterprises to acquire GPUs by the thousands​. This surge (over 20% increase in demand year-on-year) is straining the supply chain, leading to chip shortages and long lead times for acquiring hardware​. A few factors make the supply fragile:

(1) Concentrated Suppliers – a large share of advanced AI chips are manufactured by TSMC in Taiwan or Samsung in South Korea. Any disruption (natural disaster, geopolitical tension) affecting these manufacturers or the specialized fabs that produce 5nm/7nm chips can create global bottlenecks. The sector “relies on a few key suppliers… any disruption can create significant bottlenecks, delaying production and impacting the entire supply chain.”

(2) Complex Production Process – producing high-end GPUs/TPUs involves dozens of steps across different countries (design in the US, fabrication in Taiwan, packaging and testing elsewhere). Production can halt due to shortages in critical materials like silicon wafers, photoresist chemicals, or neon gas for lasers. During the COVID-19 pandemic and subsequent supply crunch, lead times for GPU orders stretched to over 6-12 months, affecting not just research labs but any company relying on that hardware​ (logicalis.com, techrepublic.com).

(3) Geopolitical Risks – export controls and trade disputes also play a role; for instance, recent regulations on chip exports have limited access to top-tier AI GPUs in certain countries, which not only impacts availability but also prompts efforts to develop indigenous AI chips. To mitigate these issues, governments and companies are investing in diversifying and shoring up the supply chain. Initiatives like the US CHIPS Act (2022) earmark tens of billions of dollars to build new fabs in the US. However, building new semiconductor fabs is a slow process – it can take 2–3 years and billions of dollars to get a new plant online, and even then, ramping up yield for cutting-edge nodes is nontrivial ​(datacenterpost.com).

Data Center Infrastructure Constraints: Building and operating the data centers that power advanced AI is another logistical challenge. AI supercomputing clusters (like those used for training GPT-4 or other large models) pack thousands of accelerators together, which creates extraordinary demands on power and cooling. Energy consumption is a major concern: training a single large model can consume megawatt-hours of electricity. For example, GPT-3’s training is estimated to have used ~1,300 MWh, equivalent to the annual power usage of 100+ U.S. homes​ (weforum.org). Data centers must be designed to deliver this power (often tens of MW for an AI cluster) and remove the corresponding heat. This has led to specialized cooling solutions, like liquid cooling plates on GPUs and even full immersion cooling for servers, to allow dense packing of chips. From a facilities standpoint, companies often choose locations with cheap electricity and cool climates for AI data centers to manage operating costs and sustainability concerns​.

Additionally, bandwidth and networking inside these clusters are a limiting factor. Distributing a training job across hundreds of GPUs/TPUs requires extremely high network throughput and low latency. Architects use high-bandwidth switches, and sometimes novel network topologies (e.g. Fat-Tree or Dragonfly networks), to ensure each node can communicate at tens or hundreds of gigabits per second. Communication overhead can eat into scaling efficiency, so researchers have to optimize communication patterns to fully utilize big clusters. Another constraint is data storage and pipeline: feeding terabytes of training data to thousands of accelerators without stalls requires parallel storage systems (like NVMe RAID arrays or distributed file systems) that can stream data at dozens of GB/s. If the I/O can’t keep up, the expensive compute sits idle. Many AI datacenters now employ high-throughput flash storage and caching to pre-load datasets into local SSDs or even GPU memory. All these considerations mean that scaling AI is not just about more GPUs – it’s about balancing compute, memory, networking, and storage. As one illustration, NVIDIA’s DGX SuperPOD design notes that each node has to sustain >40 GB/s I/O to not bottleneck the GPUs​. Ensuring such performance across an entire cluster is a major logistical feat, requiring careful planning of data center layout, power distribution, and network architecture.

Emerging Solutions and Future Trends: To address these logistical hurdles, the industry is exploring several promising directions. On the hardware supply side, one trend is the development of chiplet-based designs. Instead of one large, monolithic die (which is harder to manufacture at high yield), companies like AMD and Intel are building chips out of multiple smaller dies (chiplets) connected by high-speed interfaces. This improves yield and flexibility – different chiplets (compute, memory, I/O) can be mixed and matched. It could alleviate some supply issues by allowing more modular production. Another approach is wafer-scale integration: Cerebras Systems famously created a wafer-sized chip (over 80,000 cores on one huge silicon wafer) to accelerate AI, eliminating off-chip communication for certain workloads. While niche, it shows the appetite for novel form factors to speed up AI. In networking, there’s work on optical interconnects and silicon photonics to eventually replace or augment copper links, which could dramatically increase bandwidth and reduce latency between nodes, easing the data movement problem.

There is also a push toward distributed training across data centers. If one center doesn’t have enough capacity, frameworks could in theory utilize resources from multiple locations. However, network latency makes this challenging for synchronous training.

Another future trend is algorithmic: reducing the need for brute-force compute via smarter training methods. Techniques like sparsity (pruning models), low-rank approximations, and progressive training aim to cut down the required compute without sacrificing results. If successful, these could relieve pressure on hardware and infrastructure by making AI models less hungry for resources. Lastly, the industry is acutely aware of geopolitical considerations – there’s a focus on building more resilient and geographically distributed supply chains. This might mean more chip fabs in different countries, standardizing certain components to be interchangeable, and maintaining strategic stockpiles of critical materials.

In summary, while today’s AI boom is taxing the logistics of compute, a combination of technological innovation and strategic planning is underway to ensure that OpenAI Deep Research-scale projects remain feasible. The path involves not just more powerful chips, but smarter algorithms, better software infrastructure, and robust planning for the “nuts and bolts” that underpin AI at global scale​. Each breakthrough in hardware, algorithms, product engineering, or logistics brings us a step closer to truly ubiquitous and sustainable advanced AI systems, enabling researchers to push the boundaries of what AI can do.

https://chatgpt.com/share/67a3a20c-d2d4-8005-92a7-feae93cb9b1e

Bonus: the o1-pro assisted factcheck did not help

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La solicitud de preferencia de OpenAI destaca las inconvenientes de las leyes estatales

Published

on

Las propuestas de políticas de Operai Inc. para el plan de acción de inteligencia artificial del presidente Donald Trump, introducen un tema preparado para desencadenar el debate sobre la política de IA más fundamental del año. La compañía instó al gobierno federal a proteger a los desarrolladores de IA al evitar las leyes estatales de IA que corren el riesgo de “atascar la innovación y, en el caso de la IA, socavando la posición de liderazgo de Estados Unidos”.

Hay más de 781 proyectos de ley de IA actualmente pendientes en las legislaturas estatales y una floreciente industria de $ 227 millones en el gobierno de IA. La preferencia federal podría eliminarlos al instante.

La preferencia federal de las leyes estatales de IA es fundamentalmente un debate sobre la seguridad nacional, el dominio económico y el federalismo. Si Estados Unidos sofoca a su industria de IA con un mosaico fragmentado de leyes de IA estatales restrictivas, corre el riesgo de perder el liderazgo de la industria a China, que está cerrando rápidamente la brecha con avances en Deepseek y Manus.

Aunque audaz, la propuesta de OpenAI para la preferencia federal no es sorprendente en su sustancia o momento. La propuesta se produjo después de una orden ejecutiva de enero que requería la creación de un plan de acción de IA centrado en mantener el liderazgo de los Estados Unidos en el desarrollo de la IA y eliminar las cargas en el sector privado.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca emitió una solicitud que busca información sobre las políticas que deberían incorporarse. Openai presentó varias recomendaciones, sobre todo la preferencia federal de las leyes estatales de IA.

A cambio del intercambio de datos voluntarios con el gobierno federal, OpenAI solicitó que el sector privado recibiera “alivio del 781 y contando proyectos de ley relacionados con la IA ya presentados este año en los estados de EE. UU.”.

La preferencia federal ha estado en el radar del Congreso desde el año pasado. En diciembre, la Fuerza de Tarea de la Casa Bipartidista sobre Inteligencia Artificial emitió un informe integral sobre políticas y hallazgos relacionados con la IA. El informe observó que “[p]La resención de las leyes estatales de IA por legislación federal es una herramienta que el Congreso podría usar “.

Las preocupaciones sobre un marco regulatorio estatal de IA fragmentado están bien fundados desde un punto de vista práctico. No hay regulaciones federales integrales que actualmente rigan el desarrollo o el uso de la IA, dejando un vacío regulatorio que los estados individuales han comenzado a llenarse con diferentes políticas de IA.

En mayo de 2024, Colorado se convirtió en el primer estado en aprobar un proyecto de ley de IA integral que imponga regulaciones sobre desarrolladores y despliegadores de sistemas de “IA de alto riesgo”. La Legislatura de Virginia aprobó un proyecto de ley AI similar el mes pasado, mientras que un representante del estado de Texas recientemente presentó un proyecto de ley de inteligencia artificial integral que estaría entre los más restrictivos del país. Mientras tanto, California promulgó 18 nuevas leyes de IA que entraron en vigencia este año, enfocándose, como muchos otros estados, en una regulación de IA específica de dominio.

El mosaico de la regulación estatal de IA ya se ha desarrollado. En los varios cientos de facturas estatales separadas, las compañías de IA (y tal vez incluso las compañías que simplemente usan IA) podrían estar sujetas a 50 estándares de seguridad de IA diferentes, requisitos de informes y agencias de informes. Esto aumentaría los costos de cumplimiento y obstaculizaría la inversión y el crecimiento.

Las regulaciones de IA estatales establecidas en California, el hogar para las principales compañías de IA como OpenAI, Google LLC, Meta Platforms Inc. y PBC antrópico, podrían dictar efectivamente la política de IA para el resto del país. Y el estado ya ha demostrado una propensión a avanzar en la regulación de IA desaconsejada, como se ve en SB 1047, que aprobó ambas cámaras legislativas, pero fue vetado por el gobernador Gavin Newsom (D).

El proyecto de ley habría impuesto responsabilidad a los desarrolladores de grandes modelos de IA basados ​​en estándares de prueba ambiguos y subdesarrollados, potencialmente sofocando la innovación. Demostrando aún más la desconexión entre las prioridades estatales y federales, ocho miembros democráticos del Congreso escribieron una carta a Newsom instándolo a vetar el proyecto de ley.

Los estados están mal equipados para regular una tecnología de rápida evolución y compleja, particularmente cuando se cruza con la seguridad nacional y los asuntos exteriores.

Dada la adopción e integración generalizada de la IA en la sociedad, junto con su papel crítico en la economía y la seguridad nacional, se ha vuelto análogo a la infraestructura esencial, como la red eléctrica o Internet. El gobierno federal no puede permitir que vacilara bajo un mosaico fragmentado de las regulaciones estatales de IA.

Pero la decisión de evitar las leyes estatales de IA es solo el primer paso: el mayor desafío radica en redactar la legislación habilitadora.

El poder de la preferencia federal proviene del Artículo VI, Cláusula 2 de la Constitución, también conocida como la Cláusula Supremacía. Para evitar las leyes estatales de IA, el Congreso debe aprobar legislación que proporcione la preferencia federal, lo que puede ser más desafiante de lo que parece.

Primero, el término “AI” no está definido universal o constantemente. Una definición que es demasiado amplia o estrecha podría conducir a regulaciones involuntarias de las tecnologías tradicionales o no evitar regulaciones sobre otras tecnologías de IA previstas.

En segundo lugar, el alcance de la preferencia federal será tan polémica como la cuestión fundamental de si se debe permitir la preferencia. Por ejemplo, surgirán debates sobre si todas las leyes de IA estatales deben ser preventadas o solo aquellos que afectan aspectos específicos, como el desarrollo del modelo, la capa de aplicación o las interacciones del usuario final.

Un enfoque posible es una forma más específica de preferencia, centrándose específicamente en las regulaciones estatales que rigen la capacitación, el despliegue y las pruebas de los modelos de IA fronteriza. Según este marco, el gobierno federal podría establecer estándares y regulaciones exclusivamente para los modelos fronterizos (o simplemente evitar que los estados lo hagan sin ningún estándar federal), mientras que los estados podrían retener la autoridad sobre los usos de la capa de aplicación de la IA y las interacciones de los usuarios, como restringir el uso de herramientas de IA en las entrevistas de trabajo. Pero en la práctica, incluso estas categorías pueden ser difíciles de definir cuidadosamente.

El desarrollo de la IA exige un progreso rápido y una inversión a largo plazo, y la incertidumbre a nivel estatal corre el riesgo de obstaculizar el avance de los Estados Unidos.

Este artículo no refleja necesariamente la opinión de Bloomberg Industry Group, Inc., el editor de Bloomberg Law y Bloomberg Tax, o sus propietarios.

Información del autor

Oliver Roberts es profesor adjunto de derecho en la Universidad de Washington en la Facultad de Derecho de St. Louis, co-cabeza del Grupo de Práctica AI de Holtzman Vogel, y fundador y CEO de Wickard.ai.

Escribe para nosotros: Directrices del autor

Continue Reading

Noticias

Cómo convertir sus deseos Eid en imágenes gratuitas de estilo ghibli usando chatgpt y grok: aquí hay una guía paso a paso

Published

on

OpenAI desbloqueó las capacidades de generación de imágenes nativas en GPT-4O la semana pasada, y desde entonces los usuarios han estado utilizando la nueva herramienta para generar imágenes de IA al estilo Studio Gibli usando ChatGPT, que Sam Altman dice que está “derritiendo” las GPU de la compañía. Esto, y algunas otras solicitudes del CEO de Operai, no han detenido la furiosa tendencia de las redes sociales, que ahora se está combinando con celebraciones de Eid para generar deseos personalizados. Si desea agregar algo de talento a sus deseos de Eid agregando un efecto de estilo de estudio de estudio personalizado, aquí hay una guía detallada sobre cómo hacer exactamente eso, usando no solo chatgpt sino también el chatbot grok de Xai.

Lea también | Cómo crear imágenes de IA de estilo Gibli gratuitas usando Grok con ayuda de Chatgpt

El límite de ChatGPT en la generación de imágenes:

ChatGPT inicialmente solo dio acceso a su nueva función nativa de generación de imágenes, responsable de crear imágenes de estilo Ghibli, a sus miembros que pagan. Pero recientemente la característica también se ha implementado a los usuarios gratuitos de la compañía.

Sin embargo, aquí está el truco: la carga de imagen nativa de ChatGPT está limitada a 3 por día para los usuarios gratuitos, mientras que los miembros profesionales y del equipo de la inicio de IA tienen un límite de uso ligeramente más alto.

Mientras tanto, se puede acceder a Grok a través de la aplicación X o su aplicación independiente. El chatbot propiedad de XAI tiene un nivel Premier, pero los usuarios gratuitos también tienen la capacidad de crear y editar imágenes, con un cierto límite en el proceso de uso.

3 formas en que puede cambiar Personalizar sus deseos de Eid en Studio Ghibli Style con Grok y Chatgpt:

1) Transforme su propia imagen en estilo Ghibli con deseos Eid:

Puede subir una foto de usted o de su familia celebrando Eid y pedirle al chatbot que lo convierta en una animación al estilo de Studio Gibli con las letras Happy Eid o Eid Mubarak.

Aquí hay un aviso de muestra generado directamente por ChatGPT:

“Convierta mi imagen en una ilustración de estilo Gibli Studio. Agregue un texto sutil ‘feliz’ ‘en un estilo suave y escrito a mano que combina naturalmente con la escena”.

Si desea hacer la misma tarea a través de las capacidades de edición de imágenes de Grok, aquí hay un mensaje de muestra:

“Transforme mi imagen en una obra de arte estilo Studio Gibli y agregue un pequeño mensaje de ‘feliz eid’ que se ajuste naturalmente a la escena”.

Imágenes inspiradas en Studio Ghibli

2) Crear una escena de celebración de Eid de estilo Gibli genérico:

También puede crear un escenario genérico de EID de estilo Gibli usando Grok o ChatGPT y agregar su propio toque personal agregando una cita o mensaje que esté cerca de su corazón.

Para crear esta imagen usando chatgpt, aquí hay un mensaje de muestra:

“Generar una obra de arte de estilo Gibli de estudio de una celebración de Eid en un pueblo vibrante. Las familias se reúnen alrededor de un patio bellamente decorado, disfrutando de la comida tradicional, intercambiando regalos y ver tocar a los niños. La escena está bañada en cálidos tonos atenuados, con hadas de hadas y un cepillo de luna creciente de arriba. Iluminación y personajes expresivos.

Para crear una imagen similar a través de Grok, este aviso se puede usar:

“Cree una ilustración al estilo de Studio Ghibli de una alegre celebración de Eid. La escena se desarrolla en una animada plaza de la aldea al atardecer, donde las familias y los niños con ropa festiva tradicional están celebrando. Algunos comparten dulces, otros son linternas de iluminación y los niños están tocando alegremente. La atmósfera es cálida y mágica, con mentiras brillantes colgando de los árboles de luna dorada y un creso de la luna de la luna arriba. sutilmente en un estilo artístico escrito a mano en una pancarta o que brilla suavemente en el cielo “.

Imagen de celebración de Eid en Studio Ghibli Style

3) Inserte su imagen en una celebración de Eid de estilo Gibli:

Si está lejos de su familia, puede cargar su foto junto con los miembros de su familia en ChatGPT y pedirle al chatbot que los agregue a todos en una celebración personalizada de estilo Eid.

Otra idea podría unirse a la celebración de Eid de una familia ficticia (o famosa) cargando su imagen para chatgpt y solicitándole al chatbot que cree una imagen de su configuración preferida en el estilo de estudio de Ghibli.

Aquí hay un mensaje de muestra de ChatGPT para personalizar su imagen de esta manera:

“Tome mi imagen y mezcle a la perfección en una celebración festiva de Eid de estilo ghibli. Estilo natural y escrito a mano en una pancarta o suavemente brillante en el cielo “.

Para generar una imagen a través de Grok, puede usar un aviso como este:

“Combine mi foto en una ilustración al estilo de Studio Ghibli de una celebración de Eid. La escena debe ser cálida y festiva, con familias reunidas, niños que juegan con linternas y personas que comparten dulces. Asegúrese de que mi imagen se vea natural en el entorno, con iluminación y colores ajustados para que coincidan con la estética de Ghibli. Agregue un suave ‘Eid Mubarak’ en un estilo de ranura o un banner en el cielo o el cielo en el cielo.

Imagen inspirada en Studio Ghibli

¿Qué es Studio Ghibli? ¿Por qué está en tendencia?

Studio Ghibli es un estudio de cine de animación japonés fundado en 1985 por Miyazaki Hayao, Takahata Isao y Suzuki Toshio. La compañía es conocida por su cine de alta calidad con animación dibujada a mano y narración rica.

Algunas de las películas animadas más notables de la compañía incluyen al vecino Totoro, Spirited Away, Howl’s Moving Castle, Kiki’s Delivery Service y Princess Mononoke.

Imagen de estilo Studio Ghibli generada con Grok
Imagen de estilo Studio Ghibli creada con chatgpt (izquierda) y Grok 3 (izquierda)

El estudio ha ganado una fama generalizada después de que los usuarios en las redes sociales probaron diferentes estilos de convertir sus imágenes utilizando la nueva herramienta de generación de imágenes de ChatGPT, pero el popular anime japonés golpeó un cable.

El famoso estudio japonés ganó atención renovada en las redes sociales después de que los usuarios de las redes sociales usaron la nueva herramienta de generación de imágenes de Chatgpt para transformar sus imágenes en varios estilos de arte como LEGO, The Simpsons, Southpark y Pixar. Entre ellos, sin embargo, la estética de anime japonesa de Studio Ghibli resonó más con los usuarios.

Vea todas las noticias y actualizaciones de tecnología en Live Mint. Descargue la aplicación Mint News para obtener actualizaciones del mercado diario y noticias comerciales en vivo.

Business NewStechnologyNeWShow para convertir sus deseos de Eid en imágenes de estilo Gibli gratuitas usando chatgpt y grok: aquí hay una guía paso a paso

MásMenos

Continue Reading

Noticias

ChatGPT solicita que aumente su búsqueda de un trabajo en tecnología

Published

on

Aunque el mercado laboral tecnológico parece estar estabilizando después de un período de turbulencia, las encuestas muestran que los solicitantes de empleo todavía están luchando por encontrar oportunidades que coincidan con sus calificaciones, entrevistas de tierras y respondan de manera efectiva para entrevistar preguntas que investigan las habilidades técnicas y blandas.

La buena noticia es que ChatGPT puede ayudarlo a superar estos obstáculos comunes y mejorar sus posibilidades de obtener el trabajo adecuado con el empleador adecuado.

A Chatbot impulsado por un modelo de lenguaje grande (LLM) es increíblemente útil para una amplia gama de tareas de búsqueda de empleo, señaló Keith Spencer, experto en carrera y escritor de currículums certificado para currículums ahora. Sin embargo, la entrada o las preguntas que ingresa en una herramienta AI generativa determina la calidad y la utilidad de la salida que recibe.

Para optimizar sus interacciones con un chatbot de IA, hemos seleccionado a mano una lista de indicaciones detalladas para ChatGPT que abordan los aspectos más desafiantes de una búsqueda de empleo.

Indicaciones para encontrar oportunidades adecuadas

En lugar de centrarse en los trabajos con baja demanda en las industrias que enfrentan disminuciones o un crecimiento lento, use una serie de indicaciones para identificar los roles de demanda dentro de su campo (como ciberseguridadCiencia de datos, desarrollo web de pila completa, etc.) en industrias que vean una contratación significativa.

No tiene sentido aplicar a los trabajos para los que no está calificado. Una vez que haya compilado una lista de posibles roles e industrias, use el siguiente aviso para comparar sus habilidades actuales con los requisitos clave y descubrir las brechas importantes, aconsejó a Dave Birss, educador, autor y fundador de la Academia Gen AI.

Imagina que eres un experto en reclutamiento para [role]. Quiero que busque descripciones de trabajo de sitios de la industria y anuncios de reclutamiento actuales para compilar una lista de las habilidades más importantes.

Cuando entiendes bien esto, quiero que entregue:

  • Una tabla con las siguientes columnas: Habilidad, más sub-habilidades, califican la importancia para el rol [1 – 5]
  • Una lista de las habilidades más importantes seguidas de una breve descripción de lo que implican
  • Una lista de habilidades adicionales que podrían ayudarme a obtener una ventaja en mi carrera.

Otro consejo: use la información para crear un currículum base para cada rol que desee seguir, lo que puede acelerar significativamente el proceso de personalización, agregó Spencer.

Indicaciones para las entrevistas de aterrizaje

Investigar una empresa antes de presentar la solicitud no solo lo ayuda a encontrar organizaciones que coincidan con sus valores e intereses, sino que crean una oportunidad para demostrar su alineación con la cultura de la empresa, el entorno técnico, la misión y las prioridades comerciales en su currículum. Para ayudar con eso, Jan Tegze, director de reclutamiento técnico y autor de “Cómo hablar con IA”, suministró el siguiente mensaje:

Estoy investigando [company] en preparación para una posible solicitud de empleo. Necesito una descripción completa que vaya más allá de la información básica que sea relevante para un solicitante de empleo.

Proporcione información sobre lo siguiente:

  • Historia de la empresa e historia fundadora
  • Misión, visión y valores centrales
  • Productos clave, servicios y posición de mercado
  • Cualquier noticia significativa, lanzamiento de productos, adquisiciones, asociaciones o cambios de liderazgo en los últimos 6-12 meses.
  • Desarrollos recientes, innovaciones e iniciativas estratégicas
  • Cultura corporativa y entorno laboral
  • Logros notables y reconocimiento de la industria
  • Presencia en el mercado y ventajas competitivas
  • Antecedentes del equipo de liderazgo
  • Describa la cultura de la empresa basada en las revisiones de los empleados (Glassdoor, de hecho), la presencia en las redes sociales y cualquier información disponible sobre sus valores y entorno de trabajo.
  • Si se negocia públicamente, proporcione un resumen del desempeño financiero reciente (ingresos, rentabilidad). Si es privado, busque cualquier información disponible sobre rondas de financiación o métricas de crecimiento.
  • Tamaño de la empresa, ubicaciones y alcance global

Personalizar su currículum para una descripción específica del trabajo lo ayuda a sobrevivir a un sistema de seguimiento de solicitantes (ATS) y muestra que ha esforzado por igualar sus habilidades, experiencia y conocimiento con las necesidades del empleador. Si bien aún necesita revisar y editar el documento para asegurarse de que refleje su voz, marca y mensajes, el siguiente mensaje puede comenzar:

Actuar como revisor de currículum. Su tarea es hacer cambios en el currículum dado para que se ajuste [role] en [company].

  • Comience analizando la descripción del trabajo en detalle e identificando las habilidades y calificaciones esenciales requeridas para el rol.
  • Luego, edite el currículum para resaltar de manera prominente la experiencia, habilidades y logros relevantes del candidato que coincidan con la descripción del trabajo.
  • También puede recomendar reformular y reestructurar ciertas áreas, así como agregar o eliminar cualquier información que pueda no ser pertinente a la posición.
  • Asegúrese de proporcionar un resumen claro y conciso en la parte superior del currículum que transmite efectivamente la idoneidad del candidato para el papel particular.
  • Reanudar: [Your resume summary here] Descripción del trabajo: [Job description summary here]

Indicaciones para responder preguntas sobre la entrevista técnica y de habilidades suaves

Aclar una entrevista técnica requiere una preparación adecuada. Use este aviso de Tegze a investigar, estructurar y practicar sus respuestas a las preguntas técnicas para las tecnologías más altamente calificadas en una descripción del trabajo.

Usted es un experto en entrevistas técnicas especializadas en lenguajes y marcos de programación. Generar [number] Preguntas sobre la entrevista técnica para [technology]que van desde fácil hasta desafío. Incluya detalles de la pregunta, salida esperada, conceptos clave probados, sugerencias y enfoque de solución.

Para cada pregunta que genere, lo hará:

1. Presente una declaración de problema clara e inequívoca con cualquier restricción necesaria

2. Defina los resultados o comportamientos esperados con ejemplos específicos

3. Identifique los conceptos técnicos clave que se evalúan

4. Proporcione sutiles sugerencias que guíen sin revelar soluciones

5. Incluya un enfoque de solución de trabajo

Estructura cada pregunta utilizando constantemente el siguiente formato:

– Pregunta [with context]

– Salida/comportamiento esperado [with examples]

– Conceptos clave probados [bullet points]

– Sugerencias opcionales [1-2 subtle suggestions]

– enfoque de solución [working code]

Asegurar preguntas:

– Progreso de fácil a desafío

– Cubra una variedad de conceptos técnicos relevantes

– son prácticos y relevantes para la industria

– Probar tanto el conocimiento teórico como la implementación práctica

– incluir casos de borde en los comportamientos esperados

– Proporcionar soluciones claras e implementables

Las encuestas muestran que Las empresas están poniendo énfasis en las habilidades blandas como pensamiento crítico, resolución de problemas y adaptabilidad durante el proceso de contratación para profesionales tecnológicos. Este aviso puede ayudarlo a practicar la respuesta a preguntas situacionales que evalúan habilidades blandas específicas:

Usted es un entrenador de entrevistas expertas especializadas en preguntas conductuales y basadas en escenarios. Su papel es crear escenarios de entrevista detallados y realistas que prueben efectivamente habilidades blandas específicas.

Generar [number] Preguntas de entrevista basadas en escenarios dirigidos a las siguientes habilidades blandas: [list of skills]. Para cada escenario, proporcione la pregunta, identifique la habilidad que se está probando, describe elementos clave de una fuerte respuesta y enumere posibles banderas rojas. Para cada escenario que cree, usted:

1. Diseñe una situación de trabajo desafiante pero realista que claramente se dirige a una habilidad blanda específica

2. Identificar explícitamente qué habilidad blanda se está evaluando

3. Proporcione 3-4 elementos clave que constituirían una respuesta sólida, centrándose en la aplicación práctica de la habilidad

4. Incluya 1-2 posibles banderas rojas que indicarían debilidad en esa habilidad

Tus escenarios deberían ser:

  • Lo suficientemente detallado como para dar contexto pero lo suficientemente conciso como para ser fácilmente entendido
  • Relevante en diferentes industrias y niveles de experiencia
  • Abierto para permitir que los candidatos demuestren su proceso de pensamiento
  • Basado en desafíos comunes en el lugar de trabajo
  • Estructurado para revelar tanto la competencia técnica como la inteligencia emocional

Formatee cada escenario consistentemente con encabezados claros y puntos de bala. Asegúrese de que sus respuestas ayuden a los entrevistadores a evaluar la aplicación de habilidades blandas en el mundo real de los candidatos en lugar de solo conocimiento teórico.

Continue Reading

Trending