Connect with us

Noticias

Centros de datos, reglas de IA, límites de chips y política de conversaciones de OpenAI

Published

on

Cuando queda una semana en el cargo, el presidente Biden firmado una orden ejecutiva que reserva terrenos federales para la construcción de centros de datos de inteligencia artificial (IA), y el costo total corre a cargo de los desarrolladores de modelos básicos (o de frontera) de IA como el GPT-4o de OpenAI. Los desarrolladores de modelos de IA también deben asegúrese de que haya una fuente de energía limpia para estos centros de datos, ya que las cargas de trabajo intensas de IA consumen mucha energía.

La última orden sigue a la de Biden de octubre de 2023 orden ejecutiva Establecer barreras protectoras para potentes modelos de IA de frontera o básicos. Incluye garantizar que el gobierno evalúe los sistemas de inteligencia artificial antes de implementarlos en áreas como la ciberseguridad y otros riesgos de seguridad nacional.

Biden también prometido desarrollar mecanismos de etiquetado y procedencia del contenido, para que los consumidores puedan saber qué contenido está generado por IA. Trump emitió la primera orden ejecutiva sobre IA en 2020, pidiendo su uso en el gobierno federal. Diferentes estados (California, Texas y otros) también tienen sus propias reglas de IA.

Regulaciones del Reino Unido y la UE

Las regulaciones de IA difieren en los EE. UU. de las del Reino Unido y Europa. La Ley de IA de la UE es mucho más amplia legislación que evalúa las aplicaciones de IA en función de tres niveles de riesgo: riesgo inaceptable (similar a la puntuación de individuos administrada por el gobierno según su posición social), alto riesgo (herramientas de IA para escanear currículums que rangos solicitantes de empleo) y que no es prohibido o considerado de alto riesgo.

El primer ministro británico, Keir Starmer anunciado el lunes (13 de enero) se presentó un plan de acción para convertir a Gran Bretaña en un líder en IA, incluida la ampliación de la capacidad de su centro de datos para cargas de trabajo de IA. Starmer dijo que se avecinan regulaciones formales de IA. Su predecesor Rishi Sunak desvelado un marco regulatorio de IA para que lo sigan los reguladores existentes.

Controles de exportación de chips de IA

Biden también expandido en su chip AI 2022 y 2023 controles de exportación destinado a evitar que China y otras naciones adversarias tengan en sus manos hardware de IA. Las nuevas regulaciones de esta semana dividen al mundo en grupos de ricos y pobres: 18 aliados y socios no tendrán ninguna restricción en absolutomientras que los compradores de pedidos de chips más pequeños de hasta 1.700 GPU avanzadas en potencia computacional también obtienen luz verde. Por lo general, se trata de universidades y organizaciones de investigación.

Sin embargo, más de 120 otros países Según se informa, se enfrentan a nuevas reglas a la hora de establecer instalaciones informáticas de IA. Las entidades confiables incluyen aquellas con sede en países que son aliados cercanos de Estados Unidos y que no tienen su sede en un “país de preocupación”. Aquellos que no tengan su sede en países aliados aún pueden comprar hasta 50.000 GPU avanzadas por país. Biden también estableció reglas que mantendrían secreto los pesos de un modelo de IA de entidades que no son de confianza, entre otros controles de seguridad.

Nvidia critica los límites de los chips

Se espera que las reglas afecten a Nvidia, cuyos chips GPU han sido el silicio elegido para el entrenamiento y la inferencia de modelos de IA. La empresa tiene un cuota de mercado fijado en más del 80%.

Nvidia se posicionó para una revolución de la IA en 2006; Sus GPU se desarrollaron inicialmente para manejar juegos y otras aplicaciones con uso intensivo de gráficos. El cofundador y director ejecutivo, Jensen Huang, apostó el futuro de la empresa al giro hacia la IA, a pesar de que los avances en la IA se han estancado. en el pasado los llamados “inviernos de IA”.

Ned Finkle, vicepresidente de asuntos gubernamentales de Nvidia, condenó las nuevas reglas de Biden. Escribió en un blog que el avance de la IA a nivel mundial está “ahora en peligro”. Dijo que la política “equivocada” de Biden “amenaza con descarrilar la innovación y el crecimiento económico en todo el mundo”.

Finkle calificó las reglas ampliadas de control de exportaciones de Biden como un “marañón regulatorio de más de 200 páginas, redactado en secreto y sin una revisión legislativa adecuada”. Tal acción regulatoria “amenaza con malgastar La ventaja tecnológica que Estados Unidos ha logrado con tanto esfuerzo”, añadió.

Finkle elogió a la primera administración Trump por fomentar un entorno de innovación en inteligencia artificial y dijo que “esperaba con ansias” volver a sus políticas mientras el expresidente se prepara para prestar juramento.

La Asociación de la Industria de Semiconductores intervino con su propio declaración. “Estamos profundamente decepcionados de que un cambio de política de esta magnitud e impacto se esté implementando rápidamente días antes de una transición presidencial. y sin ningún aporte significativo de la industria”.

El plan de OpenAI para EE. UU.

Cuando el director ejecutivo de OpenAI, Sam Altman, señaló sus planes de asistir a la toma de posesión del presidente Trump, su startup de inteligencia artificial lanzó de manera preventiva un plan para mantener a Estados Unidos a la vanguardia del desarrollo de la inteligencia artificial.

“Creemos que Estados Unidos debe actuar ahora para maximizar IA posibilidades y minimizando sus daños. La IA es una tecnología demasiado poderosa para ser dirigida y moldeada por autócratas, pero ese es el riesgo creciente que enfrentamosmientras la oportunidad económica que presenta la IA es demasiado convincente para perderla”, según OpenAI “IA en Estados Unidos” plan económico.

La visión de OpenAI depende de las siguientes creencias:

  • Chips, datos, energía. y El talento es clave para ganar la carrera de la IA. Estados Unidos debe ser un mercado atractivo para las inversiones en IA, con 175 mil millones de dólares en fondos globales esperando ser desplegados. De lo contrario, estos se destinarán a proyectos respaldados por China.
  • Un mercado libre que promueva la competencia libre y justa para impulsar la innovación. Esto incluye libertad para que los desarrolladores y usuarios trabajen con herramientas de IA mientras siguen estándares claros y de sentido común para mantener la IA segura para todos. El gobierno no debe utilizar estas herramientas para acumular poder y controlar a los ciudadanos.
  • Para garantizar la seguridad del modelo fronterizo, el gobierno federal debe desarrollar mejores prácticas para prevenir contra mal uso; limitar la exportación de modelos fronterizos a naciones adversarias; desarrollar alternativas al mosaico de regulaciones estatales e internacionales, como una coalición internacional liderada por Estados Unidos.
  • tEl gobierno federal debería compartir su experiencia sobre cómo proteger la propiedad intelectual de los desarrolladores de IA contra amenazas y ayudar a las empresas a acceder a infraestructuras seguras, como grupos informáticos clasificados. evaluar riesgos y salvaguardas del modelo, crean una vía voluntaria para que las empresas que desarrollan grandes modelos lingüísticos trabajen con el gobierno para definir evaluaciones de modelos, probar modelos e intercambiar información para respaldar las salvaguardas de las empresas.
  • Si bien el gobierno federal debería liderar los asuntos de IA relacionados con la seguridad nacional, los estados pueden actuar para maximizar los beneficios de la IA para su propio ecosistema de IA. Pueden mejorar la experimentación con IA apoyando a nuevas empresas y empresas de IA más pequeñas. a encontrar Maneras de resolver los problemas cotidianos.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Explaining The Inexplicable Mystery Of Why ChatGPT O1 Suddenly Switches From English To Chinese When Doing AI Reasoning

Published

on

In today’s column, I aim to resolve the AI mystery floating around on social media and in the mainstream news regarding OpenAI’s ChatGPT o1 advanced AI model suddenly switching momentarily from working in English to working in Chinese. In case you haven’t heard about this surprising aspect, users have been posting tweets showcasing o1 doing just that. The AI is solving a user-entered prompt and while presenting the logical steps the language shifts from English to Chinese. This occurs for a line or two and then reverts back to English.

Is it some kind of tomfoolery? Hacking? Maybe the AI is going off the deep end? Lots of postulated theories and wild conjectures have been touted.

Let’s talk about it.

This analysis of an innovative AI breakthrough is part of my ongoing Forbes column coverage on the latest in AI including identifying and explaining various impactful AI complexities (see the link here). For my coverage of the top-of-the-line ChatGPT o1 model and its advanced functionality, see the link here and the link here.

What’s Going On With o1

Allow me to set the stage for revealing the known facts concerning the mystery that is afoot.

ChatGPT o1 generative AI is a large language model (LLM) that generally rates as being at or quite near the pinnacle of modern-day AI models. There are plentiful advances jammed into o1. When you use o1, you can immediately discern that the AI has something special going on. Happy face.

To be clear, o1 and none of the current time AI is sentient, nor have we reached artificial general intelligence (AGI). If you are interested in where we are related to achieving AGI and also the vaunted artificial superintelligence (ASI), see my analysis at the link here. At this time, generative AI and LLMs are based on human-devised mathematical and computational pattern matching that in large do an amazing job of mimicking human writing and conversation.

Those who have been using o1 now for several months would likely say that they relish doing so. It does its job. You enter a prompt; you get a reply. One nice twist to o1 is that the reply customarily includes a listing of the steps that the AI took to arrive at the answer presented. This is commonly known as chain-of-thought (CoT), see my detailed explanation at the link here, consisting of a series of delineated steps of the internal processing by the AI.

So far, so good.

Now for the mystery. Various users have indicated that from time to time the o1 suddenly switches from English to Chinese when displaying the chain-of-thought steps that are being undertaken. Just as quickly, the portrayal shifts again back to English. It is almost like seeing a mirage, except that it really does happen, and printouts or screen snapshots bear this out.

Are people’s eyes deceiving them?

Nope, the accounts of this happening are verifiable and not merely fancy.

Explanations Are Over-The-Top

OpenAI seems to have remained mum and isn’t telling us what is at the root of this oddity. Their AI is considered proprietary, and they don’t allow others to poke around into the internals, nor do they make publicly available the internal design and mechanisms at play. This means that everyone can only guess what the heck might be happening inside o1.

Into this vacuum has rushed a slew of quite wild suggestions.

Some of the nuttiest conjecture postulates that the Chinese have taken over o1 or perhaps are secretly running OpenAI. Another equally outlandish idea is that a Chinese hacker has planted something into o1 or has accessed a secret backdoor. On and on these conspiracy-oriented theories go. Social media has an overworked imagination, indubitably.

I am going to categorically reject those zany schemes.

Why so?

Know this — the same overall issue of switching out of English has been documented by others and includes instances of switching to German, French, Portuguese, and so on. The gist is that the Chinese language is not the sole purveyor of the grand switcheroo. Other languages are momentarily displayed, beyond just Chinese.

Perhaps I find myself out on a limb, but I seriously doubt that an entire cabal of earthly hackers or numerous countries across the globe are all sneakily putting their hands into the internals of o1. My viewpoint is that there is something more straightforward that can explain the multitude of sudden language appearances.

Laying Out A Reasonable Guess

I will share with you my theory or educated guess at what might be occurring. Don’t take this to the bank. There are lots of technical reasons that something like this can take place. Let’s go with one that I think is plausible, makes abundant sense, and fits with the reported facts.

Is it the winner-winner chicken dinner?

I can’t say for sure since the AI is proprietary and the AI isn’t open for inspection.

Put on your Sherlock Holmes cap and go along for a fascinating journey into the guts of contemporary generative AI and LLMs.

Leaning Into The Core

When generative AI and LLMs are initially put together, the big first step entails scanning lots of data to do pattern-matching on how humans write. All kinds of essays, narratives, stories, poems, and the like are examined. Complex mathematical and computational mechanisms try to identify how words relate to other words.

This is coined as a large language model due to being undertaken in the large, such as scanning millions upon millions of materials on the Internet. Without the largeness, we wouldn’t have the fluency that is currently exhibited by LLMs (for those interested in SLMs, small language models, I showcase how they differ from LLMs, at the link here).

I’ll use a simple example that will gradually aid in unraveling the mystery.

The Word “Dog” Comes To Mind

Consider the word “dog” as a commonplace word that readily would be scanned when examining content on the Internet. We can assume that “dog” is immensely across the web as a word that people use. That’s a no-brainer assumption. Everyone has a beloved dog, or a story about dogs, or has something to say about dogs. Humankind pretty much loves dogs.

If you were to detect which other words appear to be associated with the word “dog” what comes to mind?

Some obvious ones might be fluffy, four-legged, tail-wagging, etc.

From the perspective of what is taking place inside the AI, the word “dog” is associated mathematically and computationally with the words “fluffy”, “four-legged”, “tail-wagging” and so on. The words themselves have no meaning. They are each a jumble of letters. The word “dog” consists of the letter “d” followed by the letter “o” and followed by the letter “g”.

You should think of the word “dog” as just a bunch of letters, collected together, and we will treat that collection of letters as a kind of blob. The blob of the letters in “dog” is statistically associated with the blobs of the word consisting of the letters “fluffy”.

My aim here is to have you disassociate in your mind that the word “dog” has any meaning, such as images in your head of this or that favored dog. Instead, the word “dog” is a collection of letters and is associated with lots of other collections of letters that form other words.

The French Word For Dog

Shifting gears, I will pick a language other than English to set up the reveal that will be momentarily discussed.

I lived in France for a while and love the French language, though I admit I am extremely rusty and would never even attempt to speak French aloud. Anyway, if it’s Ok with you all, I will envision that we are interested in the French word for “dog” (which is going to be easier as a language choice than picking a Chinese word, due to the symbols used in Chinese writing, but the underlying precept is going to be the same).

There is a French masculine version, “chien” and a feminine version, “chienne” for dog, but let’s simplify things and go with just using for the sake of discussion word “chien” (thanks for playing along).

If you don’t know French, and if I showed you the word “chien”, I’d bet that you wouldn’t know what the word means.

This makes sense that you wouldn’t know. For example, the word “dog” has the letters “d”, “o”, and “g”, but none of those letters exist in the word “chien”. The French word for dog doesn’t seem to resemble the English word for dog. You are unable to readily figure out that they are essentially both the same words in terms of what they signify.

Dog And Chien Have Roughly The Same Factors

Suppose we went ahead and did a scan on the Internet to find the word “chien” and identify other words that seem statistically related to that word.

What would we find?

The odds are that you would see that “chien” is associated with the words fluffy, four-legged, tail-wagging, and the like.

And what could you therefore say about the word “dog” versus the word “chien”?

Well, both of those words are associated with roughly the same set of other words. Since they are nearly associated overwhelmingly with the same set of other words, we could reasonably conclude that both those words probably have the same assorted meaning. They are two peas in a pod.

The crux is that the word “dog” and the word “chien” can be treated as the same, not because you and I in our heads know them to refer to the same thing, but because they both point to other associated words that are approximately the same set of other words.

LLMs Pickup Other Languages When Data Training

The deal is this.

When doing the initial data training of generative AI and LLMs, the widespread scan of the Internet is usually aimed primarily at English words (kind of, that’s true of English-oriented LLMs for which English-speaking AI developers tend to build). During my talks about AI, attendees are often shocked to learn that while the data training is taking place, there are bits and pieces of other languages getting scanned too.

This is more incidental than purposeful. You can see why. The scanning is moving from website to website, and sometimes there might be content in something other than English, maybe just a page here or there. The chances are pretty high that the scanning is going to eventually touch on a wide array of languages other than English, such as French, German, Chinese, etc. Not at a full clip, just on a random wanton basis.

What does the AI do with those said-to-be foreign words?

If it was you or me, and we were trying to read all kinds of websites, the moment you hit upon a page that had something other than English, you might be tempted to set aside the verbiage. You might be thinking that since your principal pursuit is English, discard anything that isn’t English.

The usual approach with AI is that the AI developers just let whatever language is encountered be encompassed by scanning and pattern-matching. No need to try and kick it out. Just toss it into the pile and keep churning.

This produces an exciting and quite intriguing outcome, keep reading.

Bringing The Dog Back Into The Picture

Imagine that an Internet scan is taking place, and the word “dog” is encountered. Later, the words “fluffy”, “four-legged”, “tail-wagging” and others are found and determined to be statistically related to the word “dog”.

The same might happen with the word “chien”.

Then, the AI mathematically and computationally construes that “dog” and “chien” appear to be referencing the same thing. It is almost as though the AI crafts an internal English-French dictionary associating English words with French words.

The downside is that since that wasn’t the main goal, and since the volume and variety of French words encountered might be relatively slim, this English-French dictionary is not necessarily going to be complete. Gaps might readily exist.

Various AI research studies have shown that English-focused LLMs often end up being able to readily switch to using other languages that have been previously scanned during data training, see my analysis at the link here. The phenomenon is an unintended consequence and not particularly planned for. Also, the switching is not necessarily going to be fluent in the other language and might be flawed or incomplete.

You can likely envision the surprise by AI developers that their LLM suddenly was able to spout a different language, such as French or Chinese. Their first thought was heck, how did that happen? Researchers eventually found that the smattering of any other language that was encountered can lead to the AI devising a multi-lingual capacity, of sorts, in a somewhat mechanical way.

Mystery Part 1 Is Explained

Returning to the mystery at hand, how is it that o1 can suddenly switch to Chinese, French, German, or whatever other language beyond English?

The answer is straightforward, namely, the AI picked up an informal smattering of those languages during the initial data training.

Boom, drop the mic.

Whoa, you might be saying, hold your horses. It isn’t just that o1 displays something in a language other than English, it is also that it suddenly does this seemingly out of the blue.

What’s up with that?

I hear you.

We need to resolve that second part of the mystery.

When Something Points To Something Useful

Go with me on a handy thought experiment.

Free your mind. Throughout all the instances of the English word “dog”, suppose that at no point did we encounter the word “whisper” while scanning the Internet. Those two words never came up in any connected way. Meanwhile, imagine that the French word “chien” at times was statistically found to connect with the word “whisper”. Please don’t argue the point, just go with the flow. Be cool.

Here’s the clever part.

When AI is computationally trying to solve a problem or answer a question, the internal structure is typically being searched to find a suitable response.

Pretend I typed this question into generative AI.

  • My entered prompt: “Can a dog whisper?”

The AI searches throughout the internal structure.

There aren’t any patterns on the word “dog” and the word “whisper”. Sad face.

But remember that we have the word “chien” exists in there too, plus we had found that “chien” has an association with the word “whisper”. That’s good news, due to the AI associating “dog” and “chien” as essentially the same words, and luckily the word “chien” is associated with the word “whisper”.

Stated overtly, you might remember those days of algebra where they kept saying if A is to B, and if B is to C, then you can reasonably conclude that A is to C. Remember those rules of life? Nifty. Here, in essence, “dog” is to “chien”, while “chien” is to “whisper”, and thus we can say that “dog” is also to “whisper”. Logic prevails.

The AI is going to be able to answer the question, doing so by accessing the French words that perchance were picked up during the initial data scanning.

Internally, suppose the AI has this sentence that it composes: “Oui, un chien peut chuchoter.” That is generally French for saying that yes, a dog can whisper.

An answer was generated, scoring a victory for generative AI, but we need to do a little bit more sleuthing.

Final Twist That Deals With Displaying Results

Would you be likely to normally see a French sentence as a displayed response when using an English-focused LLM?

No. Not if you are using an English-language-based LLM that is set to show principally English responses, and if you haven’t explicitly told the AI to start displaying in French (or whatever language). The AI might have the French sentence internally stored and then convert the French sentence over into English to display the English version to you.

That’s our final twist here.

Remember that the report by users is that the language switcheroo only seems to happen when the chain of thought is underway. The chances are that language switching isn’t necessarily active for the chain-of-thought derivations. It is activated for the final response, but not the intervening lines of so-called reasoning.

This also explains why the AI suddenly switches back out of the other language and continues forward in English thereafter.

The basis for doing so is that English in this case is the predominant form of the words that were patterned on. The switch to French was merely to deal with the “whisper” resolution in this instance. Once that happened, and if the prompt or question had other parts to it, the AI would simply resume with the English language for the rest of the way.

Boom, drop the mic (for real this time).

The Logical Explanation Is Satisfying

In recap, most generative AI and LLMs tend to pick up words of other languages beyond English during the initial data training and scanning of the Internet. Those words enter the massive statistical stew.

They are considered fair game for use by the AI.

If those non-English words are going to be helpful during generating a response to a user prompt, so be it. As they say, use any port in a storm. The AI is programmed to seek a response to a user inquiry and spanning across languages is easy-peasy. It might also be flawed, depending on how much of any other respective languages were involved in the data training.

A significant clue of the o1 mystery is that the reported instances are infrequent and only seem to arise in the chain-of-thought. This can be linked to the notion that while the AI is composing a response, there isn’t a need to convert from a non-English language to English. Those are just intermediary steps that are merely grist for the mill. The AI doesn’t have any computational need to convert them from one language to another.

Once a final result is ready, only then would a language conversion be warranted.

That is then one reasonably sensible and altogether logical reason for resolving the mystery. Of course, I had mentioned at the get-go that there are other logical possibilities too. I just wanted to share an explanation that seems to cover the proper bases. Now then, some might be tempted to reject the logic-based route entirely and argue for something more sinister or incredible, perhaps ghosts hiding inside o1 or the AI is starting to take on a life of its own. Imagine all the wild possibilities.

Let’s end with a final thought expressed by the great Albert Einstein: “Logic will get you from A to B. Imagination will take you everywhere.”

Continue Reading

Noticias

DECam y Gemini South descubren tres pequeñas galaxias tipo ‘pueblo fantasma estelar’

Published

on

Crédito: DECaLS/DESI Legacy Imaging Surveys/LBNL/DOE & KPNO/CTIO/NOIRLab/NSF/AURA Procesamiento de imágenes: TA Rector (Universidad de Alaska Anchorage/NSF NOIRLab), M. Zamani (NSF NOIRLab) y D. de Martin ( NSF NOIRLab)

Combinando datos de DESI Legacy Imaging Surveys y el telescopio Gemini South, los astrónomos han investigado tres galaxias enanas ultra débiles que residen en una región del espacio aislada de la influencia ambiental de objetos más grandes. Se descubrió que las galaxias, ubicadas en dirección a NGC 300, contenían sólo estrellas muy viejas, lo que respalda la teoría de que los acontecimientos en el universo temprano interrumpieron la formación de estrellas en las galaxias más pequeñas.

Las galaxias enanas ultradébiles son el tipo de galaxia más débil del universo. Estas pequeñas estructuras difusas, que normalmente contienen entre unos pocos cientos y miles de estrellas (en comparación con los cientos de miles de millones que componen la Vía Láctea), suelen esconderse discretamente entre los muchos residentes más brillantes del cielo. Por esta razón, los astrónomos han tenido más suerte hasta ahora al encontrarlos cerca, en las proximidades de nuestra galaxia, la Vía Láctea.

Pero esto presenta un problema para entenderlos; Las fuerzas gravitacionales de la Vía Láctea y la corona caliente pueden extraer el gas de las galaxias enanas e interferir con su evolución natural. Además, más allá de la Vía Láctea, las galaxias enanas ultra débiles se han vuelto cada vez más difusas e irresolubles para que las detecten los astrónomos y los algoritmos informáticos tradicionales.

Por eso fue necesaria una búsqueda manual y visual por parte del astrónomo David Sand de la Universidad de Arizona para descubrir tres galaxias enanas débiles y ultra débiles ubicadas en la dirección de la galaxia espiral NGC 300 y la constelación Sculptor.

“Fue durante la pandemia”, recuerda Sand. “Estaba mirando televisión y desplazándome por el visor DESI Legacy Survey, enfocándome en áreas del cielo que sabía que no habían sido buscadas antes. Me tomó unas horas de búsqueda informal, y luego ¡boom! Simplemente aparecieron”.

Las imágenes descubiertas por Sand fueron tomadas para DECam Legacy Survey (DECaLS), uno de los tres estudios públicos, conocidos como DESI Legacy Imaging Surveys, que tomaron imágenes conjuntas de 14.000 grados cuadrados de cielo para proporcionar objetivos para el instrumento espectroscópico de energía oscura (DESI). ) Encuesta.

DECaL se realizó utilizando la cámara de energía oscura (DECam) de 570 megapíxeles fabricada por el Departamento de Energía, montada en el telescopio de 4 metros Víctor M. Blanco de la Fundación Nacional de Ciencias de EE. UU. (NSF) en el Observatorio Interamericano Cerro Tololo (CTIO) en Chile. , un programa de NSF NOIRLab.







Crédito: DECaLS/DESI Legacy Imaging Surveys/LBNL/DOE & KPNO/CTIO/NOIRLab/NSF/AURA/T. Slovinský/P. Horálek/N. Bartmann (NSF NOIRLab) Procesamiento de imágenes: TA Rector (Universidad de Alaska Anchorage/NSF NOIRLab), M. Zamani (NSF NOIRLab) y D. de Martin (NSF NOIRLab) Música: Stellardrone – In Time

Las galaxias Escultoras, como se las denomina en el artículo, se encuentran entre las primeras galaxias enanas ultra débiles encontradas en un entorno prístino y aislado, libre de la influencia de la Vía Láctea u otras estructuras grandes. Para investigar más a fondo las galaxias, Sand y su equipo utilizaron el telescopio Gemini Sur, la mitad del Observatorio Internacional Gemini. Los resultados de su estudio se presentan en un artículo que aparece en Las cartas del diario astrofísicoasí como en una conferencia de prensa en la reunión AAS 245 en National Harbor, Maryland.

El espectrógrafo multiobjeto Gemini (GMOS) de Gemini South capturó las tres galaxias con exquisito detalle. Un análisis de los datos mostró que parecen estar libres de gas y sólo contienen estrellas muy viejas, lo que sugiere que su formación estelar fue sofocada hace mucho tiempo. Esto refuerza las teorías existentes de que las galaxias enanas ultra débiles son “pueblos fantasmas” estelares donde la formación de estrellas quedó interrumpida en el universo primitivo.

Esto es exactamente lo que los astrónomos esperarían de objetos tan pequeños. El gas es la materia prima crucial necesaria para fusionarse y provocar la fusión de una nueva estrella. Pero las galaxias enanas ultra débiles simplemente tienen muy poca gravedad para retener este ingrediente tan importante, y se pierde fácilmente cuando son sacudidas por el universo dinámico del que forman parte.

Pero las galaxias Sculptor están lejos de cualquier galaxia más grande, lo que significa que sus vecinos gigantes no podrían haber eliminado su gas. Una explicación alternativa es un evento llamado Época de Reionización, un período no mucho después del Big Bang cuando fotones ultravioleta de alta energía llenaron el cosmos, potencialmente hirviendo el gas en las galaxias más pequeñas.

Otra posibilidad es que algunas de las primeras estrellas de las galaxias enanas sufrieran enérgicas explosiones de supernova, emitiendo material eyectado a hasta 35 millones de kilómetros por hora (unos 20 millones de millas por hora) y expulsando el gas de sus propios anfitriones desde el interior.






Crédito: DECaLS/DESI Legacy Imaging Surveys/LBNL/DOE & KPNO/CTIO/NOIRLab/NSF/AURA

Si la reionización es la responsable, estas galaxias abrirían una ventana para estudiar el universo primitivo. “No sabemos qué tan fuerte o uniforme es este efecto de reionización”, explica Sand.

“Podría ser que la reionización sea irregular y no ocurra en todas partes al mismo tiempo. Hemos encontrado tres de estas galaxias, pero eso no es suficiente. Sería bueno si tuviéramos cientos de ellas. Si supiéramos qué fracción se ve afectada por reionización, eso nos diría algo sobre el universo primitivo que es muy difícil de investigar de otra manera”.

“La época de la reionización conecta potencialmente la estructura actual de todas las galaxias con la formación de estructuras más temprana a escala cosmológica”, dice Martin Still, director del programa NSF para el Observatorio Internacional Gemini. “Los DESI Legacy Surveys y las detalladas observaciones de seguimiento realizadas por Gemini permiten a los científicos realizar arqueología forense para comprender la naturaleza del universo y cómo evolucionó hasta su estado actual”.

Para acelerar la búsqueda de más galaxias enanas ultradébiles, Sand y su equipo están utilizando las galaxias Sculptor para entrenar un sistema de inteligencia artificial llamado red neuronal para identificar más. La esperanza es que esta herramienta pueda automatizar y acelerar los descubrimientos, ofreciendo un conjunto de datos mucho más amplio del que los astrónomos puedan sacar conclusiones más sólidas.

Más información:
David J. Sand et al, Tres galaxias enanas débiles y apagadas en la dirección de NGC 300: nuevas sondas de reionización y retroalimentación interna, Las cartas del diario astrofísico (2024). DOI: 10.3847/2041-8213/ad927c

Proporcionado por la Asociación de Universidades para la Investigación en Astronomía

Citación: DECam y Gemini South descubren tres pequeñas galaxias tipo ‘ciudad fantasma estelar’ (2025, 15 de enero) recuperado el 15 de enero de 2025 de https://phys.org/news/2025-01-decam-gemini-south-tiny-stellar .html

Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.

Continue Reading

Noticias

DECam y Gemini South descubren tres pequeñas galaxias de ‘ciudad fantasma estelar’

Published

on

Newswise — Las galaxias enanas ultradébiles son el tipo de galaxia más débil del Universo. Estas pequeñas estructuras difusas, que normalmente contienen entre unos pocos cientos y miles de estrellas (en comparación con los cientos de miles de millones que componen la Vía Láctea), suelen esconderse discretamente entre los muchos residentes más brillantes del cielo. Por esta razón, los astrónomos han tenido más suerte hasta ahora al encontrarlos cerca, en las proximidades de nuestra propia galaxia, la Vía Láctea.

Pero esto presenta un problema para entenderlos; Las fuerzas gravitacionales de la Vía Láctea y la corona caliente pueden extraer el gas de las galaxias enanas e interferir con su evolución natural. Además, más allá de la Vía Láctea, las galaxias enanas ultra débiles se vuelven cada vez más difusas e irresolubles para que las detecten los astrónomos y los algoritmos informáticos tradicionales.

Es por eso que fue necesaria una búsqueda manual y visual por parte del astrónomo David Sand de la Universidad de Arizona para descubrir tres galaxias enanas débiles y ultra débiles ubicadas en la dirección de la galaxia espiral NGC 300 y la constelación del Escultor. “Fue durante la pandemia” recuerda Sand. “Estaba viendo la televisión y hojeando la Visor de encuestas heredado DESIcentrándose en áreas del cielo que sabía que no habían sido buscadas antes. Fueron necesarias unas horas de búsqueda informal y luego ¡boom! Simplemente salieron”.

Las imágenes descubiertas por Sand fueron tomadas para DECam Legacy Survey (DECaLS), una de las tres encuestas públicas, conocida como DESI Legacy Imaging Surveys. [1]que tomaron imágenes conjuntas de 14.000 grados cuadrados de cielo para proporcionar objetivos para el estudio en curso del Instrumento Espectroscópico de Energía Oscura (DESI). DECals se realizó utilizando la cámara de energía oscura (DECam) de 570 megapíxeles fabricada por el Departamento de Energía, montada en el telescopio de 4 metros Víctor M. Blanco de la Fundación Nacional de Ciencias de EE. UU. (NSF) en el Observatorio Interamericano Cerro Tololo (CTIO) en Chile. , un programa de NSF NOIRLab.

Las galaxias Escultoras, como se las denomina en el artículo, se encuentran entre las primeras galaxias enanas ultra débiles encontradas en un entorno prístino y aislado, libre de la influencia de la Vía Láctea u otras estructuras grandes. Para investigar más a fondo las galaxias, Sand y su equipo utilizaron el telescopio Gemini Sur, la mitad del Observatorio Internacional Gemini, financiado en parte por la NSF y operado por NSF NOIRLab. Los resultados de su estudio se presentan en un artículo que aparece en Las cartas del diario astrofísicoasí como en una conferencia de prensa en la reunión AAS 245 en National Harbor, Maryland.

El espectrógrafo multiobjeto Gemini (GMOS) de Gemini South capturó las tres galaxias con exquisito detalle. Un análisis de los datos mostró que parecen estar libres de gas y sólo contienen estrellas muy viejas, lo que sugiere que su formación estelar fue sofocada hace mucho tiempo. Esto refuerza las teorías existentes de que las galaxias enanas ultra débiles son “pueblos fantasmas” estelares donde la formación de estrellas quedó interrumpida en el Universo temprano.

Esto es exactamente lo que los astrónomos esperarían de objetos tan pequeños. El gas es la materia prima crucial necesaria para fusionarse y provocar la fusión de una nueva estrella. Pero las galaxias enanas ultra débiles simplemente tienen muy poca gravedad para retener este ingrediente tan importante, y se pierde fácilmente cuando son sacudidas por el Universo dinámico del que forman parte.

Pero las galaxias Sculptor están lejos de cualquier galaxia más grande, lo que significa que sus vecinos gigantes no podrían haber eliminado su gas. Una explicación alternativa es un evento llamado Época de Reionización, un período no mucho después del Big Bang cuando fotones ultravioleta de alta energía llenaron el cosmos, potencialmente hirviendo el gas en las galaxias más pequeñas. Otra posibilidad es que algunas de las primeras estrellas de las galaxias enanas sufrieran enérgicas explosiones de supernova, emitiendo material eyectado a hasta 35 millones de kilómetros por hora (unos 20 millones de millas por hora) y expulsando el gas de sus propios anfitriones desde el interior.

Si la reionización es la responsable, estas galaxias abrirían una ventana para estudiar el Universo primitivo. “No sabemos qué tan fuerte o uniforme es este efecto de reionización”. explica Sand. “Podría ser que la reionización sea irregular y no ocurra en todas partes al mismo tiempo. Hemos encontrado tres de estas galaxias, pero eso no es suficiente. Sería bueno si tuviéramos cientos de ellos. Si supiéramos qué fracción se vio afectada por la reionización, eso nos diría algo sobre el Universo temprano que es muy difícil de investigar de otra manera”.

“La época de la reionización conecta potencialmente la estructura actual de todas las galaxias con la formación de estructura más temprana a escala cosmológica”. dice Martin Still, director del programa NSF para el Observatorio Internacional Gemini. “Los DESI Legacy Surveys y las observaciones detalladas de seguimiento realizadas por Gemini permiten a los científicos realizar arqueología forense para comprender la naturaleza del Universo y cómo evolucionó hasta su estado actual”.

Para acelerar la búsqueda de más galaxias enanas ultradébiles, Sand y su equipo están utilizando las galaxias Sculptor para entrenar un sistema de inteligencia artificial llamado red neuronal para identificar más. La esperanza es que esta herramienta pueda automatizar y acelerar los descubrimientos, ofreciendo un conjunto de datos mucho más amplio del que los astrónomos puedan sacar conclusiones más sólidas.

Notas

[1] Los datos de DESI Legacy Imaging Surveys se entregan a la comunidad astronómica a través del Astro Data Lab en el Community Science and Data Center (CSDC) de NSF NOIRLab.

Más información

Esta investigación se presentó en un artículo titulado “Tres galaxias enanas débiles y apagadas en la dirección de NGC 300: nuevas sondas de reionización y retroalimentación interna” que aparecerá en Las cartas del diario astrofísico. DOI: 10.3847/2041-8213/ad927c

El equipo está compuesto por David J. Sand (Universidad de Arizona), Burçin Mutlu-Pakdil (Dartmouth College), Michael G. Jones (Universidad de Arizona), Ananthan Karunakaran (Universidad de Toronto), Jennifer E. Andrews (Observatorio Internacional Gemini /NSF NOIRLab), Paul Bennet (Instituto Científico del Telescopio Espacial), Denija Crnojević (Universidad de Tampa), Giuseppe Donatiello (Unione Astrofili Italiani), Alex Drlica-Wagner (Laboratorio Nacional del Acelerador Fermi, Instituto Kavli de Física Cosmológica, Universidad de Chicago), Catherine Fielder (Universidad de Arizona), David Martínez-Delgado (Unidad Asociada al CSIC), Clara E. Martínez-Vázquez (Observatorio Internacional Gemini/ NSF NOIRLab), Kristine Spekkens (Queen’s University), Amandine Doliva-Dolinsky (Dartmouth College, Universidad de Tampa), Laura C. Hunter (Dartmouth College), Jeffrey L. Carlin (AURA/Observatorio Rubin), William Cerny (Universidad de Yale), Tehreem N. Hai (Rutgers, Universidad Estatal de Nueva Jersey), Kristen BW McQuinn (Instituto de Ciencias del Telescopio Espacial, Rutgers, Universidad Estatal de Nueva Jersey), Andrew B. Pace (Universidad de Virginia) y Adam Smercina (Instituto de Ciencias del Telescopio Espacial)

NSF NOIRLab, el centro de astronomía óptica-infrarroja terrestre de la Fundación Nacional de Ciencias de EE. UU., opera el Observatorio Internacional Gemini (una instalación de NSF, NRC–Canadá, ANID–Chile, MCTIC–Brasil, MINCyT–Argentina y KASI–República de Corea), el Observatorio Nacional NSF Kitt Peak (KPNO), el Observatorio Interamericano NSF Cerro Tololo (CTIO), el Centro Comunitario de Ciencia y Datos (CSDC) y NSF – Observatorio Vera C. Rubin del DOE (en cooperación con el Laboratorio Nacional del Acelerador SLAC del DOE). Está gestionado por la Asociación de Universidades para la Investigación en Astronomía (AURA) en virtud de un acuerdo de cooperación con NSF y tiene su sede en Tucson, Arizona.

La comunidad científica se siente honrada de tener la oportunidad de realizar investigaciones astronómicas en I’oligam Du’ag (Kitt Peak) en Arizona, en Maunakea en Hawai’i y en Cerro Tololo y Cerro Pachón en Chile. Reconocemos y reconocemos el importante papel cultural y la reverencia de I’oligam Du’ag (Kitt Peak) hacia la nación Tohono O’odham, y Maunakea hacia la comunidad Kanaka Maoli (nativos hawaianos).

Campo de golf

Contactos

David Arena
Profesor y astrónomo
Universidad de Arizona/Observatorio Steward
Correo electrónico: [email protected]

Josie Fenske
Oficial Jr. de Información Pública
NSF NOIRLab
Correo electrónico: [email protected]

Continue Reading

Trending