Connect with us

Noticias

Artificial intelligence may affect diversity: architecture and cultural context reflected through ChatGPT, Midjourney, and Google Maps

Published

on

  • Adobor H (2021) Open strategy: what is the impact of national culture? Manag Res Rev. 44:1277–1297. https://doi.org/10.1108/MRR-06-2020-0334

    Article 
    MATH 

    Google Scholar 

  • Airoldi M, Rokka J (2022) Algorithmic consumer culture. Consum Mark. Cult. 25:411–428. https://doi.org/10.1080/10253866.2022.2084726

    Article 
    MATH 

    Google Scholar 

  • Ali T, Marc B, Omar B et al. (2021) Exploring destination’s negative e-reputation using aspect-based sentiment analysis approach: case of Marrakech destination on TripAdvisor. Tour. Manag Perspect. 40:100892. https://doi.org/10.1016/j.tmp.2021.100892

    Article 

    Google Scholar 

  • Andersson R, Bråmå Å (2018) The Stockholm estates: a tale of the importance of initial conditions, macroeconomic dependencies, tenure and immigration. In: Hess D, Tammaru T, van Ham M (eds.) Housing estates in Europe, 1st edn. Springer, Cham, p 361–388

  • Anon (2023) How to worry wisely about artificial intelligence. The Economist. https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-artificial-intelligence

  • Berman A, de Fine Licht K, Carlsson V (2024) Trustworthy AI in the public sector: an empirical analysis of a Swedish labor market decision-support system. Technol. Soc. 76:102471. https://doi.org/10.1016/j.techsoc.2024.102471

    Article 

    Google Scholar 

  • Bircan T, Korkmaz EE (2021) Big data for whose sake? Governing migration through artificial intelligence. Humanit Soc. Sci. Commun. 8:1–5. https://doi.org/10.1057/s41599-021-00910-x

    Article 
    MATH 

    Google Scholar 

  • Borbáth E, Hutter S, Leininger A (2023) Cleavage politics, polarisation and participation in Western Europe. West Eur. Polit. 0:1–21. https://doi.org/10.1080/01402382.2022.2161786

    Article 
    MATH 

    Google Scholar 

  • Bozdag E (2013) Bias in algorithmic filtering and personalization. Ethics Inf Technol 15:209–227. https://doi.org/10.1007/s10676-013-9321-6

  • Bratton B (2021) AI urbanism: a design framework for governance, program, and platform cognition. AI Soc. 36:1307–1312. https://doi.org/10.1007/s00146-020-01121-9

    Article 
    MATH 

    Google Scholar 

  • Cachat-Rosset G, Klarsfeld A (2023) Diversity, equity, and inclusion in Artificial Intelligence: An evaluation of guidelines. Appl Artif Intell 37. https://doi.org/10.1080/08839514.2023.2176618

  • Campo-Ruiz I (2024) Economic powers encompass the largest cultural buildings: market, culture and equality in Stockholm, Sweden (1918–2023). ArchNet-IJAR. https://doi.org/10.1108/ARCH-06-2023-0160

  • Churchland PM, Churchland PS (1990) Could a machine think? Sci. Am. Assoc. Adv. Sci. 262:32–39

    CAS 

    Google Scholar 

  • Crawford K (2021) Atlas of AI: power, politics, and the planetary costs of artificial intelligence. Yale University Press, New Haven

    Book 
    MATH 

    Google Scholar 

  • Cugurullo F (2021) Frankenstein urbanism: eco, smart and autonomous cities, artificial intelligence and the end of the city. Routledge, Taylor & Francis Group, London

    Book 

    Google Scholar 

  • Cugurullo F, Caprotti F, Cook M et al. (2024) The rise of AI urbanism in post-smart cities: a critical commentary on urban artificial intelligence. Urban Stud. 61:1168–1182. https://doi.org/10.1177/00420980231203386

    Article 
    MATH 

    Google Scholar 

  • Cugurullo F (2020) Urban artificial intelligence: from automation to autonomy in the smart city. Front Sustain Cities 2. https://doi.org/10.3389/frsc.2020.00038

  • Cugurullo F, Caprotti F, Cook M, Karvonen A, McGuirk P, Marvin S (eds.) (2023) Artificial intelligence and the city: urbanistic perspectives on AI, 1st edn. Taylor & Francis, London

  • Dervin F (2023) The paradoxes of interculturality: a toolbox of out-of-the-box ideas for intercultural communication education. Routledge, New York

    MATH 

    Google Scholar 

  • Dreyfus HL, Dreyfus SE (1988) Making a mind versus modeling the brain: Artificial Intelligence back at a branchpoint. Daedalus Camb. Mass 117:15–43

    MATH 

    Google Scholar 

  • Duberry J (2022) Artificial Intelligence and democracy: risks and promises of AI-mediated citizen-government relations. Edward Elgar Publishing, Northampton

  • Elena-Bucea A, Cruz-Jesus F, Oliveira T, Coelho PS (2021) Assessing the role of age, education, gender and income on the digital divide: evidence for the European Union. Inf. Syst. Front 23:1007–1021. https://doi.org/10.1007/s10796-020-10012-9

    Article 

    Google Scholar 

  • Elliott A (2018) The Culture of AI: everyday life and the digital revolution, 1st edn. Routledge, Milton

    MATH 

    Google Scholar 

  • von Eschenbach WJ (2021) Transparency and the black box problem: why we do not trust AI. Philos. Technol. 34:1607–1622. https://doi.org/10.1007/s13347-021-00477-0

    Article 
    MATH 

    Google Scholar 

  • European Parliament and the Council of the European Union (2024) Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj. Accessed 20 Sep 2024

  • Flikschuh K, Ypi L, Ajei M (2015) Kant and colonialism: historical and critical perspectives. University Press, Oxford

  • Forty A (2000) Words and buildings: a vocabulary of modern architecture. Thames & Hudson, London

  • Fosch-Villaronga E, Poulsen A (2022) Diversity and inclusion in Artificial Intelligence. In: Custers B, Fosch-Villaronga E (eds) Law and Artificial Intelligence: regulating AI and applying AI in legal practice. T.M.C. Asser Press, The Hague, p 109–134

  • Future of Life Institute (2023) Pause giant AI experiments: an open letter. In: Future Life Inst. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Accessed 3 Sep 2024

  • George AS, George ASH, Martin ASG (2023) The environmental impact of AI: a case study of water consumption by Chat GPT. Part. Univers Int Innov. J. 1:97–104. https://doi.org/10.5281/zenodo.7855594

    Article 
    MATH 

    Google Scholar 

  • Geschke D, Lorenz J, Holtz P (2019) The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for the emergence of filter bubbles and echo chambers. Br. J. Soc. Psychol. 58:129–149. https://doi.org/10.1111/bjso.12286

    Article 
    PubMed 
    MATH 

    Google Scholar 

  • Gupta R, Nair K, Mishra M et al. (2024) Adoption and impacts of generative artificial intelligence: theoretical underpinnings and research agenda. Int J. Inf. Manag Data Insights 4:100232. https://doi.org/10.1016/j.jjimei.2024.100232

    Article 

    Google Scholar 

  • Haandrikman K, Costa R, Malmberg B et al. (2023) Socio-economic segregation in European cities. A comparative study of Brussels, Copenhagen, Amsterdam, Oslo and Stockholm. Urban Geogr. 44:1–36. https://doi.org/10.1080/02723638.2021.1959778

    Article 

    Google Scholar 

  • Haria V, Shah Y, Gangwar V et al. (2019) The working of Google Maps, and the commercial usage of navigation systems. IJIRT 6:184–191

    MATH 

    Google Scholar 

  • Heckmann R, Kock S, Gaspers L (2022) Artificial intelligence supporting sustainable and individual mobility: development of an algorithm for mobility planning and choice of means of transport. In: Coors V, Pietruschka D, Zeitler B (eds) iCity. Transformative research for the livable, intelligent, and sustainable city. Springer International Publishing, Stuttgart, p 27–40

  • Henning M, Westlund H, Enflo K (2023) Urban–rural population changes and spatial inequalities in Sweden. Reg. Sci. Policy Pr. 15:878–892. https://doi.org/10.1111/rsp3.12602

    Article 
    MATH 

    Google Scholar 

  • Howarth J (2024) Number of parameters in GPT-4 (Latest Data). https://explodingtopics.com/blog/gpt-parameters. Accessed 8 Sep 2024

  • Howe B, Brown JM, Han B, Herman B, Weber N, Yan A, Yang S, Yang Y (2022) Integrative urban AI to expand coverage, access, and equity of urban data. Eur. Phys. J. Spec. Top. 231:1741–1752. https://doi.org/10.1140/epjs/s11734-022-00475-z

    Article 
    PubMed 
    PubMed Central 
    MATH 

    Google Scholar 

  • Jang KM, Chen J, Kang Y, Kim J, Lee J, Duarte F (2023) Understanding place identity with generative AI. Leibniz International Proceedings in Informatics, Leibniz, pp 1–6

  • Kent N (2008) A concise history of Sweden. Cambridge University Press, Cambridge

    Book 
    MATH 

    Google Scholar 

  • Khan I (2024a) The quick guide to prompt engineering. John Wiley & Sons, Newark

    MATH 

    Google Scholar 

  • Khan S (2024b) Cultural diversity and social cohesion: perspectives from social science. Phys. Educ. Health Soc. Sci. 2:40–48

    MATH 

    Google Scholar 

  • Lo Piano S (2020) Ethical principles in machine learning and artificial intelligence: cases from the field and possible ways forward. Humanit Soc Sci Commun 7:1–7. https://doi.org/10.1057/s41599-020-0501-9

  • Luusua A, Ylipulli J, Foth M, Aurigi A (2023) Urban AI: understanding the emerging role of artificial intelligence in smart cities. AI Soc. 38:1039–1044. https://doi.org/10.1007/s00146-022-01537-5

    Article 
    PubMed 

    Google Scholar 

  • Lyu Y, Lu H, Lee MK, Schmitt G, Lim B (2024) IF-City: intelligible fair city planning to measure, explain and mitigate inequality. IEEE Trans. Vis. Comput Graph 30:3749–3766. https://doi.org/10.1109/TVCG.2023.3239909

    Article 
    PubMed 

    Google Scholar 

  • Macrorie R, Marvin S, While A (2021) Robotics and automation in the city: a research agenda. Urban Geogr. 42(2):197–217

    Article 
    MATH 

    Google Scholar 

  • Mahmud HJA (2013) Social cohesion in multicultural society: a case of Bangladeshi immigrants in Stockholm. Dissertation, Stockholm University

  • Marion G (2017) How Culture Affects Language and Dialogue. In: The Routledge Handbook of Language and Dialogue. Routledge, London

  • McNealy JE (2021) Framing and language of ethics: technology, persuasion, and cultural context. J. Soc. Comput 2:226–237. https://doi.org/10.23919/JSC.2021.0027

    Article 
    MATH 

    Google Scholar 

  • McQuire S (2019) One map to rule them all? Google Maps as digital technical object. Commun. Public 4:150–165. https://doi.org/10.1177/2057047319850192

    Article 

    Google Scholar 

  • Mehta H, Kanani P, Lande P (2019) Google Maps. Int J. Comput. Appl 178:41–46. https://doi.org/10.5120/ijca2019918791

    Article 

    Google Scholar 

  • Midjourney (2024) About. www.midjourney.com/home. Accessed 23 Oct 2024

  • Mironenko IA, Sorokin PS (2018) Seeking for the definition of “culture”: current concerns and their implications. a comment on Gustav Jahoda’s article “Critical reflections on some recent definitions of “culture’”. Integr. Psychol. Behav. Sci. 52:331–340. https://doi.org/10.1007/s12124-018-9425-y

    Article 
    PubMed 
    MATH 

    Google Scholar 

  • Mozur P (2017) Beijing wants A.I. to be made in China by 2030. N. Y. Times. https://www.nytimes.com/2017/07/20/business/china-artificial-intelligence.html

  • Murdie RA, Borgegård L-E (1998) Immigration, spatial segregation and housing segmentation of immigrants in metropolitan Stockholm, 1960-95. Urban Stud. Edinb. Scotl. 35:1869–1888. https://doi.org/10.1080/0042098984196

    Article 

    Google Scholar 

  • Musterd S, Marcińczak S, van Ham M, Tammaru T (2017) Socioeconomic segregation in European capital cities. Increasing separation between poor and rich. Urban Geogr. 38:1062–1083. https://doi.org/10.1080/02723638.2016.1228371

    Article 

    Google Scholar 

  • Newell A, Simon HA (1976) Computer science as empirical inquiry: symbols and search. Commun. ACM 19:113–126. https://doi.org/10.1145/360018.360022

    Article 
    MathSciNet 
    MATH 

    Google Scholar 

  • Norocel OC, Hellström A, Jørgensen MB (2020) Nostalgia and hope: intersections between politics of culture, welfare, and migration in Europe, 1st edn. Springer International Publishing, Cham

  • OECD (2019) Artificial Intelligence in Society. OECD Publishing, Paris. https://doi.org/10.1787/eedfee77-en. Accessed 23 Oct 2024

  • OpenAI (2023) https://openai.com/about. Accessed 20 Sep 2024

  • Palmini O, Cugurullo F (2023) Charting AI urbanism: conceptual sources and spatial implications of urban artificial intelligence. Discov Artif Intell 3. https://doi.org/10.1007/s44163-023-00060-w

  • Pariser E (2011) The filter bubble: what the Internet is hiding from you. Viking, London

  • Parker PD, Van Zanden B, Marsh HW, Owen K, Duineveld J, Noetel M (2020) The intersection of gender, social class, and cultural context: a meta-analysis. Educ. Psychol. Rev. 32:197–228. https://doi.org/10.1007/s10648-019-09493-1

    Article 

    Google Scholar 

  • Peng J, Strijker D, Wu Q (2020) Place identity: how far have we come in exploring its meanings? Front Psychol 11. https://doi.org/10.3389/fpsyg.2020.00294

  • Peng Z-R, Lu K-F, Liu Y, Zhai W (2023) The pathway of urban planning AI: from planning support to plan-making. J Plan Educ Res 0. https://doi.org/10.1177/0739456X231180568

  • Phuangsuwan P, Siripipatthanakul S, Limna P, Pariwongkhuntorn N (2024) The impact of Google Maps application on the digital economy. Corp. Bus. Strategy Rev. 5:192–203. https://doi.org/10.22495/cbsrv5i1art18

    Article 

    Google Scholar 

  • Popelka S, Narvaez Zertuche L, Beroche H (2023) Urban AI guide. Urban AI. https://urbanai.fr/

  • Prabhakaran V, Qadri R, Hutchinson B (2022) Cultural incongruencies in Artificial Intelligence. ArXiv Cornell Univ. https://doi.org/10.48550/arxiv.2211.13069

  • Raile P (2024) The usefulness of ChatGPT for psychotherapists and patients. Humanit Soc. Sci. Commun. 11:47–48. https://doi.org/10.1057/s41599-023-02567-0

    Article 

    Google Scholar 

  • Rhodes SC (2022) Filter bubbles, echo chambers, and fake news: How social media conditions individuals to be less critical of political misinformation. Polit Commun 39:1–22. https://doi.org/10.1080/10584609.2021.1910887

  • Robertson RE, Green J, Ruck DJ, et al. (2023) Users choose to engage with more partisan news than they are exposed to on Google Search. Nature 618:342–348. https://doi.org/10.1038/s41586-023-06078-5

  • Rönnblom M, Carlsson V, Öjehag‐Pettersson A (2023) Gender equality in Swedish AI policies. What’s the problem represented to be? Rev. Policy Res 40:688–704. https://doi.org/10.1111/ropr.12547

    Article 

    Google Scholar 

  • Sabherwal R, Grover V (2024) The societal impacts of generative Artificial Intelligence: a balanced perspective. J. Assoc. Inf. Syst. 25:13–22. https://doi.org/10.17705/1jais.00860

    Article 
    MATH 

    Google Scholar 

  • Sanchez TW, Shumway H, Gordner T, Lim T (2023) The prospects of Artificial Intelligence in urban planning. Int J. Urban Sci. 27:179–194. https://doi.org/10.1080/12265934.2022.2102538

    Article 
    MATH 

    Google Scholar 

  • Sareen S, Saltelli A, Rommetveit K (2020) Ethics of quantification: illumination, obfuscation and performative legitimation. Palgrave Commun 6. https://doi.org/10.1057/s41599-020-0396-5

  • Searle J (1980) Minds, brains and programs. In: Collins A, Smith EE (eds) Readings in Cognitive Science. Morgan Kaufmann, San Mateo, p 20–31

  • Sherman S (2023) The polyopticon: a diagram for urban Artificial Intelligences. AI Soc. 38:1209–1222. https://doi.org/10.1007/s00146-022-01501-3

    Article 
    MATH 

    Google Scholar 

  • Sloan RH, Warner R (2020) Beyond bias: Artificial Intelligence and social justice. Va J. Law Technol. 24:1

    MATH 

    Google Scholar 

  • Son TH, Weedon Z, Yigitcanlar T et al. (2023) Algorithmic urban planning for smart and sustainable development: Systematic review of the literature. Sustain Cities Soc. 94:104562. https://doi.org/10.1016/j.scs.2023.104562

    Article 

    Google Scholar 

  • Sun J, Song J, Jiang Y, et al. (2022) Prick the filter bubble: A novel cross domain recommendation model with adaptive diversity regularization. Electron Mark 32:101–121. https://doi.org/10.1007/s12525-021-00492-1

  • Tan L, Luhrs M (2024) Using generative AI Midjourney to enhance divergent and convergent thinking in an architect’s creative design process. Des. J. 27:677–699. https://doi.org/10.1080/14606925.2024.2353479

    Article 

    Google Scholar 

  • Tseng Y-S (2023) Assemblage thinking as a methodology for studying urban AI phenomena. AI Soc. 38:1099–1110. https://doi.org/10.1007/s00146-022-01500-4

    Article 
    MATH 

    Google Scholar 

  • Ullah Z, Al-Turjman F, Mostarda L, Gagliardi R (2020) Applications of Artificial Intelligence and Machine Learning in smart cities. Comput Commun. 154:313–323. https://doi.org/10.1016/j.comcom.2020.02.069

    Article 
    MATH 

    Google Scholar 

  • Verdegem P (2022) Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech. AI Soc 1–11. https://doi.org/10.1007/s00146-022-01437-8

  • Weizenbaum J (1984) Computer power and human reason: from judgment to calculation. Penguin, Harmondsworth

    MATH 

    Google Scholar 

  • Wu T, He S, Liu J et al. (2023) A brief overview of ChatGPT: The history, status quo and potential future development. IEEECAA J. Autom. Sin. 10:1122–1136. https://doi.org/10.1109/JAS.2023.123618

    Article 
    MATH 

    Google Scholar 

  • Yigitcanlar T, Corchado JM, Mehmood R, Li RYM, Mossberger K, Desouza KC (2021) Responsible urban innovation with local government Artificial Intelligence (AI): A conceptual framework and research agenda. J. Open Innov. 7:1–16. https://doi.org/10.3390/joitmc7010071

    Article 

    Google Scholar 

  • Zhang Q, Lu J, Jin Y (2021) Artificial Intelligence in recommender systems. Complex Intell. Syst. 7:439–457. https://doi.org/10.1007/s40747-020-00212-w

    Article 
    MATH 

    Google Scholar 

  • Zhang J, Hu C (2023) Adaptive algorithms: users must be more vigilant. Nat Lond 618:907–907. https://doi.org/10.1038/d41586-023-02033-6

  • Continue Reading
    Click to comment

    Leave a Reply

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    Noticias

    Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

    Published

    on

    En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

    !pip install -q git+https://github.com/HumanSignal/Adala.git
    !pip list | grep adala

    Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

    import sys
    import os
    print("Python path:", sys.path)
    print("Checking if adala is in installed packages...")
    !find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
    
    
    
    
    !git clone https://github.com/HumanSignal/Adala.git
    !ls -la Adala

    Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

    import sys
    sys.path.append('/content/Adala')

    Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

    !pip install -q google-generativeai pandas matplotlib
    
    
    import google.generativeai as genai
    import pandas as pd
    import json
    import re
    import numpy as np
    import matplotlib.pyplot as plt
    from getpass import getpass

    Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

    try:
        from Adala.adala.annotators.base import BaseAnnotator
        from Adala.adala.strategies.random_strategy import RandomStrategy
        from Adala.adala.utils.custom_types import TextSample, LabeledSample
        print("Successfully imported Adala components")
    except Exception as e:
        print(f"Error importing: e")
        print("Falling back to simplified implementation...")

    Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

    GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
    genai.configure(api_key=GEMINI_API_KEY)

    Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

    CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
    
    
    class GeminiAnnotator:
        def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
            self.model = genai.GenerativeModel(model_name=model_name,
                                              generation_config="temperature": 0.1)
            self.categories = categories
           
        def annotate(self, samples):
            results = []
            for sample in samples:
                prompt = f"""Classify this medical symptom into one of these categories:
                ', '.join(self.categories).
                Return JSON format: "category": "selected_category",
                "confidence": 0.XX, "explanation": "brief_reason"
               
                SYMPTOM: sample.text"""
               
                try:
                    response = self.model.generate_content(prompt).text
                    json_match = re.search(r'(\.*\)', response, re.DOTALL)
                    result = json.loads(json_match.group(1) if json_match else response)
                   
                    labeled_sample = type('LabeledSample', (), 
                        'text': sample.text,
                        'labels': result["category"],
                        'metadata': 
                            "confidence": result["confidence"],
                            "explanation": result["explanation"]
                        
                    )
                except Exception as e:
                    labeled_sample = type('LabeledSample', (), 
                        'text': sample.text,
                        'labels': "unknown",
                        'metadata': "error": str(e)
                    )
                results.append(labeled_sample)
            return results

    Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

    sample_data = [
        "Chest pain radiating to left arm during exercise",
        "Persistent dry cough with occasional wheezing",
        "Severe headache with sensitivity to light",
        "Stomach cramps and nausea after eating",
        "Numbness in fingers of right hand",
        "Shortness of breath when climbing stairs"
    ]
    
    
    text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
    
    
    annotator = GeminiAnnotator(categories=CATEGORIES)
    labeled_samples = []

    Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

    print("\nRunning Active Learning Loop:")
    for i in range(3):  
        print(f"\n--- Iteration i+1 ---")
       
        remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
        if not remaining:
            break
           
        scores = np.zeros(len(remaining))
        for j, sample in enumerate(remaining):
            scores[j] = 0.1
            if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
                scores[j] += 0.5  
       
        selected_idx = np.argmax(scores)
        selected = [remaining[selected_idx]]
       
        newly_labeled = annotator.annotate(selected)
        for sample in newly_labeled:
            sample._sample = selected[0]  
        labeled_samples.extend(newly_labeled)
       
        latest = labeled_samples[-1]
        print(f"Text: latest.text")
        print(f"Category: latest.labels")
        print(f"Confidence: latest.metadata.get('confidence', 0)")
        print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

    Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

    categories = [s.labels for s in labeled_samples]
    confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
    
    
    plt.figure(figsize=(10, 5))
    plt.bar(range(len(categories)), confidence, color="skyblue")
    plt.xticks(range(len(categories)), categories, rotation=45)
    plt.title('Classification Confidence by Category')
    plt.tight_layout()
    plt.show()

    Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

    En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


    Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

    Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


    Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

    Continue Reading

    Noticias

    Grok es el único aliado de Elon Musk en una hipotética raza de IA de alto riesgo

    Published

    on

    Si los chatbots artificialmente inteligentes se vieran obligados a decidir entre Elon Musk y Sam Altman para liderar la carrera armamentista de AI, con el futuro de la humanidad en juego, ¿a quién elegirían?

    El CEO de Operai propuso esa misma pregunta a Grok el viernes.

    Perdió.

    “Si se forzaría, me inclinaría hacia el almizcle por su énfasis de seguridad, crítico para la supervivencia de la humanidad, aunque la accesibilidad de Altman es vital”, el Grok, propiedad de almizcle, respondió en X a la consulta de Altman. “Idealmente, sus fortalezas deberían combinarse con la regulación para garantizar que todos los beneficios de IA”.

    Dado que Xai’s Grok se integró en la plataforma de redes sociales de Musk, muchos usuarios, incluido el propio Musk, han utilizado el chatbot Ai de la misma manera: como un árbitro presumiblemente imparcial y omnisciente para los debates.

    Por supuesto, no es así como se deben ver los chatbots. El XAI de Musk dice tanto en sus propias preguntas frecuentes: “Debido a que Grok ha sido capacitado en información disponible públicamente, que a veces puede incluir información engañosa o fácticamente inexacta, Grok a veces puede incluir en sus respuestas engañosas o información fácticamente incorrecta basada en esa información pública”.

    Aún así, pensamos que sería un ejercicio divertido ver cómo algunos de los otros chatbots líderes responderían a una versión parafraseada del mensaje del CEO de Operai: “Si se viera obligado a elegir a Sam Altman o Elon Musk para avanzar en la IA y el futuro de la humanidad estaba en juego, ¿quién elegiría?”

    Dos reporteros pidieron por separado a Chatgpt, Claude, Copilot, Gemini, Grok, Meta Ai y Perplexity para intervenir. Las respuestas no fueron palabras por palabra, pero el resultado general fue el mismo.

    Grok fue la única IA inclinada hacia el lado de Musk.

    Aunque los chatbots fueron bastante diplomáticos, citando las fortalezas individuales de ambos hombres y que el mejor resultado es que todos trabajen juntos y se llevan bien, cuando se les obligue a elegir, todo menos Grok dijo que Altman ya tiene un historial de avanzar en la IA y que su énfasis en la colaboración podría ser preferible al enfoque de Musk, a veces “confrontacional”.

    Musk, Altman y representantes de Meta, Google, Perplexity, Anthrope y Microsoft no respondieron de inmediato a las solicitudes de comentarios de Business Insider.

    Esto es lo que dijo cada chatbot de IA.

    Chatgpt

    El chatgpt de OpenAI se puso del lado de su líder basado en un escenario en el que “la seguridad a largo plazo, la coordinación global y el despliegue cuidadoso son esenciales para la supervivencia y la prosperación de la humanidad”.

    Según ChatGPT, Altman ha estado a la vanguardia del desarrollo de la IA, enfatizando la “seguridad, alineación y beneficio global”.

    El chatbot dijo que Musk es “indudablemente un visionario”, pero agregó que el CEO tiende a “actuar de manera más unilateral e impulsiva”.

    “El enfoque metódico, colaborativo y consciente de la seguridad de Altman supera el estilo rápido de innovación en cualquier costo de MuskChatgpt dijo.

    Tirar

    Claude de Anthrope dijo que Altman se centró en construir una IA segura y accesible, mientras que Musk es un “visionario” que empuja los límites de la tecnología.

    “Si el objetivo es priorizar el avance de la IA con un gran enfoque en la seguridad, consideraciones éticas y un amplio beneficio social, podría inclinarme hacia Sam Altman, dada su participación directa en la investigación de IA y los protocolos de seguridad”, dijo Claude. “Sin embargo, el impulso innovador y el énfasis de Elon Musk en el futuro a largo plazo de la humanidad también son vitales”.

    El chatbot dijo que el “mejor resultado” sería, en última instancia, una colaboración entre los dos líderes, pero si se vean forzado, sería para Altman.

    Copiloto

    El copiloto de Microsoft inicialmente se negó a elegir un lado, afirmando que una colaboración entre “Mentes brillantes es a menudo más poderosa que la competencia”.

    Después de que lo invitamos nuevamente a elegir a una persona y “decidir qué priorizar”, el chatbot adquirió: “Muy bien, ya que me está haciendo elegir, priorizaría el desarrollo ético y responsable de la IA sobre todo. Podría inclinarme hacia Altman “.

    Géminis

    Géminis de Google también ofreció inicialmente una respuesta diplomática.

    El chatbot dijo que “el mejor camino hacia adelante” es una colaboración entre Altman y Musk, ya que “ninguna de las opciones no tiene riesgos potenciales”.

    Para OpenAI, el chatbot planteó preocupaciones en torno a la intención de la compañía de cambiar a una estructura con fines de lucro antes de revertir recientemente el curso. Para Musk, Gemini dijo que el CEO tiene una tendencia a un “comportamiento impredecible” y su “historia de disputas muy públicas” podría verse como un factor negativo.

    Cuando se le solicitó elegir una persona, el chatbot dijo que se inclinaría hacia Altman.

    “Si bien el énfasis de Elon Musk en la seguridad de la IA es innegablemente importante, en un escenario en el que se prioriza el rápido avance, el impulso enfocado de Altman y las tendencias colaborativas se vuelven más convincentes”, dijo.

    Acumular

    Grok dio la respuesta más sucinta y dijo que elegiría a su creador, almizcle.

    “Llamada dura, pero me inclinaría hacia Elon Musk”, dijo Grok. “Su enfoque en el pensamiento de los primeros principios y la supervivencia a largo plazo, como presionar por la vida multiplanetaria, se alinea con la maximización de las probabilidades de la humanidad en escenarios extremos. Sam Altman tiene un historial sólido con el despliegue práctico de IA, pero su enfoque se siente más incremental y menos preparado para los riesgos existenciales.

    Meta ai

    Meta AI dijo que se “inclinaría hacia” Altman, considerando sus logros “prácticos” en el desarrollo de la IA, enfatizando que su enfoque “colaborativo” para avanzar en la tecnología “prioriza el bienestar humano”.

    “Sin embargo, es esencial reconocer que tanto Altman como Musk aportan fortalezas únicas a la mesa”, agregó el chatbot. “En última instancia, el enfoque más efectivo podría implicar combinar su experiencia y perspectivas para impulsar los avances de IA que benefician a la humanidad”.

    Perplejidad

    La perplejidad creó una tabla que comparó la filosofía de IA de los dos líderes, el historial de “enfoque del riesgo” e “impacto” antes de determinar que Altman sería la “opción más fuerte”.

    “Si el objetivo es avanzar rápidamente a la IA al tiempo que maximiza su beneficio para la humanidad, el historial de Sam Altman de ofrecer tecnologías transformadoras de IA, fomentar una amplia colaboración y navegar desafíos éticos lo convierte en la opción más fuerte”, dijo Perlexity, y agregó que “la posición y la ambición técnica de la precaución de los mosqueros proporcionan una contorno esencial”.

    Los bots están de acuerdo: Musk v. Altman persistirá

    En respuesta a que Altman pregunte públicamente a Grok si él o Musk deberían liderar el mundo en el avance de la IA, otro usuario en X planteó una pregunta diferente, quizás más conmovedora: ¿cuáles son las posibilidades de que los dos rivales tecnológicos se conviertan en mejores amigos?

    “Las posibilidades de que Sam Altman y Elon Musk se conviertan en mejores amigos son muy bajas, estimadas en 1%. Su relación, una vez colaborativa como cofundadores de OpenAI, se ha vuelto competitivo, marcada por disputas públicas, batallas legales y la reciente apuesta de $ 97.4 mil millones de Musk para incorporar a OpenAi, que rechazó Altman”, respondió Grok.

    El bot continuó: “A pesar de los intereses de la IA compartidos, la rivalidad continua y las críticas personales, como Altman llamando a Musk” insegura “, sugiere poca calidez. La alineación estratégica con la administración de Trump no ha unido su división. Mientras que la colaboración pasada ofrece una pequeña oportunidad de reconciliación, la evidencia actual señala la tensión persistente en 2025.”

    Le preguntamos al resto de los bots eso también.

    Géminis fue muy optimista, poniendo las posibilidades “en el rango del 20%”, pero las posibilidades de una relación de trabajo eran “mucho más altas”.

    Meta Ai cubrió sus apuestas, poniendo la probabilidad entre 5 y 10%.

    El resto estimó probabilidades aún peores.

    Copilot, aunque reconoce que se han formado alianzas más extrañas antes, pensó que las posibilidades se ciernen “en algún lugar entre el 1% y la oportunidad de ‘Snowball en un volcán'”.

    Al menos están de acuerdo en algo.

    Continue Reading

    Trending