Es mostren les entrades ordenades per rellevància per a la consulta ia pertot arreu. Ordena per data Mostra totes les entrades
Es mostren les entrades ordenades per rellevància per a la consulta ia pertot arreu. Ordena per data Mostra totes les entrades

14 d’abril 2023

IA pertot arreu (2)

 Foundation models for generalist medical artificial intelligence

La revista Nature publica aquesta setmana un article de revisió que explica l'estat de situació de la Intel·ligència Artificial mèdica generalitzada GMAI. Fa unes setmanes explicava en una entrada els models multimodals, i ara anem més enllà. El concepte generalista ens condueix cap a models que van més enllà de tasques, i que aprenen del context, modelitzen el llenguatge i introdueixen l'aprenentatge contrastat. Per fer-nos una idea, fins ara tot els prop de 500 models d'IA que ha aprovat la FDA eren orientats a 1 o 2 tasques. El salt cap a la IA generalista suposa un canvi substancial. I això ha passat amb pocs mesos de diferència.

Les tres capacitats clau:

First, adapting a GMAI model to a new task will be as easy as describing the task in plain English (or another language). Models will be able to solve previously unseen problems simply by having new tasks explained to them (dynamic task specification), without needing to be retrained3,5. Second, GMAI models can accept inputs and produce outputs using varying combinations of data modalities (for example, can take in images, text, laboratory results or any combination thereof). This flexible interactivity contrasts with the constraints of more rigid multimodal models, which always use predefined sets of modalities as input and output (for example, must always take in images, text and laboratory results together). Third, GMAI models will formally represent medical knowledge, allowing them to reason through previously unseen tasks and use medically accurate language to explain their outputs.


a, A GMAI model is trained on multiple medical data modalities, through techniques such as self-supervised learning. To enable flexible interactions, data modalities such as images or data from EHRs can be paired with language, either in the form of text or speech data. Next, the GMAI model needs to access various sources of medical knowledge to carry out medical reasoning tasks, unlocking a wealth of capabilities that can be used in downstream applications. The resulting GMAI model then carries out tasks that the user can specify in real time. For this, the GMAI model can retrieve contextual information from sources such as knowledge graphs or databases, leveraging formal medical knowledge to reason about previously unseen tasks. b, The GMAI model builds the foundation for numerous applications across clinical disciplines, each requiring careful validation and regulatory assessment.

Tres aplicacions potencials:


 a, GMAI could enable versatile and self-explanatory bedside decision support. b, Grounded radiology reports are equipped with clickable links for visualizing each finding. c, GMAI has the potential to classify phenomena that were never encountered before during model development. In augmented procedures, a rare outlier finding is explained with step-by-step reasoning by leveraging medical domain knowledge and topographic context. The presented example is inspired by a case report58. Image of the fistula in panel c adapted from ref. 58, 

L'aplicació de la IA a la medicina representa una impuls transformador crucial, i encara no en sabem les conseqüències. L'article detalla alguns dels reptes, cal llegir-lo per fer-nos una idea de cap on va la cosa. 

 PS. Per entendre el context de l'article, Eric Topol al seu blog.


 

25 de gener 2024

IA pertot arreu (6)

Collective action for responsible AI in health

AI IN HEALTH: HUGE POTENTIAL, HUGE RISKS

 Repasso el darrer informe de l'OCDE sobre Intel·ligència Artificial i Salut. Veig que hi ha un bon resum de barreres, riscos, oportunitats i resultats potencials. Fa temps que parlem del mateix. Ara bé no veig una explicació clara de que cal fer col·lectivament per reduir els riscos.

En destacaré un risc molt important, que la IA contribueixi a crear una medicina de "caixa negra". Diu:

AI solutions may not be explainable, impacting accountable evidence-based decision-making: The “black box” nature of AI algorithms can lead to difficulty in understanding the rationale behind specific AI driven outputs. This difficulty in understanding can grow to a lack of trust in solutions when coupled with the risk of AI solutions being trained on biased data. While it is difficult to fully articulate the underlying mathematics in an easy-to-consume manner, it is important to develop guidance for explainability of AI solutions to ensure that sufficient information is provided to establish trust in outcomes. Where appropriate, sufficient transparency should be provided to both the users of AI algorithms (e.g. health providers) as well as those impacted by its outcomes (e.g. patients). This should be communicated in language that is appropriate and consumable for the target audience while respecting intellectual property and preventing breaches of privacy. Transparency into the demographic data used in AI models will allow AI users to evaluate the appropriateness of the model in a given clinical context.

Aquesta observació l'he feta també en escrits anteriors però no hi ha resposta clara sobre com reduir aquest risc, només algunes idees elementals, i el temps va passant i la IA es va implantant. L'informe, malgrat això, és un bon resum a tenir en compte.



19 d’abril 2023

IA pertot arreu (3)

 Guiding principles for the responsible development of artificial intelligence tools for healthcare

Ara que es parla de moratòria a la IA i de la seva regulació està bé fer una ullada a aquest article que es resumeix en aquestes dues taules:


El tema de l'explicabilitat és un enigma sense solució. Els propis desenvolupadors afirmen que en moltes ocasions no saben perquè s'arriba a determinades respostes de l'algoritme. I jo dic, si això és així proclamar explicabilitat com a principi implica prohibir aquests algoritmes, altrament què es pot fer?



22 de març 2023

IA pertot arreu

Multimodal biomedical AI

En aquest blog he anat explicant darrerament els avenços en la intel·ligència artificial i els podeu trobar en aquestes entrades. La innovació és tan ràpida que costa molt estar atent al que està passant. Per aquest motiu us suggereixo una ullada a l'article que parla de la intel·ligència artificial multimodal en biomedicina, recullo una frase:

The development of multimodal AI models that incorporate data across modalities—including biosensors, genetic, epigenetic, proteomic, microbiome, metabolomic, imaging, text, clinical, social determinants and environmental data—is poised to partially bridge this gap and enable broad applications that include individualized medicine, integrated, real-time pandemic surveillance, digital clinical trials and virtual health coaches (Fig. 1). In this Review, we explore the opportunities for such multimodal datasets in healthcare; we then discuss the key challenges and promising strategies for overcoming these. 

I un gràfic: 

 


i el que són els foundation models:

Bommasani R et al, arXiv, July 2022

i si voleu saber l'última informació sobre "multimodal ai", la trobareu aquí.

I jo em pregunto, hi ha algú aquí aprop que estigui a l'aguaït de tot això? Es tant important que convindria no perdre passada i em temo que fem tard.


PD. Avui  a WSJ i al NYT 

"This is going to change everything about how we do everything. I think that it represents mankind’s greatest invention to date"




19 de maig 2023

IA pertot arreu (4)

 The AI Revolution in Medicine: GPT-4 and Beyond

Si voleu comprendre que és el GPT-4 i les seves implicacions a la medicina, aquest és el llibre que heu de llegir per ara.

Parla amb llenguatge clar de com pot ser utilitzat a la pràctica mèdica i com també els pacients poden extreure conclusions del llenguatge dels informes mèdics. Sorprenent. I també amb riscos de mala interpretació. Tot plegat ho trobareu dins amb molts exemples.









05 de setembre 2023

IA pertot arreu (5)

 Artificial intelligence in healthcare. Applications, risks, and ethical and societal impacts

El parlament europeu va encarregar un informe sobre la intel·ligència artificial a l'assistència sanitària i abans de vacances ha publicat el resultat. En realitat veig que és un informe sobre el risc que representa i que es pot fer per regular-lo. 

Les idees que proposa no són pas noves. I tinc la impressió que el més important hauria de ser disposar d'una regulació general. En aquest sentit la proposta de 2021 es troba pendent de no sé ben bé què.

In 2021, the European Commission (EC) published a long-awaited proposal for AI regulation and for harmonising the rules that govern AI technologies across Europe, in a manner that addresses safety as well as human rights concerns (European Commission, 2021). In a similar fashion to the 2018 proposal of the German Data Ethics Commission, the draft EU framework provided a definition of AI that is risk-based, together with mandatory requirements for high-risk AI systems. Concretely, the document recommended to classify AI tools according to three main levels of risk: (i) unacceptable risk, (ii) high risk, and (iii) low or minimal risk.

I pel que fa a alt risc, els requeriments serien aquests:

• Use high-quality training, validation and testing data (relevant, representative).

• Draw up technical documentation & set up logging capabilities (traceability & auditability).

• Ensure appropriate degree of transparency and provide users with information on

capabilities and limitations of the system & how to use it.

• Ensure human oversight (measures built into the system and/or to be implemented by

users).

• Ensure robustness, accuracy and cybersecurity.

Obligations:

• Establish and implement quality management system in its organisation.

• Draw-up and keep up to date technical documentation.

• Undergo conformity assessment and potentially reassessment of the system (in case of

substantial modification).

• Register AI system in EU database.

• Affix CE marking and sign declaration of conformity.

• Conduct post-market monitoring.

• Collaborate with market surveillance authorities.

• Inform the provider or distributor about any serious incident or any malfunctioning.

• Continue to apply existing legal obligations (e.g. under GDPR).

Quin és el problema sense entrar en detalls del document? Doncs que s'hauria de complir la regulació de Medical Devices vigent, que obliga a aprovar software as a medical device i que s'incompleix generalitzadament. I que quan més tardin en aprovar la regulació general d'intel·ligència artificial més desfasada estarà. Crec que ja fan tard. 

 




Bo Bartlett