lunedì 27 agosto 2012

L'Insufficienza Venosa Cronica Cerebro Spinale

Da poco meno di quattro anni, ai malati di sclerosi multipla (o sclerosi a placche, o SM) sembra di scorgere un chiarore lì, in fondo al tunnel buio della malattia. http://www.blogger.com/img/blank.gifIl chiarore ha anche un nome, e si chiamerebbe CCSVI, acronimo che starebbe per Chronical CerebroSpinal Venous Insufficiency, Insufficienza Venosa Cronica Cerebro Spinale. Anzi, per essere più precisi, CCSVI sarebbe il nome del “buio” nel tunnel, mentre il chiarore sarebbe rappresentato dall’angioplastica percutanea (PTA); ed il portatore di tale fiaccola assume nome e sembianze del prof. Paolo Zamboni.

Inizialmente, ciò che era stato detto era, in pratica, che la causa della sclerosi multipla era praticamente stata trovata, e che era eliminabile, ed il messaggio (non così tanto subliminale, poi) che veniva trasmesso era che l’eliminazione della causa, sebbene probabilmente non in grado di far regredire totalmente i sintomi della malattia, soprattutto se in stato avanzato, ne avrebbe comunque sicuramente arrestato la progressione. Più recentemente, dopo un primo entusiastico impeto, ufficialmente ci si è assestati su posizioni più possibiliste e moderate; ma il messaggio è rimasto il medesimo.

Il presente post vorrebbe effettuare una rapida revisione degli eventi passati e della condizione presente, allo scopo di verificare se il messaggio che tuttora viene trasmesso abbia una base scientifica o meno

Desidero precisarti però, Lettore, che comunque è principalmente questo post a non avere per sé alcuna pretesa di rigore scientifico. Quanto riportato è una semplice descrizione dei fatti, sebbene non acritica, e pertanto, non troverai riferimenti bibliografici qui; sono sicuro che, se vorrai, sarai perfettamente in grado di risalire ai lavori originali da cui certe informazioni sono state tratte. Ciò che farò sarà semplicemente quello di verificare se il modo in cui si è evoluta e sta ancora evolvendo la vicenda abbia seguito e segua, o meno, la strada del rigore scientifico. Nessuna conclusione verrà fornita; sarai Tu, come al solito, a decidere come ritieni che stiano le cose.

Dalle statistiche di accesso al blog so che vi sono alcuni Lettori (pochi) che accedono ad esso periodicamente. Se Tu non dovessi annoverarti tra loro, ma dovessi essere giunto qui indirizzato da un motore di ricerca, forse troveresti utile leggere alcune considerazioni sul metodo scientifico che puoi trovare qui, e questo non perché la mia opinione al riguardo rivesta chissà quale importanza, ma soltanto perché ciò può rendere molto più semplice la comprensione di ciò che leggerai nel prosieguo.

THE BIG IDEA

Nel novembre del 2006 viene pubblicato sul Journal of the Royal Society of Medicine un articolo a firma del prof. Paolo Zamboni dal titolo: The Big Idea: Iron-dependent inflammation in venous disease and proposed parallels in multiple sclerosis. In esso (basato sui contenuti di una conferenza che lo stesso prof. Zamboni aveva tenuto quattro mesi prima nel corso di un meeting organizzato dalla medesima società), egli prende in considerazione l’insufficienza venosa cronica (IVC o in inglese CVI – Chronic Venous Insufficiency) degli arti inferiori, cercando di mettere in relazione la classificazione CEAP con le cause dell’insufficienza venosa, e descrivendo sommariamente i modelli teorici, basati sulle acquisizioni più recenti, che descriverebbero i meccanismi che conducono alla comparsa delle manifestazioni cliniche della IVC degli arti inferiori, con particolare riguardo al ruolo dei depositi di ferro.

Riporta quindi delle osservazioni personali relative ad anomalie del deflusso venoso dalle regione cervicoencefalica in soggetti con sclerosi multipla. Compara i reperti istologici che si rilevano nella IVC degli arti inferiori con quelli osservabili nei soggetti affetti da sclerosi multipla. Sottolinea la relazione di contiguità tra vasi venosi e placche della sclerosi multipla. Ipotizza un’alterazione della Barriera EmatoEncefalica causata dal processo infiammatorio previsto dal modello della IVC negli arti. Conclude che vi sono diverse similitudini tra le due condizioni, degne di ulteriori approfondimenti.

In pratica, il professor Zamboni ha l’intuizione (the Big Idea, appunto) che la Sclerosi Multipla potrebbe essere una manifestazione di insufficienza venosa cronica a carico del sistema nervoso così come edema, pigmentazioni, dermatite ed ulcere sono manifestazioni di insufficienza venosa cronica a carico delle gambe. Ed adotta un modello teorico analogo a quello adottato per le gambe, che descrive il modo in cui le alterazioni del sistema venoso conducono alle alterazioni istologiche osservabili. E poiché intuizione e modello teorico sono le prime fasi con le quali il metodo scientifico indaga, afferma la necessità di proseguire su questa strada, per confermare o negare l’intuizione.

L’EMODINAMICA VENOSA INTRACRANICA

Meno di un anno dopo il professor Zamboni, in collaborazione con altri sei ricercatori, pubblica sulla rivista Current Neurovascular Research un articolo dal titolo Intracranial Venous Hemodynamics in Multiple Sclerosis. In questo lavoro vengono arruolati 89 soggetti consecutivi affetti da sclerosi multipla e 60 soggetti sani, e ne viene esaminato il flusso venoso intracranico con ecoDoppler transcranico. Per ognuno di essi viene rilevato il flusso in corrispondenza di almeno una delle vene cerebrali profonde e del seno trasverso, verificando se sia monodirezionale (assenza di reflusso), bidirezionale (reflusso di durata <0.5s) o se vi sia inversione di flusso (reflusso di durata >0.5 s). Sulle vene cerebrali profonde viene inoltre determinata la velocità massima e minima di flusso, e sulla base di esse viene calcolato un indice di resistenza, che viene posto in relazione con un’ipotetica impedenza al deflusso.

In nessuno dei soggetti sani viene rilevato reflusso sulle vene cerebrali profonde, mentre solo nel 7% di essi viene rilevato in corrispondenza del seno trasverso; nei soggetti malati le percentuali sono, rispettivamente, 38 e 51. Poiché al reflusso corrispondono, in pratica, velocità minime negative, ciò contribuisce, secondo gli Autori, ad incrementare l’impedenza al deflusso venoso nei malati. Essi considerano quindi tale condizione equivalente all’insufficienza venosa cronica degli arti, ed auspicano che vengano condotti ulteriori studi sulle vie di deflusso extracraniche.

Per inciso, Zamboni e collaboratori calcolano un indice di resistenza che, per convenzione, è denominato indice di impedenza venosa; però essi affermano che le velocità negative (reflusso) rilevate hanno un’influenza sulla misurazione dell’impedenza venosa di cui l’indice di resistenza è espressione. L’indice di resistenza venosa è il rapporto tra la differenza tra velocità massima e minima, e la velocità massima. Se Tu, Lettore, non dovessi avere idea di cosa in effetti sia l’impedenza, puoi provare (se non hai pretese di rigore matematico) a dare un’occhiata al mio post qui, e potrai capire da solo come l’indice di resistenza non possa avere nulla a che vedere con l’impedenza.

Ed ancora, alla fine dello studio, viene affermato che “E’ stato dimostrato su un modello emodinamico che un indice di resistenza maggiore di 1, come quello rilevato nel nostro studio sulle vene cerebrali profonde, è altamente predittivo di stenosi vascolare critica”. Il modello emodinamico cui viene fatto riferimento (è di Ilse Van Tricht) è un modello meccanico di accesso vascolare (come quello, ad esempio, per emodialisi) che prevede una comunicazione tra arteria e vena. L’indice di resistenza citato, quindi, è un indicatore della resistenza arteriosa a valle, e nel modello di Ilsa Van Tricht risulta predittivo di stenosi di un vaso irrorato da flusso arterioso, in cui il flusso è generato da onde di pressione prodotte a monte dal cuore (o, nel caso del modello citato, da un simulatore di pompa cardiaca, Harvard 1423 per la precisione); ed i risultati non sono assolutamente applicabili ad un sistema in cui le onde di pressione vengono generate in tutt’altro modo

Non vorrei che questo suonasse come una critica allo studio in toto. E’ solo perchè è giusto essere chiari riguardo a come stanno le cose. Probabilmente, le affermazioni, le enunciazioni e le citazioni inesatte e superflue peggiorano la qualità di uno studio anziché dargli un’aura di scientificità

L’INSUFFICIENZA VENOSA CEREBROSPINALE CRONICA

A due anni di distanza dal primo lavoro scientifico, il professor Zamboni pubblica sul Journal of Neurology, Neurosurgery and Psychiatry (appartenente al gruppo del British Medical Journal) in collaborazione con altri sette ricercatori, un lavoro scientifico nel quale vengono descritti gli studi condotti sulle vie di deflusso extracraniche, come auspicato nel lavoro di un anno prima; in esso vengono poste le basi per la definizione di Insufficienza Venosa Cerebrospinale Cronica. La pubblicazione è di sole sette pagine, bibliografia compresa, e ricca di fotografie, tabelle e disegni, e quindi non sembrerebbe contenere chissà quale mole di dati; ma in realtà mettere insieme tutto ciò deve essere stato “un gran lavoraccio”. Infatti, sono stati esaminati in singolo cieco ben 300 soggetti, sottoposti sia ad ecoDoppler transcranico, sia ad ecocolorDoppler dei vasi del collo, secondo una procedura molto più lunga della precedente. Inoltre più di un terzo di essi (113 soggetti) è stato sottoposto ad esame flebografico,metodica invasiva e non di immediata realizzazione (occorre un minimo di preparazione chirurgica, esami di laboratorio, la presenza dell’anestesista, etc,). Se si considera che tutto ciò doveva già essere stato portato a termine ben prima della pubblicazione sul JNNP, in quanto il lavoro costituì l’oggetto della tesi di specializzazione del dott. Zuolo nell’Anno Accademico 2007-2008, si ha un’idea di quanto alacremente si sia lavorato a tale progetto.

Il gruppo di lavoro si avvale di cinque parametri (destinati a divenire quindi “criteri diagnostici”) rilevabili con ecocolorDoppler. Risulta evidentissima la stretta correlazione tra la presenza dei criteri e quella della malattia, ma ciò che appare davvero impressionante è la quasi totale assenza dei medesimi criteri nelle persone sane.

La flebografia selettiva mostra la presenza di vie di deflusso anomale nei soggetti erano presenti almeno due criteri su cinque (in pratica, nei malati, considerato che nei soggetti sani ciò non si rileva mai); ma, cosa che ai fini della presente discussione è molto più importante, dimostra anche che a monte dei restringimenti patologici delle vene la pressione venosa è aumentata rispetto ai soggetti sani. Questo ha delle importantissime implicazioni terapeutiche, perché abolendo il restringimento, la pressione dovrebbe abbassarsi riportando l’emodinamica venosa in una situazione paragonabile a quella dei soggetti che non hanno la malattia. Per quel che concerne la presente discussione, invece, ciò è particolarmente importante in quanto in diretta relazione con il concetto di insufficienza venosa cerebrospinale.

L’EVOLUZIONE

E’ ovvio che quanto descritto accenda le speranze dei malati e l’interesse delle associazioni che li riuniscono. E’ ovvio che accenda anche diversi interessi di altra natura, come per esempio quello che l’assessorato regionale siciliano esternava al prof. Zamboni con la comunicazione prot. 0541 del 15 febbraio 2010, nella quale viene specificamente menzionato l’interesse “a formare alcuni specialisti all’utilizzo di tale nuova metodica” regolamentando l’accordo tramite la stipula di protocollo d’intesa. Posizione questa non in linea con quella che il Consiglio Superiore di Sanità avrebbe adottato un anno dopo, ma in compenso perfettamente in linea con politica e principi che hanno ispirato la Regione Sicilia negli ultimi due anni e mezzo, sia per ciò che riguarda la sanità, sia per tutte le altre cose.

Due anni più tardi, però, uno studio, non in cieco, eseguito da F. Doepp in collaborazione con altri quattro ricercatori, non mostrava alcuna differenza significativa riguardo alla presenza dei criteri tra i soggetti malati e quelli sani. A conclusioni analoghe giungeva F. Baracchini con altri cinque ricercatori, l’anno successivo, con uno studio in cieco. E nello stesso anno anche Zivadinov, con un grosso studio multicentrico in cieco, confermava tale situazione.

Pertanto, nella seduta del 25 febbraio del 2011, il Consiglio Superiore di Sanità non ha riconosciuto l’Insufficienza Venosa Cronica CerebroSpinale come entità nosologica, e di conseguenza non ne ha riconosciuti nessi causali con la sclerosi multipla. Ha quindi ritenuto necessario che tutte le procedure chirurgiche relative alla correzione della cosiddetta Insufficienza Venosa Cronica CerebroSpinale venissero realizzate nell’ambito di studi clinici controllati e randomizzati, e che rispondano a determinati requisiti; e ciò, evidentemente, per evitare che le persone ammalate, rincorrendo vane speranze siano oggetto di attività speculative.

La Società Italiana di Angiologia e Patologia Vascolare ha scritto una lettera aperta al Consiglio Superiore di Sanità riconoscendone la correttezza delle deduzioni ma criticandone la posizione, sostenendo che,poiché i pazienti desiderano essere diagnosticati e trattati per l’Insufficienza Venosa Cronica Cerebrospinale a prescindere dalla riconosciuta validità delle procedure diagnostiche e terapeutiche, vi era comunque una domanda, che a questo punto sarebbe stata soddisfatta da strutture private. Ciò avrebbe aggravato il problema relativo alla tutela dei malati; quindi sarebbe stato auspicabile ripristinare la situazione precedente che consentiva al medico di struttura pubblica qualificata di erogare la prestazione sotto la propria responsabilità.

Bada bene Lettore: nella comunicazione del Consiglio Superiore di Sanità non è mai stata menzionata alcuna differenza tra strutture pubbliche o private. Le strutture private non sono mai state sollevate dall’obbligo di adottare i vincoli ritenuti necessari dal Consiglio. La comunicazione, in pratica, ribadiva la necessità di un approccio realmente scientifico al problema. Ma perché mai il Consiglio avrebbe sentito questo bisogno?

LA CONDIZIONE ATTUALE

L’Insufficienza Venosa Cronica CerebroSpinale era già stata comunque riconosciuta come entità nosologica. Anzi, è più corretto dire che le alterazioni anatomiche che si vorrebbe fossero causa della condizione indicata come “Insufficienza Venosa Cronica CerebroSpinale” sono state riconosciute tra le patologie malformative. Ovviamente, ciò non implica che siano effettivamente causa di insufficienza venosa. Ed a maggior ragione, non significa che siano la causa della sclerosi multipla. Ma è stato possibile aggirare il problema del vincolo posto dal Consiglio Superiore di Sanità e riprendere i trattamenti: si sta trattando una malformazione, e non la sclerosi multipla. Le linee guida dell’International Union of Angiology relativo alle malformazioni venose, contenute in un documento di consenso redatto nel 2009 (Vol. 28, no. 6), asseriscono che la maggior parte delle malformazioni venose di piccole dimensioni ed asintomatiche andrebbero trattate con la semplice osservazione, o il trattamento compressivo. E le malformazioni in questione sono piccole; e se non sono responsabili della SM, che sintomi darebbero mai? Allora, perché trattarle con l’angioplastica? Perché l’indicazione al trattamento è specifica per le lesioni “ostruenti il deflusso ed i drenaggio di organi vitali (ad esempio fegato, encefalo)”; ma come si fa a stabilire se una determinata malformazione stia davvero ostruendo “il deflusso ed il drenaggio”? Tra i redattori del documento di consenso vi è il prof. Zamboni e quindi vi sono chiaramente i suoi lavori tra i riferimenti bibliografici. Abbastanza stranamente, il suo lavoro più noto e più discusso, quello che tratta della “liberazione” nella sclerosi multipla, il cui riferimento bibliografico è al numero 203, sembra venga citato sempre a sproposito nel documento.

L’Associazione Italiana Sclerosi Multipla, dopo un iniziale ottimismo ha ritenuto di dover adottare un atteggiamento più cauto rispetto ai primi entusiasmi. Ha finanziato una sperimentazione multicentrica in cieco, condotta su un numero davvero elevato di pazienti. E’ verosimile che qualcosa di definitivo potrà venire da essa. E questo è veramente positivo e forse anche veramente risolutivo. Per quel che riguarda gli interessi perseguiti dalla società, ovviamente. Ma il punto che sto discutendo qui non è affatto questo.

Nell’ottobre del 2011, Laupacis ed altri pubblicavano una metanalisi eseguita sui lavori fino ad allora pubblicati. Trovavano una correlazione tra la presenza dei criteri e quella della malattia, ma con disomogeneità inspiegabili. In certi lavori, le anomalie venose sono presenti in tutti i malati ed in nessun individuo sano. In altri, non vi è la benché minima differenza. Ciò che contribuisce a far comparire la correlazione è il numero dei soggetti trattati: se in uno studio che ha arruolato diverse centinaia di pazienti si trova una forte correlazione, questo da solo controbilancerà diversi studi nei quali la correlazione non c’è ma che comprendono pochi soggetti. Ma questo non contribuisce a chiarificare il quadro, anzi.

Nell’ambito di un singolo studio, i risultati sono coerenti. O si trova un’alta correlazione, oppure essa è nulla. Ciò che lascia profondamente perplessi è l’incoerenza tra gli studi. Se vi è un nesso causale tra le anomalie e la malattia, esse in qualche misura devono essere presenti in tutti (o quasi- potrebbero non essere state rilevate, in rari casi) i soggetti malati. Vi possono essere diverse spiegazioni della loro presenza nei soggetti sani, ma questo ha meno importanza: è la variabilità tra i malati che sembra inspiegabile. Se le malformazioni venose sono causa di insufficienza venosa, e questa è causa della SM, come fanno ad ammalarsi i soggetti che non ne hanno? Un’ipotesi può essere quella di Zivadinov: le anomalie venose non sono la causa, bensì la conseguenza della malattia. Questo spiega la correlazione tra le anomalie e la malattia, e potrebbe anche spiegare la variabilità; ma allora, a che servirebbe trattarle, e con una tecnica invasiva come l’angioplastica? A questo forse darà risposta lo studio multicentrico CoSMo (è quello finanziato dall’AISM) , che così risolverebbe se non la questione scientifica, almeno quella clinica. Vi sarebbero però delle possibilità alternative. Una di queste sarebbe, ad esempio, il fatto che l’insufficienza venosa sia una concausa della malattia. Questo spiegherebbe non solo la correlazione tra le anomalie e la malattia da un lato, e l’assenza di esse in molti malati dall’altro, ma anche la presenza delle anomalie nei soggetti sani, che in assenza delle altre cause non svilupperebbero la malattia.

Un’altra sarebbe, il fatto che le anomalie venose non siano l’unica causa di insufficienza venosa. Ed anche questo spiegherebbe la correlazione tra le anomalie e la malattia da un lato, e l’assenza di esse in molti malati dall’altro; i malati senza anomalie venose ma con altre cause di insufficienza venosa si ammalerebbero, ma presenterebbero comunque un sistema venoso normale.

Ma quali potrebbero essere le altre cause che agiscono in sinergia con l’insufficienza venosa? O quali potrebbero essere le altre, diverse, cause dell’insufficienza venosa al di fuori delle anomalie del sistema venoso?

Una diversa causa, o concausa, potrebbe essere rappresentata dall’aumentata permeabilità della Barriera Emato Encefalica che lo stesso prof. Zamboni vorrebbe conseguenza dell’ipertensione venosa. E Marian Simka si chiedeva qualche tempo fa se non fosse opportuno tentare una terapia con farmaci (quali?) in grado di ridurre la permeabilità della BEE, o con altri che interferissero con l’attività delle molecole di adesione.

Ed ancora un aumento della pressione venosa si ha nelle condizioni di insufficienza cardiaca, o, con aspetti e meccanismi diversi, nell’insufficienza tricuspidale.

In realtà, l’importanza fondamentale del lavoro di Laupacis non sta nel verificare se sia giusto o meno eseguire l’angioplastica sui soggetti con SM; a questo penserà lo studio CoSMo. Ma quest’ultimo, comunque andranno le cose, non potrà rispondere all’implicazione contenuta nei risultati del lavoro di Laupacis: tutta la questione, dalla “Big Idea” ai nostri giorni, è stata mai affrontata scientificamente? O vi sono grandi manchevolezze in questo aspetto?

IL METODO SCIENTIFICO E “THE BIG IDEA”

Siamo giunti al punto, Lettore. Questo è l’argomento di cui avrei volto parlare, nonché la causa del precedente sproloquio: sono stati rispettati i passi per indagare la questione con metodo scientifico? Come forse avrai letto qui, non tutti i passi sono perfettamente eseguibili in ogni situazione. Viene portato l’esempio del metodo sperimentale a proposito delle atmosfere stellari, ma vi sono milioni di esempi diversi. Vi sono circostanze nelle quali i passi non possono essere seguiti alla perfezione, e si cercano surrogati, escamotage, stratagemmi per fare salvo il modo scientifico di procedere. Ma che dire quando i passi potrebbero essere seguiti, e ciò non viene fatto? Quando i passaggi opportuni vengono deliberatamente omessi? Quando si evita di porre domande la risposta alle quali consentirebbe di capire anziché provare alla cieca? Quando si eseguono terapie su persone senza avere l’evidenza che ciò che si sta facendo è corretto? Ma soprattutto, perché avviene ciò?

Ripartiamo dall’inizio, dal metodo scientifico e da “The Big Idea”. Il metodo scientifico presupporrebbe un’intuizione, un modello teorico, un modello sperimentale, ed una verifica. Come abbiamo visto, nelle Scienze Biologiche, il modello teorico può essere biologico, biochimico, descrittivo… mentre il modello sperimentale è spesso animale. In Medicina, poi, la verifica deve essere in cieco, e le terapie devono passare al vaglio dell’EBM.

Qui, l’intuizione iniziale c’è: è “the Big Idea”. Nulla da dire su di essa, solo qualche precisazione da fare. La prima “idea”, anche se non sappiamo quanto “big”, di una relazione tra la SM ed il sistema venoso non è del 2006, ma risale a qualche anno prima, 143 per la precisione. La prima “idea” riportata al riguardo fu infatti di un distinto signore che si chiamava Rindfleisch. Rindfleisch è un nome molto noto nell’anatomia patologica umana; le “cellule di Rindfleisch” del tifo, ad esempio, portano il suo nome. Nel 1863, Rindfleisch riportò l’osservazione per cui nei preparati istologici di encefalo umano ove erano presenti piccole placche relative a SM, al centro di ogni placca vi era invariabilmente una vena di piccolo calibro. Questo avrebbe un significato ben preciso. Un preparato da osservare al microscopio su vetrino è assimilabile ad una sezione bidimensionale di una struttura tridimensonale. Se qualcosa comincia a diffondersi uniformemente nel tessuto a partire da un punto, lo fa con simmetria sferica, la cui sezione è circolare. Se qualcosa si diffonde a partire da un vaso cilindrico, la morfologia è teoricamente un ellissoide, la sezione resta circolare, ed al centro vi è la sezione del vaso da cui ha avuto origine la diffusione; qualunque cosa diffonda dal vaso lo fa seguendo la legge di Fick, e la morfologia risulta sempre simile.

Questa osservazione è stata riproposta periodicamente negli anni, anzi nei secoli, e con essa l’ipotesi di un’origine “vascolare” della sclerosi multipla. Anche la risultante di un processo flogistico su base autoimmune seguirebbe una morfologia analoga, per cui da tempo si prendeva in considerazione quest’ultima ipotesi per spiegare l’osservazione.

Di conseguenza, “The Big Idea” non consisterebbe semplicemente nel fatto che il sistema venoso è coinvolto; essa prende in considerazione anche la composizione della placca. Non mette in relazione solo placca e vena, ma anche costituzione della placca e reperti istologici nell’insufficienza venosa degli arti inferiori. Usa i meccanismi che si ritiene siano operanti nell’insufficienza venosa delle gambe per applicarli al Sistema Nerovo centrale. Qui siamo oltre l’intuizione. Siamo al passo successivo. Siamo al modello teorico.

IL CONCETTO DI INSUFFICIENZA VENOSA E LA CLASSIFICAZIONE CEAP

So far, so good, direbbero gli anglosassoni. Il prof. Zamboni usa il modello teorico adoperato per l’insufficienza venosa degli arti applicandolo all’encefalo. E cita la classificazione CEAP a questo proposito.

Sai, Lettore, cos’è la classificazione CEAP? E’ una gigantesca classificazione che si propone di raggruppare tutte le patologie venose conosciute sotto un unico ombrello. Nelle Scienze Biologiche e Naturali, le classificazioni sono molto comuni. Si adoperano nella tassonomia così come nella clinica medica. Perché sono uno strumento di lavoro. Le classificazioni adoperano un criterio per differenziare. Si prende un gruppo di entità che sembrano appartenere ad uno stesso insieme, e si individua un parametro rispetto al quale queste entità sono diverse. Le classificazioni sono sempre esistite, e sono state variate nel corso degli anni in rapporto alle acquisizioni più recenti che riguardano i parametri utilizzati per fare la differenza. In medicina, ciò è successo spesso nel campo delle neoplasie ematologiche, ad esempio. Le classificazioni di linfomi e leucemie hanno subito poderosi rimaneggiamenti; alle differenze classificative corrispondevano differenze nella prognosi e nella terapia.

La classificazione CEAP ha subito invece poche revisioni con gli anni, e nessuna realmente sostanziale (due, di poco conto, nel 2000); non c’era molto da cambiare nella classificazione CEAP. L’ambizioso progetto di classificare tutte le diverse patologie venose come fossero un’unica cosa prese corpo nel 1994 a Maui.

Vedi, Lettore, se io dovessi mettere insieme un’armata di professoroni per realizzare un progetto importante, li porterei tutti in una casa isolata dell’Alaska, in inverno, non a Maui. In un posto dove non ci sarebbe nient’altro da fare se non occuparsi della classificazione; non in uno dove non vedi l’ora di uscire per andare a spasso tutta la giornata. In una situazione come quest’ultima, il fatto che le persone diano il peggio di se stesse è ciò che ci si aspetta. La classificazione CEAP è una delle cose più stupide della storia della medicina. E’ l’antitesi della classificazione. Si sono prese tutte le diverse patologie venose esistenti, e si sono considerate come se fossero un’unica cosa, una diversa manifestazione della stessa patologia. Per la classificazione CEAP la differenza tra le teleangectasie sulle gambe di una bella donna (quelle che vengono volgarmente chiamate “capillari”. Ma i capillari sono invisibili ad occhio nudo. Occorre il biomicroscopio, ovvero, appunto, “capillaroscopio”), ed una trombosi venosa estesa e potenzialmente letale sta nei pedici da aggiungere alle lettere della classificazione. E’ assimilabile in qualche modo al “grado”, alla gravità della patologia. Non tiene conto del fatto che sono patologie diverse, con cause diverse, conseguenze diverse, modi diversi di rilevarle, e le cui rispettive terapie sono lontane anni luce. Il concetto di “insufficienza venosa” non è contemplato nella classificazione CEAP; perchè in essa tutto è insufficienza venosa. Anche le teleangectasie (i “capillari”).

E ciò non deve sorprendere. La classificazione CEAP non solo ha riunito le persone che dovevano occuparsene in un posto come Maui , ma gran parte di queste stesse persone non avevano mai fatto differenza, in vita loro, tra “varici"”ed “insufficienza venosa”. Loro chiamavano già da prima “insufficienza venosa” anche le telangectasie (sempre i “capillari”).

Invece, in questo caso la chiarezza al riguardo è fondamentale. La stessa chiarezza che viene adottata sempre in medicina, ma in altre situazioni.

Il mio vocabolario della lingua italiana, sempre un vecchio Zingarelli edizione 2001, dà la seguente definizione di insufficienza in medicina:

Riduzione dell'attività di un organo al di sotto dei livelli minimi richiesti per mantenere l'equilibrio dell'organismo

Quindi, in medicina, quando si parla di insufficienza di un organo, si fa riferimento all’insufficienza di una funzione relativamente alle necessità dell’organismo. Questo ha due implicazioni:

1) ci deve essere un parametro che indica la compromissione. Questo spesso può essere misurato

2) deve esserci un’evidenza del fatto che la compromissione è di tale entità da rendere la funzione non più sufficiente a mantenere l’equilibrio dell’organismo.

Per l’implicazione 2), non esistono parametri misurabili, e questo per due motivi. Il primo è che le necessità del singolo organismo riguardo alla funzione non possono essere quantificate. Il secondo è che nello stesso organismo, le necessità possono variare grandemente a secondo delle condizioni. D’altra parte, se l’organismo non riesce a mantenere il suo equilibrio, questo è evidente: compare la malattia. Quindi, l’evidenza dell’insufficienza è un’evidenza clinica.

E poichè spesso lo stato di insufficienza è relativo alle condizioni, sono allora state sviluppate delle classificazioni che consentono di quantificarne grossolanamente l’entità sulla base delle manifestazioni cliniche in diverse condizioni.

Ad esempio, la funzione del cuore è quella di pompare (è così davvero, Lettore, con buona pace di Marinelli che invece sostiene che “il cuore non è una pompa”, ed il sangue va avanti per i fatti suoi). Se la sua capacità di pompare è insufficiente ai bisogni dell’organismo, si parla di insufficienza cardiaca. Magari la funzione di pompa è sufficiente se uno deve camminare; ma se è richiesto uno sforzo maggiore (ad esempio, salire le scale) la funzione cardiaca diviene insufficiente. La New York Heart Association ha così sviluppato una classificazione dell’insufficienza cardiaca divisa in classi (dette appunto classi NYHA) che consente di quantificare grossolanamente il deficit. E di verificare se uno migliora o peggiora con le cure.

Lo stesso concetto vale per il rene, il fegato, le arterie… da cui insufficienza renale, epatica, arteriosa… etc.

Lo stesso deve avvenire per il sistema venoso. Allora la prima cosa da fare è stabilire qual è la funzione delle vene. La seconda, individuare un parametro che ne indichi la compromissione. La terza è stabilire cosa cambia nell’organismo quando la funzione diviene insufficiente.

Abbastanza stranamente, i concetti relativi alle tre cose da fare sono noti da tempo. La funzione delle vene è quella di riportare il sangue al cuore dopo che questo è passato attraverso i capillari. Il sangue, come tutti i fluidi, si muove per gradienti di pressione; quindi se la pressione all’interno delle vene diviene più alta che nei capillari, questo non potrà più muoversi. Il parametro che indica la compromissione della funzione venosa è allora la pressione venosa. Se la pressione venosa diviene troppo elevata, non solo il sangue non potrà ritornare dai capillari, ma il liquido filtrato dai capillari non potrà venire riassorbito, e con esso altre sostanze. Si veriificherà quello che si chiama “edema”, e le altre sostanze finite nel tessuto sottocutaneo resteranno lì. Queste sono le manifestazioni di insufficienza venosa. Nelle gambe, vederle è facile. Non ci sono strumenti per verificarle, basta semplicemente guardare (per chi sa quello che sta facendo, ovviamente). Nella scatola cranica, non possiamo. Ma se l’aumento di pressione venosa ha le stesse implicazioni che ha per le gambe, ci aspettiamo che nel cervello succeda la stessa cosa che succede alle gambe. “The Big Idea”, appunto.

IL MODELLO TEORICO

Fin qui, tutto fila liscio, tutto è molto scientifico. Possiamo togliere di mezzo quella inutile idiozia rappresentata dalla classificazione CEAP, e fare riferimento ad un modello teorico vero, scientifico. Possiamo cioè descrivere con un modello, in parte addirittura matematico, cosa accade quando vi è una causa che fa aumentare la pressione venosa. La base per questo modello esiste da più di un secolo, ed è nota come “equilibrio di Starling”; essenzialmente, consiste nella caduta della pressione idraulica lungo i capillari, mentre resta quasi costante la pressione osmotica. La prima tende a far fuoriuscire il liquido dai capillari (quelli veri, non le teleangectasie), la seconda a farlo rientrare dentro. All’inizio del capillare prevale la prima, ed alla fine la seconda. Quindi, il liquido fuoriesce (“filtra”) all’inizio del capillare e rientra (“viene riassorbito”) alla fine. Il modello di Starling descrive questo processo in termini quantitativi, fornendo i valori della pressione. I motivi della caduta di pressione lungo il capillare possono anch’essi essere descritti in termini matematici; non è una cosa complicata, ma non è il caso di farlo qui. Recentemente sono state avanzate delle critiche al modello originario, ma la sostanza non è cambiata.

Se aumenta la pressione venosa, questo aumento si riflette per via retrograda fino alla fine del capillare, per cui alla fine di esso la caduta di pressione risulterà “insufficiente” per riassorbire il liquido filtrato; ecco spiegato il motivo per cui “insufficienza venosa” significa “aumento di pressione venosa”. Ed ecco anche perché “varici” ed “insufficienza venosa” sono due concetti assolutamente diversi, due condizioni assolutamente distinte. Nelle varici (tranne che in casi o in condizioni particolari) spesso non si ha un aumento della pressione venosa trasmessa ai capillari. Ed anche per questo abbiamo, se non esattamente un modello matematico, un modello fisico supportato da dati numerici. Ed anche questo data diversi anni, anche se non un secolo. Venne sviluppato da Roald I. Bjordal all’inizio degli anni settanta. Se cerchi su Wikipedia notizie di Roald Bjordal, non ne troverai, Lettore. Troverai la biografia di Ilona Staller, o dettagliate informazioni sui Pokemon, ma non una parola su chi ha capito come funzionava l’emodinamica venosa; ed anche questo costituisce un segno dei tempi. Bjordal era un chirurgo pediatrico; è deceduto nel 2003. Voleva sapere come variassero le pressioni nei soggetti con malattie delle vene; e poiché non trovò risposte (magari aveva chiesto agli stessi che redassero venticinque anni dopo la classificazione CEAP) , decise di studiare da solo il problema. In seguito al suo lavoro, altri studiarono le variazioni della pressione in diverse malattie delle vene.

Furono questi studi a stabilire delle relazioni tra determinate malattie e l’insufficienza venosa; si classificarono le diverse malattie, si misurarono le pressioni, e si comprese cosa comportasse la malattia e come variasse la pressione. Da allora si seppe perché una determinata malattia dava insufficienza venosa ed un’altra no, perché in una condizione la pressione risultava aumentata in una situazione (ad esempio, soggetto in piedi), mentre in una condizione diversa la pressione risultava aumentata in altre condizioni (ad esempio, soggetto disteso). Poi arrivò la classificazione CEAP a rimescolare tutto, vanificando il lavoro di decenni.

Il professor Zamboni, dopo il riferimento contenuto in “The Big Idea”, sembra però tralasciare (per fortuna) la CEAP; dopo quella volta non ne parla più. E parla invece di “insufficienza venosa” intesa proprio come “incremento della pressione venosa”. Segue, insomma. la correttezza logica e linguistica contenuta nell’antico concetto.

Ci sarebbe però un problema. Tutti gli studi condotti tra l’aurora di Bjordal e l’oscurità della classificazione CEAP riguardano le gambe. I rapporti esistenti tra le singole malattie e le relative variazioni della pressione venosa si riferiscono alle vene degli arti inferiori. Siamo sicuri di poter applicare gli stessi principi al ritorno venoso dalla regione cervico-cefalica? Perché, vedi Lettore, la regione cervico cefalico ha una particolarità: quella di trovarsi gravitazionalmente spesso al di sopra, a volte allo stesso livello, quasi mai al di sotto della valvola tricuspide, che è quella che costituisce lo “zero” idrostatico. In altri termini, la pressione idrostatica a livello della valvola tricuspide è zero. Al di sotto di essa, e quindi anche alle gambe, è pari al peso della colonna d’acqua di lunghezza compresa tra il punto di misurazione e la valvola tricuspide; ma al di sopra di essa, e quindi nella regione cervicocefalica, è negativa. Anche in condizioni normali le pressioni sono diverse, ed il ritorno venoso non funziona allo stesso modo.

Il problema viene risolto, nella condizione che ci riguarda, dal prof. Zamboni nello studio del 2008. Nei soggetti portatori di anomalie venose viene misurata la pressione venose a monte dell’anomalia. E’ aumentata. Le anomalie venose si comportano per il cervello come le patologie trombotiche per le gambe: danno un’insufficienza venosa. Non vi è motivo di dubitare che il prof. Zamboni dica la verità, non vi è motivo di pensare che menta: le anomalie venose causano un aumento della pressione venosa, e sono in qualche modo più frequenti nella SM.

Problema risolto.

Ma ne sorge un altro.

Il passaggio dall’incremento della pressione venosa alle manifestazioni cliniche dell’insufficienza venosa, diverse dall’edema (cioè infiammazione, ulcere, etc,), non è automatico. E’ mediato da una serie di passaggi che coinvolgono leucociti, molecole di adesione, metalloproteine, etc., passaggi peraltro accennati in “The Big Idea” e ripresi in uno studio successivo. Qui il modello non solo non è affatto matematico (cosa di importanza irrilevante) ma è terribilmente fumoso ed intricato (cosa di importanza estremamente rilevante). Alcuni passaggi sono macchinosi, altri speculativi. Comporta la formulazione di ipotesi ad hoc. Insomma, è lungi dall’essere soddisfacente; e stiamo parlando sempre di gambe. Come si può trasferirlo al cervello, dove tra l’altro anche i capillari (sempre quelli veri) hanno caratteristiche diverse? Dove sono diversi i tessuti interstiziali? Dove esiste la Barriera EmatoEncefalica?

Dopo tutto, il cervello ha una serie di meccanismi che lo proteggono, ad esempio, contro gli aumenti della pressione arteriosa. Chi ci dice che meccanismi dalla funzione analoga non siano operanti contro l’insufficienza venosa?

Nessuno, Lettore; ma per risolvere quest’altro problema, possiamo sempre chiamare in aiuto il metodo scientifico

IL MODELLO SPERIMENTALE

Se dovessi aver dato un’occhiata a quanto riportato qui a proposito del metodo scientifico, forse ricorderai quanto affermavo a riguardo del modello sperimentale, e cioè che la sua validità viene verificata dalla possibilità di fare previsioni (dove, evidentemente, per “previsione” si intende la possibilità di riprodurre sul modello una risposta alle sollecitazioni analoga a quella del sistema che il modello intende riprodurre), e che per quel che riguarda i sistemi umani il modello è spesso animale. Nel caso specifico, ciò significherebbe che dovrebbe essere possibile riprodurre le lesioni istologiche corrispondenti alla sclerosi multipla su un modello animale di insufficienza venosa cronica cerebrospinale.

Molto più difficile sarebbe la creazione di un modello sul quale riprodurre gli effetti della terapia; ma ci si potrebbe chiedere: esistono dei meccanismi biologici in grado di eliminare gli effetti dell’aumento di pressione venosa?

Magari, forse, questo modello sarebbe già disponibile in natura. Come illustrato qualche riga più sopra, la pressione venosa, in assenza di altre condizioni che tendano a farla variare, è equivalente a quella idrostatica, prendendo la valvola tricuspide come riferimento. E quindi nel distretto cervicoencefalico sarebbe negativa, divenendo positiva ogni volta che ci mettiamo a testa in giù. Rimanendo a testa in giù, quindi, saremmo affetti da un’insufficienza venosa “funzionale” nella regione cervico-cefalica; nulla ci sarebbe di anomalo nel nostro sistema venoso, ma sommeremmo la pressione idrostatica ai fattori che determinano la pressione venosa. Ma di solito non stiamo a testa in giù.

Eppure, Lettore, c’è un mammifero che passa a testa in giù circa la metà della sua vita. Perché ai pipistrelli non viene la sclerosi multipla? Perché hanno dei meccanismi particolari che consentono loro di evitare comunque che la pressione si innalzi? Oppure semplicemente perché l’aumento di pressione non è la causa della SM?

Bè, avere la risposta a questa domanda non è così semplice. Bisognerebbe studiare e conoscere a fondo il sistema circolatorio dei pipistrelli. Una cosa tanto difficile quanto inusuale.

Però, Lettore, per quanto inusuale sia, c’è una persona che fa esattamente questo. Si chiama Christopher Quick, ed è professore associato presso la Texas A&M University. Ma questo, Lettore, per quanto inusuale sia, è il meno. Il più, la stranissima coincidenza, la faccenda più singolare, è il fatto che il professor Quick, prima di occuparsi di pipistrelli alla TAMU, si occupava di emodinamica umana presso il Center of Cerebrovascular Research dell’Università della California di San Francisco. E questa, come coincidenza, è davvero sorprendente: una persona che si occupava prima di emodinamica cerebrale umana, si occupa adesso dell’emodinamica dei pipistrelli. Tanto sorprendente che sembrerebbe quasi che io stia raccontando frottole. Ma puoi verificare Tu stesso, Lettore: se fai una ricerca sul Web, puoi facilmente trovare la conferma alle mie parole. Puoi forse addirittura trovare il suo libro in PDF “Integrated Arterial Hemodynamics”.

Un’associazione americana che si occupa della difesa dei pipistrelli vuole intraprendere azioni legali contro il prof. Quick perchè ritiene che le sue ricerche siano crudeli, ed io sono assolutamente d’accordo; ciò non toglie che le sperimentazioni siano comunque state condotte. Se si vuole davvero occuparsi di tale aspetto della biologa degli esseri viventi, e soprattutto di un risvolto di esso così importante per gli esseri umani, perché non coinvolgerlo? Fossi stato io, sarebbe stata una delle prime cose alle quali avrei pensato.

Ma queste sono elucubrazioni personali. Non è detto che le mie idee in proposito siano la maniera più corretta di procedere; anzi, sicuramente non lo sono affatto. Domandarsi perché altre persone non hanno fatto ciò che probabilmente avrei fatto io è stupido, se ciò che avrei fatto io è qualcosa di così particolare come coinvolgere un tizio che studia pipistrelli.

Quindi, la domanda da porsi probabilmente non è “perché non è stato interpellato Christopher Quick?”; la domanda è:

Ma perché mai non esiste un modello animale?

La realizzazione di un modello sperimentale animale per patologie umane è a volte estremamente difficoltosa e scarsamente attendibile. Si pensi alle patologie virali per esempio: è difficile riprodurre su un animale da laboratorio la malattia usando un virus diverso; perché probabilmente l’animale non potrà essere infettato dallo stesso virus che infetta l’uomo. Magari per il secondo è patogeno, e per il primo no; è una situazione frequente.

Ma qui la situazione è diversa. Parliamo di alterazioni che causano un ostacolo al deflusso, e conseguentemente un aumento di pressione nelle vene a monte; una cosa facilissima da riprodurre.

Personalmente, sono contro qualunque forma di maltrattamento degli animali, anche per ricerche “serie”. Penso che ogni specie vada rispettata per quella che è, e che all’interno della stessa specie vadano effettuati i sacrifici per progredire nella conoscenza. Che si sperimentino sul cane i trattamenti per i cani, sul gatto quelli per i gatti, sull’uomo quelle per gli uomini. Molte persone invece uccidono gli animali per il mero piacere di farlo; vanno a caccia, a pesca, spacciando tale piacere per la necessità di nutrirsi, necessità che potrebbero soddisfare con estrema facilità recandosi al negozio sotto casa, dove viene venduto ciò che altri avrebbero ucciso per loro. Ma così facendo mancherebbe il piacere di uccidere; come potrebbe la massa che attende a simili passatempi indignarsi per le vittime della sperimentazione? Sono consapevole che mi sarà praticamente impossibile fare proseliti rimanendo su una simile posizione.

Quindi ogni giorno nel mondo migliaia di animaletti vengono uccisi per eseguire test persino su prodotti cosmetici destinati solo a solleticare la vanità di giovani e meno giovani donne. Perché allora non fare lo stesso per una causa che sembrerebbe ben più nobile? Perché non legare una delle giugulari interne di qualche topino o di qualche coniglietto, e vedere cosa accade a distanza di sei mesi?

Vorrei sottolineare, Lettore, che questa era l’unica cosa ragionevole da fare prima di tutte. Questa non è un’estrosità o un pensiero bislacco come quello di coinvolgere il professor Quick. Questa è l’unica cosa che avrebbe fornito prove valida. L’unica che avrebbe consentito di rispondere con ragionevole certezza alla domanda: “ma sarà poi vero che l’insufficienza venosa cerebrospinale causa la sclerosi multipla?”

Eppure, non si è mai fatto. E se a te, Lettore, capiterà di parlare con chi si occupa di questa faccenda e proverai a fargli questa domanda (io l’ho fatto), è probabile che ti senta rispondere, con aria quasi indignata: “Ma è già stato fatto! Tanti anni fa!”.

E’ una menzogna. Una sporca menzogna, sporca in quanto si cerca di spacciare per sperimentazione nel campo dell’Insufficienza Venosa Cronica CerebroSpinale dei lavori che sono tutt’altro.

Nel 1937, Tracy Putnam, rifacendosi alle osservazioni di Rindtfleisch, cercò un nesso qualunque che potesse unire, in qualche modo, il sistema venoso cerebrale alla sclerosi multipla, riuscendo a fabbricare da tessuti estratti da malati di SM, un modello tridimensionale che metteva in relazione spaziale le strutture vascolari con le placche. Successivamente studiò l’anatomia patologica microscopica in diverse patologie che davano lesioni focali disseminate. Alla fine effettuò una sperimentazione su cani iniettando diverse sostanze nel seno longitudinale e facendole progredire per via retrograda fino alle vene cerebrali.

I risultati furono diversi, dipendentemente dal tipo di sostanza utilizzata; alcune lesioni, negli animali vissuti, più a lungo, presentavano alcune caratteristiche comuni con le placche della SM. E le conclusioni cui giunse Putnam furono che l’ostruzione delle piccole vene rappresentava il momento antecedente alla formazione di una placca. Ma non ottenne mai né il quadro clinico, né quello istologico della malattia. Mai.

Né un tale modello è mai stato creato, per quanto fosse facilissimo. Mai

E l’ostruzione delle piccole vene è una condizione che, potenzialmente, si verifica in alcune patologie. Quelle in cui si ha un aumento della viscosità del sangue, ad esempio. O quelle in cui aumenta la coagulabilità, le cosiddette “condizioni trombofiliche”. O quelle in cui l’interno delle vene viene danneggiato in vario modo dallo stesso sistema immunitario, le cosiddette “malattie autoimmuni”

Ma analogamente a quanto avvenuto per le condizioni, diverse dalle patologie venose” nelle quali vi è un incremento della pressione venosa, anche in questi casi non si è provveduto a verificare quale sia la prevalenza della SM. Mai.

Così come Marian Simka ha totalmente abbracciato “the Big Idea” senza mai preoccuparsi o occuparsi della propria idea, quella relativa alla BEE. Mai.

EVIDENCE BASED MEDICINE: LA VERIFICA

Rifacendoci sempre alla sequenza descritta a proposito del metodo scientifico, dopo l’intuizione, il modello teorico e quello sperimentale viene la verifica dei risultati. Ma qui il modello teorico è carente e quello sperimentale manca. Quindi, cosa stiamo verificando? Qui non stiamo applicando un metodo, stiamo parlando della verifica di un’idea, “The Big Idea”, con i metodi dell’EBM. E basta.

Dal punto di vista strettamente pratico, non ci sarebbe nulla di male nel verificare direttamente un’idea, anzi. Certo, la mancanza della teoria e della sperimentazione si concretizzerebbe nella mancanza di conoscenza. Un fallimento scientifico, ma un grande risultato pratico; e la medicina predilige, soprattutto da qualche tempo a questa parte, i risultati pratici.

E d’altra parte, è comprensibile. Alla gente interessa essere curata, non importa un fico secco del come o del perché. Il come ed il perché interessa gli scienziati; bene, che si gingillino come preferiscono, purchè questo non sia di ostacolo agli interessi della gente.

Ma “the Big Idea” è stata davvero verificata con i metodi dell’EBM? Forse a volte sì, altre sicuramente no. Perché, Lettore, la verifica prevedrebbe sperimentazioni in cieco, per le motivazioni esposte a proposito del metodo scientifico. Ed infatti, nel lavoro del 2007, non in cieco, la rilevazione delle anomali venose sia nei malati sia nei sani ha fornito risultati profondamente diversi da quelli ottenuti da altri ricercatori.

In questo momento, non ho modo di sapere come questa storia finirà, quali saranno i risultati definitivi dello studio CoSMo. Se, nonostante la procedura seguita, risulterà che l’Insufficienza Venosa Cronica CerebroSpinale è la causa della SM, che può essere curata con l’angioplastica, e questo brillante risultato sarà stato conseguito senza uccidere animaletti innocenti, io non potrò che essere contento. Per i malati, per i loro familiari e soprattutto per gli animaletti (che in questa storia non c’entrerebbero per niente).

Ma comunque questa storia finirà, puoi sinceramente dire, Lettore, che la cosa sia stata affrontata e condotta seguendo una metodologia corretta?




Impedenza (for dummies)


Se Tu, Lettore, dovessi avere delle conoscenze, anche di base, di Fisica nel campo dell’Elettrotecnica, dell’Idraulica, dell’Ottica, dell’Acustica o della Meccanica applicata, puoi senz’altro saltare “a piè pari” questo post; lo troveresti probabilmente semplicistico e poco rigoroso, forse anche impreciso o inesatto, sicuramente inutile.
Ma se dovessi far parte del folto gruppo di coloro che non hanno tali conoscenze, se hai sempre sentito parlare di impedenza e non hai mai esattamente compreso quale entità fisica venga descritta da tale termine, è invece possibile che il post possa contribuire a chiarificarti le idee
In Fisica vi sono diverse categorie di fenomeni in cui il risultato dell’applicazione di una forza dipende da un’altra variabile, oltre che dall’entità e dalla direzione della forza. Cerco di spiegarmi meglio con un esempio.
Immaginiamo di dover applicare una forza ad un corpo per accelerarlo. Una situazione pratica potrebbe essere quella di spingere un’automobile con il motore spento; un’altra potrebbe essere quella di lanciare un sasso. Se il corpo ha una massa maggiore, l’accelerazione che otteniamo, a parità di forza, sarà minore. Un’automobile più pesante comincerà a muoversi con più difficoltà e più lentamente; ad un sasso più pesante riusciremo ad imprimere una velocità minore.
In altri termini, l’accelerazione dipende dalla forza applicata, ma a parità di forza, dipende dalla massa del corpo: maggiore è la massa, minore sarà l’accelerazione.
Questo concetto è in pratica contenuto nel Secondo Principio della Dinamica; F=m*a, per cui a=F/m.
Il rapporto tra massa ed accelerazione è lineare. Ciò vuol dire che se, data una certa forza, vogliamo rendere in modo grafico il rapporto tra masse diverse e le corrispondenti accelerazioni, i punti che segnano le coppie di valori in un sistema di assi cartesiani si dispongono su una linea retta. L’inclinazione della retta rispetto al sistema di assi è determinata dall’entità della forza. Se Tu, Lettore, vuoi fare verifiche pratiche di questo tipo puoi ricorrere all’ottimo MathScribe che trovi qui:
www.mathscribe.com
Questa relazione lineare si ritrova anche per altri tipi di forza. Una di queste è, ad esempio, la forza elettromotrice. Questa fa muovere gli elettroni lungo un conduttore. Per sottoporre gli elettroni del conduttore alla forza elettromotrice devi applicare una differenza di potenziale agli estremi del conduttore. Applicando detta differenza di potenziale (tensione) alle estremità del conduttore, avrai un movimento (corrente) di elettroni lungo di esso. Il rapporto tra tensione e corrente è anch’esso lineare, ed il suo valore è denominato resistenza (elettrica). Mentre la massa è considerata una delle unità dimensionali fondamentali (quelle con le quali si esprimono tutte le altre) la resistenza non lo è; ma il concetto è peraltro il medesimo. Ed è identica anche la formula che la descrive. R=V/I
E l’identico concetto si applica allo scorrimento di un liquido in un tubo rigido (qui, Lettore, il fato che il tubo sia rigido è assolutamente fondamentale; più avanti vedrai il perché). Se si applica una pressione maggiore ad un’estremità del tubo, si creerà uno squilibrio pressorio, una differenza di pressione che spingerà il liquido a percorrere il tubo verso l’estremità dove la pressione è minore. Pensa ad esempio ad una siringa nella quale premi lo stantuffo. Qui applicando una differenza di pressione (pressione), avrai un movimento di liquido (flusso); se come nel caso della siringa, l’estremità opposta è molto ristretta il liquido si muoverà con più difficoltà, mentre se è libera scorrerà con più facilità. Il rapporto tra pressione applicata e flusso generato è anch’esso lineare, ed è assolutamente analogo a quello tra tensione e corrente; lo è tanto che, analogamente a quanto accade per tensione e corrente anche il rapporto tra pressione e flusso si chiama resistenza (idraulica). Anzi l’analogia è tanto stretta che mi fornisce l’occasione per una piccola digressione.
inizio digressione -
Tale analogia è stata, ed è ancora usata, per creare modelli di circuiti idraulici o sistemi meccanici avvalendosi di componenti elettrici. In passato, al fine di calcolare i parametri dei sistemi idraulici complessi, si sfruttava tale analogia per realizzare dei dispositivi elettrici che, date delle grandezze elettriche in entrata analoghe a quelle idrauliche, fornivano in uscita altre grandezze elettriche dalle quali si risaliva alle corrispondenti grandezze idrauliche. Dispositivi del tutto simili si utilizzavano per i sistemi meccanici. I dispositivi che sfruttavano l’analogia elettrica per calcolare i parametri idraulici o meccanici si chiamavano “calcolatori analogici”. La fine dei calcolatori analogici fu decretata dalla comparsa del calcolatore digitale (anzi, come diceva Rita Bonelli in un suo libro, “calcolatore elettronico automatico digitale”), che in Italia, per adottare l’ennesimo inglesismo, tutti chiamano “computer”. Il suo nome è però calcolatore digitale, in quanto consente di realizzare modelli numerici, eseguendo calcoli basati su formule, contrapposto al calcolatore analogico, che ottiene i risultati basandosi sulle analogie. E’ questa l’origine del termine “analogico” contrapposto a “digitale”. E quindi chiamare “macchina fotografica analogica” una fotocamera che usi una pellicola e non un sensore CCD/CMOS è una terminologia tanto insensata dal punto di vista semantico da rasentare il ridicolo.
- fine digressione
Ritorniamo alla nostra siringa, che altro non è che un tubo rigido con uno stantuffo ad un’estremità, ed un restringimento all’altra. Anche nel caso della resistenza idraulica, l’espressione è identica: R=dP/Q. Ammettiamo ora di avere una siringa molto grande, in cui almeno parte del “tubo”, subito dopo lo stantuffo, non sia rigido, ma sia fatto di gomma che entro certi limiti può dilatarsi. Cominciando a premere sullo stantuffo, non tutta la forza applicata verrà impiegata per muovere il liquido; parte di essa servirà a dilatare il tubo di gomma. Una volta raggiunta la massima dilatazione,il sistema tornerà a comportarsi come una siringa tradizionale. Mentre nella siringa normale all’applicazione della forza consegue istantaneamente il movimento del liquido, in una siringa con pareti elastiche ci sarà un certo ritardo (“transitorio”) perché il movimento avvenga alla velocità usuale (“funzionamento a regime”). Similmente, quando avremo smesso di pigiare sullo stantuffo, il flusso non cesserà subito, ma durerà fin quando la parte di gomma del tubo non si sarà sgonfiata. In pratica, il flusso inizia dopo la pressione sullo stantuffo e cessa dopo che la pressione sia già cessata. Il flusso e la pressione non sono più sincronizzati, ma sono sfasati. Nel funzionamento a regime, il flusso è sempre regolato dalla relazione che comprende la resistenza Q=dP/R; ma occorre un altro numero che ci indichi qual è il ritardo tra pressione e flusso, che quantifichi lo sfasamento.
Ammettiamo adesso di pigiare e tirare lo stantuffo ripetutamente , in maniera ciclica, sempre perfettamente uguale e costante ad ogni ciclo. La pressione ed il flusso varieranno ciclicamente, con andamento periodico che può essere descritto matematicamente tramite una funzione periodica come il coseno; un moto descritto da una funzione sinusoidale di questo tipo è detto moto armonico semplice. In forma grafica, l’ampiezza della pressione e quella del flusso sembreranno onde sinusoidali. In ogni punto il rapporto del valore dell’onda di pressione e quella di flusso nel punto corrispondente sarà pari ad R e descritto dall’equazione vista prima; il suo valore sarà un numero detto “modulo”. Lo sfasamento tra i punti omologhi verrà invece descritto da un altro numero, spesso espresso in gradi: la “fase”.




L’impedenza allora descrive la relazione tra due fenomeni periodici regolari, legati da una relazione lineare, servendosi di due valori detti modulo e fase; ed in matematica vi sono dei numeri che sono formati da coppie di valori: sono i numeri complessi. Ma non importa qui la forma matematica nella quale vengono espressi (in realtà, si usano gli esponenziali complessi). Ciò che desidero esprimere è il concetto per cui tra le quantità in gioco vi è una relazione ed uno sfasamento; e l’impedenza deve tenere conto di ambedue. Che si tratti di tensione/corrente, pressione/flusso o forza/spostamento, non importa. Nei fenomeni periodici queste due grandezze sono legate non solo da un rapporto nell’entità, ma anche da una fase.
Quindi, per misurare l’impedenza elettrica occorre misurare l’andamento della pressione e quello della corrente e verificare in che relazione stanno i picchi d’onda. Per l’impedenza idraulica bisogna conoscere l’ampiezza dell’onda di pressione, quella di flusso, ed il ritardo di fase; e così via.
Vi è però un’ulteriore complicazione. All’infuori di casi quali quello di tensione e corrente, in cui la tensione viene generata con andamento perfettamente sinusoidale, difficilmente nella pratica la morfologia della curva dei fenomeni periodici è quella di un moto armonico semplice. E ciò è particolarmente vero per i segnali elettrici musicali, ad esempio, o nel caso dell’impedenza idraulica. Come è possibile il calcolo in questi casi?
Ci viene in aiuto il teorema di Fourier. Fourier era un generale di Napoleone, che probabilmente privilegiava le operazioni aritmetiche a quelle sul campo di battaglia. Dimostrò che qualunque fenomeno periodico può essere descritto da una somma di onde sinusoidali di frequenza parì o multipla a quella del fenomeno, di differente, opportuna, ampiezza, ed opportunamente sfasate, più una costante. La frequenza di base è “fondamentale”, i multipli della frequenza di base sono le “armoniche”. Nel caso allora di funzioni non sinusoidali occorre allora scomporre la curva descritta dalla funzione nelle componenti sinusoidali, e riferire l’impedenza ad ognuno di essi.
Le potenze di calcolo odierne rendono possibile la scomposizione in tempo reale, operazione prima non possibile. Volendo misurare allora l’impedenza in un sistema che tratti segnali la cui morfologia è complessa occorre allora rilevare simultaneamente l’andamento dei due fenomeni interessati (tensione/corrente, Pressione/flusso, etc), scomporli nelle componenti sinusoidali, e calcolare modulo e fase per ogni frequenza interessata.
Un sistema suscettibile di descrizione analitica ha di solito anche la possibilità della formulazione analitica delle impedenze. Se il sistema è tanto complesso che la descrizione analitica risulta un’astrazione teorica, ugualmente astratto risulta il nesso tra ciò che viene calcolato e ciò che viene misurato. Nel diciannovesimo secolo sir Cyril Hinshelwood affermava che gli studiosi di fluidodinamica si dividevano in due gruppi: gli ingegneri idraulici, che osservavano fenomeni che non potevano essere descritti matematicamente, ed i matematici, che descrivevano fenomeni che non potevano venire osservati. L’affermazione fu ripresa da MacDonald (non quello degli hamburger; quello di cui parlo è un altro) per descrivere le difficoltà riscontrate nella descrizione matematico-analitica del sistema arterioso degli animali superiori, e dell’uomo in particolare. Quindi, nel sistema vascolare umano la formulazione analitica dell’impedenza è una cosa; un’altra è la sua misurazione. Per questa, occorre rilevare curva di pressione e di flusso contemporaneamente, scom-porle tramite un analizzatore, e calcolare l’impedenza con riferimento alla frequenza che ci interessa. Una cosa completamente diversa da un calcolo analitico. Proprio come diceva sir Cyril Hinshelwood.
E per finire, è doverosa una precisazione, Lettore: il fatto che un fenomeno periodico complesso possa essere scomposto in onde sinusoidali semplici, non vuol dire che esso sia composto da sinusoidi semplici. La scomposizione è un artifizio matematico, che ci serve per il calcolo; ma le frequenze sinusoidali in cui esso viene scomposto non hanno necessariamente un significato fisico. Un sassofono genera un’onda di morfologia profondamente diversa da quella di un pianoforte; ma sassofono o pianoforte non “costruiscono” le loro onde sommando sinusoidi. Siamo noi umani che per descrivere trattare il segnale abbiamo bisogno di esprimerlo come somma di sinusoidi. Tutto ciò è stato particolarmente vero per il sistema arterioso umano; negli anni Ottanta del secolo scorso si arrivò ad asserire che non aveva senso parlare di pressione arteriosa sistolica e diastolica. La “massima” e la “minima” sarebbero state solo i punti in cui la somma delle armoniche che costituivano l’onda di pressione dava un massimo ed un minimo. E nello stesso modo, l’ipertensione arteriosa sarebbe dipesa solo da una variazione dell’impedenza delle pareti arteriose per certe frequenze. Qui, addirittura, si negò il significato fisico del fenomeno osservato, attribuendolo solo al risultato dell’artifizio matematico.

Il Metodo Scientifico

Oggi vorrei cominciare a trattare una serie di argomenti un po’ più “tecnici”; anzi, per essere precisi, non sono io a volere che vengano trattati. Per ognuno di noi esistono persone la cui opinione vale moltissimo, ed alla luce di questa siamo disposti a rivedere la nostra. Per noi, in pratica, l’opinione di queste persone vale, almeno a volte, più della nostra.

Ed una delle persone la cui opinione conta a volte, per me, più della mia mi chiese, tempo fa, di trattare certi argomenti per lasciare una traccia, perché rimanga qualcosa del mio pensiero su di essi. Personalmente, sono dell’idea che non serva a molto; ma poiché, come ho già detto, le mie opinioni vengono spesso dopo quelle di chi me lo ha chiesto, anche stavolta le ho messe da parte, e ho cominciato a scrivere.

Questi argomenti sarebbero accomunati da almeno due caratteristiche: la stretta attinenza con la biologia umana, ed il punto di vista scientifico dal quale verrebbero visti.

La seconda caratteristica meriterebbe una disamina non superficiale di ciò che si intende per “punto di vista scientifico”, e quindi non sarebbe corretto liquidare il concetto con un paio di definizioni. E d’altra parte, l’importanza del concetto in relazione agli argomenti da trattare ne consente l’ingresso a pieno diritto nel novero di questi: è esso stesso un argomento da trattare. Tempo fa, un amico, per motivi attinenti a vicende personali, mi chiese di illustrargli con esattezza quali fossero le mie opinioni proprio sul concetto di metodo scientifico applicato alla ricerca sugli organismi umani. Lo feci, via E-mail ed in maniera relativamente dettagliata; e così, con gli opportuni aggiustamenti, riciclo qui ciò che gli scrissi. Sperando che gli aggiustamenti valgano a rendere accettabile, dal punto di vista dello stile e della chiarezza, l’operazione di riciclaggio. Nella mail originale, i concetti fondamentali erano elencati in più punti, numerati sequenzialmente secondo un ordine logico; così manterrò qui un’impostazione analoga

1) LA NECESSITA’ DI UN APPROCCIO SCIENTIFICO AI PROBLEMI NELLA RICERCA

Il “punto di vista scientifico” che ho menzionato sopra si traduce in pratica nella condivisione del principio secondo il quale l’applicazione del metodo scientifico nella ricerca moderna è una condizione necessaria per produrre quell’avanzamento nelle conoscenze e nella tecnologia che chiamiamo “progresso”.

Di qualunque problema attinente alla scienza si tratti, deve esservi accordo riguardo alla imprescindibilità da un approccio scientifico ad esso. Se non c'è quello, possiamo dare per scontato tutto ed il contrario di tutto. In questo caso non servono le dimostrazioni, ma valgono solo le opinioni personali, e tutte sono sullo stesso piano, ugualmente valide. Di conseguenza, anche i lavori scientifici sono tutti sullo stesso piano tra loro (a prescindere dalla validità e dalla correttezza metodologica) e con idee, opinioni ed affermazioni che derivano da lavori non scientifici. Se si abbraccia questo secondo modo di vedere le cose, va bene tutto, ma ogni dibattito diviene inutile. La validità di ogni cosa non si basa più sull'oggettività, ma viene postulata in base a parametri derivanti da opinabili convinzioni personali, per definizione tutte equivalenti. Fine del dibattito. E della ricerca. E del progresso.

Ed il punto sta proprio qui. Il progresso, tutto il progresso da almeno quattro secoli a questa parte, si fonda solo sul metodo scientifico. Tutto ciò che di tecnologico viene giornalmente utilizzato, compreso il PC che stai adoperando per leggere questo post, o la stampante, se l'hai riversato su carta, è basato su questo. La scienza fondata su opinioni personali non ha mai portato a nessun risultato, se non casualmente. Su questo, vi è generale accordo nel campo dell'epistemologia. Una voce dissonante è quella di Paul Feyerabend. E' un epistemologo austriaco, morto nel 1995, che tutti, tranne lui stesso, considerano allievo di Karl Popper. Scrisse, mi pare negli anno Ottanta, un saggio, "la scienza in una società libera", dove nega la validità del metodo scientifico, ed asserisce che il fatto che il metodo scientifico sia l'unico ad avere prodotto risultati sia falso, e che comunque ciò non prova niente. Le sue argomentazioni sono facilmente confutabili (ma non è questa la sede più adatta per farlo), e basate su una presentazione parziale degli eventi. E' chiaro che chi ha inventato, ad esempio, la ruota, non ha applicato il metodo scientifico come lo conosciamo. E' chiaro che l'inventore della ruota, così come Thomas Alva Edison nel caso della lampadina o del fonografo, ha avuto un'idea. L’idea è fondamentale, ma questo non dimostra affatto che il progresso avanzi sulla base dell'intuizione del singolo e basta. L'intuizione del singolo occorre, ma la validità dell'intuizione deve poi passare al vaglio dei fatti. E le caratteristiche dell'intuizione, ed il tipo di vaglio differiscono ovviamente a secondo del periodo storico e del livello scientifico e tecnologico preesistente: l'intuizione di chi ha inventato la ruota nasce e si evolve in modo differente da quella di chi deve migliorare la geometria dei cerchi di una vettura di Formula 1. Sempre di intuizioni e di ruote si tratta, ma il contesto è diverso.


2) LA VERIFICA DELL’INTUIZIONE

E qui veniamo al punto successivo: la verifica. L'intuizione del singolo può essere valida, e può non esserlo. Abbiamo tanti esempi di intuizioni apparentemente geniali, poi rivelatesi inutili, o inattuabili. Chiaramente, di queste rimangono solo tracce storiche, perchè nessuno sviluppo successivo testimonia la loro esistenza. Oggi abbiamo diversi modi di volare, dal parapendio alle navette spaziali, passando per aerei, mongolfiere, elicotteri, etc. Ma quante intuizioni sbagliate vi sono dietro di essi? Questo campo è particolarmente fecondo di esempi, perchè, vista la natura degli eventi in gioco, alla dimostrazione della non validità dell'intuizione ha spesso fatto seguito la morte di colui che l’aveva avuta. Non ha detto semplicemente "beh, ragazzi, forse non era una buona idea", ma ci ha lasciato la pelle. Nel campo della biologia umana, ad esempio, la storia della scoperta e dello studio della circolazione del sangue è costellata di episodi caratterizzati da intuizioni inattuabili o inutili. Più l'intuizione riguarda un aspetto particolare di fenomeni già conosciuti, e più complessa appare la valutazione della sua validità. Nel caso del volo, in un'epoca in cui non esistevano macchine volanti, era facile, anche se dura: la costruivi ed andavi. Se precipitavi, l'intuizione non era valida. Se volavi, lo era. Nel caso in cui l’intuizione riguardi un sistema estremamente complesso come un organismo biologico, i metodi di valutazione non possono essere così immediati.

3) IL METODO SCIENTIFICO

Allora, quali possono essere i metodi di valutazione nel caso di interferenze con sistemi complessi? In generale, molto in generale, possiamo schematizzare il modo attuale di procedere con metodo scientifico nel modo seguente.

a) Sulla base di un’idea, si sviluppa una teoria (che è, in pratica, il corrispettivo attuale della "vecchia" intuizione)

b) Si sviluppa un modello teorico della teoria (una descrizione matematica, se possibile)

c) Si crea un modello sperimentale, che è il corrispettivo pratico del modello teorico

d) Si verifica il comportamento del modello sperimentale in certe condizioni

e) Si confrontano i risultati ottenuti sul modello sperimentale con quanto accade nel sistema reale che il modello vorrebbe riprodurre

Se il modello è stato in grado di fare delle previsioni, allora esso è valido, altrimenti qualcosa non va bene (l'idea, il modello teorico o la sua realizzazione sperimentale) e tutto deve essere fatto da capo

Ma questo modo di procedere ideale non sempre può essere attuato in maniera così perfetta. Consideriamo, ad esempio, l'applicazione di questa sequenza in Astrofisica per, poniamo, lo studio dell'evoluzione delle atmosfere stellari.

Qui, il primo ed il secondo passo possono essere seguiti alla perfezione. Ma un modello sperimentale di una stella non può essere riprodotto in laboratorio; al posto di esso si deve quindi usare un simulatore (c'è tutta una trattazione che riguarda i modelli simulatori, a parametri concentrati, a parametri distribuiti, etc. ma è inutile qui addentrarci in queste problematiche). Una volta effettuata la previsione sul simulatore, non è possibile osservare l’evoluzione di un determinato sistema (cioè, l'atmosfera di una determinata stella) per verificarla, perchè i tempi di evoluzione delle atmosfere stellari sono dell'ordine di miliardi di anni. Occorre quindi trovare un altro sistema (una stella diversa), che sia presumibilmente nella fase evolutiva che ci interessa, e verificare la previsione su di esso

4) IL METODO SCIENTIFICO NELLA RICERCA SUGLI ESSERI UMANI

Per ciò che riguarda specificamente la biologia umana, le cose stanno in questi termini:

- la teoria è di solito una descrizione dei fatti, nei casi più "scientifici" data in termini biochimici o fisiopatologici (quindi, abbastanza simile alla vecchia intuizione)

- il modello teorico non è matematico, o contiene, tranne casi particolarissimi, pochissima matematica, e consiste in verifiche di laboratorio. Può anche consistere, dipendentemente dai casi, in osservazioni condotte su preparati di cellule isolate, colture cellulari, o su preparazioni biologiche isolate ; nel caso della ricerca farmacologica, consiste in sperimentazioni eseguite sullo stesso tipo di substrato (c.d. "sperimentazione di prima fase"). In casi rarissimi, e che riguardano aspetti parziali di determinati apparati, può anche essere meccanico (apparato osteoarticolare, apparato cardiocircolatorio), idraulico (apparato cardiocircolatorio), elettrico/elettronico (apparato cardiocircolatorio, sistema nervoso)

- il modello sperimentale è animale. Si cerca di riprodurre su un animale una patologia analoga a quella umana, spesso utilizzando razze di animali con una predisposizione genetica a reagire agli stimoli o sviluppare una certa malattia simile a quella umana. Se l’evoluzione nell’uomo del processo che si intende studiare è lunga, si adoperano animali con naturale aspettativa di vita molto breve; in essi tutti i processi biologici (dal fisiologico battito cardiaco alla più aggressiva delle neoplasie) sono accelerati proporzionalmente alla breve durata della vita naturale. Nel caso dei farmaci, si somministrano i farmaci all'animale in dosi proporzionali a quelle che andrebbero date all’uomo (in farmacologia, "sperimentazione di seconda fase")

- la verifica di quanto si è ottenuto sul modello sperimentale dovrebbe a questo punto allora essere eseguita sull'uomo, o cercando di ritrovare situazioni analoghe a quelle realizzate nei modelli, o provocandole personalmente. Nel caso di sperimentazioni farmacologiche questa è la "terza fase"

5) LA VERIFICA SUGLI ESSERI UMANI

Il confronto e la verifica delle previsioni ottenute dal modello sperimentale ha sempre costituito un problema. In generale, non è mai stato considerato etico "forzare" su essere umani le condizioni cui sono stati sottoposti gli animali da laboratorio. Sono chiaramente esistite delle eccezioni a questa regola, ad esempio nei campi di concentramento nazisti o nell'ex Unione Sovietica (probabilmente ancora oggi in alcune zone della Cina, e sporadicamente qui e là in giro nel mondo, dietro compenso, a persone estremamente bisognose). Tuttavia, di solito, non si fa. Ci deve essere quindi un altro modo, più etico, per verificare

Questo modo è osservazionale. Ma una delle fallacie più gravi di questo modo è costituito dal fatto che solitamente un ricercatore sta cercando di dimostrare qualcosa, e vuole avere successo in quest'impresa. Sebbene anche l'aver dimostrato inequivocabilmente che una certa idea sicuramente non è valida costituisce un risultato dall'indubbio valore scientifico e pratico, la società in cui viviamo non ha questa visione degli eventi: per il ricercatore, la dimostrazione della falsità di un'idea è un insuccesso.

6) LA STATISTICA COME STRUMENTO PER LA VERIFICA

Vi è d'altra parte un secondo problema, che risiede nella complessità e nella variabilità degli organismi biologici. In sistemi così complessi, non vi è la possibilità di isolare un singolo fenomeno, una singola reazione biochimica, una singola risposta farmacologica. Milioni di altri fenomeni e di altre reazioni interferiscono con gli eventi che vorremmo osservare. La soluzione che si è trovata è stata quella di osservare più organismi biologici contemporaneamente, in modo da mediare le "interferenze" ed annullarle, evidenziando solo ciò che vogliamo osservare. Ciò è consentito dalla Statistica. La Statistica non è, cosa che mi sento replicare spesso da chi si reputa estremamente arguto, che se io mangio un pollo e lui non mangia nulla abbiamo mangiato mezzo pollo l'uno: questa è in realtà una battuta di Trilussa. Quindi, questa è poesia in vernacolo. La Statistica è una cosa molto più seria, più pratica e più reale: la Statistica è uno strumento che consente di trattare popolazioni come se fossero singoli individui e mette a disposizione la matematica necessaria per farlo. Quindi, la verifica etica delle previsioni che ha fornito il modello sperimentale può venire condotta su campioni estratti da popolazioni, e valutata con metodologie statistiche.

Ho conosciuto persone che hanno difficoltà a comprendere tali concetti. Queste persone confondono la matematica con la scienza. Sono convinte che quando un sistema non può essere descritto in termini rigorosamente matematici la scienza che se ne occupa non possa considerarsi tale. Esse identificano la scienza con il sottoinsieme delle scienze esatte, considerando non-scienza la disciplina scientifica che non si annoveri tra esse. Ritengono che un modello che non sia fisico-matematico non possa avere validità scientifica, e pertanto non riescono a comprendere come, nell’ambito delle scienze non esatte, possa venire descritto dalla Statistica e conservare comunque validità scientifica. Cercherò adesso di dimostrare come tale visione sia fallace.

Sicuramente il corpo umano non è suscettibile di descrizione matematico-analitica; ma, d’altra parte, neanche molti sistemi della Fisica Classica lo sono. Tutte le descrizioni analitiche dell’Idraulica, della Termodinamica, persino della Meccanica, valgono per sistemi isolati, che contengono semplificazioni (vedi i circuiti idraulici in cui il liquido ideale ti consente l’applicazione del teorema di conservazione dell’energia, o la trattazione analitica che comprende le perdite per attrito fa riferimento sempre ai fluidi newtoniani), e che valgono solo quando i parametri in gioco sono pochi e ben determinati. Consideriamo ad esempio il problema degli n corpi in Astronomia. Per n=1 si ha un corpo isolato che genera un campo gravitazionale nello spazio, che decresce con l’inverso del quadrato della distanza dal corpo. Per n=2 si hanno le Leggi di Keplero. Per n=3 una soluzione analitica è possibile solo quando un corpo ha una massa molto maggiore degli altri due, e questi ultimi si dispongono nei punti Lagrangiani. Per n=4 una soluzione analitica non è più possibile e si devei ricorrere alle simulazioni informatiche o alla matematica del caos. Che non dà risultati esatti. Ti sentiresti di affermare, Lettore, che per questo motivo non si possa applicare il metodo scientifico?

E se si desidera studiare il comportamento di un particolare sottosistema di un sistema complesso come l’organismo di un animale superiore, quale metodologia si deve eseguire? E’ possibile lo studio sulle cosiddette “preparazioni isolate”, costituite da un singolo organo o parti di esso, ma le preparazioni isolate spesso vengono realizzate a spese dell’integrità dell’intero organismo (basti pensare al cuore). Quindi, non è possibile rendere sistemi isolati le singole parti del corpo umano, è ovvio. Ma quando non è possibile isolare il segnale dalle interferenze, quale può essere la soluzione? Si può fare in modo che le interferenze, che si distribuiscono casualmente secondo una funzione matematica, si compensino a vicenda annullandosi, e si estrae il segnale di fondo, costante. E’ un principio che da sempre viene utilizzato in diverse situazioni. La forma più semplice alla quale riesco a pensare è quella degli humbucker della chitarra elettrica. Forme ben più complesse sono usate per l’elaborazione delle immagini. L’applicazione di queste tecniche alla fotografia astronomica ha permesso di ottenere da telescopi amatoriali da 20 cm di diametro risultati che venticinque anni fa erano impensabili con diametri (e montature) dieci volte maggiori. Mediando i risultati di decine di immagini ed estraendo il segnale dal fondo di rumore.

Le decine di immagini in Medicina sono gli elementi che compongono il campione. E la Statistica consente di usare il campione, e fare i calcoli su di esso, come se fosse un’unità inscindibile. Proprio come dalla mediazione delle immagini si ottiene una singola foto. Nella fotografia astronomica si può risalire alla distribuzione del rumore utilizzando, ad esempio, i dark frames, e sottraendoli dalle riprese. Nelle sperimentazioni condotte su campioni la distribuzione del “rumore” è conosciuta: è gaussiana, se la selezione dei singoli componenti del campione è stata effettuata correttamente; che la distribuzione sia gaussiana (o “normale”) è garantito dal c.d. “teorema del limite centrale”. E così se ne conosce la funzione. E questo è esattamente il motivo per il quale è in generale così importante il fatto che il campione sia rappresentativo della popolazione da studiare; eseguiresti mai un’elaborazione fotografica tentando di sommare tre foto di Giove, due di Saturno e cinque di Marte? Ed il fatto di avere selezionato un campione appropriato, sia nella rappresentatività sia nella distribuzione, dipende in ultima analisi da una corretta applicazione dei metodi della Statistica e quindi da una altrettanto corretta pianificazione dello studio che si vuole eseguire.

7) IL PROBLEMA: LA NECESSITA’ DI VALUTAZIONI OGGETTIVE

Poichè il rilevamento dei parametri sul campione ha comunque una quota di soggettività, anche nella valutazione di un campione insorgono dei problemi, connessi alla condizione citata nel punto 5): il ricercatore desidera ardentemente che la sua tesi venga dimostrata. Pertanto è (più o meno inconsciamente) portato a valutare soggettivamente in maniera positiva i risultati dei rilevamenti, esaltando quelli che confermano la sua tesi, e minimizzando quelli che la negano. Questo vale anche per le sperimentazioni terapeutiche (farmacologiche e non) di seconda fase (anch'esse condotte su campioni, i cui elementi sono costituiti dagli animali di laboratorio), e di prima (condotte su cellule isolate, colture cellulari o preparazioni isolate). D'altra parte, per le sperimentazioni di terza fase condotti su esseri umani, la soggettività riguarda anche il campione. I soggetti che compongono il campione, se credono nella sperimentazione cui si stanno sottoponendo, tenderanno a riportare miglioramenti in misura forse eccessiva rispetto a ciò che realmente sta accadendo. Anche la sola consapevolezza di assumere un medicamento o essere sottoposti ad una qualsiasi pratica terapeutica di altro genere può portare a ciò ("effetto placebo")

8) LA SOLUZIONE: SPERIMENTAZIONE IN DOPPIO CIECO

Il modo che si è allora escogitato per minimizzare questo sgradevole aspetto della sperimentazione di terza fase sono le c.d. "sperimentazioni in doppio cieco". Nelle sperimentazioni farmacologiche, vengono realizzate delle preparazioni assolutamente analoghe di cui una metà di esse non contiene principio attivo e l'altra lo contiene. Tutte sono caratterizzata da sigle, e chi prepara le confezioni non è a conoscenza del loro uso; i riferimenti vengono tutti tenuti in busta chiusa. Lo sperimentatore, che non conosce il contenuto di ciò che sta maneggiando, dà ad ogni singolo individuo qualcosa di cui non conosce il contenuto (principio attivo o nulla); e neanche chi si sottopone alla sperimentazione sa cosa stia assumendo. I parametri vengono rilevati strada facendo, e vengono riempite delle schede. Solo quando la sperimentazione è terminata si aprono le buste e si verifica a quale dei due gruppi (farmaco o placebo) apparteneva ogni individuo. A questo punto i due gruppi vengono costituiti e su di loro si esegue l'analisi statistica. Le sperimentazioni di prima e seconda fase vengono condotte "in singolo cieco", con campioni di controllo e sempre senza la consapevolezza dello sperimentatore riguardo alle sostanze somministrate, oppure almeno, per quelli di prima fase, non in cieco, ma sempre con campione di controllo.

Per le sperimentazioni che riguardano terapie non farmacologiche oppure procedure diagnostiche, il modo di procedere è analogo, e si ricorre a degli stratagemmi per tenere pazienti e sperimentatori all’oscuro di ciò che sta accadendo, fino alla verifica finale. Uno stratagemma frequentemente adottato è quello di far eseguire la selezione dei soggetti da ammettere allo studio (c.d. “reclutamento”), il rilevamento dei parametri, l’esecuzione della procedura da sottoporre a verifica, la raccolta dei dati finali e l’analisi statistica a gruppi di ricercatori diversi tra loro, che non siano in comunicazione, e che non sappiano esattamente a cosa e su chi stiano lavorando; ed inoltre l’esecuzione della procedura sotto test viene eseguita “mischiando” i soggetti sottoposti a studio con altri che non hanno nulla a che vedere con esso.

Nel caso di valutazione della validità di una data procedura diagnostica per una certa patologia, ad esempio, si può utilizzare un ambulatorio di diagnostica aperto al pubblico, ed eseguire la procedura sui soggetti arruolati nell’ambito della normale attività, di routine, dell’ambulatorio. L’esecutore della procedura non è consapevole di chi sia o cosa abbia il soggetto sul quale sta eseguendo la procedura, né sa se esso sia tra quelli arruolati per lo studio o meno. Spesso, il soggetto arruolato deve comunque essere a conoscenza di ciò che sta accadendo, e ciò configura il quadro della sperimentazione a singolo cieco; ma nel caso della rilevazione di parametri obiettivi ciò può essere sufficiente, purchè il soggetto arruolato non influenzi in alcun modo l’esecutore.

9) LA REALE UTILITA’ DEI TRATTAMENTI TERAPEUTICI

Questo modo di procedere, per quanto scientifico, ha comunque un altro "effetto collaterale": quello collegato al parametro oggettivo in rapporto all'utilità soggettiva. Mi spiego meglio con un esempio. Le persone affette da arteriopatia obliterante agli arti inferiori in fase di insufficienza arteriosa relativa hanno un apporto di sangue sufficiente ai muscoli delle gambe in condizioni di riposo, ma che diviene insufficiente quando i muscoli richiedono un apporto suppletivo di ossigeno. Il sintomo è la c.d. "claudicatio intermittens": questi pazienti stanno benissimo da fermi, ma dopo aver camminato un pò insorge il dolore muscolare, e sono costretti a fermarsi. Appena i muscoli hanno smaltito l'acido lattico in eccesso, possono riprendere, e così via. Zoppicano ad intermittenza ("claudicatio intermittens" in Latino vuol dire proprio questo). Una caratteristica peculiare che distingue la claudicazione da insufficienza arteriosa relativa dalle altre è la costanza dell'insorgenza del dolore in rapporto allo sforzo: se il paziente riesce a fare 100 metri in piano, farà sempre e comunque 100 metri, (a meno che la condizione non peggiori, ovviamente). Ora ammettiamo che io abbia sviluppato un farmaco che può incrementare il flusso in un arto arteriopatico. Conduco tutte le sperimentazioni fino alla seconda fase, che mi confermano che l'efficacia è reale. Conduco la sperimentazione di terza fase determinando i flussi dopo somministrazione del farmaco (ad es, con metodo pletismografico), in doppio cieco, e dimostro inequivocabilmente, con una probabilità inferiore allo 0,000001 per cento che il risultato sia casuale, che il farmaco riesce ad incrementare il flusso nell'arto arteriopatico, di 0,0002 ml al minuto per 100 gr di tessuto muscolare. Il risultato è praticamente certo; ma la conseguenza pratica qual è? Il paziente potrà fare 101 metri anzichè 100, prima di fermarsi. Lo stesso risultato che otterrebbe se imparasse a fare il passo di 5mm più lungo. L'effetto farmacologico esiste sicuramente, ma l'effetto terapeutico pratico sembrerebbe nullo. A questo punto, prima di commercializzare il farmaco come tale, deve (dovrebbe) essere condotta un'altra sperimentazione in doppio cieco che dimostri, al di là dell’effetto farmacologico, che i malati stanno veramente meglio, assumendo il farmaco; che riescano effettivamente a camminare di più, e questo “di più” cambi qualcosa nella loro vita. Se così non è, il farmaco, per il paziente, è inutile. Può costituire una buona base per cercare di creare un farmaco vero, ma una sostanza che ha questa azione non può essere considerata un farmaco

10) LA MEDICINA BASATA SULLE EVIDENZE

Per tutti questi motivi, da qualche tempo (un decennio almeno) per tutto ciò che riguarda i trattamenti terapeutici di qualunque tipo ci si muove sempre e comunque nel campo della c.d. EBM, Evidence-Based Medicine, medicina basata sull'evidenza. Perchè un trattamento medico sia considerato valido deve essere stato progettato secondo la linea teorica descritta al punto 3) realizzata con le modalità del punto 4), comprovata con le modalità di cui al punto 8) e passata al vaglio della verifica schematizzata al punto 9).

Vi deve essere un'evidenza scientifica che il trattamento funzioni, ed un'evidenza pratica, ma anch'essa scientificamente verificata, che tale funzionamento sia realmente utile, che i suoi effetti siano realmente un vantaggio per chi vi si sottopone. Ma soprattutto deve essere chiaro che “evidenza scientifica” è qualcosa che si deve ottenere al termine dell’iter descritto prima, e non avvalendosi di osservazioni, idee o opinioni personali. E per quanto riguarda il campo strettamente attinente ai farmaci, in questo i c.d. “informatori medico-scientifici” assumono spesso un atteggiamento che è l’antitesi della scientificità. Nel presentare i farmaci ai medici di base si esprimono spesso in questo modo:

“Dottore, lo provi, e veda come va”

come se si trattasse di un’automobile a cui è stata riprogrammata la centralina, quando invece l’evidenza dell’efficacia di un farmaco dovrebbe basarsi solo sull’esistenza della relativa letteratura medica che la comprovi.

E nel campo della farmacologia ciò avviene perché, in tutto il mondo ormai le case farmaceutiche (che sono quelle che avevano finora sostenuto la ricerca), tendono a ridurre lo sviluppo di nuovi farmaci etici (con l’esclusione degli antineoplastici e dei vaccini) e a sviluppare il business intorno a farmaci esistenti e/o ad integratori vitaminici o di estrazione vegetale esaltandone presunti, inesistenti, effetti terapeutici.

Questo a prima vista sembra un crimine contro l’umanità (ed uno stupido quale io sono continua a percepirlo in questo modo), ma invece non dovrebbe sorprendere: è un effetto collaterale del consumismo e della c.d. “globalizzazione”. Storicamente, le Case Farmaceutiche (come ad es. la Sandoz) nascono per specializzarsi in un campo che precedentemente, insieme a tutti gli altri della Medicina, era stato appannaggio dei medici: sperimentazione e sviluppo di nuovi farmaci.

Originariamente, il percorso logico che portava allo sviluppo o alla scoperta di un principio attivo era la necessità di curare. Molti anni fa una persona a me molto cara mi raccontò di un compagno di scuola al quale diagnosticarono il diabete a 12 anni. Lui era orfano di padre, e la madre stravedeva per questo figlio. Subito dopo aver avuto la diagnosi, la madre, a casa, cercò di sapere qualcosa in più, consultando un vecchio (di famiglia, forse dei suoi genitori) dizionario enciclopedico. Per poco non tentò il suicidio. Questo infatti, per il diabete giovanile, riportava un’aspettativa di vita di poche settimane o al più un paio di mesi dalla diagnosi. Il dizionario era di una quarantina di anni prima, anteriore all’estrazione dell’insulina. Banting e Best condussero le loro ricerche per questo: per evitare la morte delle persone. Lo stesso può dirsi per Fleming, e così via. Così chi si dedicava alla produzione dei farmaci pensò che una buona idea poteva essere anche la “progettazione” di farmaci nuovi e la loro sperimentazione. Quando le Case Farmaceutiche cominciarono ad assumere questo ruolo, non esistevano grossi problemi di tipo economico: i farmaci erano qualcosa che sicuramente serviva; esisteva un mercato reale che discendeva da necessità reali, e così anche la ricerca era una necessità reale.

Il progressivo ampliarsi della ricerca farmacologica è andato di pari passo con l’incremento degli investimenti in questo campo. Ciò ha spostato il piano sul quale ha cominciato a muoversi la ricerca farmaceutica, ed ha invertito i termini della sua realizzazione: prima l’investimento era una conseguenza della necessità della ricerca, poi la ricerca è divenuta una necessità conseguente all’esistenza dell’investimento. In altri termini, chi investiva in ricerca voleva un ritorno economico dall’investimento.

Nelle ultime tre decadi del ventesimo secolo è accaduto questo: se un farmaco superava le sperimentazioni di seconda fase, quel farmaco doveva essere immesso in commercio, a qualunque costo. Perché se un farmaco era giunto al termine delle sperimentazioni di seconda fase, erano già stati impiegati tanti soldi su di esso che non era possibile permettersi di tralasciarlo: il capitale impiegato doveva fruttare.

11) AGGIRARE I METODI DELLA MEDICINA SCIENTIFICA

Il comportamento degli informatori che ho appena menzionato è in pratica un modo ingenuo per aggirare l’EBM, in uso da anni, ma che può far presa solo sugli ingenui. Quindi da qualche tempo a questa parte la situazione è ulteriormente evoluta. Da un lato si è verificata la necessità di incrementare ulteriormente gli introiti. Dall’altro di ridurre la spesa. Così, le case più grosse, multinazionali, hanno inglobato le più piccole, ed hanno chiuso diversi laboratori in tutto il mondo. Ciò perchè la soluzione che è stata adottata non è più quella di “inventare” nuovi farmaci per malattie esistenti, ma quella di inventare nuove malattie per i farmaci esistenti. Questa attività è stata (ed è) particolarmente fervente per le malattie psichiatriche (il DSM dell'American Psychiatric Association si presta particolarmente bene allo scopo), ma è anche abbastanza diffusa anche in altri campi. Ed una simile politica è stata estesa anche alle terapie non farmacologiche. Ovviamente, l’aggiramento dell’EBM qui è più importante che mai, perché deve estendersi oltre la terapia, interessando anche la patologia. Come potrei avere l’evidenza scientifica dell’efficacia di una terapia in una malattia se non ho nemmeno l’evidenza scientifica dell’esistenza della malattia?

Ma.. abbiamo un metodo! Abbiamo la matematica! Abbiamo il modo per controllare le fallacie! Abbiamo i mezzi per vagliare la validità scientifica di un lavoro! Come è possibile con simili meccanismi di controllo aggirare l’EBM?

E’ semplice: mentendo. Scrivendo e pubblicando falsa letteratura scientifica. Ma spesso (anche se non sempre) è possibile capire se un lavoro sia attendibile o meno. Ed è improbabile che uno studio scientifico falso sia pensato, progettato, strutturato e descritto in maniera corretta; è estremamente più probabile che contenga grossolane inesattezze dal punto di vista metodologico, quando non incongruenze da quello scientifico. Ciò, beninteso, non può dimostrare con certezza che lo sia un falso; ma basterebbe per renderlo comunque non degno di considerazione.

Anche se tutto questo sembra pazzesco, in realtà non è altro che una delle innumerevoli degenerazioni della società contemporanea. Ciò è richiesto dalla società contemporanea. Se la società esprime una necessità, un bisogno o anche un semplice desiderio c’è qualcuno pronto a soddisfarlo. E’ la società dei consumi. Se la società non esprime nulla, si suscita il desiderio, si fa evolvere in bisogno e si eleva al rango di necessità. Indi, si è pronti a soddisfarla. E’ la degenerazione della società dei consumi: è il consumismo.

Le attività del medico sono sempre state peculiari nell’ambito delle professioni scientifiche. Il medico, fino a mezzo secolo fa, faceva tutto. Ricercava, faceva le diagnosi, pianificava la terapia, e la eseguiva personalmente. Nell’ambito scientifico, questo comportamento non ha pari. L’astronomo, anche l’astrofisico osservativo, ha il tecnico d’osservatorio in cupola che si occupa del telescopio, delle camere, degli spettrografi, etc. Il chimico, il fisico, hanno il tecnico di laboratorio. L’ingegnere edile, meccanico, ha le squadre di operai. E così via. Il medico invece si sporca le mani personalmente. L’infermiere originariamente era un aiuto per le cose più “terra-terra”; adesso ha mansioni più evolute, ma non gli vengono comunque affidate pratiche semplici come i punti di sutura.

Verosimilmente, le ragioni di ciò sono storiche. Le altre discipline scientifiche sono nate da una base teorica, e poi si sono sviluppate nella pratica. Ciò che di pratico poteva servire (le c.d. “ricadute tecnologiche”) nelle scienze, veniva eseguito empiricamente dagli artigiani, oppure sviluppato all’interno di associazioni esoteriche.

Per la chimica, i procedimenti di preparazione, ad esempio, della calce o del solfato di rame erano empirici. Così gli alchimisti avevano la possibilità di gingillarsi con i loro alambicchi, e spacciare per magie le loro attività. La Chimica, quella vera, ebbe il tempo di svilupparsi su basi teoriche, senza l’impellenza del risultato, che era demandato ad altri.

Gli astronomi caldei si accorsero dell’esistenza del ciclo di saros nel corso di secoli di osservazioni. La “necessità” era prevedere le eclissi; ma, a parte i significati mistico-religiosi, nessuna reale necessità pratica dipendeva dalle eclissi. Gli astronomi di corte cinesi venivano messi a morte se non prevedevano le eclissi, ma questo era il loro unico problema pratico; d’altra parte, nessun addebito veniva loro imputato se annunciavano delle eclissi che poi non si verificavano. Quindi, avendo compreso l’esistenza di un ciclo, come il saros, bastava sommare qui e là qualche previsione in più per vivere tranquilli. E dedicarsi alla ricerca pura. La parte esoterica veniva mantenuta dagli astrologi, ed ogni figura aveva il suo ruolo.

Inoltre, il linguaggio da usare in queste scienze (la matematica) ha avuto uno sviluppo ancora più precoce, e gli sviluppi delle altre scienze lo hanno trovato già disponibile

La medicina nasce da esigenze pratiche. Prima di tutte, i traumi. Di caccia, di guerra. Poi le malattie infettive. Spesso le infezioni locali conseguivano ai traumi. Poiché questi eventi portavano a morte, o ad invalidità permanenti, e dopo lunghe sofferenze o lunghissime convalescenze, il fatto che la medicina fosse efficace era una necessità impellente. Non era come prevedere le eclissi. E lo sviluppo di basi teoriche sulle quali costruire il progresso della medicina era un’ulteriore necessità. Qui la maniera di procedere è stata esattamente opposta. Prima si doveva cominciare a lavorare, e poi a sviluppare la parte scientifica. In tutto questo si inseriva anche, secondo i costumi che hanno caratterizzato il comportamento dell’intera umanità per certe epoche, la necessità dell’esoterismo. Tutte queste funzioni erano riunite nella figura del medico.

Quello che vediamo adesso è il risultato di queste diverse radici. L’astronomo o il chimico si occupano delle loro scienze. I tecnici della parte pratica. Astrologi ed alchimisti (questi ultimi esistono ancora oggi) della parte esoterica. Il medico si occupa della parte teorica e di quella pratica. E pure di quella esoterica: la terminologia criptica usata in medicina ha appunto questa origine.

Fisici e chimici hanno codificato da tempo le loro metodologie; in medicina è rimasto il retaggio dell’osservazione del paziente, e la comunicazione agli altri delle proprie osservazioni.

Nel corso dell’ultimo secolo, però, si è affrontato il problema in maniera organica e definitiva. Si è cercato di passare dalla soggettività all’oggettività. SI è resa disponibile la matematica per trattare i dati. Si sono evidenziati le fallacie che avevano finora reso poco attendibili le metodologie di ricerca usate, e si sono escogitati i metodi per evitarle. Si è cercato di codificare tecniche e metodologie per rendere omogenei i metodi di rilevazione, in modo da avere la possibilità di confrontare risultati ottenuti da gruppi di ricerca diversi, in diverse parti del mondo. Si sono addirittura sviluppati (discutibili) metodi statistici per “normalizzare” i dati di ricerche diverse ( purché metodologicamente corrette) condotte da ricercatori diversi in luoghi ed epoche diverse, in modo da poter avere un mega-campione da analizzare (le c-d- “metanalisi”).

Questo sembra aver comportato una rivoluzione, perché non si è assistito a rivoluzionamenti simile per le altre scienze. Per esse, la codifica del metodo scientifico è stata iniziata tre secoli prima, da Galileo, e la basi esistevano ancora prima, ai tempi di Descartes. Per la medicina, invece, nel ventesimo secolo si è assistito alla pianificazione ed alla realizzazione forzata di un processo che negli altri casi è spontaneamente avvenuto. Contemporaneamente è assistito anche ai tentativi (spesso ben riusciti) di aggirare il metodo, di simulare i risultati, di ottenere riconoscimenti sulla base di nulla. Come detto prima, è una manifestazione del consumismo.

12) CORRETTEZZA METODOLOGICA ED ETICA PROFESSIONALE

Chiaramente, non tutti si adattano; non tutti vogliono adeguarsi ai dettami del consumismo . Alcuni sono partiti con l’idea di voler essere professionisti seri, durante gli studi hanno appreso che “professionista serio” in questo campo significa dover (o voler) svolgere contemporaneamente il ruolo dello scienziato, del tecnico, dell’operaio e del mago, e strada facendo si sono accorti che i metodi e gli strumenti di controllo che sono stati mostrati loro come corretti sono effettivamente corretti in teoria, ma elusi nella pratica. In un mondo così, per un individuo che voglia davvero occuparsi di Medicina rimanendo fedele ai propri principi, che possibilità ci sono di sopravvivere?

Bene, si è visto che l’unica possibilità è di operare delle scelte. E’ di eludere le elusioni. Se Tu, Lettore, dovessi decidere di fare il medico potresti avere solo tre cose in mente:

1) la ricerca

2) la diagnosi e la terapia delle malattie

3) fare soldi rivestendo un ruolo che fino a vent’anni fa era considerato prestigioso

Posto che la possibilità numero 1) è incidentale (pochissime studenti si iscrivono a Medicina con questa intenzione, semmai trovano dopo questa strada), le possibilità reali sono solo la seconda o la terza. Per la terza ho accennato a come si fa: si ignora il metodo scientifico, e ci si comporta come farebbe oggigiorno un mago, un astrologo, un alchimista. Ma se scegliessi la seconda?

Se scegliessi la seconda avresti gli strumenti. Adoperarli o no dipende da te.

Quando scegli la seconda, ti poni come un professionista nei confronti del paziente. Il tuo scopo è proporre la soluzione migliore, tra quelle disponibili, al problema che ti viene posto. Secondo “scienza e coscienza”.

E la “coscienza” ti dice che non puoi mai negare al paziente la soluzione terapeutica più valida per lui. Ed allo stesso modo non puoi mai scegliere per il paziente una soluzione che non è valida. Se tu non ti aggiorni, non studi, non hai sempre ben presente, in ogni momento, quali sono tutte le soluzioni valide, stai mentendo quando ti poni come professionista. Allo stesso modo, quando proponi una soluzione che non è scientificamente valida, stai mentendo. Stai generando false aspettative, alimentando vane speranze. Non sei un professionista. Sei un ciarlatano

Per sapere quale soluzione è valida e quale non lo è ricorri alla “scienza”. Chiaramente nelle scienze biologiche ci sono molto margini di incertezza. Ma, in un determinato momento, hai i criteri per sapere ciò che è sicuramente valido e ciò che non è sicuramente valido.

A questo punto, o stai da una parte, o stai dall’altra. Puoi scegliere di essere onesto verso chi ti siede di fronte, o non esserlo. Qui non importa la gravità della patologia, il costo del farmaco, la posta in gioco. Stiamo parlando solo ed unicamente di onestà intellettuale. O segui la via della correttezza metodologica, o non la segui. Se la segui sai come devi agire. Se non la segui, non c’è una maniera migliore ed una peggiore di non seguirla. Da questo punto di vista, gli amuleti, i guaritori filippini, l’acido ascorbico, i fiori di Bach, la cura Di Bella, il siero Bonifacio, l’omeopatia o l’acqua di Lourdes sono tutti equivalenti. E questo vale esattamente allo stesso modo sia che Tu abbia deciso di fare il medico, nella tua vita, sia che Tu abbia intrapreso tutt’altra strada professionale. O hai la pretesa di poter totalmente tralasciare la metodologia scientifica spacciando tale comportamento per apertura mentale, o non hai questa pretesa. Se non l’hai applica il metodo scientifico. Se pretendi di averla, spingi la tua apertura fino ad includervi la magia, i rituali anancastici o l’acqua di Lourdes. Se tu hai intenzione di sottrarti al vaglio della regola scientifica, sei comunque fuori da essa come lo è chi ha fiducia nell’acqua di Lourdes. Perchè dovresti essere diverso? Perché, ad esempio, l’acido ascorbico ha 3114 lavori (inutili) su PubMed, e l’acqua di Lourdes no? Oppure perchè sei venuto a conoscenza di un risultato strabiliante ottenuto con la cura Di Bella o con l’omeopatia? Ma sai quante persone riportino risultati strabilianti tornando da Lourdes? O quante ne siano stati riportati con il siero Bonifacio?

Tutti questi strabilianti risultati hanno un denominatore comune. Stanno tutte dentro un compartimento: quello dell’efficacia non scientificamente provata. Questo non vuol dire che non le puoi o non le devi usare: se Tu non dovessi fare il medico, puoi fare ciò che vuoi. Vuol dire solo che il medico non le deve usare, se ha scelto la via dell’onestà: perchè lui non può fare quello che vuole.

Il processo che porta alla scelta può essere lungo e laborioso. Ma alla fine, questa è una scelta semplice, perchè è dicotomica. Ci sono solo due compartimenti. Quello che contiene quanto è, fino a qualche punto, sicuramente valido, ed un altro che contiene tutte le altre cose. Queste potranno essere valide, o non esserlo. Quello che è sicuro è che la loro validità non è dimostrata. I criteri sono chiari e netti. Ho scritto e riscritto solo per affermare un concetto di una semplicità disarmante. E questo concetto o lo si comprende o non lo si comprende. E basta.