5G: CUI PRODEST?

Immagine

Pubblichiamo questo “contributo” di Roberto Feletto sul 5G.
Un documento interessante e chiarificatore che non lascia, volenti o nolenti,   dubbi sulla pericolosità di questa nuova tecnologia.
Andrebbe letto da tutti.
Dovrebbe essere fonte di meditazione soprattutto per coloro che hanno il compito di tutelare la salute dei cittadini.

Da tutti questi e anche da chi ci rappresenta a livello locale, dovremmo pretendere azioni concrete a  favore della nostra salute e la richiesta dell’applicazione del principio di “PRECAUZIONE”.
Ma così non è.
Buona lettura.

——————————————————————————————————————

        Dopo lo sconcertante intervento ascoltato nell’ultimo consiglio comunale, e 
        scegliendo di intervenire a mente fredda, ritengo utile a tutti riportare alcune
        osservazioni come contributo documentato e documentabile, oggettivo e
        disinteressato
(*) sul tema dell’inquinamento elettromagnetico in generale e del 5G in
        particolare.    

       (*) atteggiamento e motivazione che deve SEMPRE accompagnarsi alla domanda
fondamentale su ogni attività umana:

 

Molte persone ormai hanno sentito parlare del cosiddetto “5G” e pensano che sia una semplice evoluzione delle tecnologie precedenti: il 2G, il 3G, il 4G, etc., e che perciò debba essere innocuo. In realtà, si tratta di una tecnologia del tutto diversa, che avrà un impatto notevole per varie ragioni. E non è neppure vero che un telefonino 3G (UMTS) sia meno pericoloso di un 2G (GSM), come molti credono: infatti, nonostante la potenza emessa dal 3G sia minore, vi sono già evidenze epidemiologiche e di laboratorio che mostrano come il danno al DNA e il rischio di tumore al cervello con l’UMTS sia maggiore. Gli studi scientifici preliminari disponibili in letteratura hanno mostrato che le onde millimetriche aumentano la temperatura della pelle, alterano l’espressione genica, promuovono la proliferazione cellulare e la sintesi di proteine legate allo stress ossidativo ed ai processi infiammatori e metabolici (condizioni notoriamente implicate nell’insorgenza del cancro, ed in diverse malattie acute e croniche), possono generare danni oculari, nonché influenzare le dinamiche neuromuscolari. Il 5G, una volta a regime, funzionerà prevalentemente con delle antenne phased array (cioè “schiera in fase”) a 24-26 GHz, ovvero con frequenze altissime. Un singolo array potrà contenere qualcosa come 64 antenne che collaborano insieme per costituire un’emissione direzionale, cioè un potente fascio di radiazioni diretto verso l’utente. Le antenne 5G hanno, in alto, elementi emittenti a 3,5-3,6 GHz e, sotto, l’array appena descritto che terrà il collegamento con l’“Internet delle cose”: dal frigorifero che dirà al lattaio di portare il latte perché è finito e altre applicazioni del genere, fino alle auto che si guidano da sole. Il segnale 5G sarà forte e ubiquo, perché non deve succedere che un’automobile a 80 o 100 km/h non abbia informazioni su dove andare. Questo significa coprire tutta l’area cittadina e anche fuori di essa con un campo elettromagnetico che è molto più alto di quello che abbiamo adesso. Secondo il responsabile dell’ARPA che ha illustrato la situazione nella trasmissione Report di Raitre del 27/11/18, già solo nella fase iniziale il numero di antenne attuale dovrà triplicare, per cui in Italia si passerebbe dalle 60.000 odierne a 180.000 in un amen. Swisscom ha di recente chiesto al Parlamento svizzero l’innalzamento dei limiti di esposizione, perché altrimenti non riuscirà a far funzionare il 5G. Per il momento, il Parlamento svizzero lo ha negato, ma non sappiamo fino a quando. È probabile che anche in Italia gli operatori faranno pressioni in tal senso, magari tramite organismi solo all’apparenza indipendenti.

A questo proposito va sottolineato come “i due organismi internazionali che fissano le linee guida sull’esposizione per i lavoratori e per il pubblico generale – ovvero la Commissione internazionale per la Protezione dalle radiazioni non ionizzanti (ICNIRP) e l’Istituto di Ingegneri Elettrici ed Elettronici (IEEE) – sono, la prima, un’organizzazione privata (ONG) con sede in Germania che seleziona i propri membri e la sua fonte di finanziamento è non dichiarata; la seconda, invece, è la federazione di ingegneri più potente del mondo. I suoi membri sono (o sono stati) impiegati in aziende o organizzazioni che sono produttori o utenti di tecnologie che dipendono dalle radiazioni elettromagnetiche, come ad esempio le società elettriche, l’industria delle telecomunicazioni e le organizzazioni militari”.

L’ICNIRP è composta da tecnici, in pratica ingegneri e fisici, anziché da medici e biologi che sono coloro che si occupano della salute. Gli specialisti dell’ICNIRP prendono per buono un assunto di quarant’anni prima e, nei laboratori di ricerca, riempiono un manichino di plastica alto 2 metri – con un rivestimento inerte rispetto alle onde elettromagnetiche essendo costituito appunto di materiale plastico – con gel proteico (che dovrebbe essere, secondo loro, assimilabile al contenuto del tessuto vivente umano) e lo espongono a campi elettromagnetici, osservando a quali valori di soglia cominciano a verificarsi degli effetti termici, cioè legati al calore. L’irradiazione dei manichini con questi campi elettromagnetici, fatta separatamente ad alte e basse frequenze ha permesso loro di definire in acuto, e solo per gli effetti termici, dei limiti (61 V/m) ben più alti di quelli attualmente presenti in Italia per l’esposizione delle persone ai campi elettromagnetici, cioè dei 6 V/m per i campi ad alta frequenza (come quelli a varie radiofrequenze delle stazioni radio base o, nelle microonde, dei Wi-Fi).

In Italia la Fondazione Ugo Bordoni, la Fondazione Guglielmo Marconi, il Consorzio Elettra 2000 sono organismi che si distinguono da decenni per le loro posizioni riduzioniste e favorevoli a gestori e impianti; naturalmente il loro organigramma scientifico è composto da figure tecniche dalla specifica competenza e formazione ingegneristica e fisica.

Potreste dire “ok, e quindi?”, se non fosse che, a partire dal 1995, parallelamente con la crescita di antenne della telefonia mobile, si è assistito per vent’anni a una crescita quasi esponenziale del numero di persone diventate elettrosensibili da un giorno all’altro, e che in alcuni Paesi rappresentavano già nel 2005 il 10% della popolazione. Una percentuale significativa di costoro vive una “non vita”, tanto che alcuni arrivano perfino a suicidarsi. L’elettrosensibilità è un effetto a breve termine dei campi elettromagnetici, e come mostrato già venticinque anni fa in uno studio sperimentale americano (Rea, 1991), effettuato con una serie di stimolazioni con diverse frequenze ed in condizioni di doppio cieco su 100 pazienti che auto-denunciavano elettrosensibilità, “vi sono prove evidenti che la sensibilità al campo elettromagnetico esiste e può essere stimolata in condizioni controllate dall’ambiente”. Altri studi suggeriscono che le sostanze chimiche neurotossiche e le radiazioni elettromagnetiche possano aggravare gli effetti reciproci. Non stupisce, dunque, a questo punto, il fatto che una percentuale significativa delle persone con intolleranza elettromagnetica auto-diagnosticata manifestino intolleranza a bassi livelli di esposizione chimica, ovvero siano affetti dalla cosiddetta “Sensibilità Chimica Multipla” (MCS).

Vi sono poi tutta una serie di effetti sanitari a lungo termine – tumori al cervello, infertilità maschile, malattie neurodegenerative, etc. – di cui finora stiamo vedendo solo la “punta dell’iceberg”, proprio perché si manifestano dopo vari anni. I campi elettromagnetici artificiali sono in uso da quando si usa l’energia elettrica, quindi da circa un secolo, ma in maniera abnorme negli ultimi 30-40 anni, quando alle emissioni a bassa frequenza tipiche di elettrodotti e linee elettriche si sono aggiunte quelle ad alta frequenza tipiche della radio, della televisione, dei radar, degli impianti radio-ricetrasmittenti, delle stazioni radio base della telefonia mobile, dei telefoni cellulari e dei cordless, dei router e degli hotspot Wi-Fi, dei sistemi di comunicazione usati dalla domotica (Bluetooth, Z-Wave, ZigBee, etc.), per non parlare di tutta una serie di impieghi minori di cui quasi non ci accorgiamo più: dai baby monitor fino alle porte anti-taccheggio dei negozi.

I campi elettromagnetici a bassa frequenza prodotti dalle linee di trasmissione elettrica hanno un cambiamento di polarità di 50 volte al secondo, che induce pertanto delle correnti all’interno degli organismi che ne sono investiti. Tanto che l’Agenzia Internazionale per la Ricerca sul Cancro (IARC) nel 2001 ha classificato i campi magnetici a bassa frequenza come possibili cancerogeni per l’uomo. Nel frattempo, però, le ricerche svolte in laboratorio sugli animali hanno permesso di capire che i campi alla frequenza di rete (50 Hz) sono “co-promotori” del cancro, ovvero non lo provocano di per sé, ma in presenza di un agente carcinogeno ambientale ne favoriscono lo sviluppo, come suggerito da vari studi, non ultimo uno esemplare del 2016 eseguito dall’Istituto Ramazzini.

Le evidenze scientifiche dei danni prodotti dai campi elettromagnetici a radiofrequenza sono state invece ancora meglio determinate e ormai sono molto ben comprese. Qualche anno fa, nel 2011, lo IARC li classificò come “possibili cancerogeni” – invece che come “cancerogeni certi” – perché all’epoca non si avevano ancora gli studi su animali, che sono nel frattempo stati pubblicati. Ad esempio, sono stati fatti studi approfonditi dall’Istituto Ramazzini a Bologna e dal National Toxicology Program negli Stati Uniti che hanno colmato la lacuna di conoscenza che c’era nel 2011, e che potrebbero permettere presto di stabilire ufficialmente che le radiofrequenze sono dei cancerogeni certi per l’uomo, e dunque la cui esposizione è da evitare ai cittadini.

Secondo un recentissimo studio pubblicato online nel 2018 dalla rivista peer-reviewed Journal of Environmental and Public Health, in Inghilterra nel periodo 1995-2015 è stato riscontrato un aumento sostenuto e molto significativo nell’incidenza del Glioblastoma Multiforme – il tumore cerebrale più aggressivo e rapidamente fatale – nel corso dei 20 anni esaminati e in tutte le fasce d’età, mentre i tassi per i tumori di gravità inferiore sono diminuiti, mascherando questa drammatica tendenza nei dati complessivi. E risultati simili si sono riscontrati anche in Svezia, con molti tumori cerebrali di tipo nuovo diagnosticati già nella fascia di età fra i 20 ed i 40 anni. E questo solo per citare due Paesi per i quali si hanno a disposizione studi con i dati più recenti, che forniscono quindi meglio il quadro reale della situazione e del trend in atto.

I tumori cerebrali sono a crescita lenta e possono richiedere decenni per svilupparsi dopo l’esposizione tossica. I tassi di cancro ai polmoni non aumentarono nella popolazione generale fino a più di tre decenni dopo che gli uomini americani avevano cominciato a fumare molto. Pertanto non deve stupire che non si sia ancora verificato un “boom” di casi nella popolazione generale: semplicemente non c’è stato ancora abbastanza tempo, come ammettono off-records gli esperti, e come la recente ricerca del Ramazzini sembra confermare al di là di ogni ragionevole dubbio. Negli Stati Uniti, i tumori del cervello e del sistema nervoso centrale rappresentano però già il tipo di cancro più comune nella fascia di età 15-19 anni, come mostrato da una dettagliatissima analisi pubblicata nel 2015. La soluzione è quella di usare tutto via cavo, compresi i telefoni. Il cellulare va considerato come una preziosa “radio di emergenza”, che serve quando siamo in pericolo per qualche motivo, ma non va usato per sostituire la conversazione via filo, mentre oggi l’andamento è esattamente l’opposto. Però, i rischi di tumore cerebrale sono 4 volte maggiori in chi usa i cellulari e tale legame è ben dimostrato. Non stupisce, quindi, che un neurochirurgo dell’Università di Roma abbia dichiarato, poco tempo fa, che nel loro Istituto una volta operavano un tumore cerebrale al mese, o ogni 20 giorni, mentre adesso operano tutti i giorni.

Noi in Italia abbiamo un limite di esposizione della popolazione alle radiofrequenze (di emittenti radio-televisive, torri della telefonia mobile, ponti radio, vari apparati di telecomunicazione fissi, etc.) fra 6 e 20 V/m, ma – come rivelato dal biologo Fiorenzo Marinelli – l’ICNIRP sta chiedendo di portare questo limite di esposizione a 61 V/m. Tutto ciò, naturalmente, è da confrontarsi anche con il fondo naturale pulsato al quale l’uomo ed i suoi apparati biologici sono evolutivamente abituati (fino al 1940 circa), che è di 0,0002 V/m, mentre dal 2007 c’è stata una impennata della densità di potenza delle radiazioni nell’ambiente urbano, che corrisponde all’aver cambiato profondamente l’ambiente.

I limiti di legge attuali sono stati fatti pensando ai soli effetti termici e dicendo che non esistono effetti al di sotto della soglia termica di 61 V/m stabilita dall’ICNIRP, che provoca un forte riscaldamento. In Italia, grazie al professor Livio Giuliani – un esperto di livello internazionale degli effetti dei campi elettromagnetici e già dirigente di ricerca dell’Unità Radiazioni dell’Ispesl – quando si discussero i limiti di legge da attuare, si riuscì a far approvare un criterio di precauzione fissando la soglia a 6 V/m per gli ambienti con permanenze delle persone superiori alle 4 ore, quali ad esempio abitazioni, scuole, etc. Tuttavia, grazie agli studi degli ultimi anni, sappiamo che questi 6 V/m attuali non sono sufficientemente cautelativi e andrebbero ulteriormente ridotti.

Come spiega il già citato Marinelli, un ricercatore che ha lavorato quasi una vita all’Istituto di Genetica Molecolare del CNR di Bologna, occupandosi degli effetti biologici dei campi elettromagnetici, “il paradosso più grave è che questa legge (che fu il decreto n.381 del 1998) escludeva dal suddetto limite di esposizione gli apparati mobili, cioè i telefoni cellulari, che successivamente furono classificati attraverso un sistema molto complicato che è quello del SAR, fissato per l’Europa in 2 W/kg, e che viene autocertificato dalle case che producono i telefoni cellulari. Per ottenere dentro il manichino usato per stabilire il SAR i 2 W/kg, bisogna emettere da fuori un campo di 307 V/m. Quindi, dire che un telefono cellulare rispetta la normativa di 2 W/kg, è come dargli una licenza d’uso a 307 V/m. Perciò, è un’assoluta assurdità!”.

“L’OMS e l’ICNIRP”, spiega Marinelli “dicono: limite di legge 61 V/m. Il limite in Italia – che è uno dei valori più bassi a livello internazionale – è di 6 V/m. Ma gli studi indipendenti dicono che bisognerebbe scendere almeno a 0,6 V/m o a 0,2 V/m. Tuttavia il problema principale sono i telefoni cellulari, che sfuggono a questa limitazione. Inoltre, i limiti di legge sono stati “costruiti” per gli effetti termici immediati, mentre invece irradiare una persona con 2 V/m praticamente per tutta la vita causa, molto probabilmente, un danno ben maggiore di quello causato dalla esposizione occasionale ai 6 V/m stabiliti dalla legge”.

Inoltre, come spiega Giuliani, “diversamente da quello che l’uomo della strada pensa, gli effetti delle radiofrequenze non dipendono solo dall’intensità delle emissioni, ma anche dalle loro forme d’onda, frequenza e fase”.

Non dobbiamo dimenticare poi che, nel 2011, la risoluzione n.1815 del Parlamento Europeo dà un’indicazione precisa, e dice “bisogna diminuire al massimo l’esposizione dei cittadini, perché ci sono delle evidenze di possibile danno”. Non solo, ma con le conoscenze attuali non dobbiamo più parlare di principio di precauzione – come si faceva alcuni anni fa quando non si sapevano moltissime cose relativamente agli effetti biologici e sanitari delle onde elettromagnetiche ad alta frequenza ed a bassa frequenza – bensì dobbiamo parlare di principio di prevenzione, perché oggi sappiamo che le onde elettromagnetiche sono dannose.

L’ultimo aspetto che va sottolineato è il conflitto di interessi potenziale che può influenzare pesantemente la conoscenza scientifica in questo delicatissimo settore. Se gli studi scientifici non sono finanziati dall’industria, trovano effetti dei campi elettromagnetici a radiofrequenza per il 70% e non li trovano per il 30%. Viceversa, se gli studi sono finanziati dall’industria, trovano effetti solo per il 32% e non li trovano per il 68%. Questa è l’esplicitazione numerica del paventato conflitto di interessi, cioè l’industria sembra favorire/finanziare pubblicazioni scientifiche che servano a “bilanciare” quelle ottenute da scienziati indipendenti o operanti nel settore pubblico.

Purtroppo, come osservato dal prof. Angelo Gino Levis, a cui si deve la storica sentenza del tribunale di Ivrea sulla relazione fra neurinoma e uso del cellulare 3,4, “oggi una gran parte della scienza subisce un processo di “secolarizzazione”, cioè di immobilità. Certe posizioni ufficiali sono ferme da 60 anni, nonostante le conoscenze scientifiche sull’argomento siano enormemente progredite. Inoltre, quando si ha a che fare con un problema nel quale sono coinvolti interessi planetari – e oggi quelli delle tecnologie che comportano la produzione e l’utilizzo di campi elettromagnetici, come la generazione di elettricità e la telefonia mobile, superano quelli che in passato ha avuto l’industria automobilistica – i conflitti di interesse possono influenzare in maniera determinante le conoscenze scientifiche, la normale dialettica fra i ricercatori e, in ultima analisi, l’informazione che arriva al grande pubblico”.

Molti cittadini pensano che alcune Istituzioni pubbliche possano, nonostante tutto, proteggere il cittadino, ma potrebbe non essere proprio così. Infatti, la voglia di deregolamentare il settore con una varietà di norme e di interpretazioni sempre più “larghe” delle stesse è stata ed è, in questo settore, più forte di quella di stabilire dei limiti di legge cautelativi e di farli in qualche modo rispettare. Inoltre, le leggi nazionali che regolano l’installazione delle nuove antenne sono state via via semplificate a favore degli operatori di telefonia. Le nuove normative sulle misurazioni, poi, sono tali che le ARPA non riescono a fare rilievi di routine con valore legale. Ed i Comuni non hanno più in mano strumenti legislativi efficaci per poter imporre qualcosa agli operatori. E quando l’ultimo baluardo rimasto è costituito – come in questo caso – solo da giornalisti e scienziati, allora situazione appare critica e preoccupante.

ARPA che, non dobbiamo mai dimenticarlo, hanno il compito di vigilare sul rispetto di limiti e valori e soglie di emissioni e inquinanti fissate dal legislatore e alle quali non spetta alcuna valutazione sanitaria non avendone titolo né competenza.

Ma già subito dopo l’approvazione della legge quadro in materia di esposizione ai campi elettromagnetici, è iniziato un percorso di progressivo allontanamento da parte istituzionale rispetto a posizioni di protezione e cautela, a discapito della tutela della salute. La parabola discendente corrisponde ad esempio – in qualche modo – ad un progressivo allontanamento di Livio Giuliani, di certo non voluto da lui, dalla possibilità di intervenire direttamente con le prerogative che la legge comunque gli attribuiva come dirigente dell’Ispesl (Istituto Superiore per la Prevenzione e la Sicurezza sul Lavoro), l’organo che aveva espresso l’atteggiamento più cautelativo nei confronti dei campi elettromagnetici. E infatti l’Ispesl è stato eliminato, o meglio accorpato nell’Inail, rendendolo di fatto “innocuo”.

Come osservato in un Convegno “Stop 5G” dalla dr.ssa Fiorella Belpoggi, biologa e dirigente dell’Area ricerca del prestigioso Istituto Ramazzini di Bologna, “l’industria chimica e quella delle automobili non possono mettere sul mercato un prodotto senza aver prima fatto degli studi sulla possibile presenza di effetti sulla salute; alla telefonia mobile ciò non è mai stato chiesto. Anche tale industria, invece, dovrebbe essere obbligata a seguire un certo percorso, altrimenti sostenibilità e salute – parole di cui ci siamo riempiti la bocca in questi anni – vanno a farsi friggere”. Il problema, inoltre, è che in Italia, per guadagnare dalle licenze sulla concessione delle frequenze radio-televisive, lo Stato ha reso gli operatori e gestori di telefonia mobile, di fatto, dei concessionari privati di un servizio. Ed abbiamo visto con il “caso Autostrade” cosa ciò comporti nel caso si verifichi un “imprevisto” e si renda opportuna una revoca.

Potrebbe essere utile pensare a un parallelo col fumo, e non solo per il lungo periodo di latenza fra esposizione e sviluppo del cancro. Tutti abbiamo visto delle radiografie con i danni che esso provoca ai polmoni. Ebbene, vari studi recenti hanno costantemente riportato un aumento della permeabilità della barriera emato-encefalica e un deterioramento cognitivo dopo l’esposizione a campi elettromagnetici a radiofrequenza, confermando i risultati pionieristici di Leif Salford e colleghi, che per primi dimostrarono come l’esposizione dei ratti alle radiazioni dei telefoni cellulari causi nel giro di sole 2 ore dei “buchi” in questa fondamentale barriera fra i vasi sanguigni ed il resto del cervello. Ciò permette l’accesso a sostanze chimiche tossiche nel cervello, e può in parte spiegare perché molte persone elettrosensibili siano affette anche dalla cosiddetta “Sensibilità Chimica Multipla” (MCS).

Infine è assai importante conoscere il livello di elettrosmog nel proprio ambiente di vita (casa e ufficio), e soprattutto l’intensità del campo prodotto dal proprio smartphone, considerando che con il traffico dati attivo molti apparecchi emettono valori elevati di radiazioni h24, se non spenti.

Ma cosa dobbiamo aspettarci dal 5G? Quella che è la tecnologia attuale 3G e 4G, basata su radiofrequenze che vanno dalle centinaia di mega-hertz fino a pochi gigahertz, si trasferirà in parte in quella che è un’altra finestra dello spettro elettromagnetico, ovvero quella delle onde centimetriche (in Italia, una delle tre bande “pioniere” che sono state messe all’asta per il 5G è a 26 GHz) e si parla anche di onde millimetriche. Quindi, la frequenza delle onde coinvolte nella nuova tecnologia del 5G aumenterà, che è proprio l’opposto di ciò che i ricercatori dell’Istituto Ramazzini si auspicano sulla base dei loro studi.

Maurizio Martucci giornalista d’inchiesta che da anni si occupa di elettrosmog, sottolinea la responsabilità della politica nel non occuparsi di tale argomento: “Se la politica, il Governo, il Parlamento sono completamente nelle mani dei desiderata di chi sta sviluppando questa tecnologia – che non ha nessuno studio preliminare su quelli che potranno essere gli effetti sanitari sulla popolazione civile – e non hanno una presa di coscienza seria e sensata su questo problema, che è molto importante considerato che già dall’inizio del 2019 una delle bande di frequenze che sono state messe all’asta dal Governo sarà operativa, ci troveremo in realtà ad essere tutti delle cavie”.

Di solito, chi oggi scrive di questi temi, ha sostenuto Martucci, “porta le cosiddette “veline di regime”, perché è inutile vendere fumo, occorre dire la verità; e cioè che non c’è uno studio preliminare che attesti l’innocuità socio-sanitaria del 5G; e che al mondo esistono ben più di 1.000 studi validati dalla comunità medico-scientifica che attestano effetti biologici delle onde elettromagnetiche a radiofrequenza. La buona notizia che vi posso invece dare”, dice ancora “è che qualcosa, o almeno la nostra parte, possiamo farla anche noi: grazie alle rimostranze dei cittadini, alle petizioni dei comitati spontanei e alle diffide legali degli avvocati, negli Stati Uniti i sindaci di 4 città – le prime 4 “mosche bianche” – hanno detto “noi non vogliamo il 5G” e altri 300 sindaci, riuniti in America in un’associazione di primi cittadini, hanno chiesto al Governo americano di bloccare il 5G. E negli Stati Uniti in ogni Stato c’è una battaglia ferocissima sull’argomento, che io seguo praticamente tutti i giorni. Dunque, la cittadinanza ha sempre una chance da potersi giocare, mai come in questo caso importante, trattandosi di salute pubblica”.

Ecco, seguo da più di vent’anni le vicende legate ai rischi che derivano dal proliferare di sorgenti di campi elettromagnetici, prima in Legambiente poi nel direttivo nazionale del CoNaCem che tanto ha contribuito, a cavallo degli anni 2000, all’adozione delle tutele legislative oggi in vigore. E da molti anni conosco personalmente e seguo le attività di ricercatori, medici e scienziati controcorrente, fuori dal coro (e dai convenzionali flussi di denaro); dal compianto prof. Maltoni al dott. Soffritti, dalla dott.ssa Belpoggi fino al dott. Mandrioli dell’Istituto Ramazzini di Bentivoglio; ma anche i sopracitati Fiorenzo Marinelli e Livio Giuliani.

Concludo osservando proprio come i cittadini abbiano sempre una chance da potersi giocare quando è la salute pubblica e di tutti in discussione. E le chance aumentano quando c’è conoscenza, consapevolezza, condivisione di informazioni e di intenti nella comunità e in chi li rappresenta, e non ultima la responsabilità e la coerenza dei comportamenti individuali. Certamente importante il dialogo e il confronto nel quale però deve prevalere l’interesse collettivo della salute rispetto a quello del profitto, come la nostra stessa Carta Costituzionale sancisce anteponendo il diritto alla salute (art.32) a quello dell’iniziativa economica privata che non può svolgersi in contrasto con l’utilità sociale o in modo da recare danno alla sicurezza, alla libertà, alla dignità umana (art.41); e di fronte alla materiale ottusità e alla viscida condiscendenza anche le barricate possono diventare extrema ratio.

Roberto Feletto

Condivi
www.pdf24.org    Invia l'articolo in formato PDF   

SCIENZA ED ETICA Il ruolo dello scienziato nel 3° millennio

Immagine

logo_ramazzini4Eravamo presenti sabato scorso all’assemblea annuale dei soci dell’Istituto Ramazzini a Castello di Bentivoglio.
Riportiamo dall’ultimo numero del Ramazzini News un illuminato intervento della d.ssa Fiorella Belpoggi, direttore del Centro di Ricerca Cesare Maltoni.


Fiorella-Belpoggi-EFSAL’OTTICA CON CUI MI SENTO di affrontare il tema dell’etica nella scienza deriva dalla mia esperienza personale, che riguarda ormai quarant’anni di vita spesa nel settore della ricerca di base, in particolare nella ricerca sul cancro, per conoscerne i meccanismi di insorgenza, attivare strategie di prevenzione, informare istituzioni e cittadini sui rischi per la salute correlati ad agenti chimici, fisici e stili di vita, specifici del nostro modello di sviluppo. Quarant’anni in cui ci sono stati progressi, è vero, ma assolutamente insoddisfacenti rispetto alle attese e alle reali necessità. La maggior parte delle risorse è stata destinata alla ricerca di una “pillola magica”, che potesse guarire tutti, piuttosto che a strategie di prevenzione, orientate all’identificazione dei fattori di rischio e alla loro rimozione.

Qual è lo Scenario del Nostro Pianeta?
earth-day-2010Sappiamo che la terra è uno scenario unico, fuori dal quale la vita non è possibile se non incapsulando spezzoni del nostro pianeta, come avviene negli abitacoli dei veicoli spaziali; è unico ed è piccolo: in meno di 30 ore un aereo di linea può circumnavigare il pianeta; la biosfera, lo strato che avvolge la terra e rende possibile la vita, ha una altezza che non supera i 10-12 Km; le risorse di materie prime non rigenerabili sono limitate (minerali, petrolio, acqua potabile per esempio); i tempi di ricostituzione di molte materie rigenerabili sono lunghissimi. Quindi dobbiamo tenere conto della finitezza e della precarietà delle risorse ambientali, modificando gli atteggiamenti di interazione con le risorse del pianeta, che erano risultate sostenibili fino a poco più di un secolo fa.

Quali le relazioni fra ecosistema e attuale modello di sviluppo?
depredare-risorse-pianetaNel secolo scorso, e soprattutto negli anni del dopo guerra, i modelli di sviluppo industriale, esasperati dal consumismo dilagante, hanno saccheggiato in maniera inconsulta e irresponsabile le risorse di materie prime ed ambientali; sono state compiute alterazioni tali dell’ecosistema e prodotte una quantità tale di scorie da non rendere più possibile né la loro diluizione, né la loro trasformazione, soprattutto quando si è trattato di scorie tossiche per gli esseri viventi, piante e animali.

IL PROBLEMA DEMOGRAFICO
globe-2809C’è un altro importante fattore di cui tenere conto quando si ragiona di sostenibilità. La popolazione umana è in crescita; siamo a quota 7 miliardi, ed è prevedibile che nel 2050 saremo 12 miliardi o più. Le popolazioni dei paesi emergenti adottano un modello di sviluppo di tipo industriale, sempre più simile al nostro, che fa prefigurare un enorme aumento dei consumi e della produzione di scorie.

AMBIENTE E SALUTE
imaesPuò il nostro piccolo pianeta sostenere queste sfide? No, non può, se non ci sarà un drastico cambio del sistema di sviluppo globale. Il cancro ed altre patologie croniche in continua crescita possono essere considerate malattie ambientali, cioè dovute all’alterato equilibrio fra l’uomo e l’ambiente in cui vive. Negli Stati Uniti è stato stimato che 1 uomo su 2 e 1 donna su 3 sono destinati a sviluppare cancro nel corso della loro vita. Nel mondo, il numero di morti per cancro all’anno è di più di 7 milioni, che equivale a circa 20 mila persone al giorno. In Italia i decessi per cancro ogni anno sono oltre 150.000 ed i nuovi casi oltre 300.000. Per valutarne la dimensione tragica con un paragone, ricordiamo che in cinque anni di seconda guerra mondiale il numero di vittime civili è stato di 130.000.

LA SALUTE DEI BAMBINI
UKRAINE-HEALTH-CANCER-CHILDRENSe consideriamo gli andamenti temporali dei tumori nell’età pediatrica, vediamo che, pur restando una patologia rara, tra il 1988 e il 2002 si è osservato un aumento della frequenza (per tutti i tumori) del 2% annuo passando da 146,9 casi per milione nel periodo 1988-1992 a 176,0 casi nel periodo 1998-2002 e recenti studi hanno dimostrato che il trend delle patologie croniche nell’infanzia è in continuo aumento (intolleranze alimentari, asma, allergie, autismo, ecc). Dobbiamo tenere conto del fatto che i bambini non rappresentano dal punto di vista biologico dei piccoli adulti. Infatti, in proporzione al loro peso corporeo, bevono 7 volte di più degli adulti, respirano più aria, (e quindi introducono più sostanze tossiche in rapporto al peso), hanno una minore capacità di detossificare molte sostanze chimiche, hanno dimostrato una maggiore vulnerabilità biologica (thalidomide, DES, sindrome fetale da alcool, ecc.), hanno una maggiore aspettativa di vita, che comporta sia il perdurare dell’esposizione che la manifestazione degli effetti a lungo termine; dobbiamo quindi aspettarci che l’incidenza dei tumori sarà destinata a crescere quando i bimbi di oggi diverranno adulti poiché, come sappiamo, il cancro ha una latenza lunga, cioè passano anche molti anni dall’inizio dell’esposizione all’insorgenza del tumore (per l’amianto anche 50 anni).

FATTORI CHE CONDIZIONANO L’INSORGENZA DEI TUMORI
poison-in-a-flask_140576803Oggi sappiamo che i fattori che condizionano il cancro sono la predisposizione genetica, l’età e l’esposizione a sostanze cancerogene; e che riveste un ruolo importante l’età all’inizio dell’esposizione, cioè embrioni, feti e bambini sono più vulnerabili. L’insorgenza del cancro può essere evitata solo riducendo il fattore esposizione, poiché la predisposizione genetica e l’età sono fattori che esulano dalle nostre possibilità di controllo. Invece, purtroppo, i dati della Environmental Protection Agency americana ci dicono che oggi sono in commercio più di 80.000 composti chimici di sintesi, non esistenti in natura; di questi più di 2.800 vengono prodotti o importati in quantità superiori a 300.000 tonnellate l’anno (composti ad alto volume di produzione = HPV); per il 43% delle sostanze chimiche HPV non esistono informazioni di base sulla loro tossicità; per il 50% esistono informazioni parziali e inadeguate; solo per il 7% dei composti HPV sono disponibili informazioni sulla loro tossicità.

Ridefinire uno scenario sostenibile per la vita dell’uomo e del pianeta è un tema etico urgente. La scienza, in tutti i suoi aspetti specialistici, non può e non deve eticamente prescindere da questo scopo.

RUOLO DELLA SCIENZA
medico di famigliaIl medico è l’esempio dello scienziato che tradizionalmente è stato considerato più vicino alla società. Nella grande tradizione medica passata il medico si occupava della salute dell’uomo nella sua globalità, e talora se ne faceva carico per tutto l’arco della vita. Aveva cura degli aspetti fisici, psichici e fisiologici; faceva diagnosi e prescriveva le cure; assisteva il paziente e la famiglia in tutti i momenti di disagio, compreso il momento ultimo della vita; l’arte medica era frutto di una lunga preparazione culturale, sia umanistica che scientifica, che la società riconosceva al medico, riservando a lui, e solo a lui, al di fuori dei perimetri della religione, il titolo di “dottore”. L’oggetto di attenzione del medico era l’uomo “intero”. Dall’inizio del secolo scorso, soprattutto dopo il secondo conflitto mondiale, la medicina e la biologia, quindi le figure del medico e dello scienziato, sono andate cambiando. Si è spezzato il rapporto paritetico tra cultura e società, a causa della separazione della cultura in due culture, quella umanistica e quella scientifica; la cultura scientifica è stata resa sempre più tecnologica e lontana dalla percezione dell’uomo, sempre più specialistica e in parte oscura ai più; è nata una cultura descrittiva, acritica, terzillisponsorizzata dal potere economico/politico, ragionevole e di buon senso, perbenista, e ampiamente in quel caso gratificata dal potere, che la definisce innovazione tecnologica. Ciò che è nuovo non è detto che sia buono per il rispetto della vita sul nostro pianeta, ed innumerevoli “innovazioni” degli ultimi 100 anni lo hanno dimostrato (per esempio le plastiche e i loro residui). Lo scienziato, il medico, diventano personaggi dei mass-media, a prescindere dai risultati e dalle ricadute del proprio lavoro a beneficio dell’uomo. La scienza di oggi è lontana dai reali bisogni dell’uomo e della società, vicina a quelli dell’industria che chiede solo innovazione a fini di profitto.

smrecwordle_.jpg__369x184_q85_cropNoi scienziati dobbiamo riprendere il nostro ruolo, dobbiamo riattivare il rapporto imprescindibile con la società civile, capirne i bisogni, le richieste di attenzione, l’esigenza di salvaguardare la salute dell’uomo e dell’ambiente come priorità, rendere cioè la scienza compatibile con la vita del nostro pianeta. Innovazione dal mio punto di vista significa oggi avere un approccio etico ai cambiamenti che la società richiede con forza: stare bene e stare in salute, cioè vivere e non sopravvivere, dare vita ai giorni e non giorni alla vita, utilizzando le nostre conoscenze per questo fine. L’etica della scienza è mantenere il benessere psico-fisico dell’uomo al centro dei nostri studi e delle nostre ricerche; dobbiamo con urgenza concentrarci su questo obiettivo.

Condivi
www.pdf24.org    Invia l'articolo in formato PDF   

Impariamo dalla natura per uscire dalla crisi: con Gianni Tamino

Questa sera, 27 settembre alle 20,45 presso la sala convegni di Villa Frova a Stevenà di Caneva incontro/dibattito con Gianni Tamino, docente di Biologia generale, già deputato ed eurodeputato, da sempre presente ed attento alle problematiche ambientali, di energie rinnovabili, di sostenibilità, di biotecnologie, di ricerca sugli inquinanti ambientali, interessandosi allo studio dell’impatto ambientale di centrali elettriche e inceneritori, e alla possibilità di rischi biologicidi biotecnologie e campi elettromagnetici.

Condivi
www.pdf24.org    Invia l'articolo in formato PDF   

Piove, non piove…

Ci vorrebbe un’alluvione spalmata in un mese e mezzo per risolvere la siccità.
Due anni fa il Veneto era
sott’acqua, ricorderete tutti i 530 millimetri di pioggia caduta in 48 ore. Ora invece invoca una goccia di pioggia. Non solo per l’agricoltura. Anche la vita quotidiana potrebbe essere pregiudicata da questa situazione eccezionale: -86 per cento di precipitazioni rispetto alla media stagionale, -67 per cento di neve questo inverno, un marzo con le temperature di maggio.
Ora le previsioni meteorologiche parlano di diminuzione delle temperature da martedì, di una Pasqua sotto l’acqua, mentre in Regione proprio fra oggi e domani dovrebbe arrivare la firma dello stato di crisi. Tuttavia, se anche nelle prossime settimane dovessero piovere quei 300 millimetri di pioggia che mancano all’appello, mai come in questi giorni si parla di prevenzione anche per questo fenomeno.
La situazione. «È una criticità importante per tutto il Triveneto – afferma Giuseppe Romano, presidente dell’Unione Veneta Bonifiche, l’ente che riunisce i dieci consorzi della regione – Nemmeno il 2003 che è stato un anno estremamente caldo e siccitoso era arrivato a questi limiti. Nei terreni più ghiaiosi il problema si è già avvertito, ma il problema arriverà anche nei terreni più pesanti». Con lo scioglimento delle nevi, quest’anno si ricaveranno circa 104 milioni di metri cubi d’acqua, contro una media di 300 milioni negli ultimi nove anni. Nelle Prealpi Vicentine la falda cala di oltre un centimetro al giorno: le centrali idroelettriche lungo i canali di bonifica della zona sono ferme da mesi per mancanza di portata idrica. Il Piave ha la portata più bassa degli ultimi 100 anni: solo 25 metri cubi al secondo. Il Brenta ancora peggio: 12 metri cubi. Il Consorzio di bonifica deriva circa 7 metri cubi al secondo, mentre il fabbisogno agricolo attuale sarebbe di 22. Anche i fiumi più propriamente di pianura hanno portate di molto inferiori alla media. Secondo l’Unione Veneta Bonificiche, poi, alla foce del fiume Adige si stanno registrando segnali di risalita del cuneo salino con grave rischio per le colture.
Lo stato di crisi.
La bozza per lo stato di crisi, invocato da più parti al vertice di Palazzo Balbi martedì scorso
fra consorzi di bonifica, autorità di bacino e gestori di impianti idroelettrici, è pronta e «dovrebbe arrivare sul tavolo del presidente per la firma lunedì o martedì», comunica Maurizio Conte, assessore regionale all’Ambiente. Sono previste limitazioni al prelievo per la produzione di energia idroelettrica: del resto c’è già stata una necessaria diminuzione della quota di energia da fonte idroelettrica da parte delll’Enel, ora la diminuzione verrà “istituzionalizzata”. Poi, alle colture arriverà il 40 per cento in meno di acqua. Per quanto riguarda i bacini, sarà mantenuto il minimo deflusso vitale (cioè la quantità d’acqua che i bacini “ritornano” ai fiumi per mantenere il loro equilibrio ecologico) ai livelli invernali. «Probabilmente – annuncia Conte – inseriremo delle indicazioni anche per l’acquedottistica. Perché ora il problema riguarda le acque di superficie, ma la preoccupazione è che col tempo ci sia una situazione analoga per le acque di falda».
Le conseguenze.
Con uno stato
di crisi firmato, non è esluso che le ordinanze antispreco, per esempio il divieto di annaffiare fiori e giardini, di solito emesse durante l’estate vengano dai sindaci anticipate alle prossime settimane. Ordinanze che a Belluno, provincia che già vive una situazione difficile e dove le autobotti già circolano regolarmente per i comuni, sono già arrivate.
Un allarme è stato lanciato nei giorni scorsi, poi, dall’assessore regionale all’Agricoltura Franco Manzato: “Le colture soffrono e soffriranno. Però attenzione: il vero rischio è che a pagare gli effetti di questa vera e propria calamità naturale siano solo i consumatori e i produttori”.
Ovvero, la lievitazione dei costi dei prodotti agricoli che si può verifica in altre fasi della catena di distribuzione. Una lievitazione che è speculazione, considerando che a fronte di potenziali danni alla produzione gli agricoltori possono ricorrere al sistema assicurativo agevolato. “Avremo il paradosso – continua Manzato – che potrebbero rincarare, come già accaduto in passato, anche i prodotti agricoli provenienti da paesi dove il problema non esiste”. L’invito dell’assessore è dunque quello di vigilare su eventuali sbalzi e impennate nel prezzo finale delle produzioni agricole e a segnalarle alle autorità o alle associazioni dei consumatori.
La prevenzione.
«Quando arriveremo a razionalizzazione, vuol dire che è già tardi». Le parole sono ancora di
Giuseppe Romano, che sottolinea l’importanza della prevenzione. Si parte dall’irrigazione: «In questi anni si è fatto tanto per ridurre i prelievi dai fiumi, passando da sistemi che usano più acqua a sistemi che ne usano a meno. Il sistema a pioggia, per esempio, spreca il 55 per cento di acqua in meno rispetto a quello di scorrimento”. A Treviso, per esempio, è stato trasformato il sistema di irrigazione di 1 5mila ettari di colture, con un investimento di 50 milioni di eruo. La stessa trasformazione ha interessato nel Veronese, negli ultimi dieci anni, 2500 ettari fra colline e media pianura. Poi, recentemente è entrato in funzione Irriframe: un portale che offre agli agricoltori informazioni puntuali sulle attività dei consorzi, come il preciso momento di intervento irriguo e il volume di adacquata (l’acqua distribuita ai campi). C’è anche una milionaria partita di riconversione delle cave, di cui il Veneto è ricco, in bacini di riserva. Non dimentichiamo, infatti, che la nostra regione dal Piano Irriguo Nazionale firmato l’anno scorso ha portato a casa ben 200 milioni di euro.
I laghi montani.
C’è tutta una realtà però che la siccità la subisce solo e anche con provvedimenti straordinari potrebbe non venirne mai fuori. Si tratta dei laghi montani, per i quali non esiste una legge né regionale né nazionale che ne possa tutelare i bacini. Il lago di Calalzo, completamente a secco e che ha visto una moria di 130 quintali di pesce, è diventato il simbolo di questa siccità, ma anche della mancanza di regolamentazione, come racconta nella nostra intervista all’ospite della settimana Luca de Carlo, energico sindaco del Comune cadorino. “il minimo deflusso vitale vale solo per i corsi d’acqua, non esiste una legge che determini un minimo livello di invaso per i laghi”. Con una beffa fra l’altro: i volumi d’acqua che i gestori degli impianti di energia elettrice e le comunità in pianura possono prelevare dai laghi, sono calibrati ancora con dati che tengono conto dell’invaso del Vajont. “Quando la siccità e il clamore mediatico sarà passato – conclude De Carlo – comunque noi avremo i problemi dei prelievi dell’Enel. Ma resteranno un problema cadorino. Invece dovrebbe essere che un problema cadorino interessi tutti”.
di Antonella Scambia
da Veneto7giorni newsletter n°05

Condivi
www.pdf24.org    Invia l'articolo in formato PDF   

La ghiaia dei senza soldi.

Martedì 15 novembre (10 giorni fa) ho scoperto come si usa oggi, in quel di Gaiarine, sistemare le strade bianche di campagna.
Avendo, come cittadino di Gaiarine, fatto presente più volte al responsabile della manutenzione comunale la necessità di una inghiaiatura per coprire le buche formatesi sulla strada bianca denominata “strada delle Minghelle” (laterale di Via Terraglio), mi aspettavo, prima o dopo, che il Comune, come ha sempre fatto in passato, arrivasse con un bel camion di ghiaia, la scaricasse e successivamente la stendesse con la pala meccanica ricoprendo le buche esistenti.
Le buche sono state in parte ricoperte, non utilizzando la ghiaia ma bensì fresato d’asfalto, materiale di risulta della limatura delle strade prima essere riasfaltate. Ritenendo che il fresato d’asfalto non fosse il materiale più idoneo alla sistemazione di una strada bianca, ma bensì un rifiuto “speciale” ho telefonato al responsabile della manutenzione comunale.
Per non tediarvi riassumo brevemente le risposte ottenute alle mie richieste di chiarimenti:

  • i cittadini, come sempre, sono subito pronti a lamentarsi
  • non è fresato d’asfalto ma bensì semplice ghiaino macinato
  • il ghiaino macinato (per me fresato d’asfalto) è materiale adatto per questo tipo di intervento
  • la strada per lungo tempo non avrà più bisogno di manutenzione
  • ci saranno sempre meno soldi per far la manutenzione come “che volarìa mi

A fronte delle risposte ricevute ho invitato il responsabile a non proseguire la manutenzione della strada con il medesimo materiale e gli ho detto che mi sarei informato se quello che lui chiamava “ghiaino macinato” poteva essere usato allo scopo.
Conclusione: il comune di Gaiarine non ha soldi per la ghiaia e per supplire smaltisce impropriamente un rifiuto speciale non pericoloso sulle strade bianche del comune mentre in altre parti di Italia si promuove una legge nazionale per la loro valorizzazione e tutela.

– il fresato d’asfalto è un rifiuto? leggi qui
– come si recupera il fresato d’asfalto? leggi qui

(via delle Minghelle, senza “ghiaino macinato“)

Condivi
www.pdf24.org    Invia l'articolo in formato PDF