lunedì 19 settembre 2016

La Cultura e la corretta Informazione come mezzo per superare le crisi.

E’ da tempo che il mio cuore, la mia coscienza, mi chiedono di scrivere in merito al tema della cultura e del sapere ma la mia mente, in ben altre faccende affaccendata, ha sempre rimandato, ritenendo la cosa non di diretto interesse della rubrica. La scusa, e anche la ragione, che finalmente mi ha convinto di scriverne, è la vicenda del brexit. Non voglio farne assolutamente l’ennesima analisi politica, economica o sociale, non è nel mio interesse e non è questo il luogo, ce ne sono altri, anche in questo sito stesso, dove farle e dove commentarle.

La domanda è: siamo sicuri che la democrazia diretta sia il giusto metodo per risolvere i problemi della nostra società? Il referendum inglese è stato preso come baluardo assoluto della democrazia e della partecipazione democratica del popolo alle decisioni politiche ed economiche di un intero paese. I politici hanno dato una grossa responsabilità al popolo, se ne sono lavati le mani, hanno scaricato la propria incapacità nel risolvere i problemi ad una entità che già sapevano quale risposta avrebbe dato.

Il problema è che non è detto che il popolo sappia cosa vuole e soprattutto se ciò che vuole è giusto per lui. Tutto sta nella cultura; abbandonata ormai a se stessa ed in mano a social network, mass-media, millantatori, profittatori e sciacalli. Una cultura snobbata dai ricchi e sconosciuta ai poveri, relegata in polverose biblioteche, laboratori e poche università di alto livello.

Più vivo i giorni di questa nostra epoca più mi domando che fine stia facendo la cultura, un’epoca, una società che abbandona le scuole, togliendo loro risorse, abbandona gli insegnanti tagliando stipendi e propinando esami impossibili da superare per far entrare meno gente possibile nelle strutture, uno stato che investe in armi e guerre e lascia soli scuola ed università, che licenzia insegnanti e che rende il loro lavoro sempre più precario, una società che toglie risorse alle università, ai centri di ricerca ed ai giovani ricercatori. Un’epoca in cui i giovani non sono stimolati a studiare, sottomessi a professori anziani in aria di pensione e bombardati da messaggi e  notizie errate o distorte.

Siamo sempre più ignoranti e la colpa non è solo del governo ma è anche e soprattutto nostra. La volontà deve partire da noi; siamo noi che dobbiamo impegnarci a studiare e ad informarci correttamente, se la scuola non funziona, ci sono altri mille modi per accedere alla cultura, basta saper selezionare le fonti giuste, ragionare con la propria testa e crearci la nostra cultura.

Il referendum inglese è il risultato della mancanza della cultura, del dilagare di notizie false, di allarmismi esagerati, di paure, di titoli di giornali scritti solo per vendere più copie e di tutta una seria di notizie bufala.
I politici corrotti e inutili, i cospiratori, i complotti intorno al gruppo builderberg, le scie chimiche e simili, sono il risultato della carenza di cultura, intesa come sapere e saper ragionare, in maniera autonoma e cosciente. Non è colpa della casta, non è colpa della destra, della sinistra, del governo e neppure del calcio, ma solo e solamente nostra, di noi popolo che, ingenui ed “ignoranti” ci lasciamo prendere per il naso da chi, munito di una punta di furbizia, sfrutta a pro suo questa nostra debolezza.

Insomma, se vogliamo fare la rivoluzione, non c’è bisogno di scendere in piazza e neppure distruggere tutto, basta solo studiare a partire dalla storia e farsi una cultura, leggere libri e riviste serie, ascoltare e confrontarsi in maniera corretta e rispettosa.

Ovviamente questa è una opinione, condivisibile o meno. E’ un atto di libertà  di espressione effettivo, dove scienza e coscienza hanno adeguatamente filtrato le emozioni, le paure e le passioni che hanno costruito questo  pensiero. Potrebbe non essere condivisibile e forse neppure scientificamente dimostrabile, tuttavia preferisco leggere su internet e sui giornali, atti di coscienza come questo piuttosto che le solite notizie false, distorte, ingannevoli e profittatrici che menti furbe e ingannevoli pubblicano solo per guadagnare qualche spicciolo sulla altrui ignoranza.

(Fonte: Articolo tratto da una mia rubrica che tengo su LF Magazine e che ripubblico quì per continuare a sostenere questi concetti)


COSA E' IL 5G?

giovedì 15 settembre 2016

Sarà installato al CINECA di Bologna il supercomputer del CNR.

Si chiama “Marconi” e verrà installato al Cineca, il più grande centro di calcolo italiano.

Si tratta di un supercomputer che, con una potenza di calcolo molto elevata, consentirà alla comunità scientifica di effettuare ricerche sulla medicina di precisione, la fisica fondamentale, i nuovi materiali, il cambiamento climatico, con l’obiettivo, tra l’altro, di non superare il limite di 3 megaWatt di assorbimento elettrico.

“Con questo piano – ha affermato il presidente Emilio Ferrari – il Cineca riconferma la propria missione istituzionale di infrastruttura digitale di eccellenza per il calcolo e i Big Data a disposizione della ricerca scientifica e dell’innovazione tecnologica”.

Il supercomputer è co-designato dal Cineca sulla piattaforma NeXtScale di Lenovo e equipaggiato con la famiglia di processori Intel Xeon. Il piano complessivo, che si concluderà nel 2020, prevede un investimento di 50 milioni in due fasi. Fino all’anno prossimo si raggiungerà una potenza di calcolo di 20 Pflop/s e una memoria di 20 PetaByte. 

Dal 2019 comincerà la seconda fase per raggiungere i 50/60 Pflop al secondo.
“Mettendo a disposizione i più potenti sistemi di supercalcolo consentiremo ai ricercatori di affrontare le grandi sfide scientifiche e socioeconomiche del nostro tempo, dalla medicina di precisione al cambiamento climatico, dalla fisica fondamentale ai nuovi materiali. Supercalcolo e Big Data analitycs sono strumenti indispensabili per la scienza computazionale e data driven della ricerca nazionale e internazionale”, ha dichiarato Sanzio Bassini, Direttore del Dipartimento Supercalcolo e Innovazione del Cineca.
“Non possiamo che essere orgogliosi, sia come azienda sia come team italiano, di essere stati scelti da Cineca per un sistema di enorme rilevanza scientifica nazionale e internazionale” ha dichiarato Mirko Poggi, Amministratore Delegato di Lenovo Italia. “Riteniamo questa realizzazione particolarmente importante per riconfermare l’impegno di 

Lenovo come fornitore di soluzioni innovative per i Data Center” ha affermato Alessandro De Bartolo, Country Leader del Data Center Group (DCG), Lenovo Italia. “Siamo pronti a fare tutti i passi necessari per garantire la migliore prestazione computazionale ed energetica possibile dell’architettura che sarà realizzata in Cineca, a vantaggio della vasta comunità 

che se ne servirà” ha aggiunto Marco Briscolini, responsabile del segmento High Performance Computing in DCG, Lenovo Italia.

“Siamo entusiasti di offrire i vantaggi di Intel Scalable System Framework alla comunità del Cineca, costituita da ricercatori e data scientist d’eccellenza. L’architettura offre un design bilanciato necessario per affrontare le sfide estreme poste sia dall’High Performance Computing che dall’analisi dei big data”, ha dichiarato Carmine Stragapede, Direttore Generale di Intel Italia.

Il Cineca, il Consorzio interuniversitario per il calcolo con sede a Bologna, è costituto da 70 università, 5 enti pubblici di ricerca e il Ministero per l’Istruzione, l’Università e la Ricerca (Miur).

(fonti: Cineca, Ansa, Sole24ore, dmit.it)

mercoledì 14 settembre 2016

Goloso di Caffè? merito del tuo DNA. Lo dice uno studio.

Il caffè è una delle bevande più consumate al mondo ed è una delle fonti primarie di caffeina.

Non è un segreto che le abitudini dei bevitori di caffè siano diverse. Alcuni individui non ne hanno mai abbastanza, altri si limitano a una sola tazzina al giorno o non bevono affatto.

Le variazioni genetiche hanno un impatto sul nostro organismo nell'assimilare la caffeina
Gli scienziati sembrano aver scoperto che le variazioni genetiche hanno un impatto sul nostro corpo nell’assimilare la caffeina, questo elemento potrebbe influenzare le nostre abitudini di assunzione di questa stimolante bevanda.

I ricercatori ipotizzano che questa variazione sia in grado di rallentare l’assorbimento da parte del corpo della caffeina, inducendo le persone con tale variante a bere di meno.

Il DNA delle popolazioni a confronto (Italia)
I ricercatori hanno esaminato la struttura genetica di 370 persone che vivono in un piccolo centro del sud Italia e hanno confrontato i risultati con il DNA di 843 persone che vivono in città del nord-est del Paese. Oltre ad essere genotipizzati (genotipizzazione, metodo per determinare il profilo genetico di uno specifico numero di persone), i partecipanti hanno completato un sondaggio in cui era prevista una domanda sul numero di caffè bevuto ogni giorno.

Il team ha trovato che i soggetti con la variazione PDSS2 hanno bevuto una media di circa una tazza in meno ogni giorno.

Il DNA delle popolazioni a confronto (Paesi Bassi)
Quando gli scienziati hanno ripetuto i test con un campione di 1.731 persone nei Paesi Bassi, hanno avuto dei risultati simili. I partecipanti con la variazione genetica bevevano meno caffè, anche se la differenza – misurata in numero di tazze consumate – è stata inferiore rispetto al effettuato sugli individui italiani.

Il divario tra il consumo italiano e quello olandese sembra essere attribuibile alle dosi differenti di caffè: in Italia le persone bevono il caffè in tazze piccole mentre gli olandesi preferiscono tazze più grandi che contengono generalmente più caffeina.

«Ritengo che questo studio rafforzi l'idea che la genetica giochi un ruolo molto importante per quanto riguarda le nostre abitudini quotidiane e i nostri stili di vita, la genetica applicata alla vita quotidiana ci sta aiutando non solo a sapere in che modo si comportano le persone, ma anche perché; questo ci permetterà di capire come agire sulle persone» scrive Pirastu.

«In questo caso specifico i risultati sembrano rafforzare l'idea che la caffeina è probabilmente il principale elemento chiave biologico per quanto riguarda il consumo di caffè».
 
Prima del recente studio altri ricercatori avevano trovato un legame tra la quantità di caffè che beviamo e il nostro codice genetico.

Uno studio molto più grande è stato condotto nel 2014 analizzando il DNA di 120.000 persone, in tale occasione i ricercatori scoprirono che le varianti genetiche sono in grado di moderare l'assunzione di caffè da parte delle persone in base all'efficienza dell’organismo nel metabolizzare la caffeina in modo da ottenere l'effetto ottimale dalla bevanda.

Per confermare tali risultati saranno necessarie ulteriori ricerche, «ciò che ci spinge ad assumere caffè è qualcosa di integrato nei nostri geni. Abbiamo bisogno di compiere studi più grandi per confermare la scoperta e anche per chiarire il legame biologico tra PDSS2 e il consumo di caffè» scrive Pirastu. Riuscire a comprendere bene il legame esistente tra il caffè e il nostro DNA potrebbe rappresentare un elemento importante per la nostra salute.

Uno "Scudo" di metamateriali per proteggerci dai terremoti.

Recentemente un gruppo di ricercatori ha proposto un nuovo approccio per affrontare il problema. In un articolo pubblicato recentemente sulla rivista New Journal of Physics, gli scienziati hanno analizzato la fattibilità di una strategia di isolamento passivo dalle onde sismiche basata sull’utilizzo di metamateriali meccanici di grande scala, analizzando simulazioni numeriche della propagazione di vari tipi di onde sismiche (di superficie e guidate), tenendo conto anche di effetti di dissipazione del suolo.

I metamateriali — strutture artificiali che presentano straordinarie proprietà vibrazionali — potrebbero venire in soccorso delle zone minacciate dai terremoti. Il comportamento vibrazionale di questi materiali è fondamentalmente controllato dalla loro struttura, piuttosto che soltanto dai materiali di cui sono composti.

Attualmente le grandi strutture quali ponti e gli edifici come i grattacieli sono protetti contro i terremoti grazie all’utilizzo di strategie di isolamento dalle vibrazioni che prevedono sistemi installati nelle fondamenta. Tuttavia questi approcci sono impossibili da implementare su strutture esistenti come gli edifici storici e sono efficaci solo su una singola struttura.

La schermatura degli edifici vulnerabili attraverso l’impiego di "scudi" di metamateriali (materiali sintetici compositi che inibiscono la propagazione delle onde sismiche in arrivo attraverso effetti di interferenza) potrebbe contribuire a proteggere un'area molto più ampia senza alcuna modifica diretta agli edifici esistenti in essa.

La realizzazione più semplice di scudo sismico proposto dal team implica di scavare nel suolo 3-4 file di cavità a forma di croce spaziate opportunamente.

«Le dimensioni esatte dipenderanno dal tipo di suolo e dall’intervallo di frequenza dello scudo» scrive Marco Miniaci ricercatore presso l’Università di Torino e il LOMC (Laboratoire Ondes et Milieux complexes) dell’Università di Le Havre, Francia.

«In caso di suoli sabbiosi ed eccitazioni sismiche a bassa frequenza, la larghezza, la spaziatura e la profondità delle cavità (che dovrebbero essere rivestite di uno strato di calcestruzzo per impedire il collasso del terreno circostante), potrebbero raggiungere 10 metri» aggiunge il ricercatore.

Per estendere le prestazioni della struttura protettiva, i ricercatori propongono di aggiungere un numero di cavità cilindriche risonanti più piccole di circa 2 m di diametro. Inoltre possono essere eseguite ulteriori modifiche. Riducendo le dimensioni e spaziatura delle cavità le proprietà dello scudo potrebbero essere indirizzate verso problemi simili che si verificano a frequenze più elevate.

Gli scenari includono la prevenzione delle vibrazioni in prossimità delle reti ferroviarie ad alta velocità o linee tranviarie. La protezione contro le esplosioni potrebbe essere un'altra potenziale applicazione.

«I prossimi passi dovrebbero implicare l’esecuzione di prove sperimentali attraverso l’utilizzo di modelli in scala presso laboratori specializzati nel settore della geotecnica sismica e nell’analisi delle vibrazioni» scrive Miniaci. «Questo potrebbe fornire una convalida aggiuntiva delle strutture proposte e aiutare a portare ad ulteriori passi avanti in questo settore».

Al progetto partecipano altri ricercatori: Anastasiia Krushynska e Federico Bosia dell'Università di Torino, Nicola Pugno dell'Università di Trento, della FBK (Fondazione Bruno Kessler) Trento e della Queen Mary University of London.

martedì 13 settembre 2016

Per una Internet davvero di tutti, la sola tecnologia non basta!

Internet ha avuto uno sviluppo eccezionale negli ultimi anni e i social network e i dispositivi mobili "intelligenti" hanno amplificato enormemente  l'espansione della rete. Tuttavia vi sono ancora delle zone del mondo che ancora non hanno l'accesso oppure questo non è sufficientemente stabile o veloce.

I grandi operatori internet come Apple, yahoo, google e perfino Facebook stanno tentando, con risultati differenti, di portare l'accesso nelle zone dove questo manca.

Tuttavia, la strada potrebbe essere ancora più complicata la situazione.
In uno studio pubblicato su "Science", un team dell'università di Zurigo ha analizzato un enorme campione di dati che percorrono giornalmente la rete ed ha scoperto, grazie anche ad un nuovo sistema di geolocalizzazione degli utenti, unna infinità di sotto reti non connesse ad internet.

La buona notizia è che l'accesso a internet, in generale, è migliorato per tutti in questi ultimi 8 anni. Ma è migliorato molto di più per coloro che vivono nei paesi democratici, e alcuni gruppi se la sono cavata molto meglio di altri.

I luoghi dove i gruppi, politicamente esclusi, vivono tendevano ad essere i luoghi stessi in cui le connessioni internet erano i più scarse. Il risultato netto è che i gruppi politicamente esclusi avevano una connettività internet il 30% in meno rispetto ad altri nel proprio paese.

Il team ha effettuato un'analisi statistica di altri fattori di sviluppo delle infrastrutture generali, la povertà, la distanza alla capitale, robustezza del terreno, e l'urbanizzazione. Grazie a queste analisi hanno scoperto che la  qualità e la quantità delle connessioni è direttamente proporsionale alla quantità e qualità delle infrastutture, alla distanza del territorio da capitali importanti, dalla solidità finanziaria e governativa del territorio analizzato.

I risultati sono "in contrasto con un sacco di retorica che si sente sulla tecnologia di liberazione", dice Marshall Burke, economista presso la Stanford University di Palo Alto in California. Si chiede come la connettività internet sia cruciale per il potenziamento politico, in particolare nel mondo in via di sviluppo.

"Forse tutto ciò che serve è un paio di persone con accesso a internet per conoscere un particolare tipo di risentimento." Quindi il passo successivo è quello di misurare l'impatto del divario di internet utilizzando esperimenti naturali. Se l'accesso delle persone ai computer on-line influenza i risultati delle elezioni o la frequenza di disordini politici, per esempio, allora sarebbe dimostrato che il vecchio adagio è più vero che mai: L'informazione è davvero potere.

Occorre quindi un sostanziale potenziamento non solo delle strutture tecnologiche ma anche e sopratutto un potenziamento sociale, economico e culturale per permettere una corretta penetrazione dell'accesso ad internet delle persone.

lunedì 12 settembre 2016

Uno studio sul DNA svela l'evoluzione del lieviti della birra.

La storia della birra ha accompagnato fin dall'antichità l’evoluzione della civiltà umana, ma non solo: anche le materie prime impiegate come ingredienti sono state plasmate per rispondere alle nuove esigenze di consumo. Nel corso dei secoli, infatti, l’uomo ha selezionato i cereali migliori per la produzione della bevanda, individuando quelli con caratteristiche più performanti, ha creato nuovi ibridi e varietà, ha addomesticato il luppolo per la funzione amaricante e conservante e ha messo a coltura altri vegetali impiegati spesso come ingredienti aggiuntivi o succedanei.

Anche i lieviti, seppur invisibili ad occhio nudo e difficili da comprendere e studiare prima dell’avvento delle nuove tecniche di indagine microbiologica, hanno subito un importante effetto di pressione selettiva delle popolazioni a causa dello sviluppo delle tecniche di produzione della birra e, più in generale, delle bevande fermentate.

Grazie alle tecniche più avanzate di mappatura del Dna  siamo oggi in grado di capire come si sono evoluti  questi lieviti.  La rivista Molecular Biology and Evolution ha pubblicato  una ricerca  coordinata da Chris Todd Hittinger dell’Universita’ americana Wisconsin-Madison. I ricercatori hanno analizzato il Dna del  Saccharomyces eubayanus che,  insieme con il Saccharomyces cerevisiae, viene usato per produrre la birra Lager, la più bevuta nel mondo.  La ricostruzione dell’ evoluzione genetica del lievito ha mostrato che per ben due volte è avvenuto un incrocio fra i lieviti S. cerevisiae e S. eubanyus.  Questo matrimonio, fa notare Hittinger, è altamente improbabile fra due specie che sono geneticamente diverse tra loro quanto gli esseri umani e gli uccelli.

Kevin Verstrepen e colleghi dell'Università di Leuven, in Belgio, sulla rivista “Cell” ricostruiscono l'albero filogenetico dei lieviti con particolare riferimento al lievito di birra.

Verstrepen e colleghi hanno sequenziato i genomi di 157 ceppi di lievito utilizzati per produrre, birra, vino, liquori, sake, pane e bioetanolo. Dalle analisi è risultato che il lievito industriale usato oggi deriva tutto da pochi ceppi ancestrali, che si evolsero in cinque grandi gruppi, differenziandosi poi a seconda del loro uso industriale e dei confini geografici.

I ceppi utilizzati per produrre birra in Belgio e Germania, per esempio, sono strettamente imparentati, ma separati da quelli del Regno Unito e degli Stati Uniti.


“Quando i primi utilizzatori dei lieviti ottenevano una buona fermentazione, erano abbastanza intelligenti da raccogliere il sedimento per riutilizzarlo per la produzione successiva, anche se ovviamente non avevano alcuna idea di che cosa vi fosse dentro”, ha spiegato Verstrepen. “Riutilizzando i microbi per produrre la birra, hanno separato completamente i lieviti dalla natura: i lieviti hanno continuato a evolvere in un ambiente artificiale”.

I ricercatori hanno scoperto anche alcuni schemi genetici legati alla domesticazione del processo.
"Il lievito selvatico può riprodursi sessualmente durante i periodi di scarsità di
risorse o di stress, ma oggi il lievito di birra ha perso questa capacità: ha mantenuto funzionali solo i geni per la riproduzione asessuata, probabilmente per le più favorevoli condizioni di vita: sono diventati praticamente sterili”, ha aggiunto Verstrepen.

In particolare, i ricercatori hanno trovato le prove dell'amplificazione dei geni coinvolti nel metabolismo degli zuccheri della birra, e della selezione contro la produzione di 4VG, un composto aromatico poco piacevole che viene prodotto dai lieviti naturali.

“Per quanto ne sappiamo, non esiste vantaggio selettivo nella soppressione della produzione di 4VG”, ha concluso Verstrepen. "Semplicemente, qualcuno avrà detto: 'ha un buon sapore, lo useremo ancora". I lieviti del vino, invece, mostrano una resistenza al rame, che veniva usato per combattere le infezioni fungine nelle vigne e finiva nei grappoli d'uva.

(fonti: Le Scienze, altri)

giovedì 8 settembre 2016

Onde Gravitazionali: simulata per la prima volta collisione tra buchi neri.

Dopo quanto tempo la fusione tra due buchi neri supermassicci al centro di due galassie porta all’emissione di onde gravitazionali, come quelle captate per la prima volta nel settembre 2015 dalle Collaborazioni LIGO e VIRGO? Un team internazionale di scienziati dell’University of Zurich, dell’Institute of Space Technology di Islamabad, dell’University of Heidelberg e della Chinese Academy of Sciences ha provato a rispondere a questo quesito, simulando una collisione tra galassie.

In una ricerca pubblicata su The Astrophysical Journal, il team di studiosi, coordinato dall’University of Zurigo, ha calcolato che occorrono circa 10 milioni di anni dall’inizio dell’abbraccio fatale tra le due galassie, perché il fenomeno produca le increspature dello spazio-tempo previste un secolo fa dalla Teoria della Relatività Generale di Einstein. Nel loro studio i ricercatori hanno simulato, attraverso l’uso di supercomputer, la collisione tra due galassie vecchie di 3 miliardi di anni, con al centro buchi neri di circa 100 milioni di masse solari.

"Il risultato è stato sorprendente - commenta Lucio Mayer, dell’Institute for Computational Science dell’University of Zurich -. La fusione tra i due buchi neri ha prodotto le prime onde gravitazionali dopo 10 milioni di anni, circa 100 volte più rapidamente, quindi, di quanto ipotizzato finora".

La simulazione ha richiesto più di un anno ed è stata condotta in Cina, a Zurigo, e ad Heidelberg. "I nostri calcoli - conclude Mayer - consentono di effettuare robuste previsioni sul tasso di fusione tra buchi neri supermassicci nei primi stadi di vita dell’universo". Secondo gli autori, lo studio potrebbe dare un prezioso contributo alla messa a punto della missione eLISA dell’ESA. Una missione che nei prossimi vent’anni consentirà agli scienziati di catturare le onde gravitazionali direttamente dallo spazio.

(fonti: Republica, ASI, The Astrophisical Journal)
 

mercoledì 7 settembre 2016

Carbonio dallo spazio: Una nuova teoria sulla provenienza del carbonio terrestre.

Miliardi di anni fa, l'impatto della Terra primordiale con un pianeta allo stato embrionale simile a Mercurio ha arricchito il mantello terrestre di carbonio, ponendo le basi per lo sviluppo della vita. Lo dimostra un modello sviluppato da simulazioni in laboratorio in condizioni di temperatura e pressione elevate, simili quelle presenti all'interno dei pianeti.

Il nostro pianeta era appena milionario, giovanissimo in termini astronomici, quando si è scontrato con un oggetto molto simile a Mercurio: un urto violentissimo, che ha provocato la fusione dei due nuclei e dei due mantelli.

Si tratta di un quesito fondamentale, dal momento che lo sviluppo della vita sul nostro pianeta è legato proprio a questo prezioso elemento. La cui presenza è però ancora oggi un mistero: in base alle sue caratteristiche, il carbonio avrebbe dovuto evaporare nelle prime fasi di sviluppo terrestre, o al limite rimanere bloccato nel suo nucleo.

A partire dal 2013, in particolare, gli sforzi di questo gruppo di ricerca sono stati dedicati a capire in che modo possa diminuire l'affinità del ferro per il carbonio. E quindi a spiegare perché questo elemento non è rimasto confinato nel nucleo. L'ispirazione è venuta dalla constatazione che Marte ha un nucleo ricco di zolfo, e che quello di Mercurio è ricco di silicio. Da qui l'ipotesi che questi elementi possano essere presenti anche nel nucleo terrestre, sfidando la visione corrente secondo cui esso sarebbe costituito solo da ferro, nichel e carbonio.

Gli esperimenti hanno dato ora i loro frutti. Hanno infatti rivelato che il carbonio potrebbe essere stato escluso dal nucleo e relegato nel mantello di silicati se le leghe di ferro nel nucleo fossero state ricche sia di silicio sia di zolfo. “I dati cruciali hanno mostrato in che modo la ripartizione del carbonio tra le porzioni metalliche e di silicati dei pianeti di tipo terrestre cambia in funzione di variabili come temperatura, pressione e contenuto di zolfo e di silicio”, ha aggiunto Li.

Una volta spiegato come si distribuisce il carbonio tra nucleo e mantello, non restava che trovare una fonte plausibile per l'abbondanza osservata di questo elemento.

“Uno scenario che spiega il rapporto tra carbonio e zolfo e l'abbondanza del carbonio è quello di un pianeta embrionale simile a Mercurio, che aveva già un nucleo ricco di silicio, entrato in collisione con la Terra, da cui alla fine è stato assorbito”, ha concluso Dasgupta. “La dinamica dell'evento è stata tale che il nucleo di questo pianeta potrebbe essere finito direttamente nel nucleo della Terra, mentre il mantello ricco di carbonio si sarebbe miscelato con quello del nostro pianeta”

Lo scontro, avvenuto circa 100 milioni di anni dopo la formazione del Sistema Solare, avrebbe visto la Terra letteralmente inghiottire l’altro pianeta, il cui nucleo ricco di silicio si sarebbe fuso con il nucleo terrestre mescolando così anche i due mantelli e arricchendo di carbonio quello terrestre.

Questa teoria viene descritta in un articolo appena pubblicato su Nature Geoscience, dove gli autori spiegano come sono arrivati a ipotizzare lo scontro a partire dalla composizione terrestre.


( Fonti: Le Scienze, Nature, Inaf, Asi )

venerdì 2 settembre 2016

Alzheimer: nuove speranze grazie ad un farmaco sperimentale.

C’è una possibile rivoluzione all’orizzonte per la lotta all’Alzheimer, la più diffusa forma di demenza a livello mondiale. Per la prima volta infatti un farmaco si è dimostrato efficace nell’eliminare le placche amiloidi associate allo sviluppo della malattia, e se pur sperimentato su un gruppo estremamente ristretto di pazienti, sembra in grado di rallentare notevolmente la progressione della malattia. Il farmaco in questione è un anticorpo monoclonale, l’Aducanumab, la cui efficacia e sicurezza sono state valutate da uno studio pubblicato negli scorsi giorni su Nature. Se l’efficacia sarà confermata, sarebbe il primo farmaco mai sviluppato per questa malattia.

Per realizzare l’Aducanumab, i ricercatori della Biongen spiegano di essere partiti da alcuni anticorpi umani, scoperti comparando il sangue di anziani sani con quello di pazienti che soffrono di Alzheimer. Identificato in questo modo un anticorpo in grado di distruggere, almeno in provetta, le placche amiloidi, la molecola è stata quindi replicata e testata su topi. E dopo l’ennesimo successo, è stata quindi la volta dell’atteso trial su pazienti umani.

Il farmaco, 'insegna' al sistema immunitario a riconoscere le placche, è stato testato su un gruppo di 165 persone con Alzheimer moderato, metà delle quali ha ricevuto una infusione settimanale, mentre gli altri hanno avuto un placebo. Chi ha ricevuto il principio attivo ha mostrato una progressiva riduzione delle placche, spiegano gli autori. "Dopo un anno - sottolinea Roger Nitsch dell'università di Zurigo, che definisce i risultati 'incoraggianti' - le placche sono quasi completamente scomparse".

I risultati dello studio, sottolineano i suoi autori, sono di estrema importanza, perché a oggi non disponiamo di nessuna terapia efficace per la cura dell’Alzheimer. “È la migliore novità che abbiamo avuto negli ultimi 25 anni, e finalmente possiamo portare un po’ di speranza ai pazienti”, ricorda Alfred Sandrock, ricercatore della biotech americana Biongen che ha sviluppato il farmaco e spera di portarlo al più presto sul mercato.

Il giudizio resta dunque sospeso. "Finalmente dopo tanti anni abbiamo le prove che una nuova classe di farmaci potrebbe diventare disponibile. A oggi non ci sono mezzi per fermare la malattia" ha commentato da un lato David Reynolds, responsabile del settore scientifico della charity Alzheimer's Research. "Ma non dimentichiamo che gli effetti collaterali sono stati importanti" gli ha fatto eco David Allsop, professore di neuroscienze all'Università di Lancaster. "Il problema va superato, se speriamo che un giorno il farmaco diventi di uso comune". Per James Pickett, capo della divisione ricerca della Alzheimer's Society, "questi sono i risultati più dettagliati e promettenti che io abbia mai visto". Ma non è detto che si rivelino anche efficaci per i pazienti. E Gordon Wilcock, emerito di geriatria all'università di Oxford, parla di "una sensazione di déjà vu", visti i tanti farmaci promettenti che in passato non hanno mantenuto le promesse iniziali.

Stefano Sensi, neurologo dell'università di Chieti e dell'università della California a Irvine ha iniziato una sperimentazione per verificare l'effetto di alcuni aspetti dello stile di vita sulla malattia. "Con il termine demenza classifichiamo malattie che hanno in realtà cause molto diverse. Il nuovo trattamento sarà probabilmente efficace contro quelle forme provocate dalla beta-amiloide. Ma di fronte agli altri pazienti resteremmo ancora scoperti". Né capire quali sono le persone che potranno trarre beneficio dall'aducanumab sarà facile. "Serviranno test piuttosto costosi come risonanza magnetica, una pet specifica per individuare la beta-amiloide nel cervello e un'analisi del liquido cerebrospinale. Per la tenuta dei conti del sistema sanitario nazionale, si tratterà di una bella sfida".

mercoledì 31 agosto 2016

Nuovo segnale di probabile origine Aliena. Ma il SETI invita alla prudenza.

Un nuovo strano "messaggio" captato nelle profondità dell'o spazio ha suscitato la curiosità dei cercatori di alieni. Captato il 15 Maggio del 2015 da un radiotelescopio russo nella costellazione di Ercole, ma divulgato solo adesso alla comunità scientifica, ha fatto partire la caccia da parte del Search for Extra-Terrestrial Intelligence Institute. Ma c'è chi invita alla prudenza: potrebbe essere una quasar.

Panoramica del radiotelescopio RATAN-600
HD 164.595, un sistema solare di qualche miliardo di anni più vecchio del sole, ma centrato su una stella di dimensioni e luminosità paragonabili, è la presunta fonte di un segnale trovato con il radiotelescopio RATAN-600 in Zelenchukskaya, ai piedi del versante settentrionale dei monti del Caucaso. Questo sistema è noto per avere un pianeta simile a Nettuno, ma in un'orbita molto stretta, che lo rende poco adatto alla vita. Tuttavia, ci potrebbero essere altri pianeti in questo sistema che sono ancora da scoprire.

Il segnale sembra essere stato presentato in una convegno organizzato da diversi astronomi russi, nonché un ricercatore italiano, Claudio Maccone, il presidente Comitato Permanente dell'Accademia Internazionale di Astronautica. Maccone ha recentemente inviato una e-mail agli gli scienziati del SETI in cui egli descrive questo scoperta, tra cui il segnale attribuito al sistema stellare HD 164.595.

Potrebbe essere una trasmissione da una società tecnicamente abile? Lo stesso Seti avanza dubbi sull'intesità del segnale registrato dai russi. Se è davvero quella, spiegano gli eredi di Carl Sagan, le possibilità sono due: o gli alieni di HD164595 hanno inviato il messaggio in tutte le direzioni e allora per trasmetterlo avrebbero avuto bisogno di una potenza di 100 miliardi di miliardi di Watt (centinaia di volte l'energia che il Sole iraggia verso la Terra), oppure hanno scelto di inviarlo solo in direzione del nostro pianeta, ma anche in questo caso avrebbero avuto bisogno di una energia paragonabile a quella usata da tutto il genere umano. Entrambi gli scenari, sottolineano gli esperti del Seti, richiedono uno sforzo tecnologico ben superiore di quello di cui saremmo capaci noi terrestri

Analisi spettrale del segnale "alieno"
Poi ci sono ulteriori considerazioni da fare. Il segnale proviene davvero dalla stella HD 164.595? L'antenna RATAN-600, che ha ricevuto il segnale ha una configurazione insolita (un anello a terra del diametro di 577 metri), e ha un insolita "forma del fascio" (il pezzo di cielo a che è sensibile). Alla lunghezza d'onda del segnale riportata, 2,7 cm - che equivale ad una frequenza di 11 GHz - il fascio è una striscia altamente allungata in direzione nord-sud, questo potrebbe sfalsare la corretta lettura della direzione del segnale.

Inoltre c'è la questione delle caratteristiche del segnale stesso. Le osservazioni sono state fatte con un ricevitore che ha una larghezza di banda di 1 GHz. Questa è un miliardo di volte più ampia rispetto alle larghezze di banda tradizionalmente utilizzata per SETI, ed è 200 volte più ampia di un segnale televisivo. La forza del segnale era piuttosto "debole". Ma era debole, solo a causa della distanza di HD 164.595? Oppure a causa della "diluizione" del segnale sulla ampia largezza di banda del ricevitore russo?  Proprio come in una torta che incorpora tanti ingredienti, potrebbe risultare difficile indovinare i singoli ingredienti, in un ricevitore con una larghezza di banda molto amppia può diluire l'intensità di tanti segnali a banda stretta relativamente forti, confondendoli e generando segnali fantasma.

La costellazione di ERCOLE probabile fonte del segnale.
"Abbiamo trascorso un secondo giorno alla ricerca di emissione radio da HD 164.595, questa volta un passo attraverso la manopola della radio per coprire tutte le frequenze osservate dagli astronomi russi. Non siamo riusciti a vedere alcun segnale di maggiore di 0,1 Janskys in una larghezza di banda di 100 MHz, mentre la segnalazione dei russi è stato un segnale di 0,75 Janskys." Questa l'affermazione dei ricercatori del Seti che, seppur eccitati dalla comunicazione dei russi, non riescono ancora a trovare un riscontro valido del segnale.

A parte l'irritazione per l'anno di ritardo, Maccone sottolinea che un primo traguardo è stato raggiunto: "Ora anche gli americani hanno puntato i loro radiotelescopi verso HD164595 e finalmente ci sarà una vera collaborazione tra statunitensi e russi anche nella ricerca di intelligenze extraterrestri. Non solo: dal 21 settembre sarà operativo il più grande e potente radiotelescopio mai costruito, il Fast realizzato dai cinesi ed esteso come 30 campi di calcio.

La caccia, infatti, è aperta e c'è già chi sogna di interloquire a intervalli di 95 anni (il tempo che la luce impiega ad arrivare dalla Terra alla stella e viceversa) con gli alieni. E c'è da aspettarsi che in futuro ricerche del genere si moltiplicheranno visto il proliferare di pianeti gemelli della Terra che si stanno avvistando nello Spazio. Ultimo in ordine di tempo quello che ruota intorno a Proxima Centauri, la stella più vicina a noi: appena 4 anni luce. Se lì ci fosse davvero ET fare "due" chiacchiere richiederebbe otto anni e non due secoli.

Gli scienziati del SETI e dei maggiori centri di ricerca collegati continueranno a ricercare e analizzare segnali provenineti dal cielo, in una attesa, sempre più estenuante, si un vero segnale alieno.

lunedì 29 agosto 2016

Terremoto Centro Italia 2016: Ricostruire per non dimenticare.

Prima premessa.
Il terremoto del 24 Agosto 2016 è stato un terribile evento e ha stroncato vite innocenti e cambiato la vita ai superstiti, la redazione tutta è vicina alle famiglie e parenti delle vittime e ci auguriamo che la situazione si risolva al più presto e che possano tornare il prima possibile alle loro case.

Seconda premessa.
In questo articolo vogliamo fare un semplice "conto della serva". Sicuramente i conti dovranno essere fatti con maggiore dettaglio e cercando di capire le reali necessità e possibilità dei territori colpiti, nonostante questo cerchiamo di partire da dati il più possibile reali citando, di volta in volta le fonti, ed eseguendo in maniera verificabile i nostri calcoli. Non possiamo, in questi calcoli, stimare i costi delle vite umane, che sono elevatissimi e che sicuramente saranno incolmabili, tuttavia vogliamo e dobbiamo in tutti i modi mantenere nei nostri cuori, il rispetto delle vittime e dei loro parenti e conoscenti.

Ricostruire per non dimenticare.
Come già accennato per noi è importante che gli abitanti delle zone terremotate tornino al più presto nelle loro case, per questo è necessario pianificare in maniera corretta e controllata una ricostruzione delle case secondo i più avanzati criteri antisismici e di efficienza energetica.

Per cercare di stimare un costo relativo alla ricostruzione prendiamo come riferimento la città di Amatrice la più colpita e la più significativa dal punto di vista storico e folkloristico.
Prendiamo come costo di riferimento per la ricostruzione di case nuove i prezzi di acquisto di case nuove situate nella zona di Amatrice. Il sito immobiliare.it stima il prezzo delle case al metro quadro (Euro/mQ) di 790 euro. Questo costo è piuttosto basso e, anche se con adeguate economie di scala i costruttori potrebbero garantire davvero questo prezzo, noi mettiamo a budget il costo di partenza di 1000 euro/mQ. A questo prezzo base è necessario aggiungere alcune maggiorazioni.


  1. Maggiorazione per le norme antisismiche +15% (costo massimo di un range che va dal 10% al 15%)
  2. Maggiorazione per le norme per il risparmio energetico + 10% (budget teorico senza fonte)
  3. Maggiorazione dedicata alle infrastrutture e servizi (strade, scuole, impianti, etcc..) + 10%

Per una maggiorazione totale del 35% il che porta ad una spesa totale i 1350 euro/mQ.
Non terremo conto delle eventuali detrazioni fiscali ( che possono raggiungere anche il 65% ) sulle strutture per il risparmio energetico, che ne abbasserebbero ulteriormente il costo.

Abbiamo dunque stabilito il costo al metro quadro di una casa che è al massimo della sicurezza sia sismica che ambientale, a risparmio energetico ( i benefici si  faranno sentire a medio-lungo termine)  e sicura dal punto di vista sismico e territoriale. Abbiamo anche incluso la quota per le strutture esterne che, come indicato, devono includere lo smaltimento delle vecchie macerie e la (ri)costruzione di strade, scuole, uffici etc... ( qualcuno vorrebbe includere anche il restauro delle chiese e degli ambienti religiosi, tuttavia riteniamo che queste spese debbano essere attribuite alla chiesa e a coloro che gestiscono direttamente  queste strutture, tuttalpiù possiamo includere il restauro, ove possibile, di opere d'arte importanti per la collettività)

Ora, ammesso che vogliamo ospitare comodamente una famiglia media di quattro persone in una casa di almeno 90 metri quadri, significa che per questa famiglia dovremmo spendere un totale di (90x1.350) 121.500 euro che significa un costo di (121.500/4) 30.375 euro per ogni persona.

Teniamo presente questo numero: 30.375 euro a persona, che dovrà essere ripreso in considerazione per tutte le analisi successive.

La prima cosa interessante da calcolare è il costo totale, secondo questi dati, della ricostruzione.  Per poter ridare una casa ad ogni abitante di Amatrice il costo totale sarebbe di (30.375x2700) 82.012.500 euro.
Se ci pensate non è tantissimo, rispetto agli enormi budget dello stato e delle più importanti amministrazioni locali. E' interessante ricordare che, nell'emergenza, lo stato ha disposto un budget (totale per tutti i territori) di  oltre 150 milioni di euro.

Da dove prendere i soldi per la ricostruzione?
82 milioni di euro ( e spiccioli ) non crescono sulle piante (magari) ma vanno trovati da qualche parte.
Molti hanno proposto di dedicare il monte premi del Superenalotto alla ricostruzione. L'idea è pressoché assurda poiché, come è stato più volte detto, non è possibile requisire soldi privati ( la Sisal è una società privata ) per scopi pubblici che esonerano la società dallo scopo del suo Statuto. E' però interessante calcolare che la ricostruzione della sola Amatrice intaccherebbe il (82/130*100) 63% del monte premi totale, lasciando risorse per la ricostruzione di altri paesi. Ricordiamo tuttavia che questo budget non è disponibile, l'unico modo per poterlo utilizzare è riuscire a vincerlo, dopodiché donarlo.

Potrebbero (qui il condizionale è d'obbligo!) essere utilizzate altre fonti, ridistribuendo il costo alla colettività
si potrebbero tassare tutta una serie di beni che, con un piccolo aumento per il singolo, potrebbero fornire un gettito piuttosto elevato per risolvere questo tipo di necessità. Abbiamo sempre creduto che se mai fosse necessario tassare qualcosa è bene farlo su beni che non sono strettamente necessari o che portano, a lungo termine, a problemi di vario tipo alle persone od alle cose; è questo il caso di beni che nuocciono alla salute o all'ambiente come le sigarette, il gioco d'azzardo, i carburanti inquinanti (gasolio e derivati), armi, alcolici, bolli auto su veicoli inquinanti come SUV e auto sportive, etc...

Mantenendo il condizionale obbligatorio, potremmo anche utilizzare anche prestiti a tasso agevolato provenienti da Banca d'Italia e CdP, enormi contenitori pubblici di liquidità che hanno nello statuto l'aiuto e l'agevolazione delle attività pubbliche. Non è questo il posto più adatto per trovare una soluzione in merito, la nostra vuole essere uno spunto di riflessione collettiva. Lasciamo (seppur con il  beneficio dell'inventario) agli esperti e responsabili la scelta delle modalità e fonti per finanziare la ricostruzione purché questa sia efficace, efficiente e soprattutto veloce e definitiva.

La questione degli immigrati.
Politici improvvisati, opinionisti da tastiera, sciacalli e profittatori del primo minuto hanno subito ululato
l'idea di mandare negli hotel gli sfollati anziché gli immigrati chiedendo, ignorantemente, di dedicare
i 35 euro degli immigrati agli sfollati, in una sorta di slancio patriottico a tutto vantaggio solo della loro infame visibilità.

L'unico modo per rispondere all'ignoranza dilagante è la logica e l'informazione corretta.
Sappiamo già da tempo da dove provengono i fondi per l'immigrazione e non lo ripeteremo in questo luogo, sappiamo già anche come questi fantomatici 35 euro vengono utilizzati ( di fatto, ricordiamolo, solo 2,5 euro finiscono effettivamente in tasca agli immigrati). Tenendo bene presente che alle popolazioni colpite interessa tornare a casa loro nel loro paese il prima possibile e non essere ospitati (seppur comodamente) in alberghi lontani e scomodi dal punto di vista logistico, analizziamo la questione dal punto di vista solamente e squisitamente matematico.

La domanda in questo caso è: poniamo il caso in cui i soldi della ricostruzione vengono utilizzati per ospitare gli Amatriciani, quanto tempo possiamo "mantenere" un abitante di Amatrice in "albergo" dedicandogli 35 euro al giorno?
Prendiamo i 30.375 che avevamo  calcolato e lo dividiamo per 35 euro giornalieri otteniamo così un totale di (30.375/35) 868 giorni in totale pari a (868/365) 2,3 anni cioè 2 anni, 3 mesi e 2 settimane (circa). Se ci ragionate non è poi così tanto, considerando che poi, al termine di questo periodo, non avremmo più i soldi per la ricostruzione e dovremmo continuare a mantenere le persone in albergo aumentando, oltre che le spese, anche i disagi.

Riteniamo dunque infondata nonché deleteria l'idea di ospitare in albergo gli abitanti delle zone colpite dal terremoto con i fondi per gli immigrati e continuare a dar voce a questa idea diffonde solo ignoranza e inutile odio.

Il caso di Norcia: un esempio di buone pratiche.
Norcia ha subito il terremoto con una intensità pari, se non superiore, a quello subito da Amatrice, eppure,
salvo pochissimi danni alle strutture, non ci sono state ne vittime ne crolli gravi. Tutto questo perché il paese ha investito, spendendo bene i soldi messi a disposizione dallo stato, nella messa in sicurezza di tutti i suoi
edifici, anche i più antichi, utilizzando tecniche relativamente poco costose ma ottenendo risultati eccezionali nel momento in cui il terremoto ha colpito davvero, risparmiando centinaia di vittime e gravi danni alle strutture, nonché i relativi costi di ricostruzione alla collettività! Dovremmo ringraziare gli amministratori di questo paese perché le loro scelte attente e mirate hanno fatto il bene, non solo della loro "piccola" realtà locale ma anche e soprattutto quello nazionale.
Inoltre è un perfetto esempio per tutti, che se i soldi vengono impiegati correttamente e attentamente senza sprechi e alleggerendo la burocrazia, i vantaggi, enormi ci sono. Immaginate i risparmi sia di denaro, sia soprattutto di vittime, che avremmo ottenuto oggi se tutti i paesi colpiti dal terremoto fossero allo stesso livello di Norcia. Pochissime vittime e pochissimi danni, pochissime persone senza casa e una notizia da prima pagina sarebbe rimasta in terza o addirittura quarta pagina. Questa è l'Italia che vorremmo.

Concludendo.
Vogliamo ringraziare tutti coloro che si sono mossi subito per aiutare le zone colpite, che hanno donato beni e soldi,  la la protezione civile che ha fatto e sta facendo un lavoro fantastico, i bravissimi volontari che si sono messi a disposizione delle autorità, i vigili del fuoco e ai loro meravigliosi cani da ricerca che hanno salvato vite importantissime.
Anche noi, nel nostro piccolo, qualcosa stiamo facendo.
Vogliamo augurarci un impegno serio, deciso e sostanziale, da parte del governo, perché vi sia una effettiva ricostruzione secondo serie norme antisismiche per poter far tornare a casa il prima possibile una popolazione colpita da un evento seriamente tragico e che in futuro un terremoto di questa entità non sia più un tragico evento ma solo un "semplice" brontolio della nostra amata terra.

(fonti: immobiliare.it, Wikipedia, altre fonti)




venerdì 19 agosto 2016

Cancro: una nuova molecola aumenta l'efficacia della chemioterapia.

Chi ci segue da sempre sa che non amiamo spettacolarizzare le notizie, diffondere allarmismi o notizie false. Navigando su i vari social network capita spesso di trovare notizie sensazionali portate da siti web non autorevoli che esagerano nel titolare la notizia solo per portare click e share.

Quando ci siamo trovati davanti al solito titolone sensazionalistico che riportava una nuova cura contro il cancro riportato dal solito sito bufalaro, abbiamo preso la notizia con molta calma e abbiamo deciso di approfondire.

Effettivamente la notizia è vera anche se in termini differenti da come è stata "presentata". La fonte più vicina alla notizia è l'agenzia ANSA che la riporta tramite un'intervista all'autore: Mauro Ferraris dello Huston Methodist Accademy che approfondisce la notizia tramite un articolo dettagliato. 

Il Prof. Ferraris autore della ricerca.
Leggendo ed approfondendo la notizia si legge che non è un nuovo farmaco contro il tumore quello trovato dal professore; bensì si tratta di un nuovo sistema basato su nano particelle. Ecco come funziona.

La tecnologia si chiama Injectable Nanoparticle Generator (iNPG): è esattamente come una minuscola navicella in cui sono nascoste nanoparticelle – chiamate pDox – che trasportano Adriamicina, uno dei più comunichemioterapici.

Le iNPG hanno due caratteristiche che le rendono preziose: sono in grado di immettersi nel sistema vascolare che nutre il tumore e tendono ad accumularsi nei polmoni e nel fegato, i siti più colpiti dalle metastasi del cancro al seno.

Una volta nel sistema vascolare, le iNPG permettono alle pDox di fuoriscire da nano-aperture. Anche le pDox hanno delle caratteristiche interessanti: si appallottolano e prendono “la forma” di altri composti che le cellule tumorali riconoscono come “amici” e che quindi non respingono. Ingannato il sistema di difesa del cancro, le pDox si avvicinano al nucleo e solo in quel momento, grazie a un cambio di pH, rilasciano il farmaco che uccide la cellula.

Lo studio che ha dimostrato le potenzialità di questa tecnologia è stato pubblicato su Nature Biotechnology. I ricercatori hanno testato le iNPG in topi con tumore al seno metastatico del tipo triplo negativo (l'unico per il quale non esiste al momento, una terapia mirata). Metà degli animali hanno raggiunto la completa remissione e sono sopravvissuti liberi dalla malattia quanto gli esemplari sani. L'altra metà è invece deceduta a causa della malattia, ma ha comunque vissuto più a lungo dei topi trattati con la terapia standard.

Non solo. A una settimana dal trattamento, i topi che avevano ricevuto le iNPG non mostravano segni di tossicità cardiaca (un noto effetto collaterale del farmaco), a differenza di quelli che avevano ricevuto l'adriamicina per via sistemica o con le sole pDox non veicolate da iNPG.

“Normalmente, meno dello 0,1% del farmaco riesce a raggiungere il tessuto tumorale, mentre il resto si accumula nei tessuti sani”, spiega Haifa Shen, tra gli autori dello studio. “Purtroppo, quando le cellule ricevono una quantità inferiore di farmaco rispetto a quella ottimale, spesso si adattano e sviluppano resistenza”.

Sembrerebbe dunque che questo "veicolo" aumenti l'efficienza dei farmaci chemioterapici già esistenti, portandoli direttamente al cuore delle cellule malate permettendo di superare tutte le difese che queste mettono in atto contro la chemioterapia.

( fonti: Ansa, Nature, Huston Methodist )




giovedì 18 agosto 2016

Dalla ricerca un nuovo antidolorifico come la Morfina ma senza gli effetti collaterali

Nuove tecniche di selezione e elaborazione assistita da computer di molecole e
composti hanno permesso di trovare una nuova molecola che in alcuni esperimenti sui topi
ha mostrato effetti analgesici del tutto paragonabili con quelli della morfina ma priva
dei terribili effetti collaterali sul sistema respiratorio propri della sostanza oppiacea.

Attraverso un complesso lavoro di screening al computer della struttura di oltre tre milioni di molecole, i ricercatori diretti da Aashish Manglik sono riusciti a identificare le caratteristiche di una molecola in grado di realizzare un'attivazione solo parziale del recettore mu e in particolare della sua parte che controlla l'effetto analgesico. I ricercatori hanno quindi sintetizzato il composto, chiamato PZM21, che hanno testato sperimentalmente sui topi. La sostanza ha mostrato di avere non solo una capacità analgesica pari a quella della morfina, ma anche una durata d'azione superiore.

Le caratteristiche della nuova molecola e il modo in cui è stata identificata sono descritti in un articolo pubblicato su "Nature".

La sostanza, testata finora solo sui topi, sembra inoltre indurre un livello di dipendenza inferiore a quello della morfina, dell'eroina e di altri farmaci analgesici (come codeina, ossicodone, idrocodone). Questo aspetto, sottolineano i ricercatori, va però confermato da ulteriori attenti studi in altri modelli animali e successivamente testato con cautela negli esseri umani, in cui la dipendenza è legata non solo a fattori fisiologici ma anche psicologici.

La capacità degli oppioidi di indurre il loro potente effetto contro il dolore è dovuta al legame con tre recettori che si trovano sulla superficie delle cellule cerebrali e del midollo spinale, chiamati recettore mu, delta e kappa. Il più potente è il recettore mu, che partecipa alla risposta antidolorifica, alla depressione respiratoria, al senso di gratificazione indotto dalla sostanza e allo sviluppo della dipendenza.

In particolare, l'attivazione del recettore mu innesca nelle cellule due differenti percorsi biochimici, uno dei quali (mediato dalla proteina G) agisce principalmente sulla sensibilità al dolore, mentre l'altro (mediato dalla proteina beta-arrestina), è il principale responsabile della dipendenza e, ancor più,
della depressione respiratoria.

Questo risultato, per ora senza precedenti, utilizzando tecniche di analisi computazionale, deve essere ancora sottoposto a sperimentazione dettagliata e attenta oltreché testata sull'uomo prima di essere messa in commercio. Tuttavia il particolare processo con cui è stata scoperta promette un roseo futuro per la ricerca e lo sviluppo di nuovi medicinali oltreché un costo sia in termini di tempo che in termini di denato inferiore a quelli dei metodi tradizionali.

( fonti: nature.com, Le Scienze )

mercoledì 17 agosto 2016

"Veloce come la Luce" - Il Li-Fi cento volte più veloce del Wi-Fi e con numerosi vantaggi.

Li-Fi è un termine introdotto per la prima volta da Harald Haas in occasione di un discorso al TED Global nel 2011 riferendosi al corrispondente ottico del Wi-Fi.

La particolarità del Li-Fi sta nel fatto che le frequenze occupate per le comunicazioni appartengono allo spettro della luce visibile, il che ha una serie di interessanti conseguenze nel confronto con le trasmissioni radio.

  • Viene a mancare il conflitto con ogni trasmissione radio, in termini di interferenza dovuta all'occupazione dello stesso spettro
  • L'assenza di interferenza radio rende promettente l'uso in ospedali e aerei, dove le interferenze pongono problemi di sicurezza
  • Il segnale è limitato alla portata ottica, il che riduce i problemi di sicurezza causati dalle intercettazioni
  • È possibile creare grandi trasmettitori con efficienza energetica molto maggiore delle stazioni radio


Lo stesso Haas in occasione della presentazione al TED ha dato dimostrazione di come modulando le frequenze a cui operano i distinti LED di una normale lampadina potesse essere possibile trasmettere addirittura un video in alta definizione. Una simile dimostrazione ebbe luogo anche al CES 2012 di Las Vegas dove vennero invece utilizzati due telefoni cellulari che comunicavano utilizzando il Li-Fi a distanza di dieci metri.
Ai tempi di Napoleone gran parte dell'Europa era coperta da una rete di telegrafi ottici chiamati semafori (da non confondersi con le luci semaforiche che si trovano negli incroci stradali di oggi), mentre Graham Bell riteneva che la sua più grande invenzione fosse il fotofono, una sorta di telefono nel quale le onde sonore erano trasformate in onde elettromagnetiche dello spettro visibile o infrarosso invece che in impulsi elettrici come la sua più nota controparte.

La tecnologia di cui stiamo parlando si basa sulla cosiddetta comunicazione a luce visibile (o VLC, visible light communication), utilizza le frequenze della luce visibile comprese tra 400 e 800 terahertz (THz).

Utilizzando queste frequenze di luce, la tecnologia Li-Fi funziona come una forma incredibilmente complessa del codice Morse. Attraverso l’emissione di luce intermittente da parte di un LED è possibile generare e trasmettere dati in codice binario. La luce intermittente emessa dal LED è estremamente elevata tale da risultare impercettibile dall'occhio umano.

Immaginiamo di avere smart LED installati nella nostra casa e sui soffitti dell’ufficio: tutti i dispositivi come computer, telefoni, stampanti e altri dispositivi elettronici attualmente connessi tramite onde radio verrebbero connessi tramite LED. Si avrebbe così un duplice vantaggio: eliminazione delle onde radio e illuminazione degli spazi.

A Novembre dello scorso anno, un team di ricercatori della società estone Velmenni è riuscito a portare per la prima volta questa tecnologia fuori dal laboratorio. La tecnologia è stata sperimentata in uffici e ambienti industriali vicini, la velocità raggiunta è stata di 224 Gigabit al secondo.

Non solo la velocità raggiunta è stata 100 volte più veloce della velocità media di un sistema wi-fi ma si trattava dell'equivalente di 18 film da 1,5 GB ciascuno scaricati ogni secondo.

La telecomunicazione ottica senza fili garantisce altri vantaggi rispetto al Wi-Fi. Prima di tutto, una rete Li-Fi non richiede nessun nuovo impianto né l'installazione di antenne o ripetitori: si possono sfruttare reti di illuminazione LED già esistenti (le luci di casa, ad esempio, o l'impianto di illuminazione pubblica in strada) accoppiate con normali telecamere (ad esempio le webcam dei nostri PC o le telecamere dei nostri cellulari). Le varie fonti luminose – solitamente composte da più di un LED – potrebbero comunicare contemporaneamente con più dispositivi, inviando segnali differenti a ognuno di essi: in questo modo lo spettro delle frequenze potrebbe essere utilizzato in maniera più efficiente e senza che si creino le interferenze tipiche delle altre onde elettromagnetiche.

L'adozione su larga scala della tecnologia Li-Fi, inoltre, potrebbe dare un ulteriore impulso all'Internet delle cose. Gli elettrodomestici smart presenti nelle nostre case potrebbero sfruttare le telecomunicazioni ottiche wireless anziché il Wi-Fi per comunicare tra di loro, rendendo il tutto più semplice, più sicuro e senza rischiare la saturazione della capacità di trasmissione del Wi-Fi.

A far pendere l'ago della bilancia verso il Li-Fi piuttosto che verso altre tecnologie concorrenti non è tanto la velocità di connessione o l'ampiezza della banda di comunicazione che questa tecnologia garantisce. Il vero punto di forza del Li-Fi sta nella facilità con cui questa tecnologia potrebbe essere applicata nella vita reale. Realizzare una rete di comunicazione basata sulle lampadine LED non richiederebbe, infatti, grossi investimenti di partenza. Per creare dei trasmettitori Li-Fi basterebbe aggiungere un piccolo microchip alle lampadine LED già in uso in tutto il mondo. Tenendo conto che, ad oggi, globalmente sono installate circa 14 miliardi di lampadine, si comprendono immediatamente i grandi vantaggi pratici che una tecnologia basata sul Li-Fi potrebbe portare al mondo dell'IoT.

In questo modo si potrebbe costruire una rete di telecomunicazioni senza fili capillare e, soprattutto, poco costosa. La copertura del segnale sarebbe ubiqua o quasi: la rete Li-Fi potrebbe essere presente sotto le pensiline degli autobus, nelle stazioni ferroviarie, dentro i vagoni della metro, in strada grazie ai lampioni della pubblica illuminazione e, ovviamente, in casa.

( fonti: Le Scienze, Fastweb, Wikipedia )


martedì 16 agosto 2016

Anche i Buchi Neri evaporano. Un nuovo studio da ragione al cosmologo Stephen Hawking

Il buco nero è per definizione l'oggetto a cui nulla può sfuggire. Secondo le leggi della gravità, formalizzate nella teoria generale della relatività di Albert Einstein, tutto ciò che capita entro un certo raggio dal centro del buco nero, sia materia o radiazione luminosa, finisce per essere inghiottito dalla sua immensa forza attrattiva.

Nel 1974 tuttavia, in base ad alcune considerazioni di meccanica quantistica, il grande cosmologo Stephen Hawking teorizzò che i buchi neri non dovessero essere del tutto “neri”. In altre parole avrebbero dovuto emettere qualche tipo di radiazione luminosa, da allora nota come radiazione di Hawking, e con ciò perdere una piccola quantità di energia. Tutto questo, secondo l'equivalenza di massa ed energia stabilita dalla stessa teoria relativistica, equivale a perdere massa. In un tempo molto lungo, dunque, i buchi neri dovrebbero "evaporare".

Uno dei sistemi fisici più adatti a creare le condizioni analoghe a quelle di un buco nero con onde acustiche è il condensato di Bose-Einstein. Si tratta di un sistema di atomi o altre particelle caratterizzate ciascuna da un valore intero o nullo di spin, una proprietà quantistica che possiamo immaginare come una rotazione attorno a un proprio asse. Grazie a questa caratteristica, quando questi atomi o particelle sono portati a temperature prossime allo zero assoluto, perdono le loro caratteristiche individuali e per un peculiare effetto della fisica quantistica iniziano a comportarsi come un tutt'uno.

Proprio  questo sistema ha permesso ora la prima verifica sperimentale della radiazione di Hawking, ottenuta da Jeff Steinhauer del Technion-Israel Institute of Technology ad, Haifa, in Israele, in uno studio descritto su “Nature Physics”, che ha sfruttato atomi di rubidio.

Lo studio ha rilevato anche un effetto cruciale previsto dei calcoli di Hawking. La particella che sfugge dal buco nero è legata a un'altra particella che finisce dal buco nero: questa coppia è unita dall'entanglement, una correlazione che, secondo le leggi della meccanica quantistica, si può instaurare in opportune condizioni tra gli stati di due particelle.

In virtù dell'entanglement, una misurazione effettuata su una delle due particelle della coppia permette di conoscere il valore della stessa misurazione anche per l'altra particella entangled. Ciò avviene in modo istantaneo, a qualunque distanza si trovino tra loro le due particelle che formano la coppia. È questo il principio su cui si basano gli esperimenti che riguardano il cosiddetto teletrasporto quantistico.

Questo risultato dimostra che la radiazione di Hawking è un effetto squisitamente quantistico ed è in accordo con le simulazioni numeriche effettuate in altri studi.

venerdì 12 agosto 2016

Pericolo BISFENOLO. Una formula comunemente utilizzata nei prodotti di consumo è pericolosa per l'uomo.

Il mondo moderno, si sa, produce una grande quantità di prodotti chimici più o meno pericolosi per l'uomo. Nell'industria viene utilizzato un particolare agente chimico il Bisfenolo che viene utilizzato in molte applicazioni industriali quali ad esempio, additivo nei prodotti detergenti, solvente per i trattamenti galvanici, reagente nelle reazioni di polimerizzazione, costituente delle resine fenoliche e delle resine epossidiche (colle).
prodotti che contengono tracce di Bisfenolo

La prima formulazione  a base di Bisfenolo è la formulazione di tipo "A" ovvero BSA che già in passato ha dimostrato di essere pericoloso per l'apparato riproduttivo umano. Per cercare
di ovviare a questo problema l'industria ha realizzato la nuova formulazione "S" ovvero BPS che doveva risultare non pericolosa per l'uomo. Il BPS è utilizzato inoltre come sviluppatore di stampa nella carta termica (ad es., scontrini dei registratori di cassa), compresi i prodotti commercializzati come "BPA-free paper"

In uno studio condotto da Y. Chen, L. Shu, Z. Qiu, D. Y. Lee ed altri e pubblicato con un articolo sulla rivista scientifica PLOS e ripreso dalla rivista italiana Le Scienze, ricercatori hanno esposto alcuni esemplari di Caenorhabditis elegans (vermi utilizzati molto spesso come organismi modello in laboratorio) a diverse concentrazioni di BPA e/o BPS che si avvicinano ai livelli di BPA e/o BPS trovati negli esseri umani. I ricercatori hanno seguito tutto il ciclo riproduttivo dei vermi misurandone la fertilità.

Risultati degli studi su i vermi.
I ricercatori hanno osservato che i vermi esposti al BPA o al BPS (o ad una combinazione dei due) hanno avuto una riduzione della fertilità. Sorprendentemente, questi effetti sono stati riscontrati a livelli di dose di BPS più bassi rispetto ai livelli di dose di BPA suggerendo che il BPS può essere più dannoso per il sistema riproduttivo rispetto al BPA. Questo dato è particolarmente significativo nel momento in cui si esamina la possibilità di sopravvivenza dei giovani embrioni.

Questi risultati delineano uno scenario preoccupante per gli esseri umani, in quanto gli stessi processi riproduttivi che sono stati interrotti nei vermi da laboratorio a causa del BPS si trovano nei mammiferi. Inoltre, come osservato in precedenza, il BPS è presente in una miriade di prodotti di consumo.

«C'è un grande bisogno di valutare in maniera coordinata la sicurezza di più sostituti e miscele di sostanze chimiche in sostituzione di un prodotto. La buona notizia è che una serie di programmi governativi e di iniziative da parte di laboratori accademici si stanno iniziando a muovere in questa direzione»  scrive Patrick Allard, prof. di Scienze della salute ambientale presso la UCLA Fielding School of Public Health e principale autore dello studio.

mercoledì 10 agosto 2016

Oro e Titanio per un nuovo materiale altamente duro e resistente.

L'industria, la scienza e la medicina sono sempre alla ricerca di materiali con capacità strutturali particolari per adattarli alle proprie necessità. Il metallo più duro e resistente sino ad ora molto utilizzato nell'industria è il Titanio.

Questo materiale infatti ha ottime caratteristiche di durezza e leggerezza che lo rendono un materiale ottimale per l'utilizzo del metallo in applicazioni aerospaziali dove la resistenza unita ad una buona leggerezza rende questo materiale ottimale. Ma non solo. Il titanio, allo stato puro, viene utilizzato anche per costruire le protesi ossee umane poiché, oltre alle caratteristiche di durezza e leggerezza necessarie, questo metallo, ha anche notevoli doti di biocompatibilità, ovvero è in grado di resistere bene all'attacco delle varie molecole biologiche presenti all'interno del corpo umano e la capacità di incrementare l'aderenza della nuova formazione ossea, dovuta alla sua ruvidezza superficiale, oltreché non interagire biologicamente con i processi chimici naturali, il che lo rende sicuro nell'utilizzo medico.

Tuttavia il Titanio puro non è abbastanza duro per un gran numero di applicazioni mediche, da qui la necessità dello sviluppo di una lega metallica superiore. In passato ricercatori e industrie hanno provato a formare delle nuove leghe di titanio utilizzando il rame o l'argento, tuttavia queste leghe non mantenevano la leggerezza tipica del titanio richieste dalle varie applicazioni e ne diminuivano sensibilmente la biocompatibilità.

Le due ricercatrici alle prese con l'analisi del nuovo materiale
Uno studio approfondito condotto da E. Svanidze della Rice University di Huston (Texas) insieme a T. Besara del Florida State University della Florida e ad altri autori, sta svelando le interessanti capacità della lega Titanio-Oro. Questa particolare lega, che raggiunge il massimo della durezza con una proporzione di una parte di oro e tre di titanio, ha caratteristiche nettamente superiori a puro titanio pur mantenendone le caratteristiche di leggerezza e biocompatibilità.

Per questa specifica composizione si riesce a raggiungere una durezza che va da tre a quattro vole superiore alla durezza del titanio puro. Un risultato eccellente tanto più che mantiene le caratteristiche di leggerezza e di biocompatibilità del titanio puro il che rende questa lega un ottimo materiale composito adatto ad un elevato numero di applicazioni, soprattutto mediche, presenti e future.

Studi ed analisi sulla struttura cristallina della nuova lega.
I ricercatori narrano della loro esperienza con questo materiale, una volta fusi i due metalli in una fornace ad alta temperatura ( il titanio fonde ad una temperatura superiore ai 1600 °C ), colano fusione in un particolare modo che produce tante piccole sfere di lega dopo di che hanno provato a frantumarle per ridurle di dimensione, ma senza successo. Sorpresi dalla particolare durezza di questo materiale hanno provato a frantumare questa lega tramite un pestello con superficie di diamante ( il materiale più duro nell'universo ) ma anche stavolta senza successo. Esperimento che, di fatto, rende virtualmente impossibile questa lega da frantumare.

Una spiegazione completa e definitiva di come questa lega funzioni non è ancora disponibile, tuttavia, analisi effettuate tramite spettroscopia a raggi x, hanno evidenziato una forma particolare della disposizione cristallina degli atomi dei due metalli. La disposizione cubica degli atomi in questa lega gli regala le caratteristiche eccezionali che abbiamo citato.

Analisi al microscopio della struttura di diverse leghe a confronto
Vanno però fatte alcune considerazioni in merito ai costi effettivi della nuova lega, implementare un metallo prezioso all'interno di una lega in una proporzione di 1 a 3 ( 8 carati effettivi d'oro ) la rende bersaglio di interessi economici importanti; inoltre bisogna considerare anche la rarità, sempre maggiore, del metallo Titanio che rende ancora più costosa la lega.

Vogliamo augurarci un uso attento e veramente utile di questa lega per  evitare speculazioni e interessi economici che prevalicano le necessità mediche e tecnologiche.