mercoledì 31 agosto 2016

Nuovo segnale di probabile origine Aliena. Ma il SETI invita alla prudenza.

Un nuovo strano "messaggio" captato nelle profondità dell'o spazio ha suscitato la curiosità dei cercatori di alieni. Captato il 15 Maggio del 2015 da un radiotelescopio russo nella costellazione di Ercole, ma divulgato solo adesso alla comunità scientifica, ha fatto partire la caccia da parte del Search for Extra-Terrestrial Intelligence Institute. Ma c'è chi invita alla prudenza: potrebbe essere una quasar.

Panoramica del radiotelescopio RATAN-600
HD 164.595, un sistema solare di qualche miliardo di anni più vecchio del sole, ma centrato su una stella di dimensioni e luminosità paragonabili, è la presunta fonte di un segnale trovato con il radiotelescopio RATAN-600 in Zelenchukskaya, ai piedi del versante settentrionale dei monti del Caucaso. Questo sistema è noto per avere un pianeta simile a Nettuno, ma in un'orbita molto stretta, che lo rende poco adatto alla vita. Tuttavia, ci potrebbero essere altri pianeti in questo sistema che sono ancora da scoprire.

Il segnale sembra essere stato presentato in una convegno organizzato da diversi astronomi russi, nonché un ricercatore italiano, Claudio Maccone, il presidente Comitato Permanente dell'Accademia Internazionale di Astronautica. Maccone ha recentemente inviato una e-mail agli gli scienziati del SETI in cui egli descrive questo scoperta, tra cui il segnale attribuito al sistema stellare HD 164.595.

Potrebbe essere una trasmissione da una società tecnicamente abile? Lo stesso Seti avanza dubbi sull'intesità del segnale registrato dai russi. Se è davvero quella, spiegano gli eredi di Carl Sagan, le possibilità sono due: o gli alieni di HD164595 hanno inviato il messaggio in tutte le direzioni e allora per trasmetterlo avrebbero avuto bisogno di una potenza di 100 miliardi di miliardi di Watt (centinaia di volte l'energia che il Sole iraggia verso la Terra), oppure hanno scelto di inviarlo solo in direzione del nostro pianeta, ma anche in questo caso avrebbero avuto bisogno di una energia paragonabile a quella usata da tutto il genere umano. Entrambi gli scenari, sottolineano gli esperti del Seti, richiedono uno sforzo tecnologico ben superiore di quello di cui saremmo capaci noi terrestri

Analisi spettrale del segnale "alieno"
Poi ci sono ulteriori considerazioni da fare. Il segnale proviene davvero dalla stella HD 164.595? L'antenna RATAN-600, che ha ricevuto il segnale ha una configurazione insolita (un anello a terra del diametro di 577 metri), e ha un insolita "forma del fascio" (il pezzo di cielo a che è sensibile). Alla lunghezza d'onda del segnale riportata, 2,7 cm - che equivale ad una frequenza di 11 GHz - il fascio è una striscia altamente allungata in direzione nord-sud, questo potrebbe sfalsare la corretta lettura della direzione del segnale.

Inoltre c'è la questione delle caratteristiche del segnale stesso. Le osservazioni sono state fatte con un ricevitore che ha una larghezza di banda di 1 GHz. Questa è un miliardo di volte più ampia rispetto alle larghezze di banda tradizionalmente utilizzata per SETI, ed è 200 volte più ampia di un segnale televisivo. La forza del segnale era piuttosto "debole". Ma era debole, solo a causa della distanza di HD 164.595? Oppure a causa della "diluizione" del segnale sulla ampia largezza di banda del ricevitore russo?  Proprio come in una torta che incorpora tanti ingredienti, potrebbe risultare difficile indovinare i singoli ingredienti, in un ricevitore con una larghezza di banda molto amppia può diluire l'intensità di tanti segnali a banda stretta relativamente forti, confondendoli e generando segnali fantasma.

La costellazione di ERCOLE probabile fonte del segnale.
"Abbiamo trascorso un secondo giorno alla ricerca di emissione radio da HD 164.595, questa volta un passo attraverso la manopola della radio per coprire tutte le frequenze osservate dagli astronomi russi. Non siamo riusciti a vedere alcun segnale di maggiore di 0,1 Janskys in una larghezza di banda di 100 MHz, mentre la segnalazione dei russi è stato un segnale di 0,75 Janskys." Questa l'affermazione dei ricercatori del Seti che, seppur eccitati dalla comunicazione dei russi, non riescono ancora a trovare un riscontro valido del segnale.

A parte l'irritazione per l'anno di ritardo, Maccone sottolinea che un primo traguardo è stato raggiunto: "Ora anche gli americani hanno puntato i loro radiotelescopi verso HD164595 e finalmente ci sarà una vera collaborazione tra statunitensi e russi anche nella ricerca di intelligenze extraterrestri. Non solo: dal 21 settembre sarà operativo il più grande e potente radiotelescopio mai costruito, il Fast realizzato dai cinesi ed esteso come 30 campi di calcio.

La caccia, infatti, è aperta e c'è già chi sogna di interloquire a intervalli di 95 anni (il tempo che la luce impiega ad arrivare dalla Terra alla stella e viceversa) con gli alieni. E c'è da aspettarsi che in futuro ricerche del genere si moltiplicheranno visto il proliferare di pianeti gemelli della Terra che si stanno avvistando nello Spazio. Ultimo in ordine di tempo quello che ruota intorno a Proxima Centauri, la stella più vicina a noi: appena 4 anni luce. Se lì ci fosse davvero ET fare "due" chiacchiere richiederebbe otto anni e non due secoli.

Gli scienziati del SETI e dei maggiori centri di ricerca collegati continueranno a ricercare e analizzare segnali provenineti dal cielo, in una attesa, sempre più estenuante, si un vero segnale alieno.

lunedì 29 agosto 2016

Terremoto Centro Italia 2016: Ricostruire per non dimenticare.

Prima premessa.
Il terremoto del 24 Agosto 2016 è stato un terribile evento e ha stroncato vite innocenti e cambiato la vita ai superstiti, la redazione tutta è vicina alle famiglie e parenti delle vittime e ci auguriamo che la situazione si risolva al più presto e che possano tornare il prima possibile alle loro case.

Seconda premessa.
In questo articolo vogliamo fare un semplice "conto della serva". Sicuramente i conti dovranno essere fatti con maggiore dettaglio e cercando di capire le reali necessità e possibilità dei territori colpiti, nonostante questo cerchiamo di partire da dati il più possibile reali citando, di volta in volta le fonti, ed eseguendo in maniera verificabile i nostri calcoli. Non possiamo, in questi calcoli, stimare i costi delle vite umane, che sono elevatissimi e che sicuramente saranno incolmabili, tuttavia vogliamo e dobbiamo in tutti i modi mantenere nei nostri cuori, il rispetto delle vittime e dei loro parenti e conoscenti.

Ricostruire per non dimenticare.
Come già accennato per noi è importante che gli abitanti delle zone terremotate tornino al più presto nelle loro case, per questo è necessario pianificare in maniera corretta e controllata una ricostruzione delle case secondo i più avanzati criteri antisismici e di efficienza energetica.

Per cercare di stimare un costo relativo alla ricostruzione prendiamo come riferimento la città di Amatrice la più colpita e la più significativa dal punto di vista storico e folkloristico.
Prendiamo come costo di riferimento per la ricostruzione di case nuove i prezzi di acquisto di case nuove situate nella zona di Amatrice. Il sito immobiliare.it stima il prezzo delle case al metro quadro (Euro/mQ) di 790 euro. Questo costo è piuttosto basso e, anche se con adeguate economie di scala i costruttori potrebbero garantire davvero questo prezzo, noi mettiamo a budget il costo di partenza di 1000 euro/mQ. A questo prezzo base è necessario aggiungere alcune maggiorazioni.


  1. Maggiorazione per le norme antisismiche +15% (costo massimo di un range che va dal 10% al 15%)
  2. Maggiorazione per le norme per il risparmio energetico + 10% (budget teorico senza fonte)
  3. Maggiorazione dedicata alle infrastrutture e servizi (strade, scuole, impianti, etcc..) + 10%

Per una maggiorazione totale del 35% il che porta ad una spesa totale i 1350 euro/mQ.
Non terremo conto delle eventuali detrazioni fiscali ( che possono raggiungere anche il 65% ) sulle strutture per il risparmio energetico, che ne abbasserebbero ulteriormente il costo.

Abbiamo dunque stabilito il costo al metro quadro di una casa che è al massimo della sicurezza sia sismica che ambientale, a risparmio energetico ( i benefici si  faranno sentire a medio-lungo termine)  e sicura dal punto di vista sismico e territoriale. Abbiamo anche incluso la quota per le strutture esterne che, come indicato, devono includere lo smaltimento delle vecchie macerie e la (ri)costruzione di strade, scuole, uffici etc... ( qualcuno vorrebbe includere anche il restauro delle chiese e degli ambienti religiosi, tuttavia riteniamo che queste spese debbano essere attribuite alla chiesa e a coloro che gestiscono direttamente  queste strutture, tuttalpiù possiamo includere il restauro, ove possibile, di opere d'arte importanti per la collettività)

Ora, ammesso che vogliamo ospitare comodamente una famiglia media di quattro persone in una casa di almeno 90 metri quadri, significa che per questa famiglia dovremmo spendere un totale di (90x1.350) 121.500 euro che significa un costo di (121.500/4) 30.375 euro per ogni persona.

Teniamo presente questo numero: 30.375 euro a persona, che dovrà essere ripreso in considerazione per tutte le analisi successive.

La prima cosa interessante da calcolare è il costo totale, secondo questi dati, della ricostruzione.  Per poter ridare una casa ad ogni abitante di Amatrice il costo totale sarebbe di (30.375x2700) 82.012.500 euro.
Se ci pensate non è tantissimo, rispetto agli enormi budget dello stato e delle più importanti amministrazioni locali. E' interessante ricordare che, nell'emergenza, lo stato ha disposto un budget (totale per tutti i territori) di  oltre 150 milioni di euro.

Da dove prendere i soldi per la ricostruzione?
82 milioni di euro ( e spiccioli ) non crescono sulle piante (magari) ma vanno trovati da qualche parte.
Molti hanno proposto di dedicare il monte premi del Superenalotto alla ricostruzione. L'idea è pressoché assurda poiché, come è stato più volte detto, non è possibile requisire soldi privati ( la Sisal è una società privata ) per scopi pubblici che esonerano la società dallo scopo del suo Statuto. E' però interessante calcolare che la ricostruzione della sola Amatrice intaccherebbe il (82/130*100) 63% del monte premi totale, lasciando risorse per la ricostruzione di altri paesi. Ricordiamo tuttavia che questo budget non è disponibile, l'unico modo per poterlo utilizzare è riuscire a vincerlo, dopodiché donarlo.

Potrebbero (qui il condizionale è d'obbligo!) essere utilizzate altre fonti, ridistribuendo il costo alla colettività
si potrebbero tassare tutta una serie di beni che, con un piccolo aumento per il singolo, potrebbero fornire un gettito piuttosto elevato per risolvere questo tipo di necessità. Abbiamo sempre creduto che se mai fosse necessario tassare qualcosa è bene farlo su beni che non sono strettamente necessari o che portano, a lungo termine, a problemi di vario tipo alle persone od alle cose; è questo il caso di beni che nuocciono alla salute o all'ambiente come le sigarette, il gioco d'azzardo, i carburanti inquinanti (gasolio e derivati), armi, alcolici, bolli auto su veicoli inquinanti come SUV e auto sportive, etc...

Mantenendo il condizionale obbligatorio, potremmo anche utilizzare anche prestiti a tasso agevolato provenienti da Banca d'Italia e CdP, enormi contenitori pubblici di liquidità che hanno nello statuto l'aiuto e l'agevolazione delle attività pubbliche. Non è questo il posto più adatto per trovare una soluzione in merito, la nostra vuole essere uno spunto di riflessione collettiva. Lasciamo (seppur con il  beneficio dell'inventario) agli esperti e responsabili la scelta delle modalità e fonti per finanziare la ricostruzione purché questa sia efficace, efficiente e soprattutto veloce e definitiva.

La questione degli immigrati.
Politici improvvisati, opinionisti da tastiera, sciacalli e profittatori del primo minuto hanno subito ululato
l'idea di mandare negli hotel gli sfollati anziché gli immigrati chiedendo, ignorantemente, di dedicare
i 35 euro degli immigrati agli sfollati, in una sorta di slancio patriottico a tutto vantaggio solo della loro infame visibilità.

L'unico modo per rispondere all'ignoranza dilagante è la logica e l'informazione corretta.
Sappiamo già da tempo da dove provengono i fondi per l'immigrazione e non lo ripeteremo in questo luogo, sappiamo già anche come questi fantomatici 35 euro vengono utilizzati ( di fatto, ricordiamolo, solo 2,5 euro finiscono effettivamente in tasca agli immigrati). Tenendo bene presente che alle popolazioni colpite interessa tornare a casa loro nel loro paese il prima possibile e non essere ospitati (seppur comodamente) in alberghi lontani e scomodi dal punto di vista logistico, analizziamo la questione dal punto di vista solamente e squisitamente matematico.

La domanda in questo caso è: poniamo il caso in cui i soldi della ricostruzione vengono utilizzati per ospitare gli Amatriciani, quanto tempo possiamo "mantenere" un abitante di Amatrice in "albergo" dedicandogli 35 euro al giorno?
Prendiamo i 30.375 che avevamo  calcolato e lo dividiamo per 35 euro giornalieri otteniamo così un totale di (30.375/35) 868 giorni in totale pari a (868/365) 2,3 anni cioè 2 anni, 3 mesi e 2 settimane (circa). Se ci ragionate non è poi così tanto, considerando che poi, al termine di questo periodo, non avremmo più i soldi per la ricostruzione e dovremmo continuare a mantenere le persone in albergo aumentando, oltre che le spese, anche i disagi.

Riteniamo dunque infondata nonché deleteria l'idea di ospitare in albergo gli abitanti delle zone colpite dal terremoto con i fondi per gli immigrati e continuare a dar voce a questa idea diffonde solo ignoranza e inutile odio.

Il caso di Norcia: un esempio di buone pratiche.
Norcia ha subito il terremoto con una intensità pari, se non superiore, a quello subito da Amatrice, eppure,
salvo pochissimi danni alle strutture, non ci sono state ne vittime ne crolli gravi. Tutto questo perché il paese ha investito, spendendo bene i soldi messi a disposizione dallo stato, nella messa in sicurezza di tutti i suoi
edifici, anche i più antichi, utilizzando tecniche relativamente poco costose ma ottenendo risultati eccezionali nel momento in cui il terremoto ha colpito davvero, risparmiando centinaia di vittime e gravi danni alle strutture, nonché i relativi costi di ricostruzione alla collettività! Dovremmo ringraziare gli amministratori di questo paese perché le loro scelte attente e mirate hanno fatto il bene, non solo della loro "piccola" realtà locale ma anche e soprattutto quello nazionale.
Inoltre è un perfetto esempio per tutti, che se i soldi vengono impiegati correttamente e attentamente senza sprechi e alleggerendo la burocrazia, i vantaggi, enormi ci sono. Immaginate i risparmi sia di denaro, sia soprattutto di vittime, che avremmo ottenuto oggi se tutti i paesi colpiti dal terremoto fossero allo stesso livello di Norcia. Pochissime vittime e pochissimi danni, pochissime persone senza casa e una notizia da prima pagina sarebbe rimasta in terza o addirittura quarta pagina. Questa è l'Italia che vorremmo.

Concludendo.
Vogliamo ringraziare tutti coloro che si sono mossi subito per aiutare le zone colpite, che hanno donato beni e soldi,  la la protezione civile che ha fatto e sta facendo un lavoro fantastico, i bravissimi volontari che si sono messi a disposizione delle autorità, i vigili del fuoco e ai loro meravigliosi cani da ricerca che hanno salvato vite importantissime.
Anche noi, nel nostro piccolo, qualcosa stiamo facendo.
Vogliamo augurarci un impegno serio, deciso e sostanziale, da parte del governo, perché vi sia una effettiva ricostruzione secondo serie norme antisismiche per poter far tornare a casa il prima possibile una popolazione colpita da un evento seriamente tragico e che in futuro un terremoto di questa entità non sia più un tragico evento ma solo un "semplice" brontolio della nostra amata terra.

(fonti: immobiliare.it, Wikipedia, altre fonti)




venerdì 19 agosto 2016

Cancro: una nuova molecola aumenta l'efficacia della chemioterapia.

Chi ci segue da sempre sa che non amiamo spettacolarizzare le notizie, diffondere allarmismi o notizie false. Navigando su i vari social network capita spesso di trovare notizie sensazionali portate da siti web non autorevoli che esagerano nel titolare la notizia solo per portare click e share.

Quando ci siamo trovati davanti al solito titolone sensazionalistico che riportava una nuova cura contro il cancro riportato dal solito sito bufalaro, abbiamo preso la notizia con molta calma e abbiamo deciso di approfondire.

Effettivamente la notizia è vera anche se in termini differenti da come è stata "presentata". La fonte più vicina alla notizia è l'agenzia ANSA che la riporta tramite un'intervista all'autore: Mauro Ferraris dello Huston Methodist Accademy che approfondisce la notizia tramite un articolo dettagliato. 

Il Prof. Ferraris autore della ricerca.
Leggendo ed approfondendo la notizia si legge che non è un nuovo farmaco contro il tumore quello trovato dal professore; bensì si tratta di un nuovo sistema basato su nano particelle. Ecco come funziona.

La tecnologia si chiama Injectable Nanoparticle Generator (iNPG): è esattamente come una minuscola navicella in cui sono nascoste nanoparticelle – chiamate pDox – che trasportano Adriamicina, uno dei più comunichemioterapici.

Le iNPG hanno due caratteristiche che le rendono preziose: sono in grado di immettersi nel sistema vascolare che nutre il tumore e tendono ad accumularsi nei polmoni e nel fegato, i siti più colpiti dalle metastasi del cancro al seno.

Una volta nel sistema vascolare, le iNPG permettono alle pDox di fuoriscire da nano-aperture. Anche le pDox hanno delle caratteristiche interessanti: si appallottolano e prendono “la forma” di altri composti che le cellule tumorali riconoscono come “amici” e che quindi non respingono. Ingannato il sistema di difesa del cancro, le pDox si avvicinano al nucleo e solo in quel momento, grazie a un cambio di pH, rilasciano il farmaco che uccide la cellula.

Lo studio che ha dimostrato le potenzialità di questa tecnologia è stato pubblicato su Nature Biotechnology. I ricercatori hanno testato le iNPG in topi con tumore al seno metastatico del tipo triplo negativo (l'unico per il quale non esiste al momento, una terapia mirata). Metà degli animali hanno raggiunto la completa remissione e sono sopravvissuti liberi dalla malattia quanto gli esemplari sani. L'altra metà è invece deceduta a causa della malattia, ma ha comunque vissuto più a lungo dei topi trattati con la terapia standard.

Non solo. A una settimana dal trattamento, i topi che avevano ricevuto le iNPG non mostravano segni di tossicità cardiaca (un noto effetto collaterale del farmaco), a differenza di quelli che avevano ricevuto l'adriamicina per via sistemica o con le sole pDox non veicolate da iNPG.

“Normalmente, meno dello 0,1% del farmaco riesce a raggiungere il tessuto tumorale, mentre il resto si accumula nei tessuti sani”, spiega Haifa Shen, tra gli autori dello studio. “Purtroppo, quando le cellule ricevono una quantità inferiore di farmaco rispetto a quella ottimale, spesso si adattano e sviluppano resistenza”.

Sembrerebbe dunque che questo "veicolo" aumenti l'efficienza dei farmaci chemioterapici già esistenti, portandoli direttamente al cuore delle cellule malate permettendo di superare tutte le difese che queste mettono in atto contro la chemioterapia.

( fonti: Ansa, Nature, Huston Methodist )




giovedì 18 agosto 2016

Dalla ricerca un nuovo antidolorifico come la Morfina ma senza gli effetti collaterali

Nuove tecniche di selezione e elaborazione assistita da computer di molecole e
composti hanno permesso di trovare una nuova molecola che in alcuni esperimenti sui topi
ha mostrato effetti analgesici del tutto paragonabili con quelli della morfina ma priva
dei terribili effetti collaterali sul sistema respiratorio propri della sostanza oppiacea.

Attraverso un complesso lavoro di screening al computer della struttura di oltre tre milioni di molecole, i ricercatori diretti da Aashish Manglik sono riusciti a identificare le caratteristiche di una molecola in grado di realizzare un'attivazione solo parziale del recettore mu e in particolare della sua parte che controlla l'effetto analgesico. I ricercatori hanno quindi sintetizzato il composto, chiamato PZM21, che hanno testato sperimentalmente sui topi. La sostanza ha mostrato di avere non solo una capacità analgesica pari a quella della morfina, ma anche una durata d'azione superiore.

Le caratteristiche della nuova molecola e il modo in cui è stata identificata sono descritti in un articolo pubblicato su "Nature".

La sostanza, testata finora solo sui topi, sembra inoltre indurre un livello di dipendenza inferiore a quello della morfina, dell'eroina e di altri farmaci analgesici (come codeina, ossicodone, idrocodone). Questo aspetto, sottolineano i ricercatori, va però confermato da ulteriori attenti studi in altri modelli animali e successivamente testato con cautela negli esseri umani, in cui la dipendenza è legata non solo a fattori fisiologici ma anche psicologici.

La capacità degli oppioidi di indurre il loro potente effetto contro il dolore è dovuta al legame con tre recettori che si trovano sulla superficie delle cellule cerebrali e del midollo spinale, chiamati recettore mu, delta e kappa. Il più potente è il recettore mu, che partecipa alla risposta antidolorifica, alla depressione respiratoria, al senso di gratificazione indotto dalla sostanza e allo sviluppo della dipendenza.

In particolare, l'attivazione del recettore mu innesca nelle cellule due differenti percorsi biochimici, uno dei quali (mediato dalla proteina G) agisce principalmente sulla sensibilità al dolore, mentre l'altro (mediato dalla proteina beta-arrestina), è il principale responsabile della dipendenza e, ancor più,
della depressione respiratoria.

Questo risultato, per ora senza precedenti, utilizzando tecniche di analisi computazionale, deve essere ancora sottoposto a sperimentazione dettagliata e attenta oltreché testata sull'uomo prima di essere messa in commercio. Tuttavia il particolare processo con cui è stata scoperta promette un roseo futuro per la ricerca e lo sviluppo di nuovi medicinali oltreché un costo sia in termini di tempo che in termini di denato inferiore a quelli dei metodi tradizionali.

( fonti: nature.com, Le Scienze )

mercoledì 17 agosto 2016

"Veloce come la Luce" - Il Li-Fi cento volte più veloce del Wi-Fi e con numerosi vantaggi.

Li-Fi è un termine introdotto per la prima volta da Harald Haas in occasione di un discorso al TED Global nel 2011 riferendosi al corrispondente ottico del Wi-Fi.

La particolarità del Li-Fi sta nel fatto che le frequenze occupate per le comunicazioni appartengono allo spettro della luce visibile, il che ha una serie di interessanti conseguenze nel confronto con le trasmissioni radio.

  • Viene a mancare il conflitto con ogni trasmissione radio, in termini di interferenza dovuta all'occupazione dello stesso spettro
  • L'assenza di interferenza radio rende promettente l'uso in ospedali e aerei, dove le interferenze pongono problemi di sicurezza
  • Il segnale è limitato alla portata ottica, il che riduce i problemi di sicurezza causati dalle intercettazioni
  • È possibile creare grandi trasmettitori con efficienza energetica molto maggiore delle stazioni radio


Lo stesso Haas in occasione della presentazione al TED ha dato dimostrazione di come modulando le frequenze a cui operano i distinti LED di una normale lampadina potesse essere possibile trasmettere addirittura un video in alta definizione. Una simile dimostrazione ebbe luogo anche al CES 2012 di Las Vegas dove vennero invece utilizzati due telefoni cellulari che comunicavano utilizzando il Li-Fi a distanza di dieci metri.
Ai tempi di Napoleone gran parte dell'Europa era coperta da una rete di telegrafi ottici chiamati semafori (da non confondersi con le luci semaforiche che si trovano negli incroci stradali di oggi), mentre Graham Bell riteneva che la sua più grande invenzione fosse il fotofono, una sorta di telefono nel quale le onde sonore erano trasformate in onde elettromagnetiche dello spettro visibile o infrarosso invece che in impulsi elettrici come la sua più nota controparte.

La tecnologia di cui stiamo parlando si basa sulla cosiddetta comunicazione a luce visibile (o VLC, visible light communication), utilizza le frequenze della luce visibile comprese tra 400 e 800 terahertz (THz).

Utilizzando queste frequenze di luce, la tecnologia Li-Fi funziona come una forma incredibilmente complessa del codice Morse. Attraverso l’emissione di luce intermittente da parte di un LED è possibile generare e trasmettere dati in codice binario. La luce intermittente emessa dal LED è estremamente elevata tale da risultare impercettibile dall'occhio umano.

Immaginiamo di avere smart LED installati nella nostra casa e sui soffitti dell’ufficio: tutti i dispositivi come computer, telefoni, stampanti e altri dispositivi elettronici attualmente connessi tramite onde radio verrebbero connessi tramite LED. Si avrebbe così un duplice vantaggio: eliminazione delle onde radio e illuminazione degli spazi.

A Novembre dello scorso anno, un team di ricercatori della società estone Velmenni è riuscito a portare per la prima volta questa tecnologia fuori dal laboratorio. La tecnologia è stata sperimentata in uffici e ambienti industriali vicini, la velocità raggiunta è stata di 224 Gigabit al secondo.

Non solo la velocità raggiunta è stata 100 volte più veloce della velocità media di un sistema wi-fi ma si trattava dell'equivalente di 18 film da 1,5 GB ciascuno scaricati ogni secondo.

La telecomunicazione ottica senza fili garantisce altri vantaggi rispetto al Wi-Fi. Prima di tutto, una rete Li-Fi non richiede nessun nuovo impianto né l'installazione di antenne o ripetitori: si possono sfruttare reti di illuminazione LED già esistenti (le luci di casa, ad esempio, o l'impianto di illuminazione pubblica in strada) accoppiate con normali telecamere (ad esempio le webcam dei nostri PC o le telecamere dei nostri cellulari). Le varie fonti luminose – solitamente composte da più di un LED – potrebbero comunicare contemporaneamente con più dispositivi, inviando segnali differenti a ognuno di essi: in questo modo lo spettro delle frequenze potrebbe essere utilizzato in maniera più efficiente e senza che si creino le interferenze tipiche delle altre onde elettromagnetiche.

L'adozione su larga scala della tecnologia Li-Fi, inoltre, potrebbe dare un ulteriore impulso all'Internet delle cose. Gli elettrodomestici smart presenti nelle nostre case potrebbero sfruttare le telecomunicazioni ottiche wireless anziché il Wi-Fi per comunicare tra di loro, rendendo il tutto più semplice, più sicuro e senza rischiare la saturazione della capacità di trasmissione del Wi-Fi.

A far pendere l'ago della bilancia verso il Li-Fi piuttosto che verso altre tecnologie concorrenti non è tanto la velocità di connessione o l'ampiezza della banda di comunicazione che questa tecnologia garantisce. Il vero punto di forza del Li-Fi sta nella facilità con cui questa tecnologia potrebbe essere applicata nella vita reale. Realizzare una rete di comunicazione basata sulle lampadine LED non richiederebbe, infatti, grossi investimenti di partenza. Per creare dei trasmettitori Li-Fi basterebbe aggiungere un piccolo microchip alle lampadine LED già in uso in tutto il mondo. Tenendo conto che, ad oggi, globalmente sono installate circa 14 miliardi di lampadine, si comprendono immediatamente i grandi vantaggi pratici che una tecnologia basata sul Li-Fi potrebbe portare al mondo dell'IoT.

In questo modo si potrebbe costruire una rete di telecomunicazioni senza fili capillare e, soprattutto, poco costosa. La copertura del segnale sarebbe ubiqua o quasi: la rete Li-Fi potrebbe essere presente sotto le pensiline degli autobus, nelle stazioni ferroviarie, dentro i vagoni della metro, in strada grazie ai lampioni della pubblica illuminazione e, ovviamente, in casa.

( fonti: Le Scienze, Fastweb, Wikipedia )


martedì 16 agosto 2016

Anche i Buchi Neri evaporano. Un nuovo studio da ragione al cosmologo Stephen Hawking

Il buco nero è per definizione l'oggetto a cui nulla può sfuggire. Secondo le leggi della gravità, formalizzate nella teoria generale della relatività di Albert Einstein, tutto ciò che capita entro un certo raggio dal centro del buco nero, sia materia o radiazione luminosa, finisce per essere inghiottito dalla sua immensa forza attrattiva.

Nel 1974 tuttavia, in base ad alcune considerazioni di meccanica quantistica, il grande cosmologo Stephen Hawking teorizzò che i buchi neri non dovessero essere del tutto “neri”. In altre parole avrebbero dovuto emettere qualche tipo di radiazione luminosa, da allora nota come radiazione di Hawking, e con ciò perdere una piccola quantità di energia. Tutto questo, secondo l'equivalenza di massa ed energia stabilita dalla stessa teoria relativistica, equivale a perdere massa. In un tempo molto lungo, dunque, i buchi neri dovrebbero "evaporare".

Uno dei sistemi fisici più adatti a creare le condizioni analoghe a quelle di un buco nero con onde acustiche è il condensato di Bose-Einstein. Si tratta di un sistema di atomi o altre particelle caratterizzate ciascuna da un valore intero o nullo di spin, una proprietà quantistica che possiamo immaginare come una rotazione attorno a un proprio asse. Grazie a questa caratteristica, quando questi atomi o particelle sono portati a temperature prossime allo zero assoluto, perdono le loro caratteristiche individuali e per un peculiare effetto della fisica quantistica iniziano a comportarsi come un tutt'uno.

Proprio  questo sistema ha permesso ora la prima verifica sperimentale della radiazione di Hawking, ottenuta da Jeff Steinhauer del Technion-Israel Institute of Technology ad, Haifa, in Israele, in uno studio descritto su “Nature Physics”, che ha sfruttato atomi di rubidio.

Lo studio ha rilevato anche un effetto cruciale previsto dei calcoli di Hawking. La particella che sfugge dal buco nero è legata a un'altra particella che finisce dal buco nero: questa coppia è unita dall'entanglement, una correlazione che, secondo le leggi della meccanica quantistica, si può instaurare in opportune condizioni tra gli stati di due particelle.

In virtù dell'entanglement, una misurazione effettuata su una delle due particelle della coppia permette di conoscere il valore della stessa misurazione anche per l'altra particella entangled. Ciò avviene in modo istantaneo, a qualunque distanza si trovino tra loro le due particelle che formano la coppia. È questo il principio su cui si basano gli esperimenti che riguardano il cosiddetto teletrasporto quantistico.

Questo risultato dimostra che la radiazione di Hawking è un effetto squisitamente quantistico ed è in accordo con le simulazioni numeriche effettuate in altri studi.

venerdì 12 agosto 2016

Pericolo BISFENOLO. Una formula comunemente utilizzata nei prodotti di consumo è pericolosa per l'uomo.

Il mondo moderno, si sa, produce una grande quantità di prodotti chimici più o meno pericolosi per l'uomo. Nell'industria viene utilizzato un particolare agente chimico il Bisfenolo che viene utilizzato in molte applicazioni industriali quali ad esempio, additivo nei prodotti detergenti, solvente per i trattamenti galvanici, reagente nelle reazioni di polimerizzazione, costituente delle resine fenoliche e delle resine epossidiche (colle).
prodotti che contengono tracce di Bisfenolo

La prima formulazione  a base di Bisfenolo è la formulazione di tipo "A" ovvero BSA che già in passato ha dimostrato di essere pericoloso per l'apparato riproduttivo umano. Per cercare
di ovviare a questo problema l'industria ha realizzato la nuova formulazione "S" ovvero BPS che doveva risultare non pericolosa per l'uomo. Il BPS è utilizzato inoltre come sviluppatore di stampa nella carta termica (ad es., scontrini dei registratori di cassa), compresi i prodotti commercializzati come "BPA-free paper"

In uno studio condotto da Y. Chen, L. Shu, Z. Qiu, D. Y. Lee ed altri e pubblicato con un articolo sulla rivista scientifica PLOS e ripreso dalla rivista italiana Le Scienze, ricercatori hanno esposto alcuni esemplari di Caenorhabditis elegans (vermi utilizzati molto spesso come organismi modello in laboratorio) a diverse concentrazioni di BPA e/o BPS che si avvicinano ai livelli di BPA e/o BPS trovati negli esseri umani. I ricercatori hanno seguito tutto il ciclo riproduttivo dei vermi misurandone la fertilità.

Risultati degli studi su i vermi.
I ricercatori hanno osservato che i vermi esposti al BPA o al BPS (o ad una combinazione dei due) hanno avuto una riduzione della fertilità. Sorprendentemente, questi effetti sono stati riscontrati a livelli di dose di BPS più bassi rispetto ai livelli di dose di BPA suggerendo che il BPS può essere più dannoso per il sistema riproduttivo rispetto al BPA. Questo dato è particolarmente significativo nel momento in cui si esamina la possibilità di sopravvivenza dei giovani embrioni.

Questi risultati delineano uno scenario preoccupante per gli esseri umani, in quanto gli stessi processi riproduttivi che sono stati interrotti nei vermi da laboratorio a causa del BPS si trovano nei mammiferi. Inoltre, come osservato in precedenza, il BPS è presente in una miriade di prodotti di consumo.

«C'è un grande bisogno di valutare in maniera coordinata la sicurezza di più sostituti e miscele di sostanze chimiche in sostituzione di un prodotto. La buona notizia è che una serie di programmi governativi e di iniziative da parte di laboratori accademici si stanno iniziando a muovere in questa direzione»  scrive Patrick Allard, prof. di Scienze della salute ambientale presso la UCLA Fielding School of Public Health e principale autore dello studio.

mercoledì 10 agosto 2016

Oro e Titanio per un nuovo materiale altamente duro e resistente.

L'industria, la scienza e la medicina sono sempre alla ricerca di materiali con capacità strutturali particolari per adattarli alle proprie necessità. Il metallo più duro e resistente sino ad ora molto utilizzato nell'industria è il Titanio.

Questo materiale infatti ha ottime caratteristiche di durezza e leggerezza che lo rendono un materiale ottimale per l'utilizzo del metallo in applicazioni aerospaziali dove la resistenza unita ad una buona leggerezza rende questo materiale ottimale. Ma non solo. Il titanio, allo stato puro, viene utilizzato anche per costruire le protesi ossee umane poiché, oltre alle caratteristiche di durezza e leggerezza necessarie, questo metallo, ha anche notevoli doti di biocompatibilità, ovvero è in grado di resistere bene all'attacco delle varie molecole biologiche presenti all'interno del corpo umano e la capacità di incrementare l'aderenza della nuova formazione ossea, dovuta alla sua ruvidezza superficiale, oltreché non interagire biologicamente con i processi chimici naturali, il che lo rende sicuro nell'utilizzo medico.

Tuttavia il Titanio puro non è abbastanza duro per un gran numero di applicazioni mediche, da qui la necessità dello sviluppo di una lega metallica superiore. In passato ricercatori e industrie hanno provato a formare delle nuove leghe di titanio utilizzando il rame o l'argento, tuttavia queste leghe non mantenevano la leggerezza tipica del titanio richieste dalle varie applicazioni e ne diminuivano sensibilmente la biocompatibilità.

Le due ricercatrici alle prese con l'analisi del nuovo materiale
Uno studio approfondito condotto da E. Svanidze della Rice University di Huston (Texas) insieme a T. Besara del Florida State University della Florida e ad altri autori, sta svelando le interessanti capacità della lega Titanio-Oro. Questa particolare lega, che raggiunge il massimo della durezza con una proporzione di una parte di oro e tre di titanio, ha caratteristiche nettamente superiori a puro titanio pur mantenendone le caratteristiche di leggerezza e biocompatibilità.

Per questa specifica composizione si riesce a raggiungere una durezza che va da tre a quattro vole superiore alla durezza del titanio puro. Un risultato eccellente tanto più che mantiene le caratteristiche di leggerezza e di biocompatibilità del titanio puro il che rende questa lega un ottimo materiale composito adatto ad un elevato numero di applicazioni, soprattutto mediche, presenti e future.

Studi ed analisi sulla struttura cristallina della nuova lega.
I ricercatori narrano della loro esperienza con questo materiale, una volta fusi i due metalli in una fornace ad alta temperatura ( il titanio fonde ad una temperatura superiore ai 1600 °C ), colano fusione in un particolare modo che produce tante piccole sfere di lega dopo di che hanno provato a frantumarle per ridurle di dimensione, ma senza successo. Sorpresi dalla particolare durezza di questo materiale hanno provato a frantumare questa lega tramite un pestello con superficie di diamante ( il materiale più duro nell'universo ) ma anche stavolta senza successo. Esperimento che, di fatto, rende virtualmente impossibile questa lega da frantumare.

Una spiegazione completa e definitiva di come questa lega funzioni non è ancora disponibile, tuttavia, analisi effettuate tramite spettroscopia a raggi x, hanno evidenziato una forma particolare della disposizione cristallina degli atomi dei due metalli. La disposizione cubica degli atomi in questa lega gli regala le caratteristiche eccezionali che abbiamo citato.

Analisi al microscopio della struttura di diverse leghe a confronto
Vanno però fatte alcune considerazioni in merito ai costi effettivi della nuova lega, implementare un metallo prezioso all'interno di una lega in una proporzione di 1 a 3 ( 8 carati effettivi d'oro ) la rende bersaglio di interessi economici importanti; inoltre bisogna considerare anche la rarità, sempre maggiore, del metallo Titanio che rende ancora più costosa la lega.

Vogliamo augurarci un uso attento e veramente utile di questa lega per  evitare speculazioni e interessi economici che prevalicano le necessità mediche e tecnologiche.







martedì 9 agosto 2016

Scie Chimiche. Tra Complotto e Verità: Facciamo chiarezza.

Scie chimiche o chemtrails, su internet si trova tutto ed il contrario di tutto. Troviamo siti web che sostengono la teoria con mediocri prove fotografiche, misteriose analisi chimiche di cui non sappiamo la provenienza ne l'autorevolezza e neppure il metodo scientifico utilizzato per l'analisi, documenti super-segreti di fantomatici ed inquietanti comandanti dell'aeronautica militare che sostengono misteriose teorie senza dimenticare video amatoriali con voce fuori campo che descrive con parole pseudo-scientifiche strani spruzzi sotto le ali di aerei civili.

Foto amatoriale di una "presunta" scia chimica
Poi troviamo siti con una maggiore autorevolezza, tipo wikipedia, che spiega, per filo e per segno come e cosa sono queste scie. Smontando pezzo per pezzo, tutte le "prove" che sosterrebbero la teoria.

Vediamo intanto cosa dovrebbero essere. Citiamo sempre Wikipedia nella pagina dedicata.

"I sostenitori di queste teorie, in genere, affermarono che le ipotetiche scie chimiche apparirebbero diverse dalle normali scie di condensazione, delle quali non avrebbero la consistenza e le proprietà note. In particolare, le scie chimiche tenderebbero secondo loro a persistere più a lungo, allargandosi pian piano invece di scomparire. Per esempio, secondo Jeff Rense, che con Art Bell conduce un programma radiofonico sui misteri, «…le scie chimiche inizialmente sembrano normali scie, ma sono più spesse e si estendono per il cielo in forma di X, griglia o in linee parallele. Invece di dissiparsi rapidamente, si allargano e si diramano. In meno di 30 minuti si aprono in formazioni che si uniscono tra loro formando un sottile velo di finte nuvole simili a cirri che rimangono per ore»."

Già da qui si inizia ad avere una idea (sbagliata) di cosa potrebbero essere le scie chimiche. Procediamo con la citazione.

"Secondo la teoria, l'operazione farebbe parte di un complotto globale portato avanti da autori ignoti e per motivi sconosciuti; a tal riguardo sono state avanzate ipotesi diverse, la più comune delle quali è quella secondo cui si tratterebbe di una delle tecniche usate per l'alterazione e il controllo del clima terrestre. In genere, i teorici del complotto ritengono che le "scie chimiche" siano formate da sostanze chimiche (anche di tipo biologico), rilasciate su aree popolate per qualche motivo invariabilmente complottistico, non meglio dimostrato. La motivazione ipotizzata più di frequente è il tentativo di operare modificazioni climatiche. Altre motivazioni ipotizzate dai complottisti chiamano variamente e disordinatamente in causa una pletora di altre ipotesi eterogenee e non meglio definite, come presunti esperimenti governativi o militari, attacchi terroristici, operazioni di società private, tentativi di condizionamento psicologico tramite agenti psicoattivi, o addirittura il tentativo di frenare l'esplosione demografica mondiale, eliminando quattro miliardi di persone."

Ecco, un classico delle teorie del complotto. Una ipotetica "casta" di "potenti" (notare il virgolettato) vorrebbe eliminare ( ma a che pro? ) ben 4 milioni di persone. E non solo.

"Secondo i sostenitori della teoria delle ìscie chimicheì, i servizi segreti starebbero tentando di screditare il lavoro degli auto-proclamatisi ìricercatori indipendentiì, con presunte minacce e azioni di sabotaggio. A capo della presunta organizzazione responsabile delle 'scie chimiche', secondo alcuni teorici del complotto, ci sarebbero lo SMOM e il Vaticano, in collaborazione con un ipotetico ed eterogeneo insieme di enti che spazierebbero dalla CIA, alla NASA, a Google, alle compagnie aeree e altro ancora."

Addirittura la CIA, la Nasa e Google. Continuo a domandarmi: a che pro? a chi giovano le scie chimiche? giovano di sicuro a qualcuno, certo. Ma la scienza cosa dice in merito?

"Tale teoria del complotto non ha mai trovato alcun credito nell'ambito della comunità scientifica, in quanto priva di riscontri empirici, di coerenza esplicativa o di prove scientifiche. Quei fenomeni fisici che i sostenitori della teoria identificano come scie chimiche, non hanno alcuna caratteristica che le renda incompatibili con le normali scie di condensazione (inglese: contrails) dei gas di scarico degli aeromobili che, in base alle condizioni atmosferiche e all'intensità del traffico aereo, possono assumere aspetti eterogenei e inconsueti.
I sostenitori delle teorie complottistiche non hanno mai condotto alcuna analisi fisico-chimica sulle scie nel momento dell'emissione in volo; uno di tali sostenitori, lo statunitense Clifford Carnicom, afferma di aver analizzato campioni di aria raccolti al livello del suolo in seguito a operazioni di rilascio di scie chimiche. Ha affermato di aver trovato alluminio e bario in queste polveri, che sarebbero state ottenute tramite precipitazione elettrostatica. Queste sue asserzioni non hanno però mai avuto alcun riscontro o possibilità di verifica indipendente, in quanto Carnicom non ha mai voluto mettere a disposizione di istituzioni terze i suoi presunti campioni, né ha mai esposto i metodi con i quali avrebbe svolto le analisi. Da sottolineare inoltre che, parlando di elementi chimici, quelli da lui citati sono praticamente ubiqui sulla Terra: l'alluminio è il terzo costituente per quantità della crosta terrestre (dopo ossigeno e silicio) e il bario è al quattordicesimo posto (su 92 elementi naturali)."

Tipico del complottista: affermare di avere precise analisi scientifiche che dimostrerebbero la teoria, senza però voler fornire a "terzi" la ricerca svolta per poter essere verificata in maniera autonoma. la scienza non funziona così, mi rimando a studiare il 'metodo scientifico' per cercare di capire. Solitamente chi fa o chi "possiede" queste analisi non vuole pubblicarle o sottoporle a verifica perché ritiene i laboratori indipendenti guidati e controllati da ipotetiche corporazioni, caste, politici e case farmaceutiche ( ebbene si, ho sentito pure questo ) i quali avrebbero interesse a negare l'evidenza delle analisi. Mi sembra una scusa (perchè di questo si tratta) per non mettere a verifica le proprie analisi che, molto probabilmente, sono state fatte male e senza nessun metodo scientifico. Ma andiamo avanti con l'analisi. ci aiuta sempre Wikipedia.

"In maniera pressoché unanime, tutte le agenzie governative, gli scienziati, gli esperti meteorologi, i ricercatori scettici, tra cui il Committee for the Scientific Investigation of Claims of the Paranormal statunitense, i piloti di aereo, spiegano invece che le scie di condensazione mostrano una gran varietà di aspetti e persistenza, e che le descrizioni e le fotografie delle supposte chemtrail sono in realtà del tutto in linea con quelle delle normali scie di condensazione e spesso corrispondono anche a rotte aeree ben note. Le scie di condensazione hanno infatti un diverso comportamento a seconda della temperatura, del wind shear orizzontale e verticale, dell'umidità presente in quota.

Nessun sostenitore della teoria delle scie chimiche ha mai fornito delle analisi delle scie prese direttamente in aria; al contrario, fin dagli anni venti, vengono regolarmente effettuati studi sulle scie di condensazione. Quindi, la loro esistenza e normale spiegazione sono ampiamente comprovate da decenni.

Diverse altre obiezioni vengono mosse alle numerose contraddizioni della teoria complottista delle presunte chemtrails: Il comportamento delle presunte "scie chimiche", descritto dai complottisti come "bizzarro" o "inusuale" è in realtà sempre perfettamente coerente con il possibile comportamento di una scia di condensazione.

Non è possibile che un aereo contenga al suo interno così tanto materiale chimico da generare una scia lunga centinaia di chilometri. La visione del cielo da parte di un osservatore a terra risente del fatto che a grande distanza e senza punti di riferimento l'immagine tridimensionale appaia in realtà sostanzialmente bidimensionale. Di conseguenza due scie che appaiono "affiancate" o "incrociate" possono essere in realtà distanti diverse centinaia di metri in verticale. Analogamente due aeromobili che appaiono vicini possono trovarsi molto distanti, quindi produrre scie differenti. In questa situazione del resto non è in alcun modo possibile stabilire l'esatta verticale di un aereo in base alla semplice osservazione. In aggiunta a questo, la semitrasparenza di scie e nuvole rende in molti casi praticamente impossibile dire se l'una è al di sopra dell'altra o viceversa." 

Senza pensare che non è facile coprire nel segreto tutta l'operazione, prima o dopo verrebbe tutto alla luce.

"Sarebbe necessaria una gigantesca operazione di copertura su scala internazionale, che coinvolgerebbe un numero incredibilmente alto di persone impiegate in diversi settori professionali: piloti, controllori di volo, governanti, militari, meteorologi, scienziati, ecc. Un'operazione del genere è pressoché impossibile da gestire, perché vi sarebbe un'enorme quantità di dati da falsificare, per di più in modo che questi risultino perfettamente compatibili e concordi tra di loro. Inoltre, aumentando il numero di persone a conoscenza di un'operazione segreta, aumenta anche il rischio che tale operazione possa essere scoperta. Ognuna di queste persone, infatti, potrebbe potenzialmente rivelare la natura di tale operazione (accidentalmente o volutamente) facendola quindi fallire.

La necessità di mantenere segreto il presunto complotto è incompatibile col fatto che gli aerei operino in pieno giorno, lasciando in cielo delle scie visibili da tutti. I sostenitori della teoria, in risposta, affermano che agire alla luce del sole servirebbe proprio a far sì che la gente possa ritenere questa attività naturale e innocua. "

E naturalmente non mancano le "prove fotografiche"

Presunti serbatoi che conterrebbero sostanze per scie chimiche.
Sono solo contenitori di acqua per testare i veicoli prima della
commercializzazione.
Come per molte altre teorie di complotto, i sostenitori citano dati tecnici, fotografie o video che mostrerebbero segni di falsificazione, incongruenze o stranezze. Tuttavia, se queste incongruenze fossero reali, sarebbero risultate immediatamente visibili agli occhi degli esperti dei vari settori coinvolti (piloti, meteorologi, scienziati vari, ecc.), soprattutto quando le persone sostenitrici di tali teorie affermano di averle scoperte attraverso la visione di video su YouTube o semplici osservazioni empiriche.

Tutti gli aerei sono regolarmente sottoposti a ispezioni tecniche, che farebbero scoprire i presunti "apparati" per il rilascio delle scie. Ci sono state del resto costanti e numerose smentite governative in merito.

Il rilascio di sostanze alle quote superiori ai 10.000 metri usate dagli aerei ha un comportamento non prevedibile, a causa della dispersione generata dai forti venti in alta quota. Inoltre, molte sostanze organiche e anche alcune sostanze chimiche verrebbero distrutte dalla temperatura dei gas combusti dell'aereo prima di distaccarsi dalle linee di flusso aerodinamico. 

I sostenitori della teoria affermano, tramite loro misure telemetriche amatoriali, che la quota di volo di queste operazioni sarebbe a loro dire molto al di sotto del limite minimo di formazione di contrail; ma nessuna di queste misurazioni personali è mai stata verificata in maniera indipendente, o sottoposta ad enti di certificazione.

I sostenitori della teoria hanno più volte presentato delle analisi che mostrerebbero come, su alcuni terreni sorvolati dagli aerei chimici, a loro dire sarebbero presenti delle sostanze velenose. Tuttavia non esiste la prova che tali sostanze provengano necessariamente dagli aerei anziché altre fonti esterne. Inoltre, sostanze diffuse a diversi chilometri d'altezza, anziché ricadere esattamente a strapiombo, sono soggette alle turbolenze dell'aria: pertanto il luogo della loro ricaduta non può essere previsto né tantomeno ricostruito a posteriori.
[...]
Nonostante i sostenitori affermino che le presunte "scie chimiche" sarebbero diffuse in maniera regolare da molti anni, ancora non si sarebbero visti i risultati di questa ipotetica contaminazione (in particolare per chi sostiene che le "scie chimiche" servano alla diffusione di un'epidemia del cosiddetto "morbo di Morgellons" - a sua volta considerato essere in realtà una patologia psichiatrica dalla comunità scientifica)."

Ok, ma non solo. C'è anche da considerare il fattore metorologico, che complica il compito di diffondere i veleni, rendendo l'operazione pericolosa ed inefficace.

"Secondo la termodinamica e l'aerodinamica, i diversi comportamenti delle scie di condensazione sono dovuti alle diverse condizioni meteorologiche (temperatura, pressione, umidità relativa e venti) riscontrabili a quote differenti, nonché al diverso tipo di motori usati dagli aerei:in una zona più fredda i gas condensano rapidamente e formano scie compatte, in una meno fredda (o con gas più caldi) il tempo di condensa è maggiore e le scie sono più larghe; anche le scie compatte, a causa del moto browniano, tendono ad espandersi al passare del tempo, anche in assenza di vento (e in quota sono sempre presenti venti e correnti). A seconda dei venti in quota (le condizioni in quota non rispecchiano quelle al livello del suolo), le scie possono allargarsi più velocemente o formare curve e ramificazioni (venti di direzione incostante).

Dato che l'atmosfera è un fluido non omogeneo, si possono avere zone in cui sono presenti condizioni atte alla formazione di scie di condensazione adiacenti a zone in cui tali condizioni non sono presenti, con conseguente formazione di scie "a tratti".

I reattori turbofan a doppio flusso creano scie di condensazione anche in condizioni in cui i vecchi turbofan a singolo flusso non le formano.

I sostenitori della teoria affermano che a loro dire tale differenza di comportamento sarebbe dovuta alla presunta differenza di composizione delle supposte scie chimiche rispetto alle normale contrails, ma senza mai aver prodotto alcuna evidenza oggettiva a conferma di tale loro asserzione.

È stato osservato che la nuvolosità provocata dalle normali scie di condensazione può avere effetti sul meteo e provocare perturbazioni, come per esempio nel caso dei bombardieri americani durante la seconda guerra mondiale."

Questa spiegazione è chiara, scientificamente sostenibile e del tutto plausibile, al contrario delle teorie a sostegno del complotto.

"Nel corso del tempo sono emerse tutta una serie di "prove" via via dimostrate false ed atte solo a portare click e sponsor a malfamati siti di disinformazione.

Diverse fotografie, che mostrano serbatoi installati all'interno della carlinga di un aeromobile civile, vengono portate come prova a sostegno dell'esistenza dei sistemi di dispersione aerea degli aerosol chimici. Si tratta, in realtà, di installazioni idrauliche atte a simulare il peso dei passeggeri, o di un carico pesante, allo scopo di testare la stabilità di un aereo mentre è in volo: i serbatoi sono riempiti di acqua, la quale viene pompata da un contenitore all'altro in modo da spostare il centro di gravità del velivolo.

Un servizio televisivo andato in onda in Louisiana viene spesso portato all'attenzione dai teorici delle scie chimiche: viene mostrata un'analisi chimica dell'aria, nella quale i livelli di bario sarebbero pari a un livello, molto pericoloso, di 6,8 parti per milione, tre volte superiore al limite di legge statunitense. A una seconda analisi scientifica del servizio, è emerso che le attrezzature usate per la misurazione dell'aria furono male utilizzate e il livello di bario non eccedeva affatto i limiti di legge, ma era anzi di molto inferiore.

In un altro servizio della BBC del marzo 2014, relativo alle ricerche del volo Malaysia Airlines 370, una particolare inquadratura mostra un getto bianco uscire da un ugello posto sull'ala dell'aereo dedito alle ricerche, un Lockheed P-3 Orion dell'aviazione australiana. Tale "spruzzo" è stato indicato, da diverse pagine, come la prova del rilascio delle scie chimiche; in realtà, il getto inquadrato è una operazione di fuel dumping, necessario in quanto l'aereo delle ricerche ritornò in aeroporto anzitempo e dovette alleggerirsi del carburante in eccesso prima di effettuare l'atterraggio."

E lo Stato Italiano cosa dice in merito?

"In Italia, l'argomento è stato oggetto di 16 interrogazioni parlamentari di cui due presentate dal deputato del PD Sandro Brandolini. Le diverse interrogazioni hanno ricevuto come risposta solo smentite da parte degli organi di governo interpellati. In particolare, nella risposta del 5 settembre 2008 del Ministero dell'Ambiente e della Tutela del Territorio e del Mare si legge che «Dall'esame della letteratura scientifica internazionale e del contenuto dei siti web specialistici non è possibile confermare l'esistenza delle scie chimiche. I siti specialistici degli osservatori delle scie chimiche, in particolare, risultano carenti dal punto di vista scientifico» e che «…l'interpretazione più plausibile del fenomeno è che i presunti episodi di scie chimiche siano in realtà comuni scie di condensazione che sono durate più a lungo e hanno assunto forma peculiare per effetto delle condizioni meteorologiche»."

Sempre più spesso, discutendo con amici complottisti ed entità facebookiane, mi sono state portate delle prove fotografiche che dovrebbero dimostrare l'esistenza e l'effetto avverso sul tempo meteorologico. Fantomatici aloni circolari intorno al sole, che, secondo loro, sarebbero causati dalla presenza di metalli pesanti in atmosfera rilasciati proprio dalle scie chimiche.

Alone solare. Viene indicato come effetto delle scie chimiche in realtà e un
effetto ottico dovuto alla presenza di goccioline d'acqua in alta quota.
Osservando queste foto e facendo una ricerca approfondita su internet si scopre che sono sempre fenomeni naturali dovuti alla rifrazione della luce da parte delle goccioline d'acqua ad alta quota oppure da effetti ottici, ombre e formazioni nuvolose rare ma assolutamente naturali.

C'è la tendenza di ricercare a qualsiasi costo la colpa. Di colpevolizzare qualcuno o qualcosa delle nostre mancanze, delle nostre paure o incapacità. Cerchiamo sempre un capro espiatorio dei danni all'ambiente che noi stessi, con le nostre distrazioni, inettitudini ed ignoranze, creiamo.

Il tempo cambia, si, le stagioni si mescolano, sempre più caldo e sempre più freddo, in zone che, negli anni passati, non subivano lo stesso trattamento.

Ci stiamo tuttavia dimenticando che da due secoli stiamo buttando in atmosfera  grandissime quantità di anidride carbonica, di veleni provenienti dalle industrie, dai  trasporti e dai sistemi di riscaldamento e condizionamento. Le scie chimiche sarebbero una sola goccia nell'oceano dell'inquinamento globale.

Invece di cercare colpe che non ci sono, cerchiamo di imparare a rispettare l'ambiente, cerchiamo di riciclare, di riutilizzare, di evitare gli sprechi e di utilizzare, sempre più, fonti di energia alternativa.

Solo così potremo vivere meglio e più a lungo in un pianeta che stiamo sfruttando ogni anno sempre di più corrodendo le risorse destinate invece alle future generazioni che dovranno farsi carico anche del nostro stile di vita consumistico, scellerato e irresponsabile.






 

venerdì 5 agosto 2016

Pianeti abitabili Extrasolari. Un catalogo da oltre 200 candidati.

E se domani potessimo avventurarci alla caccia al gemello della Terra, con l'intenzione, magari, di scoprire o addirittura conoscere forme di vita aliene, dove dirigeremmo la nostra astronave? Quali ad oggi le destinazioni più promettenti?
Il satellite Kepler in una riproduzione artistca

La risposta la fornisce lo studio pubblicato su Astrophysical Journal e realizzato da un team internazionale di ricercatori che ha stilato il catalogo degli esopianeti con più probabilità di assomigliare a casa nostra tra gli oltre 4000 scovati dal telescopio Kepler della NASA.

Il risultato: una lista di 216 mondi situati nella fascia abitabile del proprio sistema planetario, quindi posti alla giusta distanza dalla propria stella tale da permettere all'acqua, qualora ve ne fosse, di scorrere allo stato liquido. Ma i ricercatori non si sono fermati qui. Dalla prima selezione hanno poi ricavato una top 20 di possibili eso-Terre.

Goldilocks Zone ovvero la zona abitabile a seconda del tipo di stella
Tra le condizioni sine qua non poste dagli scienziati per l'accesso dei candidati all'olimpo dei mondi potenzialmente abitabili, la natura, rigorosamente rocciosa, del pianeta e la sua collocazione all'interno della Goldilocks zone. L'aspirante Terra si deve quindi trovare non troppo vicino alla propria stella, come nel caso di Venere, dominato da un forte effetto serra e né troppo distante come è Marte, dove l'acqua è presente ma solo sotto forma di ghiaccio.

«Si tratta del catalogo più completo e aggiornato dei pianeti scoperti da Kepler situati nella zona abitabile della propria stella», spiega Stephen Kane, professore presso la San Francisco State University (SFSU) e primo autore dello studio che ha impegnato il team per circa tre anni. «Ora possiamo concentrarci su questi pianeti, eseguendo studi più approfonditi, per scoprire come sono fatti e se sono effettivamente abitabili».

(fonte: Agenzia Spaziale Italiana)

giovedì 4 agosto 2016

Elettricità dal sale da cucina. L'Italia in primo piano per l'energia del futuro.

Energia pulita a basso costo e a impatto ambientale zero, che al contrario di quella eolica o solare non ha bisogno della presenza di vento o luce diurna per essere prodotta. È il risultato della ricerca condotta da un gruppo di studiosi del dipartimento di Ingegneria dell'Università di Palermo – i professori Giorgio Micale, Michele Ciofalo e Onofrio Scialdone, gli ingegneri Andrea Cipollina e Alessandro Tamburini, insieme con numerosi assegnisti di ricerca, dottorandi e tesisti - che ha prodotto il primo prototipo sperimentale per la produzione di energia elettrica da acque di salina e acqua di mare con la tecnologia di elettrodialisi inversa.

I primi prototipi in laboratorio per la produzione di energia a gradiente salino furono realizzati negli anni '90.
In particolare, nel 1973 venne realizzato il primo sistema di tipo Pressure Retarded Osmosis (PRO) da Sidney Loeb in Israele.

Dal 2005 è attivo un impianto sperimentale da 50 kW, situato in un sito-test costiero in Harlingen, nei Paesi Bassi.

Nel 2009 venne inaugurato da parte della Statkraft un impianto di tipo PRO presso Tofte, in Norvegia, che produsse intorno a 2-4 kW. Nonostante fosse stata annunciata la costruzione di un altro impianto pilota per il raggiungimento di 1-2 MW di potenza, nel 2014 la Statkraft decise di non investire ulteriormente su tale tecnologia, in quanto fu ritenuto che i tempi necessari al miglioramento di tale tecnologia per renderla competitiva fossero troppo lunghi.

L’energia ottenuta è quella cosiddetta “da gradienti salini”, che si origina dalla miscelazione di due soluzioni saline a diversa concentrazione: energia chimica che può essere convertita direttamente in una forma utilizzabile come l’energia meccanica o elettrica attraverso processi controllati. Miscelando soluzioni diversamente concentrate si genera infatti un flusso di ioni che può essere catturato e sfruttato per produrre elettricità. Il prototipo messo a punto è il primo al mondo a generare energia elettrica da salamoie di salina e acqua salmastra, riuscendo a sviluppare una potenza di quasi 1kW senza produrre alcun tipo di emissioni inquinanti nell’ambiente. Inoltre, lo sviluppo della tecnologia di elettrodialisi inversa dalla scala di prototipo di laboratorio a quella di impianto pilota funzionante è la novità tecnologica sviluppata all’università di Palermo.

L'efficacia della tecnologia dell'elettrodialisi inversa è stata confermata in prove di laboratorio. Un tempo il costo della membrana era un forte ostacolo, rendendo tale processo antieconomico. L'utilizzo di nuove membrane, più economiche, formate da polietilene modificato elettricamente, l'ha resa adatta per un potenziale uso commerciale.

La quantità di energia ottenibile con questo procedimento è significativa. Si stima ad esempio che un impianto basato su tale tecnologia che sia collocato in corrispondenza della foce del Reno, produrrebbe 1 GigaWatt di energia elettrica, mentre nei Paesi Bassi, dove più di 3.300 metri cubi al secondo di acqua dolce sfociano in mare, l'energia potenziale è di 3.300 MegaWatt, in base a una produzione di 1 MJ/m3 d'acqua dolce.

"Una stima indica in 10 Terawattora anno l'energia ottenibile da gradienti salini disponibili sul territorio italiano, – spiega Giorgio Micale, docente di Teoria dello sviluppo dei processi chimici – una quantità analoga a quanto generato dalla fonte eolica nel 2012 in Italia. Per quanto riguarda la Sicilia – continua Micale – lo sfruttamento dei gradienti salini può consentire la produzione di energia elettrica per una quantità dell'ordine di 100 Gigawattora". Più o meno quanto cento centrali termoelettriche come quella di San Filippo del Mela, che produce un Gigawattora, ma con risultati molto meno sostenibili.

Una "soluzione" rivoluzionaria in tempi di crisi energetica, tecnicamente possibile grazie all’impiego di speciale membrane messe a punto da Fuijfilm nell’ambito del progetto europeo Fp7 ReaPower. Rivoluzionario al punto che ha suscitato anche l’interesse di Superquark: la trasmissione televisiva di Piero Angela ha dedicato un servizio della puntata di ieri alla scoperta.

Un ulteriore sviluppo di queste attività di ricerca, che vede coinvolti anche i professori Clelia Dispenza e Antonio Piacentino, viene condotto con il progetto europeo H2020 Red-Heat-to-Power per la conversione di calore a bassa temperatura in energia elettrica.

Riproducendo artificialmente il processo di rigenerazione delle acque, che in natura avviene grazie al ciclo idrologico, si potrebbe alimentare un motore termico a gradienti salini, che utilizza il calore come unica sorgente di energia, convertendo una parte del calore utilizzato in energia elettrica. L'impiego di questi motori nelle diverse aree industriali della Sicilia (Siracusa, Catania, Milazzo, Gela, Termini Imerese) porterebbe grande beneficio in termini di efficienza energetica e di sostenibilità ambientale.

Insomma, in futuro, quando riceveremo una bolletta elettrica "salata", la accoglieremo con un sorriso, perché sappiamo che, finalmente, questa energia è prodotta con sistema puliti e nel rispetto dell'ambiente.

mercoledì 3 agosto 2016

Display indossabili con una nuova tecnologia di transistor ultrasottili e trasparenti.

Con l'avvento dell'era dell’Internet degli oggetti (Internet of Things, IoT) sta aumentando la richiesta di realizzare display trasparenti flessibili da applicare come una seconda pelle per la realtà aumentata (augmented reality, AR). Nonostante la domanda sia in forte crescita i precedenti tentativi di realizzare display trasparenti e flessibili hanno incontrato notevoli ostacoli come ad esempio, la scarsa trasparenza e le basse prestazioni dal punto di vista elettrico.

Per migliorare la trasparenza e le prestazioni in passato i ricercatori hanno tentato di utilizzare l’elettronica basata su semiconduttori inorganici ma le instabilità dal punto di vista termico dei substrati plastici hanno ostacolato l’implementazione di un processo produttivo ad alta temperatura, un passo essenziale necessario per la fabbricazione di dispositivi elettronici ad alte prestazioni.

Per tentare di risolvere questo problema, il team di ricercatori coordinato dal prof. Keon Jae Lee e dal dott. Sang-Hee Ko Park ha sviluppato dei transistor ultra sottili e trasparenti (thin-film transistor, TFT) per una backplane (scheda elettronica che collega fra loro più schede elettroniche) a matrice attiva di un display flessibile attraverso l’impiego di un processo produttivo denominato ILLO (inorganic-based laser lift-off, si tratta di un processo di esfoliazione avanzata per il trasferimento solo di dispositivi a film sottile inorganici fabbricati su un substrato rigido a sua volta viene posizionato su un substrato di plastica).

Il team di ricerca ha fabbricato una matrice TFT ad alte prestazioni sopra un substrato laser reattivo temporaneo (tale strato viene dissolto alla fine del processo). Dopo l’irradiazione della parte posteriore del substrato con il laser, solo le matrici TFT sono state separate dal substrato temporaneo come risultato della reazione tra il laser e lo strato laser-reattivo, successivamente tali matrici sono state trasferite su un materiale plastico ultrasottile (solo 4μm di spessore).

Infine, il circuito pilota ultrasottile per i display flessibili è stato fissato alla superficie della pelle umana, i ricercatori hanno così dimostrato che è possibile realizzare dispositivi indossabili.

Questo tipo di transistor ultra sottile ha mostrato delle prestazioni incredibili mostrando una trasparenza ottica dell’83% e una resistenza elevata alla flessione durante i test meccanici.

La ricerca e lo sviluppo permettono di rispondere ai bisogni e le necessità del pubblico se pre più affamato di comodità e tecnologia, tuttavia viene da chiederci se il bisogno di tutta questa tecnologia sia effettivamente in bisogno primario e se non ci stiamo dimenticando quali sono i nostri veri bisogni.

(fonte: Le Scienze Web News)

martedì 2 agosto 2016

La Capra come animale da compagnia del futuro. Lo svela uno studio.

Una ricerca svolta nel Regno Unito e pubblicata da Biology Letters dimostra che la capra è in grado di stabilire relazioni affettive con l'uomo esattamente come tanti altri animali definiti domestici. Di più. Pare anche che abbia un'intelligenza capace di competere con quella dei cani.

Micu, il capraio ed il suo gregge
Storicamente si tratta di un animale che trova la sua collocazione in ambito prettamente agricolo e, per questo motivo, finora, non si pensava fosse capace di costruire un vero e proprio legame con gli esseri umani come fanno, per esempio, i cani o i gatti. Eppure, sono diverse le caratteristiche che rendono le capre idonee alla compagnia. Innanzitutto si adattano senza problemi a una vita fuori dal gregge, ma soprattutto sono dotate di un'intelligenza vivace verificata da studi precedenti (tramite una prova che prevedeva di capire se all'interno di una tazza era presente o meno una sorpresa), sempre dal team della Queen Mary University che ha svolto anche l'ultima ricerca.

Lo studio ha confrontato il comportamento di quattro specie animali che storicamente convivono con l'uomo utilizzando un test "a soluzione impossibile" ovvero l'animale doveva svolgere un determinato compito per poter accedere ad una ricompensa in cibo. Gli animali che hanno partecipato a questo studio sono il cane, il cavallo, il gatto e la capra. Quando l'animale si accorge che non riesce più a svolgere il compito si rivolge con lo sguardo all'umano in una sorta di muta "richiesta di aiuto". I ricercatori hanno misurato con attenzione i tempi e le modalità con cui l'animale ricorreva all'aiuto dell'umano ed i risultati sono stati sorprendenti.

Cani, cavalli e gatti hanno risposto in maniera piuttosto prevedibile, il cane è stato
l'animale che più si è avvalso dell'aiuto umano seguito dal cavallo e dal gatto, quest'ultimo, probabilmente, dovuto al suo tipico carattere autonomo.

Ma l'aspetto sorprendente ed interessante riguarda le capre.
Il gruppo di ricerca ha deciso di procedere con un nuovo esperimento, insegnando a 34 capre come rimuovere un coperchio sopra una scatola, in cambio di una ricompensa. Dopo aver ripetuto numerose volte il test, i ricercatori hanno reso impossibile l'apertura della scatola, osservando le reazioni degli animali. Compreso che il compito non poteva essere svolto, la capra ha indirizzato il suo sguardo verso un essere umano vicino, quasi come se volesse supplicare e chiedere aiuto. Inoltre, lo sguardo dell'animale risultava prolungato quando la persona presente era frontale, rispetto a quando era di spalle. In altre parole, era consapevole dell'attenzione rivolta.

Le modalità in cui si poneva il ricercatore umano influenzavano i risultati.
Forse, a condizionare il comportamento delle capre ha contribuito la lunga vicinanza con l'uomo, considerando che probabilmente sono stati i primi animali a essere addomesticati, circa 10mila anni fa. Insomma, poiché si crede che cani e gatti abbiano imparato a creare interazioni con gli esseri umani grazie a degli scambi reciproci che in qualche modo hanno influenzato la loro evoluzione, si può effettuare un parallelo anche con le capre. E magari chi ha familiarità con quest'ultime non sarà sorpreso dal risultato della ricerca e conoscerà l'innata curiosità che le contraddistingue, ma per molti è una novità assoluta. In ogni caso, si tratta di risultati preliminari che dovranno essere confortati da nuovi studi ancora più approfonditi.

Solo così sarà possibile capire quanto animali finora allevati per il latte e la carne possano davvero creare un legame di affetto, come capita con altre specie ormai stabilmente dentro le nostre case.

lunedì 1 agosto 2016

Clonazione: Uno studio dimostra l'assenza dell'invecchiamento precoce negli esseri clonati.

Sorpresa. Gli animali ottenuti per clonazione invecchiano come quelli nati naturalmente. Lo ha stabilito una nuova ricerca su 13 pecore clonate, quattro delle quali derivate dalla stessa linea cellulare della pecora Dolly, morta nel 2003 per una grave forma di osteoartrite.

Ora la rivista “Nature Communications” pubblica il primo studio a lungo termine sugli effetti della clonazione dei grandi animali. Kevin Sinclair dell'Università di Nottingham a Leicestershire, nel Regno Unito, e colleghi di altri istituti coreani e messicani, hanno concluso che le pecore clonate con la tecnica di trasferimento nucleare da cellule somatiche, la stessa usata a suo tempo per Dolly, invecchiano normalmente.

Sinclair e colleghi hanno studiato 13 pecore clonate, tra 7 e 9 anni di età, quattro delle quali clonate usando la stessa linea cellulare derivata da ghiandole mammarie utilizzata per Dolly.

Tutte le pecore sono ancora vive e in salute, e sono affette da osteoartrite di grado lieve, e solo in un caso di grado moderato. Gli animali non mostrano segni di patologie metaboliche, e hanno valori di pressione normali.

Anche se il confronto è avvenuto tra animali che non hanno esattamente la stessa età e senza valutare marker molecolari, lo studio fornisce le più documentate prove finora che gli animali clonati hanno processi di invecchiamento normali.

In parole povere pecore clonate e nate naturalmente invecchiano allo stesso modo, le patologie riscontrate riguardano il normale ciclo di vita dell'animale ma i valori sistemici rimangono nella norma.

Buone notizie quindi per la clonazione animale ma soprattutto per la scienza stessa che affievolisce così la principale motivazione di preoccupazione che portava la clonazione.

Non si affievoliscono invece i temi etici in merito alla clonazione di per se, soprattutto per quanto riguarda quella umana.