Bacterial gastroenteritis€¦  · Web viewMengaldo PV (1994) Storia della lingua italiana: il...

30
TRADUZIONE TECNICO-SCIENTIFICA ITALIANO-INGLESE 1 E 2 Settore L-LIN/12 Docente: Alexander CORMACK, professore a contratto Il corso (24 ore di lezione per un totale di 4 CFU) comprende due componenti principali: 1) traduzione di testi di divulgazione scientifica, e 2) traduzione di testi scelti da riviste scientifiche. Contenuto Gli argomenti trattati saranno la medicina, la fisica, l’ingegneria, la cosmologia, la genetica e la biotecnologia. I testi divulgativi verranno scelti da riviste di divulgazione scientifica quali Quark, Sapere, Focus e Galileo mentre i testi di riviste scientifiche includeranno abstract e estratti da testi di recensioni e di ricerca. Metodologia di lavoro Una delle prime lezioni si terrà in aula informatica dove verranno presentati i principali strumenti informatici e bibliotecari utili per il traduttore. Per ogni testo nella lingua di partenza gli studenti dovranno trovare diversi testi paralleli nella lingua d’arrivo. Quest’ultimi verranno utilizzati come fonte di lessico specializzato e come spunto di riflessione sulle differenze tra il testo scientifico italiano e quello inglese. Verranno poi trattati i principali errori commessi da persone non madre lingua nella stesura di testi scientifici in inglese. Modalità di valutazione La valutazione si articola in due parti: un progetto di traduzione (10 punti) e un esame scritto (20 punti). Il progetto di traduzione consiste nella scelta dallo studente, in consenso con il docente, di un testo di divulgazione scientifica in italiano (750-1000 parole). Il testo verrà tradotto e corredato da un commento linguistico. L’esame scritto (120 min), invece, si terrà in aula informatica per permettere agli studenti di utilizzare gli strumenti in rete. L’esame consisterà nella traduzione di un testo (circa 300 parole) scelto tra una serie di testi proposti dal docente (N.B. l’argomento scelto dallo studente non può essere lo stesso del progetto). Il voto finale sarà la somma dei due voti espressa in trentesimi. Testi consigliati: Boothman D (1988) “Errors committed by non-English mother tongue speakers in writing scientific English,” in Guerriero AR (a cura di) L’educazione linguistica e i linguaggi delle scienze, Firenze, La Nuova Italia, pgg. 355-371. Dodds J & Taylor C (1989) “Text Analysis and Journalism” in Dodds J (ed) Aspects of English, Udine, Campanotto, pp. 19-70. Gotti M (1991) I linguaggi specialistici: caratteristiche linguistiche e criteri pragmatici , Firenze, La Nuova Italia.

Transcript of Bacterial gastroenteritis€¦  · Web viewMengaldo PV (1994) Storia della lingua italiana: il...

Bacterial gastroenteritis

TRADUZIONE TECNICO-SCIENTIFICA ITALIANO-INGLESE 1 E 2

Settore L-LIN/12

Docente: Alexander CORMACK, professore a contratto

Il corso (24 ore di lezione per un totale di 4 CFU) comprende due componenti principali: 1) traduzione di testi di divulgazione scientifica, e 2) traduzione di testi scelti da riviste scientifiche.

Contenuto

Gli argomenti trattati saranno la medicina, la fisica, l’ingegneria, la cosmologia, la genetica e la biotecnologia. I testi divulgativi verranno scelti da riviste di divulgazione scientifica quali Quark, Sapere, Focus e Galileo mentre i testi di riviste scientifiche includeranno abstract e estratti da testi di recensioni e di ricerca.

Metodologia di lavoro

Una delle prime lezioni si terrà in aula informatica dove verranno presentati i principali strumenti informatici e bibliotecari utili per il traduttore. Per ogni testo nella lingua di partenza gli studenti dovranno trovare diversi testi paralleli nella lingua d’arrivo. Quest’ultimi verranno utilizzati come fonte di lessico specializzato e come spunto di riflessione sulle differenze tra il testo scientifico italiano e quello inglese. Verranno poi trattati i principali errori commessi da persone non madre lingua nella stesura di testi scientifici in inglese.

Modalità di valutazione

La valutazione si articola in due parti: un progetto di traduzione (10 punti) e un esame scritto (20 punti). Il progetto di traduzione consiste nella scelta dallo studente, in consenso con il docente, di un testo di divulgazione scientifica in italiano (750-1000 parole). Il testo verrà tradotto e corredato da un commento linguistico. L’esame scritto (120 min), invece, si terrà in aula informatica per permettere agli studenti di utilizzare gli strumenti in rete. L’esame consisterà nella traduzione di un testo (circa 300 parole) scelto tra una serie di testi proposti dal docente (N.B. l’argomento scelto dallo studente non può essere lo stesso del progetto). Il voto finale sarà la somma dei due voti espressa in trentesimi.

Testi consigliati:

Boothman D (1988) “Errors committed by non-English mother tongue speakers in writing scientific English,” in Guerriero AR (a cura di) L’educazione linguistica e i linguaggi delle scienze, Firenze, La Nuova Italia, pgg. 355-371.

Dodds J & Taylor C (1989) “Text Analysis and Journalism” in Dodds J (ed) Aspects of English, Udine, Campanotto, pp. 19-70.

Gotti M (1991) I linguaggi specialistici: caratteristiche linguistiche e criteri pragmatici, Firenze, La Nuova Italia.

Gotti M (1996) “Il linguaggio della divulgazione: problematiche di traduzione intralinguistica,” in Cortese G (a cura di) Tradurre i linguaggi settoriali, Torino, Edizioni Libreria Cortina, pgg 2217-235.

Halliday MAK (1997) “On the grammar of scientific English” in Torsello CT (a cura di) Grammatica: studi interlinguistici, Padova, Unipress, pgg. 21-56.

Halliday MAK (1999) “The grammatical construction of scientific knowledge: the framing of the English clause,” in Favretti RR, Sandri G e Scazzieri R (a cura di) Incommensurability and translation: Kuhnian perspectives on scientific communication and theory change, Cheltenham, Edward Elgar, pp. 85-116.

Mengaldo PV (1994) Storia della lingua italiana: il novecento, Bologna, Il Mulino, pgg. 39-44 e 63-69.

Portaleone P (1996) “Tradurre testi di medicina,” in Cortese G (a cura di) Tradurre i linguaggi settoriali, Torino, Edizioni Libreria Cortina, pgg. 329-332.

Scarpa F. (2001) La traduzione specializzata, Milano, Hoepli.

Webber, P, Snelgrove H & Munga P (2001) “The use of modality in different medical text genres,” in Gotti M and Dossena M (eds) Modality in specialized texts, Bern, Peter Lang, pp. 399-416.

Zannini P, Maruotti RA & Ulrych M (1991) L’articolo medico scientifico in inglese: come pubblicare su una rivista internazionale, Milano, Utet.

Lesson plan

Date

No. of hours

Topic

Texts covered in class

Tuesday 14 November

2

Introduction

-

Wednesday 15 November

4

General readership

Il cronometro tira la cinghia

La macchina ibrida

Tuesday 21 November

6

Computer room

-

Wednesday 22 November

8

General readership

Atomi da polso contro i ritardi

Kaguya, la topolina nata senza papà

Cieli marziani sempre più affollati

Il respiro della laguna

Tuesday 28 November

10

Scientific texts

Ottica quantistica e fisica ..

Fenomeni di oncosi controllata ...

Wednesday 29 November

12

General readership

E la cometa con la coda rivela il ghiaccio

Che geni quelle api

Tuesday 5 December

14

Scientific texts

Pazienti ipertesi con fibrillazione atriale...

La funzione diastolica ...

Wednesday 6 December

16

General readership

Che geni quelle api

Dai bit ai qubit

Tuesday 12 December

18

Scientific texts

L’entomologia forense ...

Wednesday 13 December

20

General readership

Dai bit ai qubit

Più sale meno scende...

Tuesday 19 December

22

Scientific texts

Progettazione di materiali per celle a combustibile ...

Wednesday 20 December

24

Scientific texts

Danno e riparazione del dna di PBMC ...

Il cronometro tira la cinghia

(Quark n. 43, agosto 2004)

L’orologio meccanico cambi motore. La Tag Heuer ha sviluppato il prototipo di un movimento battezzato V4, nel quale gli ingranaggi sono stati sostituiti da 13 cinghie di trasmissione di 0,45 mm di diametro con una portata però di 40 kg. I rubini, impiegati di solito per ridurre l’attrito, sono stati sostituiti da 39 cuscinetti in ceramica con sfere del diametro di 0,25 mm. Il nuovo meccanismo è preciso al centesimo di secondo. La maggior parte degli orologi tradizionali si ferma al decimo.

TAG Heuer's radical new V4 watch movement

(http://www.gizmag.com/go/2903/)

Like a car engine, the fundamental mechanical dynamics operating upon a watch are: transmission, friction, torque and power. Working from this parallel, TAG Heuer's team of designers, watchmakers and engineers hit upon three paradigm-shifting responses to the traditional dictates of watchmaking.

These traditions dictate, for example, that a movement's power must be transmitted by wheels; that rotating axes need to have synthetic rubies as bearings; and that an oscillating weight rotating on its own axis provides a movement's spring barrels with energy. None of these hold true in the new V4 watch movement.

Dictate N° 1: The only possibility for transmission is pinions

In response, TAG Heuer has invented the first patented drive-belt transmission in a watch movement. The V4 Movement replaces the pinions of the traditional mechanical movement with a relay of 13 drive belts whose tension is controlled by turnbuckles and whose gauge measures a slender 0.5x 0.45 mm. Linking and turning two axes in the same direction by the use of a belt is much more efficient than by means of an intermediate wheel. This revolutionary concept, the use of belts in a watch movement, is the object of a TAG Heuer worldwide patent.

Dictate N° 2: Oscillating mass is always rotating

In response, TAG Heuer has invented the first linear oscillating mass. The oscillating weight traditionally used to wind an automatic watch movement has been replaced by a linear oscillating weight. In the V4's case, this is a 4.25-gram platinum ingot that moves up and down on a track between the four spring barrels. A gear system on the long side of the weight engages a cogwheel and translates the linear movement into a rotating movement.

Dictate N°3: Most of the friction is reduced by means of rubies

In response, TAG Heuer has optimised friction reduction with 39 micro ball races. For the rotating parts, technologies from automobile design were once again adapted. Thirty-nine micro ball races help minimize friction in the power transmission system, replacing the traditional use of synthetic red rubies. The smallest ball race has a diameter of 2.2 mm and is 0.5 mm high. The bearings have little balls rotating within them that have a diameter of 0.25 mm.

An architecture inspired by car engines

The movement's energy is provided by four barrels aligned in a 2-by-2 series and linked by a differential with a V-shaped bridge. Each barrel gives a force of 375 grams for a total of 1.5 kilos. The barrels are mounted in a V (angles at 15° with respect to the dial) and two constant velocity joints, also borrowed from the automobile world, transmit their energy to the movement. The barrel bridges are in sapphire, allowing the movement to be visible from below. It is this unique design component that gives the Monaco its automotive-sounding name: V4.

Tag Heuer Monaco V4

(http://www.popsci.com/popsci/bown/2004/gadgets/article/0,22221,750006,00.html)

Why did Tag Heuer reinvent automatic timekeeping? Because it could Tag Heuer’s belt-driven mechanical watch movement, manifest in the Monaco V4 this year, could wind up establishing a new paradigm for watch movements: It uses belts instead of gears. Cogs driving one another create a lot more friction than a belt running several cogs, and lower friction means higher efficiency. To generate energy, a platinum ingot slides back and forth as you move your wrist. A series of 0.5-millimeter-wide belts transfers this energy to four spring-wound barrels. The barrels employ more belts (13 in all) to run a balance wheel that translates this energy into seconds, minutes and hours via the watch’s hands.

La macchina ibrida

(Quark n. 45, ottobre 2004)

La “vettura ibrida” è equipaggiato con un motore elettrico accoppiato a un motore termico, ossia “a scoppio” tradizionale.

Il motore elettrico, silenzioso e potente, si usa per l’avviamento, le salite e per le velocità non sostenute, mentre il motore termico dà le prestazioni migliori a velocità di crociera ed ha una grande autonomia andando a benzina.

I due motori sono associati a un potente generatore di corrente e a una grossa batteria, che assicurano l’autonomia elettrica. Un ripartitore di potenza regola meccanicamente i due motori, il generatore e le ruote con un sistema di ingranaggi: grazie alla sofisticata gestione elettronica permette di passare dalla trazione elettrica a quella termica automaticamente.

1. L’avviamento

Il motore elettrico fornisce la potenza di trazione, il generatore elettrico avvia il motore termico che, una volta caldo, se ferma fino a quando non viene sollecitato.

2. In marcia

Sopra i 40 km/h, il motore termico si sostituisce a quello elettrico, che può essere sollecitato in caso di forte accelerazione. Il generatore immagazzina corrente nella batteria.

3. In frenata

Il motore elettrico continua a trasmettere il movimento sull’albero di trazione e recupera l’energia di frenata per la batteria. Il motore termico si spegne.

Hybrid vehicle

From Wikipedia, the free encyclopedia (http://en.wikipedia.org/wiki/Hybrid_vehicle)

A hybrid vehicle (HV) is a vehicle using an on-board rechargeable energy storage system (RESS) and a fuelled power source for vehicle propulsion. The HV pollutes less and uses less fuel. The different propulsion power systems may have common subsystems or components. The HV provides better fuel economy than a conventional vehicle because the engine is smaller and may be run at speeds providing more efficiency.

The term most commonly refers to petroleum-electric hybrid vehicles, also called Hybrid-electric vehicle (HEV) which use internal combustion engines and electric batteries to power electric motors. Modern mass-produced hybrids prolong the charge on their batteries by capturing kinetic energy via regenerative braking. As well, when cruising or in other situations where just light thrust is needed, "full" hybrids can use the combustion engine to generate electricity by spinning a generator (often a second electric motor) to either recharge the battery or directly feed power to an electric motor that drives the vehicle. This contrasts with all-electric cars which use batteries charged by an external source such as the grid, or a range extending trailer. Nearly all hybrids still require gasoline and diesel as their sole fuel source though other fuels such as ethanol or plant based oils have also seen occasional use. A number of other hybrid vehicles use hydrogen fuel.

The term hybrid when used in relation with cars also has other uses. Prior to its modern meaning of hybrid propulsion, the word hybrid was used in the United States to mean a vehicle of mixed national origin; generally, a European car fitted with American mechanical components. This meaning has fallen out of use. In the import scene, hybrid was often used to describe an engine swap. Some have also referred to flexible-fuel vehicles as hybrids because they can use a mixture of different fuels — typically gasoline and ethanol alcohol fuel.

How hybrid cars work

How stuff works (http://www.howstuffworks.com/hybrid-car.htm)

Many people have probably owned a hybrid vehicle at some point. For example, a mo-ped (a motorized pedal bike) is a type of hybrid because it combines the power of a gasoline engine with the pedal power of its rider. In fact, hybrid vehicles are all around us. Most of the locomotives we see pulling trains are diesel-electric hybrids. Cities like Seattle have diesel-electric buses -- these can draw electric power from overhead wires or run on diesel when they are away from the wires. Giant mining trucks are often diesel-electric hybrids. Submarines are also hybrid vehicles -- some are nuclear-electric and some are diesel-electric. Any vehicle that combines two or more sources of power that can directly or indirectly provide propulsion power is a hybrid.

Most hybrid cars on the road right now are gasoline-electric hybrids, although French car maker PSA Peugeot Citroen has two diesel-electric hybrid cars in the works. Since gasoline hybrids are the kind you'll find at your local car dealership, we'll focus on those in this article.

The gasoline-electric hybrid car is just what it sounds like -- a cross between a gasoline-powered car and an electric car…

Hybrid Structure

Gasoline-electric hybrid cars contain the following parts:

· Gasoline engine - The hybrid car has a gasoline engine much like the one you will find on most cars. However, the engine on a hybrid is smaller and uses advanced technologies to reduce emissions and increase efficiency.

· Fuel tank - The fuel tank in a hybrid is the energy storage device for the gasoline engine. Gasoline has a much higher energy density than batteries do. For example, it takes about 1,000 pounds of batteries to store as much energy as 1 gallon (7 pounds) of gasoline.

· Electric motor - The electric motor on a hybrid car is very sophisticated. Advanced electronics allow it to act as a motor as well as a generator. For example, when it needs to, it can draw energy from the batteries to accelerate the car. But acting as a generator, it can slow the car down and return energy to the batteries.

· Generator - The generator is similar to an electric motor, but it acts only to produce electrical power. It is used mostly on series hybrids...

· Batteries - The batteries in a hybrid car are the energy storage device for the electric motor. Unlike the gasoline in the fuel tank, which can only power the gasoline engine, the electric motor on a hybrid car can put energy into the batteries as well as draw energy from them.

· Transmission - The transmission on a hybrid car performs the same basic function as the transmission on a conventional car. Some hybrids, like the Honda Insight, have conventional transmissions. Others, like the Toyota Prius, have radically different ones, which we'll talk about later.

You can combine the two power sources found in a hybrid car in different ways. One way, known as a parallel hybrid, has a fuel tank that supplies gasoline to the engine and a set of batteries that supplies power to the electric motor. Both the engine and the electric motor can turn the transmission at the same time, and the transmission then turns the wheels.

[In a typical parallel hybrid] the fuel tank and gas engine connect to the transmission. The batteries and electric motor also connect to the transmission independently. As a result, in a parallel hybrid, both the electric motor and the gas engine can provide propulsion power.

By contrast, in a series hybrid… the gasoline engine turns a generator, and the generator can either charge the batteries or power an electric motor that drives the transmission. Thus, the gasoline engine never directly powers the vehicle.

...

The structure of a hybrid car harnesses two sources of power to increase efficiency and provide the kind of performance most of us are looking for in a vehicle. In the next section, we'll see how it accomplishes this.

Atomi da polso contro i ritardi

(Quark N. 45, ottobre 2004)

Un orologio tanto piccolo da poter essere inserito in un orologio da polso è stato messo a punto presso il National Institute of Standards and Technology (Nist) americano. Il suo cuore è grande come un granello di riso e contiene atomi di cesio in una minuscola capsula sigillata. Un laser altrettanto piccolo stimola gli atomi a oscillare a una frequenza ben precisa (9,2 miliardi di cicli al secondo) che vengono contati per misurare lo scorrere del tempo. Johm Kitching, responsabile del progetto, avverte che l’orologio non è preciso come quelli più grandi: sbaglia di un secondo ogni 300 anni. Il dispositivo è stato costruito con tecnologie collaudate, per poter avere bassi costi di produzione e consuma talmente poco da poter funzionare con una pila.

Kaguya, la topolina nata senza papà

(Quark N. 41, maggio 2004)

Fiocco rosa nei laboratori dell’Università dell’agricoltura di Tokio. E’ nata Kaguya, la prima topolina concepita senza padre, per partenogenesi. L’annuncio, sulle colonne di Nature, è di Tomohiro Kono, capo del laboratorio. La partenogenesi è un metodo di procreazione a cui ricorrono spesso in natura piante, insetti e pesci, e che in passato era stato esteso in laboratorio ai polli, ma mai ai mammiferi.

Kono è riuscito in questa impresa manipolando geneticamente un ovulo immaturo: la sua équipe ha eliminato il gene H19. Senza questa porzione di Dna la cellula, anche se femminile, si comporta come se fosse uno spermatozoo. A questo punto è stata trapiantata in un normale uovo non fecondato ed è iniziato lo sviluppo di un embrione, trapiantato poi in una topolina adulta.

La tecnica è laboriosa e ha un tasso di fallimento altissimo, tanto che solo due embrioni dei 598 prodotti si sono sviluppati. Venuti alla luce due animali: uno è stato sacrificato per esaminarlo mentre l’altro è diventato regolarmente adulto.

Cieli marziani sempre più affollati

(AERRE N. 20, ottobre 2005)

Lo scorso 12 agosto è stata lanciata dalla Nasa alla volta di Marte la prima delle tre sonde che prepareranno la strada all'esplorazione umana.

Mars Reconnaissance Orbiter (MRO), questo il nome della sonda, viaggerà per sette mesi prima di raggiungere i cieli del pianeta rosso e rimanere in orbita a 300 chilometri di altezza.L'antenna di MRO invierà dati a una velocità altissima rispetto alle altre sonde già presenti: Global Surveyor e Mars Odyssey della Nasa e Mars Express dell'Agenzia Spaziale Europea (Esa). Gli scienziati del Jet Propulsion Laboratory della Nasa a Pasadena, in California, saranno investiti infatti da 3,5 Mb di dati al secondo e potranno acquisire una mole di informazioni su Marte mai vista prima.

A bordo di MRO, tra gli altri strumenti ad alta risoluzione progettati per studiare il miglior punto di atterraggio per le missioni future, anche l’innovativo radar italiano Sharad che investigherà a fondo il pianeta per trovare le risorse idriche di Marte, essenziali per la vita. I dati raccolti da Sharad andranno ad aggiungersi a quelli degli altri due radar già operativi a bordo della sonda europea Mars Express che da oltre 22 mesi stanno analizzando l'atmosfera del pianeta, studiandone il clima, penetrando sotto la superficie marziana fino a un chilometro di profondità.

MRO studierà il pianeta fino al dicembre 2008, quando si trasformerà in una piattaforma per la pianificazione delle future missioni al suolo e per le comunicazioni con la Terra.

Il “respiro della laguna”

(AERRE N. 28, febbraio 2005)

Gli studi sulla laguna di Venezia approdano sul Journal of Marine System, una delle maggiori riviste scientifiche internazionali.

Si tratta di 21 lavori scientifici, prodotti da una cinquantina di ricercatori italiani, inglesi e canadesi, raccolti in un unico volume grazie all'opera di due studiosi dell'Istituto Nazionale di Oceanografia e Geofisica Sperimentale (OGS) di Trieste: Miroslav Gacic e Cosimo Solidoro.

La pubblicazione, presentata dal Corila, è interamente dedicata alle problematiche legate alla laguna di Venezia e in particolare alla tematica dello scambio d'acque tra laguna e mare.

Quattro le principali questioni toccate dagli studi: lo scarso apporto di acqua dolce nello lo scambio d'acque tra laguna e mare, i nutrienti e gli inquinanti derivanti dall'apporto dei fiumi, la continua evoluzione morfologica della laguna e le eventuali contromisure. Un intero capitolo infine è dedicato a Venezia che affonda e all'innalzamento del mare.

Uno strumento in più dunque per conoscere meglio il funzionamento del delicato sistema lagunare veneziano che può rappresentare un interessante laboratorio per molte altre lagune del mondo.

E la cometa con la coda rivela il ghiaccio

di Ylenia Gattoni (30 agosto 2006)

(http://www.sapere.it/tca/MainApp?srvc=dcmnt&url=/tc/magazine/articoli2006/Cometa_ghiaccio.jsp)

Vi ricordate? Era il 4 luglio dello scorso anno quando la sonda della Nasa “Deep Impact” lanciò alla velocità di 37mila chilometri all’ora un proiettile di 370 chili (modulo Impactor) contro la cometa “Tempel 1”, distante 14 milioni di chilometri dalla Terra. L’impatto, è noto, produsse uno spettacolare bagliore le cui immagini fecero il giro del mondo. Scopo della missione non era tanto la difesa della Terra da un’eventuale collisione bensì l’allargamento degli orizzonti conoscitivi sull’origine del sistema solare. L’esplosione venne infatti provocata con l’intento di scavare nella cometa un cratere della misura di un campo di calcio, proiettando nello spazio una grande nube di particelle che sarebbe stata oggetto di successive analisi. Lo scopo degli scienziati era scoprire cosa si celava sotto la superficie della cometa in questione. Ora, molto di più di una semplice risposta è emersa dalle indagini eseguite, almeno secondo quanto riportato dalla rivista “Science”. La sonda Deep Impact, dotata di uno spettrometro a raggi infrarossi, ha analizzato a distanza il contenuto della nube e ha eseguito una ricognizione della superficie della cometa. Secondo i dati raccolti la cometa avrebbe un’area superficiale di circa 115mila chilometri quadrati. Di questi solo una minima parte (il 6%) è coperta di ghiaccio.

Nello specifico sono stati individuati tre laghi d’acqua pura rispetto alle altre zone che presentano invece ghiaccio mischiato a polvere. A giudizio degli studiosi le aree congelate sarebbero state originate da getti di acqua e vapori provenienti dall’interno del corpo celeste nel momento del passaggio vicino al sole. Inoltre, in questo stadio, una parte dei getti  avrebbe contribuito alla formazione della coda. Un altro dato di estremo interesse rilevato dalla sonda è la scoperta di una considerevole quantità di materiale organico, ovvero molecole a base di carbonio. Tale presenza, insieme a quella del ghiaccio, confermerebbero l’ipotesi che la vita sulla Terra sia giunta dallo spazio portata dalle comete. Ciò che è sicuro è che in una fase primordiale della formazione del sistema solare le comete hanno portato l’acqua sulla Terra, e come si sa questo elemento è  indispensabile per lo sviluppo di forme di vita. Queste scoperte rappresentano una tappa fondamentale per la conoscenza del nostro sistema solare, per la ricostruzione delle nostre origini e dell’evoluzione successiva che ne è scaturita. Nel frattempo attendiamo fiduciosi, consapevoli che l’universo ha ancora tanti misteri da svelarci.

Che geni quelle api

di Daniela Cipolloni

(http://www.galileonet.it/Magazine/mag0641/0641_1.html)

“Hanno un cervello grande quanto il punto alla fine di questa frase. Cinque ordini di grandezza, cioè 100.000 volte, più piccolo di quello umano e solo quattro volte maggiore rispetto al moscerino della frutta che, per quanto studiato dai ricercatori, non vanta un repertorio comportamentale così complesso. Eppure, con circa un milione di neuroni a disposizione, le api sono uno degli esempi più sorprendenti del mondo animale, la cui evoluzione, come si è verificato in pochi altri casi, è culminata in un'organizzazione sociale straordinariamente avanzata. Per questo, dopo quattro anni di lavoro, la pubblicazione dell'intera sequenza genetica della specie “Apis mellifera” ad opera di un consorzio internazionale di 170 scienziati, segna uno di quei momenti esaltanti per la ricerca, in cui si sforna una pioggia di articoli, apparsi congiuntamente su Science, Nature e Pnas. È un'occasione unica, infatti, per decifrare le basi genetiche della sofisticata struttura gerarchica degli alveari, ma anche per comprendere la fisiologia e la storia evolutiva di questi animali.

Le api, con buona pace di chi non vede la somiglianza, appaiono molto più vicine a noi di quanto non siano a tutti gli altri insetti. In poco più di 10 mila geni (meno della Drosophila), per un totale di 236 milioni di paia di basi, i neurobiologi della University of Illinois Urbana-Champaign (Uiuc) hanno individuato circa 700 geni, provenienti da un progenitore ancestrale, comuni ad altri organismi compresi i mammiferi, che invece i moscerini e le zanzare hanno perso. Come i vertebrati, hanno nel Dna un orologio biologico che scandisce i cicli circadiani e le attività quotidiane: la divisione del lavoro, la localizzazione nel volo e la famosa “danza”, l'unico linguaggio simbolico esistente al di fuori dei primati.

Lo sforzo di sequenziare questi alacri impollinatori compiuto dal National Human Genome Research Institute, il National Insitutes of Health e lo United States Department of Agricolture, porta a quota cinque il numero di insetti finora sequenziati, dopo il moscerino, la zanzara, la farfalla e lo scarafaggio. Ma le api hanno un primato: sono le prime a possedere un sistema di metilazione del Dna molto simile a quello dei vertebrati, compresi gli esseri umani: è uno dei meccanismi enzimatici più potenti per la regolazione dei geni, capace di silenziarne selettivamente l'attività. Potrebbe essere lì la chiave della complessa organizzazione degli alveari, con un'ape regina, che produce circa 2.000 uova al giorno, intorno alla quale ruotano decine di migliaia di api operaie che rispettano una rigida divisione dei compiti.

Il comportamento animale, secondo i ricercatori, è regolato anche dall'azione di circa 200 neuropeptidi, proteine del cervello che interferiscono con i circuiti nervosi. Sarebbero questi neuropeptidi a determinare il passaggio delle giovani api operaie impegnate nella cura della uova o delle larve, verso altre mansioni come la ricerca del nettare e del polline, dell'esecuzione e dell'interpretazione della danza e della difesa del nido.

Nel fiume di studi scientifici che accompagnano l'annuncio del sequenziamento, si scopre anche che le api, come gli esseri umani, provengono dall'Africa, e da lì sono migrate verso la fine del Pleistocene (10 mila anni fa) nel Vecchio Mondo, “uno spettacolare esempio di invasione biologica”. Il Dna ci racconta che poi si sono divise in due popolazioni differenti, una ha colonizzata l'Europa centrale e la Russia, e l'altra l'Europa meridionale, orientale e l'Asia. “Nonostante la vicinanza biologica, i due gruppi europei sono i più diversi sulla Terra”, ha commentato il genetista Charles Whitfield della Uiuc. Ultima curiosità: è stato scoperto l'esemplare di ape più vecchio mai conosciuto. È rimasto 100 milioni di anni fossilizzato nell'ambra.

Dai bit ai qubit

(Focus N. 168 – ottobre 2006)

Secondo un gruppo sempre più folto di scienziati, il futuro dell’informatica non ha nulla a che vedere con i “vecchi” microchip fatti di miliardi e miliardi di “semplici” transistor di silicio. Piuttosto sarà popolato da nuove macchine raffinatissime costituite da molecole, raggi laser e superconduttori; che funzionano non secondo le leggi “classiche” dell’elettronica, ma secondo quelle bizzarre della “meccanica quantistica”. Un mondo strano, in cui le particelle possono trovarsi contemporaneamente in posti diversi e possono sincronizzarsi tra loro come se fossero un tutt’uno. Per dar vita a macchine sorprendenti, capaci di svolger in un istante più calcoli di quelli che tutti computer attuali svolgerebbero nel corso dell’intera vita dell’universo.

Pura fantascienza? Niente affatto: i primissimi computer quantistici ci sono già e le applicazioni commerciali sono state annunciate per il 2008.

Per capire bene in che cosa consistono, bisogna innanzitutto ricordare come funziona un computer “classico”:《L’informatica tradizionale si basa su sequenze di 0 e 1 (i bit) elaborate per mezzo di operazioni logiche che, combinate tra loro, danno vita a un “algoritmo” (cioè un insieme di regole per risolvere un problema matematico)》 spiega Rosario Fazio, docente di fisica alla Sissa (Scuola internazionale superiore di studi avanzati) di Trieste. 《In un computer quantistico, invece, i “qubit” (così si chiamano i “bit quantistici”) possono essere anche una “sovrapposizione” di 0 e 1》. Un bit quantistico, insomma, può essere 0, 1 o una combinazione dei due; un po’ come una moneta che possa essere testa o croce contemporaneamente (la possiamo pensare come inclinata. O come una persona con il dono dell’ubiquità, che possa stare in due posti nello stesso tempo. I qubit mantengono questa caratteristica bizzarra finché sono isolati dal mondo esterno e in questo modo possono effettuare tutti i loro calcoli. Ma, secondo le leggi quantistiche, quando guarda il risultato del calcolo, i qubit si trasformano irrimediabilmente in bit normali...

Il primo [computer quantistico] è stato costruito nel 2001 da Isaac Chuang, presso il centro di ricerca Ibm di Almaden, in California (Usa). Consisteva in una molecola artificiale in sui erano “immagazzinati” 5 qubit. L’informazione si poteva acquisire e leggere grazie alla risonanza magnetica, un fenomeno (basato sul magnetismo molecolare) usato anche a scopo diagnostico negli ospedali. Con il suo apparato di misura, Chuang è riuscito a effettuare un semplice calcolo: ha scomposto il numero 15 ne prodotto di due numeri primi, 3 e 5 (15=3x5). E’ un’operazione semplice, ma concettualmente si può estender fino a numeri giganteschi. Il problema è creare e manipolare una quantità maggiore di qubit.

《Le tecniche basate sulla risonanza magnetica sono quelle che finora hanno dato i risultati migliori》 spiega Fazio 《ma hanno un inconveniente: non si sa come renderle più complesse》. Per manipolare più quibit, infatti, servirebbero molecole più grandi, ma attualmente nessuno le saprebbe produrre.

《Esistono, però, anche altre tecniche per costruire computer quantistici》 continua Fazio 《per esempio si possono usare atomi freddi (cioè a temperature prossime allo zero assoluto, pari a -273,15 °C), come si sta sperimentando all’Università di Innsbruck (Austria) o al Nist (National Institute of standards and technology) negli Usa. Oppure si potrebbero usare dispositivi “a stato solido”, basati su materiali superconduttori o semiconduttori》. Questi ultimi sono forse i più promettenti, perché l’attuale tecnologia è in grado di manipolarli meglio. Si tratterebbe, infatti, di un’evoluzione dei circuiti di silicio che esistono già. I circuiti superconduttori contengono materiali che conducono l’elettricità senza dissipare energia. Quelli a semiconduttore, invece, contengono strutture simili ad atomi artificiali: a differenza degli atomi reali, possono essere costruiti “su misura” nelle dimensioni e nelle quantità volute. Ma hanno pure svantaggi: a differenza degli atomi reali, non sono tutti uguali tra loro.

Meno sale più scende…

(Quark N 45, ottobre 2004)

Chi ha più di trent’anni e non ha mai misurato la pressione sanguigna potrebbe essere una delle tante persone che soffre di ipertensione, ossia di pressione alta, uno dei principali fattori di rischio di ictus cerebrali e infarti cardiaci. Infatti, secondo le ultime linee guide dell’istituto nazionale americano per le malattie cardiovascolari (National Heart, Lung and Blood Institute), il danno provocato alle arterie dalla ipertensione inizia a presentarsi già a livelli di pressione che oggi riteniamo nella norma. Poco rassicuranti sono pure i dati dell’Oms (Organizzazione Mondiale della Sanità) che per i prossimi anni prevedono un aumento di questa malattia destinata, così, a diventare una delle principali cause di invalidità a livello mondiale.

Da qui l’importanza di conoscerla e scoprirla subito, anche perché si sviluppa in maniera subdole e miete vittime senza preavviso. I medici la chiamano, infatti, il killer silenzioso, poiché, come spiega Fausto Avanzino, cardiologo presso l’ospedale di Desio (Milano) e consulente dell’Istituto di ricerche farmacologiche Mario Negri di Milano, a differenza di altre malattie, l’ipertensione è generalmente asintomatica. 《Il malato non si accorge di nulla e spesso scopre di essere iperteso solo occasionalmente durante una visita medica, senza sapere magari di esserlo da tempo.》

Ma che cosa misura il medico? Usando lo sfigmomanometro, il classico apparecchio costituito da un manicotto gonfiabile collegato a una colonnina di mercurio, misura la pressione arteriosa, ovvero la forza che il cuore imprime al sangue quando lo pompa verso i vasi sanguigni (arterie), condutture con pareti elastiche che si diramano in ogni distretto dell’organismo per portare ossigeno nelle singole cellule. Ritmicamente il muscolo cardiaco si contrae per mantenere in movimento il sangue che circola nei vasi; a questo punto la pressione è al massimo e si chiama “sistolica” (pressione massima). Tra una contrazione e l’altra il cuore si rilascia e la pressione raggiunge il valore più basso o “diastolica” (si ha la cosiddetta pressione minima). 《E’ difficile stabilire quali siano i valori normali della pressione perché questa varia continuamente nello stesso individuo, con l’ora del giorno, la stagione, l’attività fisica svolta o lo stato nervoso》 dice Avanzino. 《Comunque l’ipertensione è certa quando la pressione misurata dal medico in ambulatorio si mantiene su valori elevati in modo persistente, ossia quando la minima supera costantemente 90 mmHg (unità di misura che significa millimetri di mercurio) o la massima supera in modo costante 140 mmHg》. Questi valori sono stati stabiliti dall’Oms e accettati universalmente.

Sì è dimostrato che la pressione aumenta con l’età, forse per la maggior rigidità delle arterie dovuta all’invecchiamento. Un dato confermato, tra l’altro, da una recente ricerca italiana effettuata su 5.376 abitanti della città di Gubbio: s’è visto che la pressione aumenta progressivamente fra 35 e 65 anni e sale drasticamente fra i 65 e 75. Le più colpite sono risultate le donne, (il 30%), con valori di pressione superiori o uguali a 160/95 mmHg; mentre gli uomini hanno mostrato una incidenza del 22%. Recenti studi americani hanno, però, rilevato che sia le arterie sia il cuore possono cominciare a essere danneggiati a livelli molto più bassi di pressione, tanto da indurre il National Heart, Lung and Blood Institute ad includere nelle ultime linee guida un livello di cosiddetta pre-ipertensione: in pratica il rischio di mortalità da malattia cardiaca e ictus inizia già a 115/75 mmHg e raddoppia per ogni incremento di 20/10 mmHg.

Come scoprire allora che si è a rischio se non si hanno sintomi o se si registrano livelli di pressione finora ritenuti normali? L’unica strada per effettuare un’efficace prevenzione è quella di eseguire periodiche misurazioni, anche se si sta bene. 《L’automisurazione della pressione a domicilio può essere d’aiuto, tenendo però presente che a casa i valori sono più bassi che in ambulatorio e quindi sono considerati normali valori fino a 135/85 mmHg.》

Le cause di questa patologia, purtroppo, non sono ancora del tutto chiare. Giocano la predisposizione genetica, l’eccesso di peso, l’elevato consumo di sale e poco di potassio, lo stress psico-fisico, l’eccesso di alcool e, come si è detto prima, l’invecchiamento. Per i soggetti definiti pre-ipertesi la cura da iniziare è un cambiamento dello stile di vita. Quando il paziente è più grave occorre intervenire con i farmaci.

《La terapia classica è basata sui diuretici, che, attraverso l’eliminazione di sodio con le urine, portano a una dilatazione dei vasi》 spiga Avanzino, 《oppure sui beta-bloccanti, che bloccando alcuni recettori del sistema simpatico rallentano la frequenza cardiaca》. Farmaci più attuali sono gli ACE-inibitori e i sartani. Questi producono la vasodilatazione impedendo l’attivazione dell’angiotensina II, un ormone che agisce sulla costrizione delle arterie.

La cura va studiata su misura per ogni paziente e si basa spesso sulla combinazione di più farmaci. Ma dover prendere più medicine risulta sempre scomodo. Un aiuto per non interrompere la terapia verrà dalla cosiddetta polipillola, una pillola unica, ancora allo studio, che associa più farmaci. Potrà risolvere anche altri problemi da cui è spesso colpito l’iperteso, come l’eccesso di colesterolo. 《Queste polipillole saranno di grande aiuto, ma non potranno sostituire l’impegno del paziente a condurre una vita più sana, indispensabile per proteggere al meglio cuore e cervello》 conclude Avanzino.

TESTI SCIENTIFICI

OTTICA QUANTISTICA E FISICA DELLE NANOSTRUTTURE A SEMICONDUTTORE

S. Savasta, G. Martino, O. Di Stefano, G. Pistone, R. Girlanda

Dip. di Fisica della Materia e Tecnologie Fisiche Avanzate, Università di Messina

Precursore della nanoscienza fu il premio Nobel Richard Feyman che nel lontano 1959 durante un memorabile discorso tenuto al California Institute of Technology affermò che non esistevano principi fisici che impedivano la costruzione di oggetti di piccole dimensioni atomo su atomo fino al raggiungimento di dimensioni macroscopiche.

Lo sviluppo delle nanotecnologie rappresenta una svolta epocale, con ricadute non solo nel campo della fisica di base, ma porta alla creazione di nuovi materiali, con composizione chimica e proprietà chimico-fisiche definite in modo estremamente preciso, di nuovi farmaci e strumenti diagnostici, di nuove tecnologie nel campo dell’informazione e della nano-meccanica. Le proprietà innovative delle nanostrutture possono essere legate all’elevato rapporto tra la superficie del materiale ed il suo volume o possono trarre la loro origine dalla dimensione quantistica del materiale ossia dalla confrontabilità delle dimensioni con valori di lunghezza critici di alcuni fenomeni fisici come ad esempio il libero cammino medio degli elettroni o la lunghezza d’onda della luce. La progettazione e l’analisi di tali strutture non può prescindere dalla caratterizzazione ottica del materiale. Il nostro gruppo di ricerca si occupa da anni dell’analisi teorica delle proprietà ottiche delle nanostrutture di semiconduttore. Il gruppo di ricerca si occupa anche di ottica quantistica e di aspetti fondamentali della fisica quantistica, quali l’entanglement e la comparsa delle proprietà della fisica classica nel limite macroscopico. Due particelle si dicono entangled (cioè ingarbugliate) quando una minima azione su una ha immediatamente effetto sulla particella gemella anche se si trova a grande distanza. Nel corso di questo seminario verranno brevemente descritti alcuni dei risultati più recenti e le diverse linee di ricerca. In particolare:

1. Teoria microscopica per la simulazione e la descrizione di misure di fotoluminescenza spazialmente risolte [1,2], in nanostrutture includendo la quantizzazione della luce e lo scattering dovuto ai fononi acustici.

2. Risposta ottica nonlineare ed effetti quantistici in microcavità di semiconduttore[3].

3. Entanglement, informazione e realismo locale nel limite macroscopico.

BIBLIOGRAFIA

[1] O.Di Stefano et al, Appl. Phys. Lett. 77, 2804 (2000); G.Pistone et al, Appl. Phys. Lett. 84, 2971 (2004)

[2] M.Pieruccini et al., Appl. Phys. Lett 83, 2480 (2003); S.Savasta et al., Phys. Rev. Lett. 90, 96403 (2003)

[3] S.Savasta et al., Phys. Rev. Lett. 93, 069701 (2004); S.Savasta et al, submitted to Phys. Rev. Lett.

Tesi di Dottorato

Fenomeni di oncosi controllata nelle piastrine durante la stabilizzazione del coagulo indotto da stimolo immunologico

ABSTRACT. Stimoli immunologici attivano piastrine umane, che vanno incontro ad aggregazione e rilascio. Mentre alcune di queste risposte sono state paragonate a fenomeni di apoptosi, altre, come la reazione di rilascio e la stabilizzazione del coagulo, non sono caratteristiche di cellule apoptotiche. In questo lavoro abbiamo voluto studiare l’effetto di uno stimolo immunologico forte (zymosan opsonizzato) sulle piastrine. Abbiamo studiato l’eventuale coinvolgimento dei mitocondri e delle proteasi piastriniche. Lo studio dell’attività mitocondriale, effettuato durante le fasi avanzate di attivazione piastrinica mediante metodo citofluorimetrico con la determinazione della fluorescenza di JC-1, ha evidenziato una completa perdita mitocondriale. Inaspettatamente, nello stesso tempo la riduzione dell’MTT è risultata aumentata ed insensibile al SOD e rotenone. Capsaicina e resinferotossina aumentano ulteriormente la riduzione dell’MTT. L’analisi al Western Blotting non ha evidenziato attivazione della caspasi, mentre vi era attivazione della calpaina. La conclusione è che le piastrine, stimolate con zymosan opsonizzato, vanno incontro a mitoptosi, ma viene mantenuta la vitalità cellulare grazie alla attivazione di reduttasi extramitocondriali.

Parole chiave: piastrine, mitoptosi, apoptosi, stimolo immunologico, stabilizzazione del coagulo.

Pazienti ipertesi con fibrillazione atriale: caratteristiche epidemiologiche e terapeutiche

R. Roncuzzi, G. Marchetti

Unità Operativa di Cardiologia, Ospedale Bellaria, Bellaria (BO)

INTRODUZIONE. La prevalenza di fibrillazione atriale (FA) nella popolazione, stimata dall’Osservatorio Epidemiologico Cardiovascolare Italiano, e per il Nord-Est dell’Italia pari allo 0,9% per i maschi e allo 0,5% per le donne. Abbiamo valutato, nel gruppo di pz con ipertensione arteriosa, l’incidenza di FA.

METODI. Nel periodo 2001-2005, 995 pz consecutivi (539 maschi, 456 femmine) con ipertensione arteriosa, di eta compresa tra 18 e 94 anni (eta media 66,2; DS = 12) inviati dal medico curante presso la nostra UO per visita cardiologica, sono stati inseriti nello studio e seguiti nell’ambulatorio dedicato all’ipertensione arteriosa e alla prevenzione cardiovascolare. Tutti i pz sono stati valutati clinicamente e sottoposti a stratificazione del rischio cardiovascolare secondo le linee guida ESH per il trattamento dell’ipertensione arteriosa.

Quarantacinque pz (25 maschi, 20 femmine), eta media 75,0 anni (DS = 7), erano in FA non valvolare permanente e 36 pz (21 maschi, 15 femmine), eta media 72,1 anni (DS = 6), avevano in anamnesi episodi di FA parossistica documentati.

RISULTATI. Erano a rischio cardiovascolare elevato e molto elevato il 58,5% dei pz ipertesi senza FA, il 71,1% dei pz con FA non valvolare permanente e il 61,1% dei pz con FA parossistica. Ipertrofia ventricolare sinistra era presente all’ECG nel 33,9% del gruppo ipertesi, nel 53,3% dei pz con FA non valvolare permanente e nel 47,2% dei pz con FA parossistica. All’ecocardiogramma, la percentuale di riscontro di ipertrofia ventricolare sinistra era rispettivamente di: 23,5%, 44,4% e 47,2%. Erano in terapia l’89% dei pz ipertesi, l’88,9% dei pz con FA non valvolare permanente e il 91,7% dei pz con FA parossistica.

Assumevano due o piu farmaci antipertensivi il 71,4% degli ipertesi, il 75,5% dei soggetti con FA non valvolare permanente e il 77,9% di quelli con FA parossistica.

I farmaci utilizzati sono riportati nella Tabella seguente.

Tabella

IpertesiFA non valvolare permanenteFA parossistica

ACE-inibitore51,0%57,5%63,6%

Beta-bloccante37,1%40,0%42,4%

Calcio antagonista42,4%60,0%54,5%

Diuretico39,2%47,5%48,5%

Sartano20,4%15,0%21,2%

Alfa-bloccante9,5%10,0%3,0%

Il 33,3% dei pz ipertesi, il 26,7% dei pz con FA non valvolare permanente e il 41,7% dei pz con FA parossistica raggiungono valori pressori ottimali con terapia.

CONCLUSIONI. Tra i pz ipertesi quelli che sviluppano FA non valvolare permanente o episodi di FA parossistica hanno:

1)Un’eta piu avanzata

2)Una maggior percentuale di diagnosi di ipertrofia ventricolare all’ECG e all’eco

3)Un profilo di rischio cardiovascolare globale piu severo,

4)I pz con FA parossistica hanno valori pressori meglio controllati dalla terapia.

Nonostante oltre il 75% dei pz del gruppo FA non valvolare permanente utilizzasse due o piu farmaci, la percentuale dei pz con pressione ottimale era inferiore agli altri gruppi.

Gli ACE-inibitori, i calcio antagonisti e i diuretici vengono usati in percentuali superiori nel gruppo FA non valvolare permanente e FA parossistica rispetto al gruppo ipertesi. Minore e la percentuale di utilizzo di inibitori del recettore dell’angiotensina II.

UNIVERSITÁ DEGLI STUDI DI ROMA TOR VERGATATesi di Dottorato

FACOLTÁ DI MEDICINA E CHIRURGIARELATORECh.mo Prof. Mauro Borzi

Dottorato di Ricerca in Fisiopatologia CardiovascolareCANDIDATODott. Quirino Ciampi

LA FUNZIONE DIASTOLICA INFLUENZA L’ADATTAMENTO EMODINAMICO ALL’ESERCIZIO IN PAZIENTI CON CARDIOMIOPATIA IPERTROFICA

Discussone

... La risposta della frequenza cardiaca all’esercizio sembra verosimilmente il maggior determinante dell’incremento della portata cardiaca. Infatti, abbiamo visto come la frequenza cardiaca incrementava significativamente di più nei pazienti con elevata pressione di riempimento ventricolare sinistra (Figura 2), consentendo un simile incremento della portata cardiaca durante l’esercizio nei 2 gruppi di pazienti con CMI (Figura 6), compensando la caduta di gittata sistolica.

Lo sviluppo di ischemia esercizio correlata, come evidenziato dall’incremento del volume telesistolico (Figura 3), può comportare un aumento della rigidità ventricolare sinistra da compromissione del rilasciamento isovolumico, che è un processo attivo, con accumulo di calcio intracellulare da inadeguato re-uptake da parte del reticolo sarcoplasmatico (10). Quindi la curva diastolica pressione/volume è spostata verso l’alto, indicante una riduzione acuta della distensibilità ischemia-correlata.

L’evidenza di ischemia miocardica è stata chiaramente dimostrata nei pazienti affetti da CMI (11-13) e rappresenta un fattore di rischio per morte improvvisa (14). In assenza di stenosi delle arterie coronariche epicardiche, l’ischemia potrebbe derivare da una malattia dei piccoli vasi coronarici intramurali (15), ma anche da un aumento delle richieste miocardiche di ossigeno, come avviene nel corso dell’esercizio (13). In un precedente studio, il nostro gruppo ha dimostrato in pazienti con CMI un anomalo adattamento emodinamico all’esercizio con disfunzione sistolica verosimilmente dovuta a ischemia miocardica esercizio-correlata (16). Taki e coll. (43) hanno evidenziato che, in pazienti con CMI, la disfunzione ventricolare sinistra nel corso dell’esercizio, valutata mediante monitoraggio VEST era un fenomeno comune e poteva essere dovuta ad ischemia miocardica indotta dall’esercizio. Questi autori hanno mostrato una caduta della frazione d’eiezione in circa la metà dei pazienti con CMI al picco dell’esercizio. Okeie e coll. (44) hanno visto che lo sviluppo di ischemia miocardica era la prima ragione della caduta della frazione d’eiezione nel corso dell’esercizio, valutata mediante monitoraggio VEST, e della scoperta di nuove anomalie della cinesi regionale delle pareti del ventricolo sinistro, valutate mediante ecodobutamina. Yoshida e coll. (12) hanno dimostrato, in pazienti con CMI, l’induzione di ischemia subendocardica nel corso dell’esercizio.

Quindi, la contemporanea presenza di un maggior grado di disfunzione diastolica passiva, come evidenziato nei pazienti con CMI ed elevata pressione di riempimento ventricolare sinistra e di una compromissione della fase diastolica attiva da ischemia esercizio-correlata, possono causare un anomalo adattamento emodinamico all’esercizio in pazienti con CMI.

Parassitologia 46: 187-190, 2004

L’Entomologia forense e la globalizzazione

M. Turchetto, S. Vanin

Dipartimento di Biologia, Università degli Studi di Padova, via U. Bassi 58/B, 35131, Padova, Italy.

L’Entomologia forense è la scienza che applica le conoscenze sugli insetti (o su altri artropodi) nelle indagini e nei processi penali o nelle controversie civili. Questa disciplina si suddivide in tre branche principali: l’Entomologia urbana (urban entomology), che prende in esame gli artropodi che infestano gli ambienti urbani o che attaccano l’uomo; l’Entomologia dei prodotti immagazzinati (stored product entomology), che studia gli artropodi dei beni conservati e dei loro involucri e l’Entomologia medico-legale (forensic entomology o medico-criminal entomology), che è lo studio degli artropodi applicato a reati perseguibili penalmente (abusi fisici, contrabbando, droghe), ma soprattutto a eventi di interesse medico-legale quali omicidi, suicidi, morti improvvise, ecc...É di quest’ultima branca, la più classica e soprattutto spesso l’unica intesa come entomologia forense, che si occupa il nostro laboratorio. L’accertamento principale che viene richiesto è quello di stabilire tramite gli artropodi presenti il P.M.I. (Postmortem Interval), cioè il tempo trascorso dalla morte, o più precisamente, il tempo trascorso dall’esposizione del cadavere in ambiente.

Per gli studi di Entomologia forense partiamo dal presupposto che il cadavere sia un ecosistema che improvvisamente compare all’interno di un altro ecosistema più grande caratterizzato dalle sue componenti abiotiche e biotiche tipiche, artropodi compresi. Come in tutti gli ecosistemi di nuova formazione, avviene una colonizzazione da parte degli organismi, prima gli organismi pionieri, che cominciano a modificare l’ambiente, poi, via via, altri organismi, con un ordine temporale ben preciso, secondo le loro esigenze trofiche ed ecologiche; man mano che il substrato si modifica, cambiano le specie, molte delle quali restano, raggiungendo temporanei stati di equilibrio sia con l’ambiente stesso che con le altre specie, competitrici o predatrici. Il cadavere viene quindi consumato dai suoi stessi degradatori, fino a che non resta più nulla di commestibile, se non parti (ossa, denti, capelli) appetite da poche specie, che vengono degradate molto lentamente o non vengono degradate affatto. Perciò sul cadavere si succede una serie di specie associate tra loro, dette ondate di successione (Tabella 1), che vengono attirate selettivamente dai diversi stadi di degradazione del corpo; tali associazioni sono costanti nella loro composizione, tanto da permettere di risalire allo stato degenerativo del cadavere e quindi da questo, al momento della morte. I componenti delle associazioni, sono tipici dell’ecosistema in cui si ritrova il corpo o delle zone limitrofe. Il ritrovamento di elementi estranei è un utile indizio che permette di mettere in luce se il corpo è stato spostato e talvolta permette di definire anche il luogo di provenienza (Smith, 1986).

Tabella 1. tabella tradizionale delle successioni

ONDATA

DITTERI:

Musca,

Muscina,

Calliphora,

Lucilia.

Fresco, poco

odore, inizio

decadimento

interno

primi tre

mesi

ONDATA

DITTERI:

Muscidi, Foridi

COLEOTTERI:

Isteridi, Silfidi

Fermentazione

ammoniacale, evaporazione

dei fluidi,

inizio essicamento,

colore nero

4-8 mesi

ONDATA

DITTERI:

Cynomya,

Sarcophaga

Sviluppo odore,

gonfiore

primi tre

mesi

ONDATA

ACARI

Essicamento

1-3 anni

ONDATA

DITTERI:

Piophila

COLEOTTERI:

Dermestidi

LEPIDOTTERI:

Piralidi

Inizio fermentazione

butirrica,

forte odore

primi tre

mesi

ONDATA

COLEOTTERI:

Dermestidi

LEPIDOTTERI:

Tineidi

Essicamento completo,

pelle secca,

ossa, cartilagini

1-3 anni

ONDATA

DITTERI:

Piophila,

Fannia,

Sferoceridi,

Silfidi

COLEOTTERI:

Cleridi

Fermentazione

butirrica, fermentazione

caseica,

uscita di gas,

liquefazione tessuti

3-6 mesi

ONDATA

COLEOTTERI:

Dermestidi,

Tenebrionidi

Resti, capelli e denti

3 o più

anni

Lo studio dell’età delle forme larvali, da cui si risale ai tempi di esposizione del cadavere richiede, previa l’identificazione della specie, il riconoscimento dello stadio del ciclo vitale e la conoscenza dei tempi di ciascuna fase dello sviluppo, della durata dell’impupamento e dell’eventuale diapausa. Poichè questi tempi sono direttamente dipendenti dalla temperatura ambientale, ogni qualvolta è possibile raccogliere larve vive, si allestiscono allevamenti in laboratorio in condizioni controllate per determinare il tasso di accrescimento e il succedersi delle mute a diverse temperature.

I più importanti degradatori del cadavere sono i ditteri brachiceri, presenti, con differenti famiglie, in quasi tutte le fasi di demolizione della sostanza organica. Tali organismi sono i veri indicatori utilizzati per la definizione del tempo di morte (P.M.I.); seguono i coleotteri, soprattutto stafilinidi e dermestidi, predatori di larve di ditteri o talvolta sarco-saprofagi anch’essi e, nelle ultime fasi di demolizione (cadavere secco o ossa) acari, lepidotteri (tineidi) e alcuni coleotteri quali i dermestidi e i tenebrionidi.

UNIVERSITÁ DEGLI STUDI DI ROMA TOR VERGATATesi di Dottorato

DIPARTIMENTO DI SCIENZE E TECNOLOGIE CHIMICHEDOTTORANDOGiuseppe Savo

DOTTORATO DI RICERCA IN INGEGNERIA DEI MATERIALITUTOREProf. Enrico Traversa

PROGETTAZIONE DI MATERIALI PER CELLE A COMBUSTIBILE AD OSSIDI SOLIDI OPERANTI A TEMPERATURE INTERMEDIE

Le celle a combustibile ad ossidi solidi (SOFC)

Gli ossidi a conduzione ionica e loro applicazioni in celle a combustibile

La scoperta della conduzione ionica ad elevata temperatura da parte dell’ ossido di zirconio drogato con ittrio è dovuta a Nernst che nel 1899 fece esperimenti di conducibilità su materiali di questo tipo22. Questa scoperta è alla base della nascita delle SOFC, dato che esse devono gran parte delle loro caratteristiche alla natura dell’ elettrolita. Ovviamente la conducibilità ionica di un elettrolita solido è di interesse pratico solo a temperature elevate. Per una trattazione teorica della conduzione ionica nei solidi si rimanda all’ ottimo lavoro di Goodenough riportato nella bibliografia23.

Molti ... materiali ... sono stati studiati per applicazioni in celle a combustibile, tuttavia negli studi sulle SOFC vengono citati con maggiore frequenza solo pochi ossidi: la zirconia stabilizzata con l’8% ittrio (YSZ) o con quantità di ittrio leggermente differenti, la ceria drogata con gadolinio (GDC) o altre terre rare della serie dei lantanidi (samario ed ittrio in primis) e i gallati di lantanio drogati con metalli bivalenti (stronzio e magnesio soprattutto, da cui la sigla LSGM). In alcuni lavori sono stati presi in esame anche sistemi a base di ossidi di bismuto o zirconie drogate con metalli differenti dall’ ittrio (in generale il calcio e un po’ tutti i lantanidi, con lo scandio e il samario che presentano una maggiore conducibilità25 perché i loro cationi sono di dimensioni simili a quelli dello zirconio, ma con il problema di un maggior costo a frenarne l’ utilizzo) oppure sistemi in cui l’ elettrolita è conduttore di protoni e non di ioni ossigeno (BaZr0,9Y0,1O3-δ26.

In generale i materiali differenti dalle zirconie drogate con ittria mostrano una serie di problemi, non ultimo il costo dei materiali precursori, che finora non hanno permesso uno sviluppo industriale di celle con questi elettroliti.

La ceria drogata con gadolinio, ad esempio, in condizioni riducenti dà luogo ad una reazione di riduzione, con il passaggio di parte del cerio da Ce+4 a Ce+3 e con la modificazione delle proprietà elettriche (si forma un semiconduttore di tipo n, quindi il numero di trasporto ionico non è più unitario, e si ha una perdita in termini di tensione all’ estremità dell’ elettrolita27,28 con la conducibilità di tipo n che decresce con la pressione di ossigeno secondo una dipendenza di tipo PO2-1/4) e meccaniche (il materiale tende ad imbarcarsi a causa del differente contenuto in vacanze di ossigeno che si ha man mano che ci si allontana dal comparto catodico poiché il CeO2 diventa CeO2-x con x decrescente). Per ovviare a questo problema si è pensato alla possibilità di inserire uno strato di materiale ceramico differente, spesso al più qualche micrometro, tra la ceria e il materiale anodico, tale che risulti bloccante per il trasporto della corrente elettronica tra l’anodo e l’ elettrolita e quindi impedisca lo svolgersi della reazione di riduzione29. In genere questo espediente riesce ad impedire la riduzione della ceria, anche se inserire uno strato sottile di YSZ tra anodo ed elettrolita crea due nuove interfacce con relative sovratensioni, comporta un termine di caduta ohmica legato alla resistività della zirconia (ovvero dell’elettrolita che si vorrebbe sostituire), e l’intera operazione si porta dietro tutti i contrattempi e i problemi legati allo sviluppo di uno strato sottile denso depositato su uno strato altrettanto denso, per cui è da valutare l’ effettiva convenienza di una tale soluzione.

Il gallato di lantanio non è chimicamente inerte ad elevate temperature rispetto al nichel usato comunemente nell’ anodo30,31, ed è sicuramente meno lavorabile della zirconia. In questi casi si può pensare di inserire uno strato di interposizione a base di ceria drogata, ma è ancora dubbio se la necessità di un tale trattamento giustifichi il guadagno in termini di conducibilità che si ha usando l’ LSGM rispetto agli altri materiali.

Tra le varie composizioni relative di ZrO2 e Y2O3 analizzate, quella che ha dato i risultati migliori in termini di conducibilità è la zirconia drogata e stabilizzata con ittrio, in cui è presente un 8%m di ittrio, nota ed usata per le ricerche nel campo fin dal tempo di Nernst33. La conducibilità di un tale materiale è di tipo esclusivamente ionico per movimento delle vacanze degli ioni O= prodotte dalla sostituzione nel reticolo cristallino di ioni Zr4+ con ioni Y3+.

UNIVERSITÁ DEGLI STUDI DI ROMA TOR VERGATATesi di Dottorato

DIPARTIMENTO DI SCIENZE E TECNOLOGIE CHIMICHECANDIDATODr Salvatore Scarpacci

DOTTORATO DI RICERCA IN immunologiaRELATOREProf. Gino Doria

DANNO E RIPARAZIONE DEL DNA DI PBMC IN SOGGETTI GIOVANI E ANZIANI

5 Discussione

I meccanismi di reclutamento e di attivazione delle molecole coinvolte nel riconoscimento e nella riparazione del DNA danneggiato da agenti genotossici sono poco conosciuti. Il complesso DNA-PK sembra svolgere un ruolo di primo piano, poiché è coinvolto in tre dei quattro gruppi di complementazione di cellule mutate di mammifero carenti nella riparazione delle doppie rotture del DNA (74, 75). In questo lavoro si descrive il coinvolgimento del complesso DNA-PK nella risposta ai raggi X in PBMC purificati da soggetti di diversa età, con particolare attenzione alla cinetica dei componenti del complesso in seguito all’irraggiamento. Negli esperimenti con PBMC sono state utilizzate dosi (2 o 5Gy) di raggi X che generano una modesta quantità di rotture del DNA (76, 77) con maggiore probabilità di un’accurata riparazione. Con dosi maggiori di irraggiamento, la frammentazione del DNA è maggiore con attivazione di meccanismi come il mismatch repair e l’apoptosi.

I risultati qui presentati mostrano che l’eterodimero ku 70/80 conserva la capacità di legare il DNA in cellule non irraggiate durante l’invecchiamento. Questa osservazione è molto rilevante in quanto ku è importante non solo nella riparazione delle dsb ma anche in altri meccanismi cellulari, quali la protezione dei telomeri, e la ricombinazione V(D)J, entrambi correlati con l’invecchiamento. D’altra parte, l’attivazione di ku, in termini di legame al DNA, indotta dalle radiazioni ionizzanti è diversa tra individui giovani e anziani. Nonostante i danni del DNA indotti dal trattamento con i raggi X siano maggiori negli anziani, come mostrano i risultati ottenuti mediante il metodo COMET, l’attività di legame al DNA aumenta in seguito all’irraggiamento nei soggetti giovani con una cinetica molto veloce con un massimo dopo 1 ora dall’irraggiamento seguita da una diminuzione a tempi successivi, nei soggetti anziani, i raggi X inducono una riduzione a 1 ora e un successivo aumento a 3 ore senza comunque mai superare i livelli delle cellule non trattate. Questi dati sembrerebbero dimostrare che in soggetti anziani ci possa essere un difetto nell’attivazione del complesso DNA-PK in seguito all’induzione di dsb.

Questa ipotesi è confermata dai dati ottenuti tramite immunofluorescenza. Con la determinazione dei foci nucleari in cui è presente la forma fosforilata dell’istone H2AX è possibile determinare la formazione dei foci di riparazione in seguito al trattamento con raggi X. I risultati dimostrano una diversa cinetica di riparazione tra i PBMC purificati da soggetti giovani e anziani. I dati presentati mostrano che esiste una differenza già nelle fasi iniziali di riconoscimento del danno del DNA radioindotto, poiché nonostante i PBMC dei soggetti anziani subiscano maggiori danni dal trattamento con raggi X, il numero di foci ad 1 ora è inferiore rispetto a quello presente nei soggetti giovani. Inoltre, mentre nei soggetti giovani, a 3 ore dall’irraggiamento gran parte dei foci scompare, dimostrando l’avvenuta riparazione del danno, negli anziani, allo stesso tempo dal trattamento i foci sembrano essere anche in numero maggiore rispetto a quelli visibili dopo 1 ora, suggerendo che il processo di riparazione è ancora in corso. Insieme i dati ottenuti in immunofluorescenza e in EMSA mostrano che PBMC purificati da soggetti anziani non riescono a riparare efficientemente le dsb e che questo difetto è probabilmente dovuto ad un difetto di attivazione del complesso DNA-PK tramite la sua subunità regolatoria ku. Per dimostrare se le differenze riscontrate siano attribuibili ad una differente quantità o ad una diversa distribuzione cellulare di ku 70 e ku 80, siamo andati a valutare l’espressione di queste proteine nel nucleo e nel citoplasma di PBMC irraggiati. I risultati delle Fig 9 e Fig.10 mostrano come nei PBMC di soggetti giovani e in quelli di soggetti anziani ci sia una diversa mobilizzazione e una differente espressione di ku 70 e ku 80 in risposta al trattamento con raggi X. Come si può vedere, nei soggetti giovani, l’irraggiamento induce una rapida diminuzione citoplasmatica e un conseguente aumento dell’espressione nucleare di ku 70 e ku 80, mentre nei soggetti anziani questo fenomeno è visibile solo dopo 3 ore dal trattamento solo per ku 80. Questi risultati inducono a ipotizzare, soprattutto per ku 80 la cui mobilizzazione è più evidente, che la proteina presente nel citoplasma funga da deposito e che in seguito alla formazione di dsb possa in caso di necessità traslocare nel nucleo. Nei PBMC purificati da soggetti anziani, questa traslocazione sembra avvenire più lentamente, questo difetto di traslocazione avrebbe come conseguenza la riduzione della proteina nucleare, la diminuzione dell’attività di legame dell’eterodimero ku 70/80, ma non spiegherebbe il ridotto numero di foci di γ-H2AX. È evidente, quindi, che i PBMC di soggetti anziani sono carenti nei meccanismi che portano ad un rapido riconoscimento e ad una efficiente riparazione delle dsb.

Recenti osservazioni (60, 61) hanno anche mostrato un ruolo della DNAPK nell’apoptosi. Il blocco del ciclo cellulare indotto dal danno del DNA può risolversi nella riparazione del DNA e di conseguenza nella rimozione del blocco del ciclo, quando la riparazione è completa. Per cui la diversa quantità delle proteine componenti il complesso DNA-PK tra soggetti giovani e anziani potrebbe risultare in una differente efficienza nell’induzione dell’apoptosi in seguito alla formazione di dsb con conseguente accumulo nelle cellule di soggetti anziani di alterazioni del genoma e una maggiore probabilità di sviluppo di tumori. Resta da valutare, quindi, se il trattamento con una dose di raggi X in grado di indurre apoptosi, provochi una differenza nella percentuale di cellule apoptotiche tra soggetti giovani e anziani.