Energia dalla fusione nucleare fredda [Andrea Rossi]

andrea.rossi.pngIo ho inventato il metodo e l’apparato. Il Prof. Focardi ha avuto un ruolo fondamentale come consulente, in base ad un contratto ben definito. Mi ha dato un contributo importante in fase di sperimentazione, sia per quanto riguarda il metodo di ricerca, sia per i sistemi di sicurezza, grazie alla sua notevole esperienza, anche relativa alle reazioni Nickel-Idrogeno… Noi dobbiamo costruire impianti che mantengano le garanzie date in sede contrattuale. I clienti dovranno rispettare le istruzioni anche ai fini della sicurezza. Premesso questo, i clienti con i loro impianti saranno liberi di fare tutte le prove che vorranno, fermi restando gli impegni contrattuali. È evidente, comunque, che per consentirci di rinunciare al segreto industriale occorre che il brevetto, attualmente pending, venga concesso. Se il brevetto non verrà concesso, per ovvi motivi manterremo il segreto industriale" da una Intervista ad Andrea Rossi dell’autunno 2011.

Su Wikipedia si trovano le seguenti informazioni: Andrea Rossi è un imprenditore/inventore milanese nato nel 1950. Si è laureato con Geymonat in filosofia della scienza nel 1973 discutendo una tesi sulla relatività di Einstein e sui collegamenti con la fenomenologia di Husserl. Si è poi laureato in ingegneria chimica negli Stati Uniti diventando un imprenditore del settore. Si è occupato del problema di come trarre combustibile dai rifiuti, ma all’inizio degli anni 90 è stato accusato per sversamento di sostanze tossiche e per frode fiscale; quindi fu imprigionato. Successivamente rilasciato e scagionato, Rossi emigrò negli Stati Uniti. I suoi impianti, per trarre combustibile dai rifiuti, non arrivarono comunque mai a generare l’energia attesa anche se, secondo Rossi, che pur ammette di aver commesso degli errori, questo è stato in gran parte dovuto al fatto che, a causa della carcerazione, gli fu impedito di gestire ed indirizzare le sue aziende (Petroldragon e Omar) di ricerca, sperimentazione e attuazione.

I nuclei atomici degli elementi elementari intermedi hanno una energia di legame inferiore a quella che hanno gli elementi con numero atomico alto o basso. Nella fissione nucleare (Fermi) si passa da elementi di numero atomico elevato (es. uranio) ad elementi con numero atomico più basso, liberando energia di legame. Nella fusione nucleare si passa da elementi a numero atomico basso (es. idrogeno) a elementi con numero atomico più alto (es. elio) liberando, anche qui, energia di legame.

La fusione nucleare delle stelle, e quella della bomba H, avviene fondendo nuclei di idrogeno e generando nuclei di elio. Questa reazione può avvenire solo impiegando alte energie ed alte temperature (vedi i progetti Iter e Ignitor). Alla fine degli anni 80 Flashman e Pons annunciarono di aver ottenuto una fusione fredda: cioè di aver ottenuto la fusione di atomi senza la necessità di fornire in ingresso alte energie ed alte temperature. Purtroppo la fusione fredda, benché molti fisici e chimici in laboratori di tutto il mondo provarono a replicarla, non dette mai in uscita quantità di energia utilizzabili.

Tra gli altri studiosi delle reazioni nucleari a bassa energia, comunemente chiamata fusione fredda, il professor Focardi, della università di Bologna, si dedicò a lungo alle reazioni Nickel-Idrogeno senza ottenere in uscita quantità di energia apprezzabili. Ma quando Andrea Rossi si rivolse a Focardi per ulteriori ricerche, sperimentazioni, misure, sistemi di sicurezza, le cose cambiarono. Lo Energy Catalyzer di Rossi era in grado di produrre quantità di energia molte volte superiore a quella immessa nel sistema: l’unica spiegazione plausibile era che fosse avvenuta una fusione fredda tra atomi di Nickel e Idrogeno per generare atomi di rame. Per essere certi di essere in presenza di fusione nucleare, e non di una banale reazione chimica, debbono essere osservati e misurati tre fenomeni: il primo, l’energia erogata dal sistema deve essere molte volte superiore a quella in ingresso (e deve poter essere mantenuta per lungo tempo); il secondo, deve comparire un nuovo elemento (nel caso il rame) non presente all’inizio del processo; il terzo, debbono, durante il processo, essere emessi dei raggi gamma. Nel caso dello E-Cat tutti e tre i fenomeni sono stati osservati e misurati. Per quanto riguarda le radiazioni emesse le emissioni di raggi gamma possono essere facilmente schermate con il piombo, mentre in tutti gli esperimenti non è stata osservata l’emissione di neutroni che sono di gran lunga più pericolosi dei raggi gamma.

Lo Energy Catalyzer (E-Cat) è uno apparecchio straordinario per la sua semplicità. Nel cuore del sistema l’idrogeno viene fatto incontrare con il nickel e alla presenza di un "catalizzatore" mantenuto segreto da Rossi, che attende un regolare brevetto dalle autorità competenti (al momento concesso in Italia ma non in Europa e negli Stati Uniti), si tramuta in rame sprigionando elevate quantità di energia termica. All’esterno del cuore dell’apparecchio protetto da una camicia metallica, un tubo in ingresso fa entrare acqua fredda ed un tubo in uscita produce acqua calda e/o vapore. Se si collegano più E-Cat in parallelo si produce più energia termica sempre alla stessa temperatura. Se si collegano più E-Cat in serie si produce la stessa energia termica ma ad una temperatura più elevata. Attualmente è disponibile una versione domestica (sembra che siano stati piazzati circa 10.000 ordinativi) dell’energy catalyzer che consente di scaldare acqua come farebbe un grosso scaldabagno elettrico. E’ poi disponibile una piccola centrale termica, formata da vari apparecchi collegati tra loro e sistemati in un container, dimensionata per produrre sino ad 1 Mega Watt di potenza. Se lo E-Cat è in grado di generare vapore alla pressione e alla temperatura necessaria non dovrebbe esserci difficoltà per generare energia elettrica (Pare che Rossi stia lavorando con la tedesca Siemens a un sistema in grado di generare 45 Megawatt di energia termica o in alternativa a 19 Megawatt di energia elettrica), ma sicuramente si avrebbe un salto di qualità se si riuscisse a produrre direttamente energia elettrica senza consueto il passaggio turbine a vapore – alternatori.

La Leonardo Corporation azienda Usa, di cui Andrea Rossi è il CEO, intende porre sul mercato lo Energy Catalyzer ad un prezzo compreso tra 1000 e 1500 dollari per una potenza erogabile compresa tra i 10 e i 20 Kilo Watts che è la potenza necessaria a riscaldare e/o condizionare una abitazione di medie dimensioni. Il costo per il "carburante" utilizzato è stimato intorno ad 1/6 di quello mediamente necessario per i sistemi di riscaldamento e condizionamento attualmente in uso.

Il mantenimento e la crescita di tutte le organizzazioni umane sono sempre state accompagnate dal problema della disponibilità di energia (per produrre cibo, per i trasporti, per il riscaldamento per l’illuminazione, per l’industria, per i servizi e per l’informazione): dagli animali e gli schiavi al mulino ad acqua; dalle macchine a vapore al motore a scoppio, dalla energia elettrica al petrolio, dall’energia nucleare alle fonti rinnovabili. Oggi le fonti primarie possibili di energia sono sostanzialmente di tre tipi: fossile, nucleare, rinnovabili e tutte e tre debbono essere valutate dal punto di vista delle "tre e", energy, economy, environment (energia, economia, e ambiente). Le energie fossili (principalmente petrolio gas e carbone) sono quelle oggi più utilizzate, coprono infatti oltre lo 80% dei consumi mondiali. I combustibili fossili sono un riferimento per i prezzi, ma hanno il difetto di essere a termine (chi parla di 30 anni chi di 50, chi di 70) e di incrementare, a causa delle emissioni di CO2, il riscaldamento globale. L’energia nucleare (fissione) è disponibile in grande quantità. Nel mondo le riserve di uranio sono cospicue inoltre possono essere utilizzati altri combustibili come il torio, che secondo Rubbia ed altri scienziati sarebbero anche più sicure. Essa è competitiva da un punto di vista economico con le energie fossili e non contribuisce al global warming, ma ha il difetto (secondo alcuni) di essere insicura (Cernobyl, Fukushima) e di non aver risolto il problema di come custodire le scorie radioattive. Le energie rinnovabili non producono CO2 né scorie radioattive, ma sono contestate da un punto di vista ambientale (terreni sottratti alla agricoltura dai pannelli solari ed antiestetiche pale eoliche sulle colline) e, quello che è più importante, sono intermittenti (dipendono dalla presenza di vento e sole), sono di entità marginali (si confonde spesso la potenza installata con l’energia effettivamente erogata) e molto più costose dei combustibili fossili (esse, economicamente sopravvivono solo grazie ai generosi incentivi dei governi, che poi si rifanno in bolletta con i cittadini); si spera, che la ricerca scientifica e tecnologica porti i necessari e auspicabili miglioramenti nei prossimi anni.

Energy Catalyzer, se le ultime perplessità venissero dissipate, porterebbe per tutti (organizzazioni e famiglie) energia pulita e a buon mercato. La prudenza è sempre d’obbligo, ma non si capisce perché in Italia le principali testate giornalistiche non dedichino un piccolo trafiletto nelle pagine interne e perché le reti televisive nazionali (con eccezione di un Tg2 del 30 ottobre 2011 e una puntata di Voyager del 19 Marzo 2012) non citino, neanche dopo i risultati del calcio, le sperimentazioni in corso. Per la verità non si comprende neanche perché i grandi gruppi nazionali, potenzialmente interessati a far luce sugli eventi (ad esempio Eni, Enel, Enea e Fiat), abbiano sino ad ora mostrato interesse scarso o nullo per queste ricerche. Spiace constatare, ancora una volta, che solo su Internet, e principalmente da siti e comunità scientifiche estere, questi argomenti vengano seriamente e ampiamente considerati e dibattuti. Il numero di coloro che credono nel futuro delle reazioni nucleari a bassa energia (LENR: Low Energy Nuclear Reactions) è in continua crescita e già oggi comprende: politici statunitensi (tra cui il repubblicano Mitt Romney), membri del dipartimento dell’energia (DOE), gli scienziati della NASA, La Shell, professori delle maggiori università tra cui MIT, ricercatori coinvolti in programmi militari, scienziati indipendenti, premi Nobel e persino la Skeptics Society svedese. Secondo le ultime notizie le versioni commerciali dello E-Cat dovrebbero essere disponibili a partire dall’inverno 2012. Le fabbriche saranno situate negli Stati Uniti e in Svezia. Sarebbe auspicabile che, se si passerà alle versioni commerciali, anche in Italia vi sia un azienda in grado di produrre E-Cat. Non vorremo che il caso di un grande inventore/imprenditore italiano (Marconi) dovesse ripetersi, costringendo Andrea Rossi a lavorare solo all’estero.

Turn of the 90s – gioco

turn90-0.pngScopo del gioco è tracciare un loop, ovvero un percorso che richiude su se stesso, senza mai compiere una svolta di 90 gradi.

REGOLE:
1. Tutte le caselle bianche devono essere attraversate dal percorso, mentre le caselle colorate non possono esserne attraversate.
2. Il percorso si muove congiungendo il centro di una casella con il centro di una delle otto caselle circostanti. 3. Durante il percorso, non bisogna mai effettuare una svolta a 90 gradi.

turn90-1.pngturn90-2.png 

 Gioco semplice

turn90-3.png 

Gioco difficile

turn90-4.png


ico-pdf.pngScarica il gioco in PDF

ico-pdf.pngScarica le soluzioni PDF

167. I teoremi inversi di Pitagora e di Euclide, alcuni aspetti storici, epistemologici e didattici

pitagora3.jpgCome è stato rilevato da più parti il teorema inverso di Pitagora e la sua dimostrazione sono scomparsi dai libri di testo senza alcuna ragione. Avendo accertato un analogo fenomeno nei riguardi dei teoremi di Euclide, svolgiamo alcune considerazioni storico/epistemologiche e proponiamo alcune semplici dimostrazioni dei suddetti teoremi inversi. In this paper, after some historical and epistemological remarks, we present some proofs of the inverse theorem of Pitagora and Euclide.

Scairca l’articolo completo in pdf

ico-pdf.png167.I teoremi inversi di Pitagora e di Euclide, alcuni aspetti storici, epistemologici e didattici di Nicola Carichino [I.I.S. “F. Bottazzi” – Casarano (LE)]

Miner

miner80.pngLo scopo del gioco è tracciare sulla mappa della miniera un percorso che entri ed esca dalle caselle indicate con due frecce.

REGOLE:

1) Il percorso si muove solo orizzontalmente e verticalmente. Le caselle numerate non devono essere attraversate, mentre le caselle col diamante devono essere attraversate tutte.

2) Le caselle numerate indicano QUANTE delle otto caselle circostanti devono essere attraversate dal percorso.

3) All’interno della miniera nessuna area di 2×2 caselle deve essere interamente attraversata dal percorso. Ovvero, tutte le aree di 2×2 caselle possono avere al massimo 3 caselle interessate dal percorso.

miner.png

Scarica il quesito nel formato PDF

Vedi la soluzione

Il foglio elettronico per rappresentare e risolvere problemi [Bob Frankston]

bob.frankston.png"Poche persone sono in grado, o vogliono sostenere lo sforzo, di scrivere programmi in BASIC (o in PASCAL) dedicati a semplici applicazioni; del resto i packages pronti e confezionati sono complessi e specialistici: è un letto di Procuste a cui gli utenti finali, cioè coloro che debbono risolvere i problemi più svariati, debbono confrontarsi. Naturalmente non si dice questo per sostenere che non si può fare un uso efficace del personal computer. Tutti possono constatare il successo dei primi calcolatori tascabili, uno strumento utile, flessibile e semplice da usare: noi vogliamo catturare la semplicità e la familiarità delle calcolatrici tascabili e trasferirle in un personal computer. Abbiamo osservato che la maggior parte delle persone per risolvere i loro problemi utilizza una calcolatrice tascabile assieme ad un foglio di carta ed una matita su cui annotano parametri e risultati intermedi. Abbiamo quindi pensato che una calcolatrice abbinata ad un video tabellare potesse essere un potente strumento di problem solving: questa è stata la premessa per lo sviluppo di VisiCalc…

Un limite delle calcolatrici tascabile, più foglio di carta e matita, è l’impossibilita di modificare /cancellare dati e ricalcolare i risultati. Molte sono le persone e le piccole imprese che si son trovate con questi strumenti (calcolatrice, foglio e matita) a risolvere i problemi più svariati: calcolo delle imposte, contabilità clienti e fornitori, previsioni delle vendite, budget annuale, ecc. ottenendo solo risultati parziali e insoddisfacenti a causa dell’impossibilità di correggere rapidamente gli errori e di ricalcolare velocemente i risultati al variare dei parametri d’ingresso. Come sarebbe stato bello se la calcolatrice ed il foglio di carta avessero potuto lavorare insieme in modo tale che, quando si cambia un dato d’ingresso sulla carta, i risultati fossero aggiornati automaticamente".
Bob Frankston (nato nel1949). "VisiCalc: The Visible Calculator", National Computer Conference, U.S.A. 1979. 

Nel 1978 a Cambridge, Massachussets, Robert Frankston e Dan Bricklin considerarono la possibilità di utilizzare, per lo studio e l’analisi di problemi finanziari, un software più veloce e versatile di quelli tradizionalmente disponibili. L’anno precedente era comparso sul mercato americano l’Apple I, il primo microcomputer venduto completamente montato, controllato e garantito dal produttore. Steve Wozniak e Steve Jobs, i fondatori della Apple, presentarono poco dopo l’Apple II, offrendo ad un utente non provvisto di conoscenze tecniche specifiche la possibilità di utilizzare un microcomputer. L’Apple II infatti veniva venduto completamente montato, corredato di alcuni programmi di base e con la possibilità di collegare in modo semplice varie periferiche, come stampanti, lettori di dischi, modem per collegamenti telefonici, ecc.

In questa situazione di mercato, alla fine del 1978 Frankston e Bricklin fondarono la Software Arts e produssero VISICALC, il primo programma di gestione di fogli elettronici. L’accoppiata Apple II / VISICALC divenne trainante per il mercato dei microcomputer: la macchina era facile da usare, ad un prezzo accessibile, il programma rispondeva alle esigenze di manager e professionisti fornendo uno strumento veloce, semplice e versatile per risolvere problemi finanziari, gestionali e matematici. (Polillo, Reina, "Il software sulla scrivania", Mondadori, 1985).

L’idea che sta alla base del foglio elettronico è, a dir poco, geniale per la sua capacità di rappresentare i problemi in modo semplice e naturale per la mente umana. Prima dell’invenzione dei fogli elettronici qualunque professionista operante in una organizzazione (nella ricerca, nel marketing, negli approvvigionamenti, nella logistica, nella produzione, nelle vendite, nell’assistenza ai clienti, nelle risorse umane, nell’amministrazione, nella pianificazione, nel controllo di gestione, etc.) che avesse voluto impostare e risolvere un problema su computer doveva, nella maggioranza dei casi, avvalersi (vedi Perotto) di un intermediario: l’analista programmatore esperto di uno o più linguaggi (Assembler, Fortran, Cobol, Basic, Pascal, C, Html, ecc.) comprensibili dal computer. Con l’avvento dei fogli elettronici molti problemi reali e concreti degli utenti e dei professionals potevano venir risolti da loro stessi senza l’intervento di intermediari specializzati nella programmazione dei computer.

Il foglio elettronico è costruito su una matrice, griglia o tabella bi-dimensionale, organizzata in righe e colonne (lo spazio bi-dimensionale è quello preferito dagli umani per impostare e risolvere i problemi; un non matematico ha difficoltà a gestire più di due indici nelle sommatorie, nel calcolo matriciale etc.). All’incrocio di ciascuna riga (1, 2, 3, …) e colonna (A,B,C, D, …) viene individuata una cella (A1, A2, … B1, B2, …) un pò come nella battaglia navale (vedi figura). Le celle possono contenere: un testo scritto, un numero, il risultato di un calcolo impostato nella cella stessa, ma anche il risultato di un calcolo impostato nella cella facendo riferimento (punto di forza delle tabelle elettroniche nel problem setting/solving) a valori di qualunque altra cella della tabella. Questi fogli (spread sheet) sono particolarmente adatti a sviluppare preventivi, budget mensilizzati, flussi di cassi, calcoli di convenienza degli investimenti (internal rate of return e net present value), analisi del punto di pareggio (break even point), consuntivi e controllo costi, conti economici, controllo dei disegni (document progress register), controllo degli approvvigionamenti (material status report), rapporti di produzione (production report), fogli dati e calcoli tecnici, ecc.. Nei moderni fogli di calcolo tutti questi prospetti possono essere visti da prospettive diverse (Pivot tables) e possono essere totalizzati nel modo ritenuto migliore (Summarize). In questo ambiente di lavoro è estremamente facile esaminare come i risultati di un foglio variano al variare di una o più celle di input (What if analysis) oppure come si devono modificare i dati di input per ottenere i risultati desiderati (What to do to achieve analysis).

I fogli elettronici di ultima generazione (Chiappi, "Il foglio elettronico come strumento di Problem Solving", Angeli 2008) sono strumenti integrati con sistemi di scrittura, gestione dei dati, grafica gestionale e anche programmazione in Visual Basic essi inoltre sono dotati di add-ins che permettono di sviluppare sistemi di supporto alle decisioni ricorrendo a: Strutture gerarchiche (Cartesio), Programmazione matematica (Dantzig), Simulazione (Von Neumann, Forrester), Regressione e Correlazione (Gauss), Convenienza Economica (Schumpeter), Gestione progetti (Gantt, Roy), Decisioni, Rischio e probabilità (de Finetti, Kahneman), ecc.

A partire dalla estate/autunno 2012 si pensa di pubblicare su matematicamente.it una serie di problemi esemplificativi, e successivamente le rispettive soluzioni afferenti le organizzazioni, che possono essere affrontati e risolti con l’aiuto del foglio elettronico (vedi su questo sito la recensione di A. Bernardo al libro di Chiappi del 2008 e l’ articolo sul N° 14, 2011 del magazine di matematicamente:149 Tecniche di project management, problem solving e decision making: problemi e soluzioni di Roberto Chiappi ). Alcune delle metodologie, che saranno suggerite per affrontare i problemi, contengono uno o più aspetti innovativi. Le problematiche discusse toccheranno, orientativamente, i seguenti argomenti:

1) Mensilizzazioni,
2) Pesi della Work Breakdown Structure,
3) Decisioni Multicriteri,
4) Alberi delle decisioni,
5) Curve ad S e Proiezioni a finire,
6) Revised Earned Value Method,
7) Tecniche reticolari con il Foglio Elettronico,
8) Matrici Impatto/Probabilità,
9) Profilo del Rischio,
10) Goal Programming,
11) Paradossi decisionali,
12) Prospect Theory,
13) Cross Impact Analysis,
14) Sistemi Dinamici.

Spreadsheet: un semplice e potente strumento di problem solving

spreadsheet.png

Le celle della tabella possono contenere:

1) descrizioni e testi;
2) valori umerici;
3) formule e funzioni riferite ad altre celle.

Sui dati di una tabella possono essere applicati:

1) metodi statistici e probabilistici;
2) metodi di ottimizzazione e ricerca operativa;
3) business graphics e tabelle pivot.

Belle figure con il cubo di Rubik

rubik.jpgIn questo articolo troverete alcune “Belle Figure”, cioè figure regolari, che è possibile rappresentare con il cubo di Rubik. Ovviamente potrete vedere solo un minuscolo numero di rappresentazioni regolari, visto che le rappresentazioni possibili sono oltre 43 miliardi di miliardi ed è ovvio che una ricerca sistematica è impossibile. I più coraggiosi riusciranno a trovare molte altre figure ma si accorgeranno che tantissime sono intimamente legate le une alle altre in modo spesso insospettabile.

Leggi tutto l’articolo in formato pdf

ico-pdf.png Veriano Veracini, Belle figure con il cubo di Rubik, aprile 2012

Il N. 16 completo di Matematicamente.it Magazine

numbered_logs-tricky.jpg159. Bonicatto, Leoni, Lussardi, Matematica tra le pieghe – 160 G. Lucca, I cerchi di Fibonacci ed uno sviluppo in serie per il numero pigreco – 161. A. Zucco, Intersezione di insiemi convessi: il teorema di Helly. 162. Michele T. Mazzucato, Determinazione approssimata delle coordinate geografiche terrestri – 163. Bruno Sanchini, Alcune funzioni di segmenti – 164. Stefano Borgogni, Numeri figurati – 165. Gabriella D’Agostino e Antonio Guglielmi, Considerazioni sulla valutazione di un interest rate swap – 166. Daniela Molinari, Lo scaffale dei libri: “L’uomo che vide l’infinito", “Le menzogne di Ulisse".


ico-pdf.pngMatematicamente.it Magazine n. 16 dicembre 2011


L’Universo dei numeri i numeri dell’Universo di Felice Russo

f.russo-universo_numeri.pngIn 44 capitoli, Felice Russo ci “fa scoprire la magia della matematica” e “ci trasmette anche la gioia di pensare, immaginare e ragionare” (dalla presentazione di Viktor F. Zacek). Lo scopo del libro è quello di mostrarci come la matematica sia presente ovunque nell’universo. Ogni capitolo è un piccolo saggio, perciò chi legge il libro può scegliere un ordine personale, lasciandosi guidare unicamente dai propri gusti. Gli argomenti toccati sono i più vari e il libro è consigliato sia a chi dice che “la matematica non serve a nulla”, sia a chi ha già una passione per la materia.

L’autore comincia il suo viaggio nel mondo della matematica con i numeri primi, le cui proprietà hanno affascinato i matematici fin dall’antichità. I numeri primi sono gli “atomi del mondo matematico” e trovano applicazione non solo nel campo della crittografia, come dimostra l’algoritmo RSA, ma anche in natura, come per i cicli di vita di 13 e 17 anni di due diverse specie di cicale. Interessanti le curiosità che riguardano i numeri primi circolari e le piramidi di numeri primi palindromi, mentre una piramide particolare, il triangolo di Pascal, mostra una grande ricchezza di caratteristiche, dalla simmetria alla sequenza dei numeri triangolari, dai coefficienti dello sviluppo della potenza di un binomio ai numeri di Fibonacci. La matematica ha a che vedere anche con l’arte, come dimostrano i frattali e la polynomiography di Kalantari che ci permette, attraverso l’approssimazione delle soluzioni delle equazioni algebriche, di creare disegni.

I numeri di Fibonacci vengono ripresi in tutta la loro ricchezza, sia per le proprietà che li caratterizzano, sia per il loro legame con la sezione aurea, con la tassellatura di Penrose, con la legge di Benford e con la stella variabile UW Herculis. “I matematici sono conosciuti per la loro creatività e la loro abilità nel dare un senso a qualsiasi fenomeno naturale usando i numeri”: un superbo esempio di tale affermazione è offerto dalla teoria dei nodi, una branca della topologia che studia le curve chiuse intrecciate nello spazio a tre dimensioni, utilissima per capire come grandi molecole si intreccino una con l’altra. La matematica mostra la sua grande potenzialità anche nelle numerose applicazioni che oggi utilizziamo quotidianamente, come il motore di ricerca Google, inventato da due studenti dell’Università di Stanford che hanno sviluppato un algoritmo innovativo, oppure il GPS, che usa la teoria dei grafi per indicarci la strada più breve per raggiungere le nostre mete, oppure ancora il filtro che può diminuire l’incidenza dello spam, attraverso la formula di Bayes.

Grazie alla matematica, troviamo collegamenti anche tra ambiti apparentemente lontani: come il metabolismo e internet, con una architettura di rete simile, oppure tra internet e i terremoti, entrambi sistemi complessi ma non solo, visto che mappando gli eventi sismici tramite un grafo si è trovata una rete simile a quella di internet. Anche gli attacchi epilettici possono avere delle affinità con i terremoti e interessante è l’opportunità che ne scaturisce: “usare le leggi di un fenomeno per risolvere i misteri di un altro”.

Il libro si conclude con un’ultima incursione nel mondo della natura: dal volo degli insetti ai motivi della natura, che si ripropongono sia nelle strisce delle zebre che nel mondo auto-organizzato delle formiche, fino ad arrivare alla superformula della natura, che ha permesso al botanico belga Johan Gielis, nel 2003, di descrivere molte figure geometriche presenti in natura, semplicemente variando alcuni parametri caratteristici.

Daniela Molinari

La scissione corpo-mente e l’errore di Cartesio [A. R. Damasio]

ar.damasio.pngAntonio Damasio, neuroscienziato portoghese nato nel 1944, ha scritto nel 1994 l’ormai classico "L’errore di Cartesio". In questo breve articolo si riporta una citazione che Damasio fa, traendola dai Discorsi sul metodo di Cartesio e lasciando poi il resto del testo a brani tratti dal suo libro pubblicato in Italia da Adelphi nel 1995 e da una interevista del 2011.

"E notando che questa verità: io penso dunque sono, era così solida e sicura che tutte le più stravaganti supposizioni degli scettici non erano capaci di scuoterla, giudicai di poterla accogliere senza scrupolo come il primo principio della filosofia che cercavo… Pervenni in tal modo a conoscere che io ero una sostanza, la cui intera essenza o natura consiste nel pensare, e che per esistere non ha bisogno di alcun luogo né dipende da alcuna cosa materiale. Di guisa che questo io, cioè l’anima, per opera della quale io sono quel che sono, è interamente distinta dal corpo, ed è anzi più facile a conoscere di questo; e anche se questo non fosse affatto, essa non cesserebbe di essere tutto quello che è." (Cartesio, Discorsi sul metodo).

"Eccolo, l’errore di Cartesio: ecco l’abissale separazione tra corpo e mente – tra la materia del corpo, dotata di dimensioni, mossa meccanicamente, infinitamente divisibile, da un lato, e la stoffa della mente, non misurabile, priva di dimensioni, non attivabile con un comando meccanico, non divisibile; ecco il suggerimento che il giudizio morale e il ragionamento e la sofferenza che viene dal dolore fisico o da turbamento emotivo possono esistere separati dal corpo. In particolare: la separazione delle più elaborate attività della mente dalla struttura e dal funzionamento di un organismo biologico… L’idea cartesiana di una mente scissa dal corpo può essere stata, attorno alla metà del ventesimo secolo, l’origine della metafora della mente come programma di software.

Infatti se la mente può essere separata dal corpo, forse si può tentare di comprenderla senza alcun ricorso alla neurobiologia, senza che occorra lasciarsi influenzare da conoscenze di neuroanatomia, di neurofisiologia, neurochimica.

Ed è interessante notare questo paradosso: molti scienziati cognitivisti, convinti di poter indagare la mente senza rifarsi alla neurobiologia, non si considererebbero dualisti. Può esservi qualche venatura cartesiana di separatezza dal corpo anche dietro il pensiero di quei neuroscienziati i quali sostengono che è possibile dare piena spiegazione delle menti solo in termini di eventi cerebrali, lasciando ai margini il resto dell’organismo e l’ambiente fisico e sociale che lo circonda…

Io respingo questa limitazione, non perché la mente non sia correlata in via diretta con l’attività del cervello (è evidente che lo è), quanto perché la formulazione restrittiva è incompleta senza che vi sia la necessità e insoddisfacente dal punto di vista umano: dire che la mente viene dal cervello è affermazione irrefutabile, ma io credo che sia meglio precisarla, e considerare le ragioni per le quali i neuroni del cervello si comportano in modo così meditato: è questa, a mio parere la questione critica…

ar.damasio2.png 

La scissione cartesiana permea sia la ricerca sia la pratica medica; con il risultato che le conseguenze psicologiche delle malattie del corpo in senso stretto (le cosiddette "vere" malattie) di solito vengono trascurate, e prese in considerazione, semmai, in un secondo momento. Ancora più trascurati sono i fenomeni inversi, cioè gli effetti somatici di conflitti psicologici.

E’ suggestivo pensare che Cartesio contribuì a modificare il corso della medicina, a far si che essa deviasse dall’orientamento organico, o meglio organismico (la mente è nel corpo), che era prevalso dai tempi di Ippocrate fino al Rinascimento.

Quanto sarebbe stato infastidito da Cartesio, Aristotele se lo avesse conosciuto… Una piena comprensione della mente umana richiede una prospettiva integrata: la mente non solo deve muovere da un "cogito" non fisico al regno dei tessuti biologici, ma deve anche essere correlata con un organismo intero, in possesso di un cervello e di un corpo integrati e in piena interazione con un ambiente fisico e sociale."

"L’ipotesi del marcatore somatico: … si immagini che, prima di applicare un qualsiasi tipo di analisi costi/benefici e prima di cominciare a ragionare verso la soluzione del problema, accada qualcosa di molto importante: quando viene alla mente, sia pure a lampi, l’esito negativo connesso con una determinata opzione di risposta, si avverte una sensazione spiacevole alla bocca dello stomaco.

Dato che ciò riguarda il corpo ho definito il fenomeno con il termine tecnico di stato somatico; e dato che esso contrassegna un immagine, l’ho chiamato marcatore… Che cosa fa il marcatore somatico? esso forza l’attenzione sull’esito negativo al quale può condurre una data azione e agisce come un segnale automatico di allarme che dice: attenzione al pericolo che ti attende se scegli l’opzione che conduce a tale esito. Il segnale può farvi abbandonare immediatamente il corso negativo d’azione e così portarvi a scegliere fra alternative che lo escludono: vi protegge da perdite future, senza ulteriori fastidi e in tal modo vi permette di scegliere entro un numero minore di alternative.

E’ ancora possibile impiegare l’analisi costi/benefici e l’appropriata competenza deduttiva, ma solo dopo che il passo automatizzato ha ridotto drasticamente il numero di opzioni…

Quando un marcatore somatico negativo è giustapposto a un particolare esito futuro, la combinazione funziona come un campanello d’allarme; quando invece interviene un marcatore positivo esso diviene un segnalatore d’incentivi…

Dovrebbe risultare così evidente l’associazione tra processi cosiddetti cognitivi e processi chiamati emotivi (vedi Kahneman)."

Tratto da: Damasio, L’errore di Cartesio.

Sulla rivista Psicologia Contemporanea del Lug-Ago 2011 compare una intervista (La coscienza è nata dalle emozioni) ad Antonio Damasio che tra l’altro scrive:

"… Certo la corteccia cerebrale ci conferisce l’aspetto più specificatamente umano del nostro comportamento permettendoci di tracciare mappe neurali dettagliate, con possibilità di memoria, di ragionamento e di linguaggio. ma tutto questo funziona solo perché in una parte molto più arcaica del cervello, il tronco cerebrale, c’è la possibilità di fare esattamente le stesse cose, ma ad un livello più semplice… Non possiamo essere coscienti senza una reazione emotiva a oggetti, situazioni ed eventi esterni al cervello, sia nel nostro corpo che fuori. e l’emozione comincia nel tronco cerebrale, che è in dialogo permanente con la corteccia. non dico che la coscienza sia basata nel tronco cerebrale, sarebbe ridicolo. Ma è li che si forma il suo primo abbozzo, mentre la corteccia ne assicura la piena fioritura. In un sistema del genere, l’emozione e il sentimento hanno realmente una primogenitura ai fini della coscienza… 

L’idea che sostengo è che la morale, la giustizia, la medicina, le arti, la tecnologia esistano solo per regolare in maniera più convincente la nostra vita. Non è per caso che esista la morale, ma perché il bisogno di armonizzare la vita in società evita eccessi pregiudizievoli alla sopravvivenza (vedi Dawkins).

Compassione, senso di colpa, ammirazione, vergogna sono tutti sentimenti che hanno dei precursori negli animali, benché privi di linguaggio e di storia…

La società va più in fretta della scienza. E’ un vecchio problema, che si ripropone periodicamente anche nel campo della sanità, ad esempio con l’impiego della lobotomia prefrontale… La giustizia deve seguire i progressi delle neuroscienze, che a loro volta non devono trascurare questo tipo di problemi."

L’errore di Cartesio è stato quello di non capire che la natura ha costruito l’apparato della razionalità non solo al di sopra di quello della regolazione biologica, ma anche a partire da esso e al suo stesso interno.

Il processo decisionale (ad esempio quello di compiere una scelta tra due o più alternative), secondo Damasio, è spesso ben lontano da quello di un’analisi che consideri minuziosamente i pro e i contro di ciascuna scelta. Il più delle volte, in special modo quando abbiamo a che fare con problemi complessi, dai molteplici risvolti personali e sociali, siamo portato ad utilizzare una strategia diversa che fa riferimento agli esiti di passate esperienze, nelle quali riconosciamo una qualche analogia con la situazione presente.

Dette esperienze hanno lasciato delle tracce, non necessariamente coscienti, che richiamano in noi emozioni e sentimenti, con connotazioni negative o positive. Damasio chiama queste tracce marcatori somatici: somatici perché riguardano i vissuti corporei, sia a livello viscerale a che quello non viscerale; il termine marcatore deriva invece dall’idea che il particolare stato corporeo richiamato costituisce una sorta di "contrassegno", o etichetta.

In tale processo, la scelta è quindi condizionata dalle risposte somatiche emotive, avvertite a livello soggettivo, che vengono utilizzate, non necessariamente in maniera consapevole, come indicatori della bontà o meno di una certa prospettiva: i sentimenti somatici normalmente accompagnano le nostre aspettative del possibile esito delle varie opzioni di una decisione da prendere; in altre parole, i sentimenti fanno parte in qualche modo del contrassegno posto sulle varie opzioni; in tal modo i marcatori somatici ci servono come strumento automatico che facilita il compito di selezionare opzioni vantaggiose dal punto di vista biologico.

Lo stretto legame esistente tra l’apparato della razionalità – e quindi della capacità di decidere – e quello posto alla base delle emozioni e dei sentimenti, viene confermato, secondo Damasio, anche dalla pratica neurologica. Egli ci riporta il caso di pazienti con danni nella regione prefrontale che sembravano aver perduto le capacità di provare alcune delle più comuni emozioni connesse al vivere sociale. Negli stessi pazienti, pur rimanendo integre le altre facoltà cognitive superiori (attenzione, memoria, intelligenza), l’assenza di emozioni si accompagna quasi di regola all’incapacità di decidere in situazioni che riguardano i propri interessi o quelli degli altri.

Tratto da: http://www.ildiogene.it/EncyPages/Ency=Damasio.html

Il modello delle 7 S [Tom Peters]

tom.peters.pngIl modello delle 7 S. 1) Sistemi: processi che costituiscono la vita delle organizzazioni. 2) Struttura: organigrammi e documenti che regolano l’organizzazione. 3) Strategia: politiche e azioni per ottenere un vantaggio competitivo. 4) Staff: l’insieme di tutte le risorse umane dell’organizzazione. 5) Skills: l’insieme delle conoscenze, esperienze e competenze. 6) Sistema valori: miti, riti e valori condivisi dalle persone più influenti. 7) Stile: comportamenti dei dirigenti e dei quadri; tipo di leadership. Tom Peters, Alla ricerca dell’eccellenza (1982).

"Caratteristiche delle aziende eccellenti:
1) preferenza per l’azione,
2) orientamento al cliente,
3) autonomia e imprenditorialità,
4) produttività attraverso le persone,
5) enfasi sui valori chiave,
6) attenersi a ciò che si sa fare,
7) struttura semplice, staff ridotto,
8) valori rigidi (centralizzati/condivisi), ma flessibili (delega/autonomia)."

Alla ricerca dell’eccellenza.

Nel 1982 Tom Peters e Robert Watermann con il loro libro In "Search of Excellence: Lessons from America’s Best-Run Companies" hanno descritto il modello delle 7 S che per almeno 15 o 20 anni è stato proposto dalla McKinsey e imitato, con varianti più o meno rilevanti, dalle altre principali società di consulenza manageriale, come guida per comprendere e possibilmente risolvere i problemi delle organizzazioni.

Quando nascono dei problemi, gli americani e la gran parte degli europei, tendono ad agire sulle cosiddette "S hard" vale a dire "Strategy, Structure, Systems", cioè sui programmi, sulla struttura organizzativa, sul sistema premiante, su quello informativo etc. in una parola sulla parte maggiormente tangibile della organizzazione (piani, organigrammi, procedure). Tuttavia, come ritenuto in Giappone e nei paesi nord europei, può darsi che la serie più importante di "S" sia la seconda, costituita dalle cosiddette "S soft: Staff, Skills, Shared Values, Style" che permettono di modellare e indirizzare la cultura dell’organizzazione.

Il modello delle 7 S può avere una rilevanza operativa semplice ed immediata nella risoluzione di problemi. Ad esempio nel Project management il test delle 7 S, utilizzato come processo diagnostico, definisce dapprima la Strategia ed individua gli Skills necessari alla sua realizzazione, quindi determina in che misura le 5 S rimanenti concorrono a soddisfare le esigenze del progetto. In particolare nelle 4 S soft sono compresi aspetti quali il lavoro di gruppo, le conoscenze e le competenze del team, lo stile di ledership, la gestione dei conflitti e le capacità negoziali, la comunicazione e l’interdisciplinarietà che sono aspetti della cultura di gruppo determinanti per il problem solving e per il successo dei progetti, in particolare quelli d’innovazione o di cambiamento.

Cinque anni dopo la pubblicazione di "Alla ricerca dell’eccellenza" due terzi delle aziende migliori avevano attraversato difficoltà di vario genere. Soltanto quattordici avevano potuto essere classificate come ancora eccellenti sulla base dei criteri iniziali. Peters e Waterman giunsero alla conclusione che nell’ambiente caotico attuale nulla rimane invariato per un tempo sufficientemente lungo. In particolare Peters fu influenzato dal libro di James Gleik intitolato Chaos (vedi anche Poincaré): "Si tratta di materiale importante, una branca totalmente nuova della matematica. E’ come se fosse stata reinventata l’analisi. Il libro ha molto da dire in merito all’imprevedibilità intrinseca delle cose e sul perché ciò in cui abbiamo riposto una grande fede non funziona. Esso ha anche parecchio da dire sull’andamento dei mercati azionari".

Peters sostenne che era necessario ridefinire l’eccellenza. Le aziende eccellenti venivano ora definite come quelle che credevano solo in un costante miglioramento e nella necessità di un continuo cambiamento. Un concetto chiave in Thriving on Chaos (Prosperare sul Caos titolo che ha lasciato una forte impronta su molti guru del management a partire dalla fine degli anni 80) è la necessità di passare da una piramide gerarchica verticale del management a una struttura orizzontale (flat organization), veloce, multifunzionale e improntata alla collaborazione.

Peters approntò 45 suggerimenti generali per i mangers e i professionals che dovevano affrontare i problemi delle organizzazioni in cui operavano; nel seguito se ne elencano i più significativi:

1) introducete una cultura della qualità,
2) coltivate il culto del servizio,
3) siate in perfetta sintonia con il cliente,
4) prestate ascolto al personale, agli utenti finali, ai fornitori, ai rivenditori,
5) eccedete negli investimenti in risorse umane,
6) elaborate una strategia d’innovazione,
7) sostituite alle proposte progetti pilota e prototipi,
8) ignorate il ‘Not invented here’ e stuzzicate il confronto e la creatività,
9) fate ruotare l’organizzazione il più possibile intorno ai gruppi,
10) investite in capitale umano e in hardware allo stesso modo,
11) riducete drasticamente i livelli di management,
12) assegnate ai managers intermedi la funzione di facilitatori invece che quella di guardiani,
13) riducete e semplificate la carta in ufficio e le procedure burocratiche,
14) dirigete dando l’esempio personale e praticate un management trasparente,
15) elaborate sistemi semplici che incoraggino la partecipazione e la comprensione

Forse non è vero che ogni problema abbia una soluzione, ma certamente vale quasi sempre la pena cercarla anche se, una volta trovata, è molto probabile che questa generi a sua volta nuovi problemi in un processo virtuoso, ma senza fine ( vedi Popper).

Heisenberg, Goedel, Tarski, Russell ci hanno rubato le certezze del pensiero Galileiano perché il mondo caotico non è scritto solo in lingua matematica con caratteri che sono triangoli cerchi ed altre figure geometriche.
• Solo ciò che aggiunge valore merita di stare in un’organizzazione.
• Progetto è il nucleo della nuova organizzazione, il progetto è azione.
• Il progetto è sempre ad hoc.
• Il progetto è l’unica organizzazione che autoapprende.
• Bildung non Gestalt
• Nelle reti il pensiero cartesiano è insufficiente.
• Non ci sono più oggetti ma interconnessioni tra oggetti.
• Gestire le relazioni è la nuova forma di potere: bisogna ammettere che non comprendiamo il caos e non bisogna aspettarsi che le teorie del caos ce lo spieghino.
• Bisogna rassegnarsi al fatto che le previsioni a lungo termine siano quasi certamente errate.

(http://www.liuc.it/cmgenerale/centri/cerico/cm/upload/contributo_rossi1.pdf)

tom.peters2.png

Le tre "S" hard sono le più usate dagli americani per risolvere i problemi.

Le quattro "S" soft sono le più usate dai giapponesi per risolverei i problemi.

Adolescenti? Ora si matura prima, ma … in matematica non è così

vivienne_westwood-by-omnia_mutantur.jpgSei tra coloro che ‘vanno male in matematica’ o, ancor peggio, si ritengono negati? Prova a partire dal presupposto che, tranne pochissimi casi estremi, nessuno ha gravi difficoltà di comprensione della matematica: questa affermazione vale naturalmente se gli argomenti sono alla portata dello studente in relazione alla classe che sta frequentando. Per avere qualche possibilità di uscire dal tunnel, bisogna crederci, bisogna convincersi di essere una persona del tutto normale di fronte alla matematica. Bisogna anche evitare di cullarsi nella vana speranza di riuscire, in qualche modo, a ribaltare in poco tempo una situazione critica.

Ci sono alunni che chiedono lezioni private di matematica “… perché ho la prova scritta la prossima settimana…”. Dopo ulteriori (e naturali) insuccessi, si convincono maggiormente della loro incapacità.

Per un cambiamento di rotta ci vogliono almeno 6 mesi. Le difficoltà di ciascuno possono essere di tipo diverso, di livello diverso e ogni studente può aver ‘reagito’ in modo diverso: proviamo a restare tra la seconda media e la seconda superiore, la fascia dove maggiormente si creano e si sviluppano le difficoltà, con le relative convinzioni di non essere recuperabili.

L’argomento che rallenta maggiormente gli alunni tra i 12 e i 16 anni è quello del numero (ci dici poco!), in particolare del numero razionale. In questi 4 anni, specialmente coloro che cambiano spesso gli insegnanti (che non sempre sono all’altezza!), si costruiscono immagini mentali sbagliate. Capire fino in fondo che cosa sia un numero razionale o, che fa lo stesso, una frazione, ha ripercussioni fondamentali per il curriculum dello studente dopo la seconda media.

L’immagine mentale adeguata (spesso chiamata concetto) si ha soltanto se il soggetto interessato ha ben compreso l’operazione di moltiplicazione : alcuni studenti credono di averla capita, in realtà ne hanno un’idea approssimativa che si trascinano ancora per anni, faticando (per giunta) a ricordare a memoria le tabelline. In altre parole bisogna aver capito che la moltiplicazione è un’addizione ripetuta, per fare 6 x 5 devo pensare di sommare 5 volte 6 oggetti o sommare 6 volte 5 oggetti, il risultato sarà sempre 30; (per amor di sintesi tralascio qui di richiamare le proprietà).

Solo avendo ben compreso il meccanismo della moltiplicazione si può ben comprendere (se non è stato fatto bisogna provvedere) la divisione, esatta o con resto. La divisione è una ripartizione. La divisione esatta è una ripartizione senza resto. 4 euro si possono ripartire tra 5 persone, ma 4 galline (vive) no! Solo da qui posso fare il passo per costruire un’immagine mentale adeguata della frazione (e poi del numero razionale).

Nel calcolo letterale (un classico!) le difficoltà si trovano proprio perché non avete capito bene le frazioni, come si passa ( e perché) da una frazione al numero decimale corrispondente e viceversa.

Proviamo? La frazione 3/4 quanto è grande? A quale numero decimale corrisponde? e perché?

Proviamo a rispondere: secondo la definizione di frazione, il 4 indica in quante parti dobbiamo dividere l’intero (un euro è il riferimento più comodo): se ne prendiamo solo 3, ovviamente 3/4 sarà minore di 1; ogni parte corrisponde a 25 centesimi, quindi tutta la frazione corrisponde a 75 centesimi. In definitiva 3/4=75/100=0,75=0 unità+7 decimi+5 centesimi. Sembrerà banale (ma ti serve per capire bene, per farti la giusta immagine mentale del numero razionale) dal numero decimale 0,75 possiamo tornare alla frazione corrispondente: basterà semplificare 75/100 dividendo numeratore e denominatore per 25 otteniamo ancora 3/4.

Altro esempio 6/5. Se il numeratore è più grande del denominatore la frazione è maggiore di 1 (si chiama impropria, ma chi se ne frega…), infatti in questo caso corrisponde a dividere l’unità in 5 parti e prenderne 6. I sei quinti di un euro corrispondono a un euro e un quinto, vale a dire un euro e 20 cent. D’altra parte, dal numero decimale 1,20 o 1,2 si passa alla frazione 12/10 che, semplificata, mi dà ancora 6/5.

Intanto che cerchi di ricostruire la tua preparazione, comportati in classe in maniera adeguata, intelligente. Dato per scontato che la disattenzione (nei momenti importanti) è il peggiore dei mali, ci sono atteggiamenti o ‘vizi’ che possono compromettere il tuo rendimento.

Alcuni di questi riguardano la prova scritta: e dal giudizio sulla prova scritta, come si sa, l’insegnante trae la valutazione quadrimestrale. Invece di affrontarla con esagerato timore reverenziale, concentrati su una ben ponderata strategia.

Evoluzione del calendario

calendario_sobremesa_feber-by-empubli.jpgLa divisione dell’anno si riferisce all’anno tropico (che è diviso in un numero esatto di giorni e costituisce il calendario civile), e non quello sidereo. Inizialmente però non era nota la impossibilità di dividere l’anno sidereo in un numero esatto di giorni. Dapprima si misurava l’anno dalla lunghezza dell’ombra gettata a mezzogiorno da uno gnomone (cioè l’ombra di una meridiana solare). L’incertezza di questa misura fece attribuire all’anno 365 giorni giusti. E tale, appunto, era la lunghezza dell’anno ebraico, del persiano, e dell’indiano.

Secondo il calendario di Nabonassar istituito nel 747 a.C., l’anno era denominato vago, ed era diviso in mesi e settimane. I mesi erano 12, di 30 giorni l’uno; ma in ultimo s’aggiungevano altri 5 giorni supplementari, e la stessa cosa fecero i francesi nel 1700. Ma il quarto di giorno, che veniva trascurato, spostava di 24 giorni tutte le stagioni in termine di soli 100 anni.

Ma presso gli Egiziani si cominciò a regolare l’anno con la levata eliaca di Sirio. Cioè se in un dato giorno il sole nasce contemporaneamente a Sirio, i giorni seguenti il Sole nascerà sempre dopo questa stella. Ma nei primi giorni Sirio, sebbene la più splendente di tutte le stelle, non sarà visibile pel chiarore della luce solare; soltanto quando Sirio nasce circa un’ora prima del Sole, sarà possibile osservare il momento in cui essa sorge (detta il momento della levata). Questa prima nascita anteriore al Sole e visibile si chiama la sua levata eliaca.

Siccome dopo tal levata il Nilo usciva dal suo letto, così questo fenomeno era d’interesse comune. Nel giro per altro di 1470 anni, che era chiamato il periodo sotiaco, la levata eliaca di Sirio rispondeva successivamente a tutte le date dell’anno. E pare che i primi, ad aggiunger un quarto di giorno all’anno, sieno stati i sacerdoti egiziani (aggiunta che Platone considerò come un loro mistero), e che i medesimi abbiano a ciascun giorno della settimana dato il nome di un loro Dio.

In Grecia anticamente si usava il calendario introdotto da Metone l’anno 432 a.C. Questo era lunisolare. L’anno cominciava colla neomenia prossima al solstizio estivo; e si componeva di 12 mesi, ognuno dei quali comprendeva 29 o 30 giorni alternamente. Quindi ogni due o tre anni ve n’era uno detto embolismico, nel quale si replicava il mese Possideon di 30 giorni.

L’anno mussulmano è lunare di 12 mesi, ognuno dei quali è composto di 29 o 30 giorni. Quindi esso non contiene che 354 giorni ed i mesi cadono in ogni stagione successivamente.

Roma dapprima ebbe il calendario di Romolo, nel quale l’anno era diviso in dieci mesi. Il primo dei quali fu consacrato al preteso padre di Romolo stesso, e perciò si disse Marzo. Il secondo fu dedicato a Venere, e da un’appellazione greca di questa deessa fu chiamato Aprile. Poi veniva il Maggio, così detto da Maia madre di Mercurio. Quindi Giugno intitolato a Giunone. Dopo seguivano il Quintile, ed il Sestile; il primo dei quali ricevè più tardi il nome di Iulius, in onore di Giulio Cesare nato in quel mese, ed il secondo fu dal Senato romano denominato Augustus, perchè in esso Augusto operò le sue più gloriose gesta. E finalmente Settembre, Ottobre, Novembre, Decembre, che significano settimo, ottavo, nono, decimo mese.

Ad ottenere poi il ritorno delle stagioni nelle medesime date, ogni 24 anni il Mercedoniano constava di soli 16 giorni. In questo pure i mesi venivano divisi in settimane, e queste erano distinte dal giorno del mercato detto nundinale. Ma più tardi la sottrazione de’ sei giorni al Mercedoniano fu dimenticata e trascurata dai Pontefici, e presto i mesi che in origine erano in Inverno passarono in Autunno, e quelli d’Autunno si trovarono in Estate.

Numa, a porre riparo allo spostamento delle stagioni proveniente dalle solite sei ore trascurate sino allora, riformò il calendario romuleo. Principiò dal dividere l’anno in dodici mesi, ed il primo dei due mesi aggiunti chiamò Ianuarius in onore del Dio Giano, e l’altro consacrò alle espiazioni e dedicò a Februo Dio de’ morti, e però lo nominò Februarius. Quest’ultimo mese solamente ebbe un numero pari (e perciò nefasto) di giorni: tutti gli altri ne aveano o 29 o 31. Ma ogni due anni il mese di Febbraio si divideva in due porzioni, e fra queste s’intrometteva un tredicesimo mese chiamato Mercedoniano, e composto di 22 giorni. Così il giorno appresso al 22 Febbraro, era 1 Mercedoniano, e dopo il 22 Mercedoniano, veniva il 23, … 28 Febbraro.

Così erano le cose, quando nell’anno 708 dalla fondazione di Roma, o 46 a.C., Giulio Cesare ordinò la riforma del calendario, come gli fu suggerita da Sosigene astronomo egiziano. Principiò dall’attribuire all’anno appresso una lunghezza, che ricompensasse tutte le perdite accadute fin lì. Il Gennaio ebbe 29 giorni; la prima parte di Febbraio ne ebbe 23; 23 parimente il Mercedoniano; 5 l’altra porzione di Febbraio; Marzo 31; Aprile 29; Maggio 31; Giugno 29; Quintile 31; Sestile 29; Settembre 29; Ottobre 31; Novembre 29; Mese intercalare straordinario 33; altro mese straordinario 34; Dicembre finalmente 29. E questo fu denominato l’anno della confusione. Ed affinchè non si dovesse ricorrere di nuovo ad una confusione simile, stabilì che quind’innanzi tutti i mesi fossero composti altri di 30, altri di 31 giorno, ad eccezione del mese di Febbraio, il quale avrebbe ordinariamente 28 giorni: ma ogni quattro anni ne avrebbe 29.

Allora in ciascun mese si distinguevano tre giorni; il primo del mese, che dai Romani si scriveva con lettere maiuscole, erano le calende, quindi la parola calendario; il 5 le none, e il 13 le idi; a differenza dei mesi di Marzo, Maggio, Luglio, e Ottobre, nei quali le none cadevano il 7, e le idi il 15 del mese. Volle pertanto Giulio Cesare, che il giorno addizionale di Febbraio fosse frapposto fra il 24, nel quale dicevasi VI Kalendas, ed il 25, in cui si diceva V Kalendas martias, e che fosse nominato con bis sexto Kalendas. Quindi il nome di bisestile imposto all’anno, che ricorre ogni quattro, ed è composto di 366 giorni.

E qui non sarà inutile avvertire, che devesi accuratamente distinguere questo calendario giuliano dal, così detto, periodo giuliano. Premettiamo che l’anno non è esattamente divisibile pei giorni delle lunazioni; e però, i novilunii accadono successivamente in date diverse. Ma però ogni 19 anni ritornano nelle date stesse. Questo periodo di 19 anni costituisce il così detto, ciclo lunare. Si può quindi chiamare I l’anno, in cui la neomenia accade il 1°’ di Gennaro, e II quello che viene appresso, e così di seguito fino al XIX, e poi riprincipiare da capo per gli anni successivi. Allora, conosciuti i giorni delle fasi per quel ciclo, sono conosciuti per tutti gli altri. I Greci apposero agli anni successivi questi 19 numeri scritti a caratteri d’oro nei luoghi pubblici. Quindi il nome di numero aureo. Si chiama poi epatta l’età della Luna il l° di Gennaio, ossia il numero che esprime di quanti giorni al principiar dell’anno sia già passata la neomenia.

Quanto poi al Sole è da sapere, che ogni 28 anni giuliani i medesimi giorni della settimana cadono nei giorni stessi del mese. Questo periodo di 28 anni fu chiamato ciclo solare. Se a ciascun giorno del mese si apponga una delle prime lettere dell’alfabeto, basta sapere ogni anno quale lettera corrisponda alla Domenica, per conoscere che giorno è dalla lettera apposta alla data corrente. Quella lettera si chiama domenicale.

Nei tempi di Costantino e de’ seguenti imperatori si usavano le indizioni, come citazioni ai tribunali. Poscia esse servirorio a formare un periodo di 15 anni adottato dai Papi, e dai Veneziani per giunta alle date. Si crede che quest’uso abbia avuto principio nel 512; e così la prima indizione sì può riportare all’anno 3 a.C. Quindi l’indizione romana è l’anno che rimane dopo aver diviso per 15 il numero degli anni trascorsi da 3 anni avanti l’èra volgare in poi.

Or bene; il periodo giuliano è un ciclo, di cui molti autori fanno uso, proposto da Giuseppe Scaligero nel secolo decimosesto. Moltiplicando i sopraddetti tre cicli, cioè il solare, che è 28, il lunare 19, e quello d’indizione 15, si ottiene 7980. Questo numero costituisce appunto il periodo giuliano, durante il quale è impossibile che s’incontrino insieme gli stessi numeri dei tre cicli, che ne sono fattori. È dunque tutt’altra cosa dall’anno o calendario giuliano. Tornando ora a questo, è facile accorgersi che non risolve completamente il problema: dacchè come risulta dalle cose dette l’anno tropico è undici minuti, dieci secondi, e tre decimi più breve di 365 giorni e 6 ore.

Per la qual cosa dopo sedici secoli, cioè ai tempi di Gregorio XIII avvenne che le stagioni erano spostate di ben 10 giorni. A riportare il ritorno di queste alle loro antiche date, e ad ovviare per sempre a un tal disordine, furono dal medesimo Sommo Pontefice tolti 10 giorni al mese di Ottobre del 1582; in cui si disse 1, 2, 3, 4, 15, 16,….; e furono promulgate le seguenti regole, che costituiscono la riforma gregoriana.

1° Ogni anno, espresso da un numero non divisibile per 4, è di 365 giorni.

2° Ogni anno, espresso da un numero divisibile per 4, ma non per 100, è di 366 giorni.

3° Ogni anno, espresso da un numero divisibile per 100, ma non per 400 è di 365 giorni.

4° Ogni anno, espresso da un numero divisibile per 400, è di 366 giorni.

Così bisogna che passino più di 3000 anni, perchè le stagioni si spostino di un giorno. Si potrebbe ottenere che questo spostamento di un giorno accadesse solo dopo centomila anni, aggiungendo per 5a regola, che gli anni rappresentati da un numero divisibile per 4000 non avranno che 365 giorni. Il calendario gregoriano, adottato da prima da tutti i cattolici e molto più tardi anche dai protestanti, non è ancora stato ricevuto in Russia e in Grecia; e però adesso le nostre date differiscono da quelle degli scismatici, di 12 giorni.

Francesco Regnani

Progettazione di circuiti digitali: gestione di un libreria di forme d’onda a dente di sega

molinari-monitor.pngLo scopo del mio progetto è stato di programmare un sistema FPGA in grado di visualizzare su un monitor CRT una piccola libreria di forme d’onda a dente di sega a varia frequenza, per le quali fosse possibile modulare fase e ampiezza. A questo scopo ho utilizzato la scheda DE2 della Altera, equipaggiata con un elemento programmabile FPGA chiamato “Cyclone II”, e con una serie di dispositivi periferici. Per realizzare i blocchi della rete logica da programmare in hardware, via canale USB-blaster, sull’elemento programmabile FPGA, ho utilizzato l’ambiente di sviluppo Quartus II, versione 8.1, sempre della Altera.

E. Molinari, Gestione di una libreria di forme d’onda a dente di sega su Altera-DE2 board e visualizzazione VGA

Duello aereo, gioco con carta e penna

aereo-by-robyferrari.jpgI due giocatori devono munirsi di un foglio quadrettato di qualsiasi formato purché pulito, e di una moneta oppure di un bottone. Il foglio rappresenta la zona di cielo in cui avverrà il combattimento, e gli aerei, devono trovarsi sempre nei punti di intersezione fra le righe orizzontali e quelle verticali. La moneta invece, come vedremo in seguito, rappresenta il raggio d’azione delle mitragliere di bordo dei caccia.

Ciascun giocatore sceglie liberamente un punto del foglio dal quale decollare con il suo caccia.

La prima mossa è completamente arbitraria; il giocatore sceglie poi a piacere un secondo punto del foglio, sempre all’incrocio tra riche e colonne, e lo unisce al primo con un segmento rettilineo, e altrettanto fa il suo avversario. Logicamente non è ammesso effettuare la prima mossa scegliendo come punto di arrivo il punto di decollo dell’avversario: ciò violerebbe i canoni di un duello leale.

Per le altre mosse, supponendo come nella figura di aver effettutato una mossa dal punto 1 al punto 2, la mosa successiva può essere effettuata al punto 3, ipetendo il movimento della mossa precedente oppure accelerando o rallentando in uno degli otto punti adiacenti al punto 3.

 aereo.jpg

Lo scopo dei gioco è di intercettare l’avversario andando a finire nel punto occupato dal suo aereo nell’istante in cui tocca a voi muovere.

Il criterio con cui gli aerei possono spostarsi sul foglio limita alquanto le possibilità di manovra, e le accelerazioni, decelerazioni e virate possono essere ottenute solo variando gradualmente in modo opportuno la direzione e la velocità dei caccia (intendendo per velocità la lunghezza dei segmenti per ogni mossa).

Non è prudente aumentare molto la velocità degli aerei perché se un caccia è costretto a uscire dal foglio viene dichiarato “disperso” ed ha perso la gara. È facile accorgersi che, con un minimo di attenzione da parte di entrambi i giocatori, è piuttosto difficile intercettare il caccia avversario e il gioco rischia di diventare un inseguimento lungo e noioso. Ed è per questa ragione che è previsto l’uso della moneta. Quando un giocatore ritiene di essere sufficientemente vicino all’avversario, può ricorrere all’uso della mitragliatrice di bordo che ha un raggio d’azione pari al diametro della moneta.

Dopo aver eseguito la propria mossa, egli può posare la moneta sul foglio in modo che il suo aereo ne sfiori il bordo e controllare se in una posizione qualsiasi l’aereo avversario risulta coperto dalla moneta. Se ciò avviene, il caccia avversario risulta abbattuto dalla mitragliatrice. Ma, attenzione, se per caso egli ha fatto male i calcoli e l’avversario si trova fuori del raggio d’azione della moneta-mitragliatrice, sarà poi facile per quest’ultimo avvicinarsi ulteriormente e abbatterlo di rimessa.

Il gioco si presta a una quantità di variazioni interessanti: si può limitare il numero dei colpi di mitragliatrice a disposizione di ciascun aereo; si può partecipare alla gara con due caccia per giocatore (che può scegliere a suo piacimento quale dei due muovere), e via di seguito con un po’ di fantasia.

Un’osservazione sulla uniforme convergenza di successioni di funzioni reali

articoli41.jpgVogliamo fare un’osservazione elementare su una equivalenza che compare in alcuni testi di Analisi 2 e che, così come è ivi riportata, può indurre una convinzione errata. In questi testi, infatti, si dice che una successione fn di funzioni reali definite in un insieme J di numeri reali converge uniformemente in J verso una funzione f se, per ogni epsilon, esiste un indice…

Salvatore Antonucci, Una osservazione sulla uniforme convergenza di successioni di funzioni

Compito di Fisica su Velocità e Accelerazione

1) Un treno parte da una stazione e con accelerazione costante uguale a 0.2 m/s² raggiunge la velocità di 72 km/h. Calcolare: a) Il tempo impiegato per raggiungere questa velocità; b) A quale distanza si trova dalla stazione quando ha raggiunto questo valore di velocità; 2) Un vaso di fiori cade dal sesto piano di un edificio. Quanto tempo impiega per arrivare a terra e con quale velocità, supponendo che l’altezza del sesto piano è 19.6 m e trascurando la resistenza dell’aria. 3) Un’auto lanciata alla velocità di 118 km/h inizia a frenare. Supposto che durante la frenata il moto sia uniformemente ritardato con decelerazione a = 6 m/s², in quanto tempo si fermerà? 4) Un’auto viaggia alla velocità di 60 km/h. Premendo il pedale dell’acceleratore la velocità aumenta con accelerazione costante di 2 m/s² fino a 132 km/h. Calcolare l’intervallo di tempo in cui si è avuta la variazione di velocità da 60 km/h a 132 km/h. 5) Considera il grafico seguente: Scarica il compito di fisica svolto su velocità e accelerazione

Geni e Memi [Richard Dawkins]

dawkins.pngIl nuovo brodo primordiale è quello della cultura umana. Ora dobbiamo dare un nome al nuovo replicatore, un nome che dia l’idea di un’unità di trasmissione culturale o unità di imitazione: ‘meme’ … Esempi di memi sono idee, frasi, melodie, mode, modi di modellare vasi o costruire archi. Proprio come i geni si propagano nel pool genico saltando di corpo in corpo tramite spermatozoi o cellule uovo, così i memi si propagano nel pool memico saltando di cervello in cervello tramite un processo che, in senso lato si può chiamare imitazione.

"Sir Karl Popper ha studiato l’analogia fra il progresso scientifico e l’evoluzione genetica ad opera della selezione naturale. Vorrei spingermi ulteriormente in direzioni esplorate anche, per esempio, dal genetista L.L. Cavalli Sforza, dall’antropologo F.T. Cloak e dall’etologo J.M. Cullen. …

Che cos’hanno di speciale i geni, dopo tutto? La risposta è che sono dei replicatori. … Il nuovo brodo primordiale è quello della cultura umana. Ora dobbiamo dare un nome al nuovo replicatore, un nome che dia l’idea di un’unità di trasmissione culturale o unità di imitazione: ‘meme’ …

Esempi di memi sono idee, frasi, melodie, mode, modi di modellare vasi o costruire archi.

Proprio come i geni si propagano nel pool genico saltando di corpo in corpo tramite spermatozoi o cellule uovo, così i memi si propagano nel pool memico saltando di cervello in cervello tramite un processo che, in senso lato si può chiamare imitazione.

Se uno scienziato sente o legge una buona idea, la passa ai suoi colleghi e studenti e la menziona nei suoi articoli e nelle sue conferenze. Se l’idea fa presa, si può dire che si propaga diffondendosi di cervello in cervello…

Se il meme è un dato scientifico, la sua diffusione dipenderà da quanto sarà accettabile per la popolazione dei singoli scienziati; una misura grossolana del suo valore di sopravvivenza potrebbe essere ottenuta contando il numero di volte in cui viene citato negli anni seguenti sulle riviste scientifiche. Se è una melodia popolare, la sua diffusione nel pool memico può essere misurata dal numero di persone che la fischiettano per strada. …

Il cervello umano, e il corpo che esso controlla, non possono fare più di una o due cose alla volta. Se un meme deve dominare l’attenzione di un cervello umano, deve farlo a spese di memi ‘rivali’.

Altre cose per cui i memi competono sono il tempo alla radio e alla televisione, lo spazio sui manifesti, le colonne dei giornali, i siti internet e gli scaffali delle biblioteche. …

Quando moriamo ci sono due cose che possiamo lasciare: i geni e i memi. Siamo costruiti come macchine dei geni, create allo scopo di tramandare i nostri geni. Ma questo nostro aspetto verrà dimenticato in tre generazioni. I nostri figli, i nostri nipoti forse, ci assomiglieranno, nei tratti del viso, per il talento musicale o per il colore degli occhi. Ma ad ogni generazione il contributo dei nostri geni si dimezza e in breve scende a una proporzione trascurabile. … Ma se contribuiamo alla cultura del mondo, se abbiamo una buona idea, se componiamo una canzone, se inventiamo una candela, se scriviamo una poesia, queste cose possono vivere intatte per lungo tempo dopo che i nostri geni si sono dissolti nel pool comune.

Socrate può avere o no un gene o due ancora vivi nel mondo d’oggi, ma che importa? I complessi memi di Socrate, Leonardo, Copernico e Marconi stanno ancora andando forte". Richard Dawkins (1941). Il gene egoista, Oscar Mondadori 1995.

La suggestiva ipotesi di Dawkins sull’esistenza di memi che potrebbero essere gli atomi fondanti e caratterizzanti della cultura di una organizzazione non è ancora stata considerata a sufficienza da imprenditori e top manager che molto dovrebbero fare per favorire, all’interno delle strutture che governano, la comunicazione sistematica e interdisciplinare (saltando di cervello in cervello) e per evitare che alcuni memi, che potrebbero essere preziosi per l’organizzazione, nel suo complesso vadano perduti solo a causa del turn-over, del pensionamento o dell’allontanamento di alcuni individui. Almeno i memi più interessanti dovrebbero entrare a far parte del patrimonio intangibile dell’organizzazione.

Dawkins è stato accusato di darwinismo sociale (il fondatore di questa corrente di pensiero è Edward Wilson) cioè di aver trasportato troppo disinvoltamente concetti della evoluzione di Darwin nella spiegazione del comportamento sociale degli umani. Certo è che l’utilizzo di strumenti messi a punto in ambito di discipline diverse è molto stimolante e spesso consente di vedere i problemi in un’ottica nuova e foriera di risultati interessanti.

Dawkins ha percorso anche il cammino inverso trasportando tecniche, quali i giochi di strategia messi a punto per studiare il comportamento economico e decisionale degli umani, dall’economia alla biologia.

La battaglia dei sessidawkins-sessi.png

Si consideri la battaglia dei sessi in cui animali (mammiferi, uccelli, ecc.) abbiano a disposizione strategie diverse per corteggiarsi, accoppiarsi, prolificare e replicare i propri geni, che è poi il fine ultimo di tutte le specie. Dawkins ha ipotizzato per ogni individuo, maschio o femmina i seguenti punteggi: un figlio vivente e svezzato +15 (geni replicati), un lungo e faticoso corteggiamento -3 punti, lo sforzo per l’allevamento -10 punti.

La femmina che adotta la "strategia della ritrosa" si accoppia solo dopo un lungo corteggiamento che serve a selezionare maschi più affidabili i quali presumibilmente non l’abbandoneranno e contribuiranno all’allevamento della prole. La femmina che adotta la "strategia della sfacciata" si accoppia rapidamente senza faticosi periodi di corteggiamento; provvederà comunque all’allevamento della prole anche se abbandonata.

Il maschio che adotta la "strategia del fedele" è preparato ad un lungo periodo di corteggiamento, dopo l’accoppiamento resta con la femmina e l’aiuta ad allevare i piccoli. Il maschio che adotta la "strategia del seduttore" non accetta perdite di tempo e se la femmina non è disponibile immediatamente ne cerca un’altra; dopo l’accoppiamento lascia alla femmina gli oneri dell’allevamento e se ne va alla ricerca di nuove avventure.

Si parta, ad esempio, dalla coppia seduttore-ritrosa (in basso a sinistra nella matrice). Lei richiede un lungo corteggiamento, lui se ne va alla ricerca di altre, niente di fatto, 0 punti ciascuno. Se il comportamento ritroso si diffonde tra le femmine non si concluderà mai nulla e qualche maschio, per migliorare i risultati, può pensare di convertirsi ad una strategia fedele. Ora il risultato è: geni replicati – allevamento prole – corteggiamento faticoso, cioè +15-10-3 = 2 punti ciascuno (cella fedele-ritrosa nella matrice). Tra l’altro questa situazione domina la precedente (è vantaggiosa per entrambi). A questo punto, se la maggioranza dei maschi è diventata fedele alle femmine può convenire assumere la strategia sfacciata, in questa maniera risparmieranno il faticoso corteggiamento (15-10 = 5 punti ciascuno). Dunque la strategia (5,5) domina la (2,2) che a sua volta domina la (0,0). Se il comportamento sfacciato si diffonde tra le femmine, ai maschi può convenire tornare ad una strategia del seduttore risparmiando anche le cure verso i figli (+15) e lasciando alle femmine anche la loro parte di lavoro (+15-10-10 = -5). Anche questo risultato (15,-5) non è di equilibrio perché presto le femmine si renderanno conto che conviene loro un comportamento ritroso: nulla di fatto (0,0) è meglio di una sistematica perdita di -5.

Inizialmente Dawkins pensava che per questo gioco esistessero strategie miste di equilibrio, ma poi simulando il gioco sul computer si accorse che cosi non è. Due biologi matematici australiani, Sigmund e Shuster, dimostrarono, ricorrendo ad un sistema di equazioni differenziali che il gioco non presenta punti di equilibrio stabile (vedi Nash).

Ecco la loro conclusione: "… il comportamento degli amanti oscilla come la luna ed è altrettanto imprevedibile del tempo. Naturalmente nessuno ha avuto bisogno di equazioni differenziali per rendersene conto". La visione scientifica dell’esistenza è poetica fino quasi a risultare trascendentale. Siamo incredibilmente fortunati ad avere avuto il privilegio di vivere per alcuni decenni su questa terra, prima di morire per sempre. E noi che viviamo oggi siamo ancora più fortunati, perché possiamo comprendere, apprezzare e godere l’universo come nessuna delle generazioni precedenti ha potuto fare. Abbiamo il beneficio di secoli di scoperte e progressi scientifici alle spalle. Aristotele sarebbe sbalordito da ciò che uno scolaretto qualsiasi potrebbe insegnargli oggi. Ecco cosa dà significato alla vita. E il fatto che questa vita abbia un limite, e sia l’unica vita che abbiamo, ci rende ancora più determinati ad alzarci ogni mattina e cercare di partecipare al meraviglioso ciclo della natura. L’idea che le epoche antiche abbiano accumulato saggezza è un errore. È un’irritante ironia che le classi ricche nel ricco occidente tollerino magiche cure indù [l’ayurveda] ormai superate, mentre in India si mobilitano per adottare vaccini moderni ed antibiotici. … La scienza sostituisce i pregiudizi personali con prove verificabili pubblicamente. (Dal documentario The Enemies of Reason, 2007).

Il desiderio di individuare uno scopo in ogni dove è naturale in un animale che vive circondato da macchine, da opere d’arte, da strumenti e da manufatti aventi una precisa destinazione; un animale, per di più, i cui pensieri sono costantemente dominati dai propri obiettivi personali.

Un’automobile, un apriscatole, un cacciavite o un forcone giustificano tutti la domanda: "A che cosa serve?". È probabile che i nostri predecessori pagani si siano posti il medesimo interrogativo sul tuono, sulle eclissi, sulle rocce e sui corsi d’acqua. Oggi ci facciamo vanto di esserci scrollati di dosso questo animismo primitivo. Se una pietra che si trova nel mezzo di un ruscello si rivela un comodo punto di appoggio per attraversarlo, noi consideriamo la sua utilità come un beneficio casuale, non come un vero e proprio scopo. Ma la tentazione atavica riaffiora prepotentemente quando veniamo colpiti da una tragedia (la parola stessa "colpiti" ha un’eco animistica): "Perché, perché il cancro/il terremoto/l’uragano ha colpito proprio mio figlio?". E la medesima tentazione può diventare addirittura motivo di compiacimento quando il dibattito verte su argomenti come l’origine di tutte le cose o le leggi fondamentali della fisica, nel qual caso culminerà puntualmente nella vuota domanda esistenziale "Perché vi è qualcosa invece del nulla?".

Ormai ho perso il conto delle volte in cui qualcuno si è alzato al termine della conferenza per proclamare: "Voi scienziati siete molto bravi a rispondere alle domande sui "Come", ma dovreste ammettere di essere impotenti dinanzi alle domande sui "Perché". (Il Fiume della vita: cosa è l’evoluzione, Sansoni1995).

Le menzogne di Ulisse, L’avventura della logica da Parmenide ad Amartya Sen, Piergiorgio Odifreddi

Il libro si presenta come una storia della filosofia e della matematica insieme, in considerazione del fatto che da Platone a Leibniz “umanesimo e scienza sono state considerate due facce complementari di una stessa medaglia”. Odifreddi ci propone alcune vicende intellettuali della matematica come se fossero semplici storie: le avventure dei maggiori logici e le loro massime conquiste intellettuali.

La logica è lo studio del pensiero come esso si esprime attraverso il linguaggio e deve guidarci nella scoperta della verità; essa nasce nel momento in cui il pensiero umano separa il vero dal falso. Il primo a parlare della logica in tal senso fu Parmenide e le sue idee vennero poi sviluppate da Platone, ma soprattutto da Aristotele. La logica di Aristotele – nota come “classica” – non fu messa in discussione fino al Novecento, a dimostrazione di quanto fosse avanti rispetto ai tempi: essa “giunse a completa maturità matematica, superando finalmente i suoi infantili e paradossali vagiti metafisici”. In contrapposizione alla logica aristotelica, si sviluppò quella stoica: Aristotele e Crisippo, esponente più importante della scuola stoica, possono essere considerati, a pari merito, i massimi logici dell’antichità. Quest’ultimo forgiò gli strumenti essenziali della logica preposizionale e diede contributi essenziali alla matematica.

Nel 1274, Lullo abbozzò un’idea che solo nel Novecento si rivelerà in tutta la sua potenza: scomporre le nozioni linguistiche e assegnare a queste dei numeri. Voleva, in altre parole, tradurre il linguaggio naturale in quello numerico: aveva addirittura progettato un prototipo di meccanismo per automatizzare il pensiero, un lontano precursore dei moderni calcolatori. Il lavoro di Lullo influenzò Leibniz, che nel 1666 lo citò nella sua Ars combinatoria, nella quale si proponeva di ridurre il pensiero all’aritmetica. In quest’opera, troviamo anche un abbozzo dell’aritmetica binaria, il linguaggio ufficiale dell’informatica.

George Boole fu il primo a capire il vero segreto dell’aritmetica binaria. Modesto professore, riuscì a far uscire la logica dalla filosofia, facendola entrare nel campo delle scienze: “Dopo il terremoto prodotto da Boole, la logica ha quindi cessato di essere un’occupazione per soli filosofi, psicologi e linguisti, com’era stata fino a metà Ottocento e ha invaso gli istituti e le facoltà di matematica, di informatica, di ingegneria e di scienze cognitive”. Compì l’analisi algebrica della logica sillogistica di Aristotele e di quella preposizionale di Crisippo, riconoscendo la nascosta complementarità dei due approcci. L’idea di Boole era molto semplice: le problematiche della logica preposizionale venivano ridotte a un semplice e banale calcolo. L’algebra di Boole divenne la base, nel 1938, per l’ingegnere Claude Shannon, della teoria dell’informazione, visto che ogni cosa venne tradotta in termini di circuiti elettrici o elettronici.

Agli inizi del Novecento, Gottlob Frege era convinto di poter fondare l’intera matematica sulla logica, ma una lettera di Bertrand Russell mise in evidenza una contraddizione, che determinò la fine delle tesi di Frege e il fallimento della pubblicazione del suo lavoro. Nel 1921, Wittgenstein ritenne di aver realizzato la soluzione finale del problema logica: per lui il linguaggio era riducibile alla logica proposizionale.

Per la geometria, la negazione del postulato delle parallele, nella prima metà dell’Ottocento, da parte di Nikolaj Lobačevskij e János Bolyai, fornì una risposta alternativa a quella euclidea, ma al tempo stesso fece perdere a questa branca della matematica parte della sua credibilità. Hilbert propose di ritrovare la fiducia mediante una riduzione della geometria all’analisi, ovvero alla teoria dei numeri reali. Il nuovo stile fu applicato non solo alla geometria, ma a tutte le branche della matematica, logica compresa, per la quale il maggiore problema divenne quello della completezza. Gödel e Turing dimostreranno l’irrealizzabilità di questo programma. Gödel preferì affrontare di petto le principali questioni fondazionali della logica e della matematica: il suo lavoro è considerato il contributo più importante che la logica matematica abbia mai ricevuto, egli la cambiò per sempre con i suoi risultati, riuscendo a raggiungere profondità inimmaginabili in precedenza. Nella sua tesi di dottorato del 1931 scoprì che non era possibile estendere il teorema di completezza alla matematica: nel sistema ci sono affermazioni indecidibili. In altre parole, i teoremi di incompletezza dimostrano che la matematica non è riducibile alla logica.

Alan Turing, nella sua tesi di laurea, aveva concepito il “calcolatore” con tecniche di progettazione uguali a quelle usate da Gödel per i suoi teoremi di incompletezza. Sfruttò l’analogia tra i sistemi matematici e i programmi informatici per trasformare la formula non dimostrabile di Gödel in un’operazione non calcolabile, il problema della fermata, scoprendo l’indecidibilità della logica. Il teorema di indecidibilità esclude la possibilità che ci sia un meccanismo in grado di distinguere la verità dalla falsità così come il teorema di incompletezza esclude la possibilità di dimostrare tutte le verità in matematica. Daniela Molinari

L’uomo che vide l’infinito – La vita breve di Srinivasa Ramanujan, genio della matematica di Rober

Nato il 22 dicembre 1887 in India, Srinivasa Ramanujan scoprì la matematica nel 1903, con il libro di matematica di Carr, un matematico mediocre, che aveva raccolto gli appunti delle sue lezioni. Ramanujan fu irretito dalla matematica pura e perse interesse per tutto il resto: tranne che in matematica, andava male in tutte le materie e per questo fu cacciato dalla scuola; senza un lavoro, passava il suo tempo a bighellonare, così ogni tanto pativa la fame. Cominciò a riportare i suoi appunti in alcuni quaderni, che erano il frutto del suo duro lavoro, ma anche dell’assenza di convenzioni nella quale si trovò a crescere, visto il suo insuccesso accademico.

Verso la fine del 1908, dopo aver sopportato a lungo le sue scelte, i genitori gli organizzarono un matrimonio combinato. Ramanujan abbandonò le sue ambizioni di fare il matematico: voleva solo un lavoro e la possibilità di un futuro, di una nuova vita.

A diciotto mesi dalle nozze, cominciò a cercare di vendere il suo lavoro, i suoi quaderni di appunti. Pubblicò il suo primo articolo sul Journal, riguardante le serie: dava dimostrazioni abbozzate e incomplete e trovava collegamenti tra cose che sembravano senza rapporto, ma con questa pubblicazione stava cominciando a farsi notare. Così scrisse ad alcuni matematici europei: Baker e Hobson diedero una risposta negativa e il 16 gennaio del 1913, Ramanujan scrisse a G.H. Hardy che, più giovane degli altri due, si lasciò colpire dalla stranezza dei teoremi del matematico indiano. Hardy non sapeva che fare del lavoro di Ramanujan, ma il suo amore per ciò che era inaspettato e non ortodosso, la sua apertura alle novità, lo fecero decidere per una collaborazione. Rispose così con una lettera prodiga di incoraggiamenti e la carriera di Ramanujan fece un balzo in avanti: ricevette una borsa di studio dal Presidency College di Madras che gli permise di dedicarsi esclusivamente alla matematica. Doveva semplicemente presentare, ogni tre mesi, un resoconto dei progressi fatti.

Raggiunto Hardy a Cambridge, Ramanujan si mostrò molto produttivo e felice: la sua originalità non gli permetteva formalismi, ma la sua intuizione rischiava di minare la sua crescita in campo matematico. Era stata una fortuna per Ramanujan finire tra le mani di Hardy, visto che questi riuscì a guidarlo senza bloccare il suo entusiasmo. Ramanujan non aveva doveri ufficiali nel college e poteva fare quello che voleva: si immergeva nella matematica senza preoccupazioni né finanziarie né familiari.

Agli inizi del 1916, cominciò per lui un periodo di forte tensione nervosa: la guerra, la nostalgia della famiglia e della vita in India, la consapevolezza di essere sempre e comunque uno straniero tra gli inglesi, ebbero serie conseguenze psicologiche. Neppure Hardy riuscì a impedire cheRamanujan cadesse in una crisi ancora più profonda: l’unica cosa in comune tra i due era la matematica e l’inglese non arrivò mai a conoscere veramente Ramanujan. Il lavoro intenso – a volte lavorava per trenta ore consecutive e poi dormiva per venti ore – la mancanza di regolarità, equilibrio e riposo sconvolsero la sua vita: al suo terzo anno in Inghilterra, la malattia sembrava in attesa di insorgere. La caduta in una profonda depressione spinse Ramanujan a gettarsi sui binari davanti a un convoglio in arrivo: una guardia lo vide e lo salvò in extremis. Dopo questo gesto, consapevole dell’importanza delle onorificenze accademiche per l’indiano, Hardy ottenne la sua nomina alla Royal Society, ma non bastò.

Malato, tornò in India nell’aprile del 1919: lo attendeva un’epidemia di influenza, che avrebbe ucciso milioni di persone ed egli stesso aveva uno stato di salute alquanto precario. Ramanujan lavorò ancora alla matematica, fino a poco prima di morire: nel suo ultimo anno di vita, le sue capacità intellettive si fecero più acute e brillanti. Morì il 26 aprile del 1920.

165. Considerazioni sulla valutazione di un interest rate swap

dnc-inequality.jpgQuesto lavoro si è proposto di fornire un contributo che fosse d’aiuto nell’operare scelte in ambito finanziario avvalendosi di strumenti di finanza derivata per mettere in atto strategie di liability management a fine di hedging. In questo ambito, di sicuro interesse, soprattutto alla luce delle ricadute economiche e sociali che l’utilizzo di contratti IRS da parte di Enti pubblici comporta su tutta la comunità territoriale, è necessario aver ben chiari gli strumenti da utilizzare e gli obiettivi da perseguire, poiché occorre compiere scelte oculate che non espongano l’amministrazione a rischi e costi troppo onerosi. Alla luce di tali considerazioni, si è avvertita la necessità di fornire un contributo che fosse spunto per una maggiore riflessione ed analisi trattando contratti di questo genere e fornisse al contempo strumenti tecnico-matematici per valutare correttamente un contratto di IRS.

164. Numeri figurati

claudio426-numeri_dei_campioni.jpgPer numeri figurati si intendono i numeri interi che possono essere rappresentati mediante uno schema geometrico regolare, nel piano o nello spazio. Queste configurazioni sono note già dall’antichità greca e nel corso dei secoli si sono dedicati al loro studio anche matematici come Eulero, Gauss, Fermat e Lagrange. Obiettivo di questo articolo è quello di mettere insieme le principali caratteristiche di questi numeri. Oltre ai più noti numeri poligonali e piramidali, su cui esiste già un’ampia letteratura, saranno trattate configurazioni meno studiate, come i numeri poligonali centrati e i numeri “stella”.

Successioni di Fibonacci generalizzate, con implementazione in Sage

articoli21.jpgQueste pagine sono l’evoluzione di una ricerca presentata nell’anno accademico 2008-2009 per l’esame del corso di Crittografia. Oltre a diverse aggiunte e correzioni si distingue sostanzialmente dalla versione originale per le implementazioni in Sage. Mi sono poi divertito a raccogliere alcuni problemi di diverse difficoltà in ogni paragrafo, dato che non esiste processo mentale che valga la pena di affrontare senza un’esperienza viva che lo sostenga.

Desidero ringraziare Francesco Giovo per l’aiuto nella stesura e per la revisione.

Nella prima parte della ricerca viene introdotta brevemente la successione di Fibonacci, con alcune delle proprieta più importanti. Infine affrontando proprietà meno intuitive si arriveràa gradualmente ad una generalizzazione delle successioni, proposta nella seconda parte. La terza parte èe una raccolta di funzioni implementate con Sage, che mi sono state di aiuto per capire meglio alcune proprietà. Per suggerimenti, correzioni e commenti di qualsiasi tipo contattatemi pure.

Indice

1 Successione di Fibonacci e proprieta principali
1.1 Il problema di Fibonacci
1.2 Proprieta principali
1.3 Fibonacci e la sezione aurea
1.4 Fibonacci dal triangolo di Tartaglia
1.5 Fibonacci e i Numeri di Lucas
1.6 La Formula di De Moivre per Lucas: verso la generalizzazione

2 Successione di Fibonacci generalizzata
2.1 Definizioni principali
2.2 Fibonacci generalizzata, come spazio vettoriale
2.3 Polinomio caratteristico
2.4 Proprieta principali

3 Implementazioni in Sage
3.1 Il problema di Fibonacci
3.2 Proprieta principali
3.3 Fibonacci e la sezione aurea
3.4 Fibonacci dal triangolo di Tartaglia
3.5 Fibonacci e i numeri di Lucas
3.6 Fibonacci generalizzata


Sebastiano Ferraris, Successioni di Fibonacci generalizzate, con implementazioni in Sage


La natura del lavoro manageriale [Henry Mintzberg]

h.mintzberg.pngSaltando da un argomento all’altro il manager trae profitto dalle interruzioni e il più delle volte risolve le questioni in meno di dieci minuti. Anche se gli capita di avere cinquanta progetti in ballo, riesce a delegarli tutti. Li discute tutti in una volta, effettua un controllo periodico di ciascuno prima di rimetterli in orbita.

"Gli executive dovevano misurarsi con una costante ondata di chiamate telefoniche e di corrispondenza (oggi anche e-mail) dal momento in cui arrivavano in ufficio la mattina al momento in cui se ne andavano la sera… Da una analisi giornaliera condotta su 160 top e middle manager, risultò che essi lavoravano un’ora e mezza o più senza interruzioni circa una volta ogni due giorni.  Checché ne dica la letteratura tradizionale, l’attività manageriale non produce pianificatori riflessivi; il manager risponde a stimoli come un individuo che è condizionato dal proprio lavoro e preferisce agire immediatamente piuttosto che aspettare… Evita le relazioni scritte, dà una scorsa alle riviste e passa in rassegna solamente la corrispondenza".

"Le pressioni derivanti dal suo lavoro, spingono il manager ad agire superficialmente, a sobbarcarsi una eccessiva mole di lavoro, a favorire le interruzioni, a rispondere prontamente ad ogni stimolo, ad andare alla ricerca del tangibile ed evitare l’astratto, a prendere decisioni un pò alla volta e a fare tutto precipitosamente". Henry Mintzberg (1939), The Nature of Managerial Work, Harvard Business Review 1975.

"La strategia creativa richiede l’uso della parte destra del cervello, perchè la gestione efficace di una organizzazione conta di più della pianificazione logica. I manager efficienti sembrano trovare diletto nell’ambiguità, nei sistemi complessi e misteriosi nei quali regna relativamente poco ordine… gli importanti processi a livello politico necessari alla gestione di una organizzazione, si avvalgono in maniera significativa delle facoltà identificate con il lato destro del cervello."

"Purtroppo negli ultimi quindici anni la rivoluzione in questo settore, pur avendo dato risultati positivi, ha praticamente consacrato la moderna scuola di management alla venerazione della parte sinistra del cervello… Le nostre scuole hanno bisogno di un nuovo equilibrio, quello che il miglior cervello umano riesca ad ottenere, l’equlibrio fra parte analitica e parte intuitiva". Mintzberg on Management 1989.

Per quanto riguarda i manager, Mintzberg ha verificato (e chiunque ha lavorato in azienda potrà confermarlo) che questi preferiscono raccogliere le informazioni oralmente, durante incontri o per telefono e che per tenersi aggiornati si affidano molto alle congetture, ai pettegolezzi e alle dicerie sia all’interno che all’esterno dell’azienda. Perchè ? Il motivo è la tempestività di questo tipo di informazioni: il pettegolezzo di oggi può essere il dato di fatto di domani, il manager che si perde la telefonata che lo informa che il suo miglior cliente è stato visto giocare a golf con il suo principale concorrente forse verrà a conoscenza di un calo significativo delle vendite leggendo il prossimo rapporto trimestrale. Ma allora sarà troppo tardi.

Mintzberg identificò dieci ruoli/funzioni fondamentali del manager suddividendoli in tre sfere principali:

Sfera interpersonale
1) figura rappresentativa, formale, ufficiale all’interno e all’esterno,
2) leader che guida, addestra e stimola i collaboratori,
3) collegamento e rapporti con colleghi di altre unità o altre aziende.

Sfera informativa
4) sorvegliante, che controlla attentamente quello che succede,
5) disseminatore che trasmette le informazioni essenziali ai dipendenti,
6) portavoce della sua unità.

Sfera decisionale
7) imprenditore, che cerca di migliorare la propria unità,
8) gestore dei fattori di disturbo, che reagisce a eventi imprevisti,
9) allocatore di risorse, in particolare umane, alle attività/progetti,
10) negoziatore con il personale, i clienti, il sindacato etc.

Per Mintzberg la maggior parte delle strutture organizzative rientra in cinque categorie fondamentali:
1) Struttura semplice, piccola gerarchia controllata da un potente chief Executive,
2) Burocrazia delle macchine, governata dalla Tecnostruttura (controllers, finanza, pianificazione strategica, esperti di produzione, ecc.),
3) Burocrazia professionale basata sulla condivisione del know-how, la democrazia e la motivazione (studio professionale, scuola, ospedale),
4) Struttura divisionale, tipica delle multinazionali si tratta di più burocrazie delle macchine guidate da un corpo gestionale centrale,
5) Adhocrazia (operativa o di ricerca) basata sul lavoro per progetto, gruppi flessibili, innovazione tecnologica, ricerca.

Le cinque strutture organizzative base di Mintzberg hanno cinque elementi in comune ciascuno dei quali è esaltato in una specifica struttura:
1) Apice Strategico, gli alti dirigenti (punto forte della Struttura semplice),
2) Dirigenti di medio livello, congiungono il top con gli operativi (Struttura divisionale),
3) Nucleo operativo, ingranaggi della organizzazione (Burocrazia professionale),
4) Tecnostruttura, individui chiave in: finanza, controllo, strategia, produzione, marketing etc. (Burocrazia delle macchine).
5) Staff di sostegno, ricerca, sviluppo manageriale, pubbliche relazioni, sistema informativo, ricerca operativa, etc. (Adhocrazia).

Oggi il pensiero strategico delle organizzazioni è dominato da due guru del management: Mike Porter ed Henry Mintzberg.

Il primo sostiene una visione più delibarata, razionale e decisa anticipatamente a tavolino della strategia.

Il secondo privilegia una visione emergente, non completamente deliberata e definita in itinere della strategia come avviene nelle learning organization.

Un recente articolo di Karl Moore, pubblicato su Forbes il 28 marzo 2011, sembra preferire la visione di Mintzberg.

Mintzberg presenta cinque diversi aspetti del concetto di strategia che possono riassumersi in cinque parole, le cosidette 5 P della strategia (in inglese cominciano tutte per P):
1) Plan – piano. Sviluppo meditato delle intenzioni, da svolgersi prima delle azioni.
2) Ploy – manovra. Strattagemma per contrastare le minacce che si presentano durante l’azione.
3) Pattern – percorso. Coerenza di comportamento nel tempo durante lo svolgimento dell’azione.
4) Position – posizione. Posizionare continuamente un’impresa nel mercato e nell’ambiente.
5) Perspective – prospettiva. Missione dell’azienda, visione del futuro continuamente aggiornata.

La scuola galileiana di studi superiori di Padova: un percorso universitario di eccellenza

scuola-galileiana.pngLa Scuola Galileiana di Studi Superiori di Padova è un percorso di eccellenza cultura parallelo a quello universitario per 24 studenti neo-diplomati che si iscrivono al primo anno all’Università di Padova. La Scuola Nasce nel 2004 dalla collaborazione tra l’Università della città di Padova e la celebre Normale di Pisa con l’intento di sviluppare una cultura universitaria di eccellenza sperimentando percorsi innovativi di formazione e ricerca. Al termine del quinquennio, oltre alla laurea magistrale, lo studente otterrà uno speciale attestato che certificherà il patrimonio di conoscenze acquisito.

Le classi disponibili sono due: un settore umanistico di “Scienze Morali” e un settore scientifico di “Scienze Naturali”. Ogni corso prevede una serie di lezioni per un totale di almeno 30 ore, integrate da seminari, esercitazioni e laboratori tenuti da professori interni o esterni, italiani e stranieri e dai Tutor Galileiani.

Entrambi i corsi durano 5 anni accademici e la frequenza è gratuita. La scuola offre ai propri allievi una serie di benefici: vitto e alloggio gratuito presso il Collegio Morgagni, un rimborso spese per l’acquisto di materiale didattico e per viaggi di istruzione all’estero, un computer portatile e la possibilità di imparare due lingue straniere. Ogni studente regolarmente iscritto è seguito per tutta la durata della Scuola da un tutor personale: un docente che si affianca allo studente in ogni momento della sua formazione.

L’ammissione alla Scuola Galileiana è subordinata ad un esame selettivo, differenziato per le due Classi. Al concorso vengono ammessi solo coloro che si immatricolano per la prima volta all’Università e che non abbiano compiuto ventidue anni d’età.

Il bando di ammissione per i 24 posti disponibili (14 per la classe di Scienze Naturali e 10 per quella di Scienze Morali) esce a giugno e l’iscrizione al concorso è gratuita. Per gli ammessi alle prove orali è previsto un rimborso spese.

Per la Classe di Scienze Naturali è prevista una prova articolata in test di Biologia, Chimica, Fisica e Matematica, mentre per la Classe di Scienze Morali è prevista una prova riguardante argomenti di Filosofia, Greco, Italiano, Latino, Storia e Storia dell’Arte.

Per maggiori informazioni: – Scuola Galileiana di Studi Superiori – sito web ufficiale http://www.scuolagalileiana.unipd.it/it/index.html

Email [email protected]

Le perdite sono percepite con intensità doppia dei guadagni: prospect teory [Daniel Kahneman]

kahneman.pngLa Overconfidence, l’eccesso di fiducia è una nostra caratteristica innata. Ci fa sbagliare, ma ci fa anche evitare la paralisi. La mente umana fatica a distinguere tra rischi limitati e rischi di eventi estremamente rari. Anche per questo si fanno errori. Ma se dovessimo pensare al rischio di essere uccisi da un auto ogni volta che attraversiamo la strada, resteremmo tappati in casa per tutta la vita …" Daniel Kahneman (La lettura, 11 Dic 2011 intervista di Massimo Gaggi).

"La sensibilità alle perdite è notevolmente più intensa della sensibilità alle vincite con un evidente punto angoloso nel punto zero della funzione del valore. L’avversione alle perdite è chiarissima se si considera la notevole resistenza ad accettare i rischi connessi al lancio di una moneta: si è osservato che la maggior parte dei giocatori accetta il rischio di perdere 20 dollari solo se gli viene offerta la possibilità di guadagnarne più di 40 in caso di vittoria. Ritengo che il concetto della maggior avversione alle perdite sia uno dei nostri principali contributi allo studio del decision making. L’asimmetria tra guadagni e perdite permette di risolvere alcuni rompicapo tra cui la famosa distinzione, economicamente irrazionale, che viene fatta tra perdite reali e costi opportunità".

"Un’altra serie di intuizioni ci venne quando Amos Tversky propose di immettere i segni dell’esito del gioco dei dadi nei problemi che stavamo analizzando. Il risultato fu entusiasmante. Scoprimmo subito uno schema molto significativo che definimmo ‘reflection ‘. Scoprimmo che cambiando i segni di tutti i risultati in un paio di partite, l’esito era che si preferiva trasformare la propria avversione al rischio in ricerca del rischio o viceversa. Per esempio scegliemmo entrambi un guadagno sicuro di 900 dollari   rispetto alla probabilità 0.9 di guadagnare 1000 dollari o di non guadagnare nulla. Però tutti e due scegliemmo di scommettere sulla probabilità 0.9 di perdere 1000 dollari rispetto ad una perdita certa di 900 dollari. Certamente non fummo i primi ad osservare questo fenomeno. Williams nel 1966 e Raiffa nel 1968 furono i primi a riflettere sulla propensione al rischio nell’ambito dei risultati negativi, ma il nostro fu il primo tentativo di mettere a frutto queste considerazioni". Daniel Kahneman e Amos Tversky, "Prospect Theory. An analysis of decision under risk", Econometrica 1979.

Daniel Kahneman (Tel Aviv, 5 marzo 1934) è uno psicologo israeliano, vincitore, insieme a Vernon Smith, del Premio Nobel per l’economia nel 2002 «per avere integrato risultati della ricerca psicologica nella scienza economica, specialmente in merito al giudizio umano e alla teoria delle decisioni in condizioni d’incertezza».

Nella comunità scientifica è noto per essere il secondo psicologo (il primo è stato Herbert Simon nel 1978) ad aver ottenuto il Premio Nobel in economia. Le ricerche di Kahneman permisero di applicare la psicologia cognitiva alla comprensione delle decisioni economiche.

Oggi, professore all’Università di Princeton, è considerato uno dei fondatori della finanza comportamentale.

Kahneman collaborò per anni con Tversky, dimostrando tramite brillanti esperimenti che i processi decisionali umani violano sistematicamente alcuni principi di razionalità, mentre le teorie microeconomiche assumono che il comportamento degli agenti decisionali siano sempre razionali e finalizzati ad una massimizzazione dell’utilità. Sull’argomento si può tentare di raggruppare il pensiero degli esperti in tre diverse posizioni:
1°) Ritengono che la teoria della utilità attesa abbia una valenza sia normativa (cosa si dovrebbe fare) sia descrittiva (cosa in pratica si fa). Anche se gli esseri umani non sono perfettamente razionali, nella maggior parte dei casi si comportano come se lo fossero (Es. Milton Friedman).
2°) Rifiutano la teoria dell’utilità attesa sia nella valenza normativa che in quella descrittiva. Gli agenti economici non seguono il comportamento razionale dello homo oeconomicus; è necessario trovare una teoria alternativa (Es. Amartya Sen).
3°) Accettano la teoria della utilità attesa nella sua valenza normativa ma non in quella descrittiva. La teoria dell’utilità attesa cattura correttamente la nozione di agire razionale, ma è empiricamente inadeguata come teoria della scelta umana. Sposano una teoria prescrittiva, che ci dice come le persone potrebbero (meglio) comportarsi se tenessero conto dei propri limiti cognitivi e degli errori che commettono in modo sistematico (Es. Daniel Kahneman).

Circa vent’anni dopo aver proposto la Prospect Theory, alla domanda su quale tra i risultati delle sue ricerche lo rendesse più fiero, Kahneman rispose: "Che il valore è dato dalle differenze tra gli stati economici e non dagli stati stessi". Le decisioni dell’uomo della strada non hanno bisogno di complicati modelli matematici, ma possono essere catturati da una semplice curva come quella riportata in figura.

kahneman2.png

Sull’asse orizzontale sono riportati i così detti stati oggettivi, positivi a destra e negativi a sinistra, ad esempio: guadagni o perdite monetarie, soddisfazioni o frustrazioni sul lavoro, vita sentimentale felice o infelice, successi o sconfitte della squadra del cuore, ecc.. Sull’asse verticale si trovano i cambiamenti soggettivi o psicologici positivi in alto, negativi in basso, cioè il risultato dei propri conti mentali o economia emotiva.

Questa curva dà delle informazioni su come ci si sente vincendo o perdendo una scommessa, ricevendo o meno un aumento di stipendio, avendo un rimborso fiscale o ricevendo l’ennesima una tantum da pagare.

E’ una curva asimmetrica (convessa per le vincite e concava per le perdite, con un punto angoloso nell’origine) e non tutta convessa come le usuali curve di utilità attribuite al comportamento razionale dell’uomo economico.

La prima cosa da notare è che la curva si appiattisce man mano che ci si allontana dall’origine. Questo significa che il piacere o l’utilità marginale decresce sia per le perdite che per le vincite: sia in positivo che in negativo siamo molto più sensibili alla differenza 5 e 10 piuttosto che tra 1000 e 1005.

La seconda cosa da notare è che, essendo la curva convessa per valori positivi, ma concava per valori negativi, siamo avversi all’incertezza nell’ambito delle vincite, ma propensi all’incertezza nell’ambito delle perdite (meglio un guadagno certo ma basso che un guadagno alto ma incerto; meglio una perdita incerta che una perdita sicura).

Nel terzo quadrante (in basso a sinistra) la curva è più ripida di quanto sia nel primo quadrante (in alto a destra) e ciò sta a significare che il dolore di perdere è superiore al piacere di vincere. Infatti (vedi figura) se vincere 200 euro ci reca piacere pari a 25 unità, perdere 200 ci fa male più del doppio: 52 unità (Matteo Motterlini, Economia Emotiva, Rcs Libri, Milano 2006).

Jean Piaget scriveva che "l’intelligenza non si concepisce senza una affettività che l’impregna".

In un articolo di Impiantistica Italiana (R.Chiappi, Teoria delle decisioni, Milano, Settembre – Ottobre 2009) si è tentato di rappresentare le curve della Prospect Theory con funzioni di tipo $U=X^K$ (quelle usate da Bernoulli nelle prime definizioni del concetto di utilità). Innanzi tutto si è pensato di distinguere il caso delle perdite ($K=K_1$) da quello dei guadagni ($K=K_2$) in maniera di rappresentare adeguatamente il punto angoloso che si ha per $X=0$. In secondo luogo per superare il problema matematico che le radici pari di numeri negativi sono numeri immaginari, si è ricorso ad una rappresentazione della funzione di utilità nel terzo quadrante speculare a quella rappresentata nel primo: $U(X) = X^(K_2)$ (per X>0); $U(X) = -[(-X)^(K_1)]$ (per X<0). Ricorrendo alla opzione Excel Ricerca Obiettivo si è poi determinato il valore di K2 imponendo il passaggio per il punto (200,25) ed il valore di K1 imponendo il passaggio per il punto (-200,-52). Il risultato è stato: K2 (primo quadrane, valori positivi) = 0.6075; K1 (terzo quadrante, valori negativi) = 0.745755. Se le preferenze del decisore fossero espresse con più punti, mediante l’opzione Excel che consente di minimizzare i quadrati degli scarti (regressione non lineare con curve di potenza), si potrebbero ricercare facilmente i valori di K1 e K2 che interpolano al meglio le preferenze manifestate dal decisore.

162. Determinazione approssimata delle coordinate geografiche terrestri

coordinate-geografiche.pngIl sistema di coordinate geografiche terrestri si compone della longitudine corrispondente alla distanza angolare del meridiano di un luogo dal meridiano fondamentale di Greenwich e della latitudine corrispondente alla distanza angolare di un luogo dall’equatore. La determinazione della longitudine avviene mediante la differenza di due tempi, quello locale e quello del meridiano fondamentale, nei quali si verifica un medesimo fenomeno astronomico.

161. Intersezione di insiemi convessi: il teorema di Helly

vatican-pinacoteca-by-xiquinhosilva.jpgSe in una pinacoteca, comunque scelti tre quadri, c’è un posto da dove è possibile rimirarli tutti e tre, allora esiste un posto dove è possibile vedere tutti i quadri di questa pinacoteca senza spostarsi. Forse il visitatore avrà bisogno di una vista lunga o di un teleobiettivo, ma da un punto potrà rimirarli tutti, stando magari comodamente seduto. Questo risultato è un corollario al famoso teorema di Helly.

Gara di modellizzazione matematica

unipr.pngIl Dipartimento di Matematica e Informatica dell’Università degli Studi di Perugia (DMI), con il supporto del Progetto Matematica&Realtà (M&R) bandisce una GARA DI MODELLIZZAZIONE MATEMATICA. Possono partecipare alla gara gli studenti di ogni ordine e grado, statali e non statali. La gara è individuale si articola in due fasi: eliminatoria 30 marzo 2012 alle ore 15.30 c/o ogni singolo Istituto, finale 9 maggio 2012 alle ore 13.00, DMI Perugia. Sono previste cinque sezioni: super-junior, junior, base, intermedia, avanzata. La gara consiste nello svolgimento di quesiti (sia a risposta chiusa, che aperta) riguardanti l’interpretazione e/o la costruzione di modelli matematici di problematiche del quotidiano.

ico-pdf.pngScarica il bando di gara completo

Tre problemi immpossibili

articoli03.jpgTesi di laurea in matematica sui tre problemi impossibili della matematica classica: la duplicazione del cubo, la trisezione dell’angolo e la quadratura del cerchio. Per più di 2000 anni lo sforzo di tanti matematici per risolvere questi problemi con i metodi classici di riga e compasso sono stati vani ma le dimostrazioni rigorose di questa impossibilità è arrivata soolo alla fine del XIX secolo. Queste dimostrazioni sono oggetto della tesi di laurea.

Introduzione

Fin da quando frequentavo la scuola elementare sono sempre stato a affascinato dal compasso e dalle figure geometriche che con esso si possono disegnare. Il divertimento nella costruzione dei poligoni regolari e una strana passione per il numero sette però mi portarono presto di fronte a una domanda: come mai per quanto ci provassi non riuscivo a costruire un poligono di sette lati? Continuando gli studi scoprii che non ero il solo ad essermi posto questo tipo di problema e che anzi ne esistevano altri tre affini al mio, risalenti all’antichità. La loro storia merita di essere raccontata.

Era l’anno 429 a.C. quando Pericle, celebre stratega, morì durante un’epidemia di peste assieme ad un quarto del popolo ateniese. Durante tale pandemia, per placare l’ira degli dei che si credeva ne fossero artefici, una delegazione di ateniesi and o ad interpellare l’oracolo di Apollo a Delo. Egli fu chiaro: se i sacerdoti avevano a cuore il futuro di Atene e dei suoi abitanti, allora l’altare cubico del dio della medicina avrebbe dovuto essere raddoppiato, senza che però ne fosse modificata la forma originale. I sacerdoti si misero immediatamente al lavoro e duplicarono la lunghezza degli spigoli del monumento. Inaspettatamente l’epidemia, anziché estinguersi, raggiunse i vertici della sua gravità. Pareva quindi che gli dei non volessero più ragionare; fu allora interpellato l’uomo che sarà ricordato come l’unico saggio: Platone. Egli sostenne che Apollo avesse voluto punire i sacerdoti per la loro ignoranza, infatti il volume dell’altare cubico era stato moltiplicato per otto e non raddoppiato. A quel punto i migliori geometri, con i loro mezzi, cioè riga e compasso, si misero alla ricerca di una soluzione. Secondo la leggenda fu questa l’origine del problema della duplicazione del cubo, noto anche come “problema di Delo". Nonostante gli sforzi, però, nessuno riuscì mai a risolverlo, cioè a trovare la lunghezza del lato che avrebbe reso il volume del cubo doppio di quello iniziale.

Durante la stessa epoca, sempre ad Atene, era stato posto un altro problema: la trisezione dell’angolo, nel quale si richiede il taglio di un angolo in tre angoli interni di uguale ampiezza. Archimede fu il primo a trovare una soluzione, che prevedeva però l’uso di una riga graduata. Coloro i quali perseverarono nella ricerca di una soluzione con il solo uso della riga non graduata e del compasso non giunsero mai ad un risultato.

Ecco il terzo celebre problema affine ai due già proposti: la quadratura del cerchio. Esso consiste nella ricerca di un procedimento per costruire un quadrato con la stessa area di un cerchio dato, con il solo aiuto di riga e compasso. Analogamente si può considerare il problema di trovare un segmento di lunghezza pari a quella di una circonferenza data. La ricerca della soluzione esatta è stata un inutile sforzo per i matematici dei secoli successivi, fino ad essere considerata la metafora di un’impresa disperata, al punto che Dante, al cospetto della visione divina rappresentata nelle sue terzine, si paragona al geometra che tenta di quadrare il cerchio, aggrappato alla fede nell’esistenza di una soluzione:

Qual è ‘l geometra che tutto s’affige
per misurar lo cerchio, e non ritrova,
pensando, quel principio ond’elli indige,
tal era io a quella vista nova:
veder voleva come si convenne
l’imago al cerchio e come vi s’indova;
ma non eran da ciò le proprie penne:
se non che la mia mente fu percossa
da un fulgore in che sua voglia venne.

Rimasi sorpreso nello scoprire che, per più di 2000 anni di storia, gli sforzi per risolvere i tre problemi esposti, nonché la costruzione di alcuni poligoni, come quello di 7 lati che cercai con ostinazione, furono tutti vani. Non solo infatti questi non sono risolubili con il solo uso di riga e compasso, ma la dimostrazione rigorosa dell’impossibilità arrivò solo intorno alla fine del diciannovesimo secolo; tale dimostrazione è l’argomento della mia tesi.

Indice

1 Costruzioni euclidee
1.1 Definizioni
1.2 Esempi fondamentali
1.2.1 Retta perpendicolare ad una retta data
1.2.2 Sistema di assi cartesiani
1.2.3 Bisettrice di un quadrante
1.2.4 Punto medio
1.2.5 Retta parallela ad una retta data, per un punto dato
1.2.6 Manipolazione di due segmenti
1.2.7 Radice quadrata di un segmento dato

2 Numeri euclidei
2.1 Costruzioni euclidee nel piano reale
2.2 Caratterizzazione di E
2.3 Conseguenze

3 Il problema della ciclotomia
3.1 Poligoni regolari e numeri complessi
3.2 Radici n-esime dell’unità ed estensioni ciclotomiche
3.3 Numeri di Fermat
3.4 Alcuni esempi
3.4.1 Costruzione del decagono e del pentagono
3.4.2 Costruzione dell’eptadecagono

4 Tre problemi impossibili
4.1 Duplicazione del cubo
4.2 Trisezione dell’angolo
4.3 Trascendenza di e e di pigreco
4.4 Quadratura del cerchio
4.5 Rettificazione della circonferenza


Scarica la tesi di laurea completa di Sebastiano Ferraris, Tre problemi impossibili

Concluso il torneo di scacchi 2011

scacchi-coppe.pngSi è concluso il Torneo di Scacchi 2011. Hanno partecipato oltre 400 concorrenti che hanno giocato circa 8000 partite. I dodici finalisti sono stati: Xato, Secchi, Andreatreno, Etalide, Sergio61, Firkle, Cpeg52, John_doe2266, Wallestein, Pisolo, Stef_borg, Paola26. Dopo una lunga sfida su partite sincrone di 15 minuti i vincitori sono stati:

1° Andreatreno

2° Wallenstein

3° Secchi

Complimenti a tutti e auguri per un buon 2012

I finalisti e i vincitori devono contattarmi all’indirizzo [email protected] per richiedere i premi e indicarmi l’indirizzo dove spedirli.

Ricordo che Matematicamente.it offre i seguenti premi: 1° classificato: coppa; 2° classificato: coppa; 3° classificato: coppa; tutti i 12 finalisti vinceranno un gadget a scelta: la maglietta di Matematicamente.it winner oppure la borsa di Matematicament.it winner oppure una pen drive da 4GB oppure un libro a scelta tra quelli pubblicati da Matematicamente.it oppure un qualsiasi libro di valore non superiore a 15,00 euro tra quelli disponibili su Amazon o IBS

Processi decisionali multiattore e multiobiettivo [Bernard Roy]

bernard-roy.pngLe difficoltà che ho incontrato all’inizio della mia carriera come ricercatore operativo, e successivamente come consulente, mi hanno fatto comprendere che ci sono alcune limitazioni all’obiettività raggiungibile nell’attività di supporto alle decisioni. A mio parere debbono essere presi in considerazione 5 fattori…

1) La linea di confine (o la frontiera), tra ciò che è fattibile e ciò che non lo risulta è spesso sfumata (Vedi Zadeh). Inoltre questo confine è frequentemente modificato alla luce dei risultati dello studio.

2) In molti problemi reali, il ‘Decisore’ non esiste come persona identificata che possa veramente prendere una decisione indipendente. Di solito diverse persone (attori o stakehoders) prendono parte al processo di decisione, ed è importante non confondere chi ratifica una decisione con il ‘Decisore’ cui ci si riferisce nei processi di supporto alle decisioni…

3) Anche quando il ‘Decisore’ è una persona fisica, le sue preferenze sono raramente ben definite. Zone grigie di incertezza esistono al confine, ma anche all’interno, delle varie convinzioni di una organizzazione: mezze credenze, conflitti e contraddizioni. Dobbiamo dunque comprendere che uno studio di supporto alla decisione contribuisce ad eliminare problemi, a risolvere conflitti, a trasformare contraddizioni e a destabilizzare convinzioni preconcette. Se si decide di adottare una metodologia multicriteri questa non potrà essere basata solo su fattori oggettivi e impersonali.

4) I dati quantitativi che esprimono valutazioni, misure di performance, distribuzioni di probabilità, pesi dei criteri, etc. sono spesso imprecisi, incerti o male determinati. E’ ad esempio inutile ipotizzare una distribuzione gaussiana per un costo o un indice se poi se ne usa solo il valore medio atteso.

5) In generale è impossibile sostenere che una decisione è buona o cattiva utilizzando solamente un modello matematico. Anche gli aspetti organizzativi, pedagogici e culturali contribuiranno allo svolgimento del processo decisionale che porterà al successo e alla qualità della scelta.

Bernard Roy (1934), Multicriteria Methodology for Decision Aiding.

roy1.png 

Le tecniche di programmazione reticolare per la gestione dei progetti hanno origine da un lato nella teoria dei grafi ideata da L. Eulero e dall’altro nei diagrammi a barre sviluppati da H. Gantt. Alla fine degli anni 50 dello scorso secolo, negli USA, due gruppi di lavoro, il primo guidato da M. Wilker e J.E. Kelly che operavano al programma di revamping (manutenzione straordinaria) di un impianto chimico della Dupont, il secondo guidato da D.Malcom e C.E. Clark, che lavoravano al progetto di messa a punto dei missili Polaris per i sottomarini atomici della classe Nautilus, inventarono ed usarono per la prima volta rispettivamente il metodo CPM (Critical Path Method) ed il metodo PERT (Program Evaluation and Review Technique).

Le attività venivano rappresentate sugli archi del grafo (AOA: Activity on Arrow). Risultato qualificante di queste tecniche è la possibilità di indicare le attività critiche, cioè quelle che, se ritardate, mandano in ritardo l’intero progetto. Per le altre attività, non critiche, viene calcolato il margine di flessibilità (Float), cioè il numero di giorni di cui possono essere ritardate senza compromettere la data di completamento dell’intero progetto.

Non tutti ricordano che, negli stessi anni in cui nacque il PERT/CPM, Bernard Roy (consulente SEMA, prestigioso professore all’università Paris Dauphine e poi creatore del gruppo di ricerca LAMSADE: Laboratoire d’Analyse et Modélisation de Systèmes pour l’Aide à la Décision) mise a punto la tecnica reticolare MPM (Metra Potential Method) che ha il vantaggio di consentire una rappresentazione più flessibile delle interazioni tra le attività di un progetto. Con questo metodo le attività sono rappresentate sui nodi (AON: Activities On Nodes) del grafo e i legami sugli archi. Sono possibili diversi tipi di vincoli tra le attività del progetto (non solo Finish to Start). Non sono necessarie attività fittizie (Dummies) per modellare attese e sovrapposizioni.

In Francia, alla fine degli anni 50, lo MPM fu applicato alla costruzione della prima centrale nucleare del paese.

In Italia una delle prime applicazioni, se non la prima in un cantiere di una certa importanza, fu quella fatta dall’Ing. Ugo De Simoni direttore della divisione Costruzioni, Fabbricati ed Impianti della Olivetti per l’ampliamento dello stabilimento di macchine da calcolo di Pozzuoli che venne completato nel 1963. Il Grafo comprendeva oltre 600 nodi ed il nuovo computer a transistor Elea 9003, della divisione elettronica, impiegò meno di 3 minuti per stampare date Early e Late di ciascuna attività, gli scorrimenti ammissibili e l’indicazione delle attività critiche.

Oggi il Precedence Drawing Method (PDM), che ricalca la metodologia di Roy, è quello generalmente richiesto dai clienti, adottato dai contrattisti internazionali ed implementato nei principali softwares commerciali di project management. In figura un esempio di reticolo AON in cui le attività critiche (quelle che se ritardate mandano in ritardo il completamento dell’intero progetto) sono rappresentate come di consueto in rosso. Tra le attività B e C esiste sia un legame di tipo SS (Start to Start) che di tipo FF (Finish to Finish): in pratica l’attività C non può iniziare se non è iniziata B e non può finire se non è finita B.’

Decisioni multi criteri

roy2.png

Bernard Roy, lavorando sui processi decisionali e sulle scelte a criteri multipli (MCDM: Multi Criteria Decision Making) ha sviluppato delle tecniche di supporto alle decisioni che sono originali e non standard nell’ambito delle consuete metodologie OR-MS (Operation Research – Management Science). Infatti quasi tutti i lavori in questo settore sono caratterizzati dalla adesione ai seguenti principi:

1) La razionalità nelle scelte implica l’uso di un unico criterio che deve essere massimizzato.

2) Il criterio da ottimizzare è indicato dal decisore e formalizzato da un analista del problema.

3) Le informazioni qualitative e i dati ambigui debbono, se possibile, essere evitati.

4) I modelli debbono descrivere realtà che sono indipendenti dall’osservatore.

Roy si rese conto ben presto che nei problemi reali delle organizzazioni questi principi raramente sono validi. Innanzi tutto spesso non si ha un solo criterio da ottimizzare, ma se ne hanno diversi che possono essere più o meno concordanti, discordanti o incommensurabili. Egli, partendo dalle difficoltà incontrate con i consueti metodi di pesatura tra i criteri, mise a punto i metodi ELECTRE (ELimination Et Choix Traduisant la REalitè) che si basano su confronti a coppie tra i criteri e su relazioni di preferenza forte, debole, surclassamento e incommensurabilità tra le possibili scelte.

Anche il decisore raramente è unico; si hanno nella realtà diversi attori (o stakeholders) con diverse opinioni che interagiscono tra loro. Dunque invece di un momento forte di scelta da parte del Decisore si ha un processo che si svolge nel tempo e in cui i vari attori interagiscono tra loro con vicende ed esiti molteplici. Le informazioni qualitative, i dati ambigui, l’incertezza e le situazioni poco chiare sono parte essenziale dei problemi reali e pertanto non possono essere evitate, ma debbono al contrario essere prese in seria considerazione. Questo non significa che i modelli matematici di ottimizzazione non servono a nulla, ma solamente che la soluzione ottimale di un modello non sempre può essere utilmente trascritta e implementata in una situazione reale.

Negli ultimi tempi Roy si è dedicato allo studio della "robustezza" nell’ambito del supporto alle decisioni. Ciò significa che invece di concentrarsi unicamente sulla ricerca della soluzione ottimale è opportuno cercare soluzioni realistiche e robuste, cioè soluzioni che restano valide ed efficaci anche per ragionevoli variazioni dei dati e dei parametri d’ingresso.