Halloween (corrispondente alla vigilia della festa cristiana di Ognissanti) è il nome di una festa popolare di origine pre-cristiana ora tipicamente americana e canadese. Tuttavia le sue origini antichissime affondano nel più remoto passato delle tradizioni europee: viene fatta infatti risalire al 4000 a.C. quando le popolazioni tribali usavano dividere l'anno in due parti in base alla transumanza del bestiame. Nel periodo fra ottobre e novembre la terra si prepara all'inverno ed era necessario - allora come adesso - ricoverare il bestiame in luogo chiuso per garantirgli la sopravvivenza alla stagione fredda: è questo il periodo di Halloween.
Si celebra il 31 ottobre.
mercoledì 31 ottobre 2007
Un pò di stop...
Finalmente da domani siamo a casa per il ponte di ogni santi per la commwmorazione dei defunti...In questi giorni dovrò studiare...uff...
lunedì 29 ottobre 2007
Esame teoria
Stamattina alle ore 8.30 circa ho sostenuto l'esame di teoria per la patente...
Devo dire che la scheda non era facilissima...ma in fine tutto bene...
Sono stata promossa!
venerdì 26 ottobre 2007
Shuttle Discovery
CAPE CANAVERAL, Usa (Reuters) - Lo shuttle spaziale Discovery è decollato martedi 23 ottobre dalla base in Florida.A bordo del Discovery c'è anche l'astronauta italiano dell'Esa Paolo Nespoli oltre a tecnologia italiana di Thales Alenia Space, joint venture fra Finmeccanica e Thales.Lo Shuttle Discovery è regolarmente entrato in orbita per proseguire la sua corsa verso la struttura orbitante dove oggi ha ormeggiato alla Stazione Spaziale Internazionale nell'ambito della missione per preparare l'avamposto orbitale alla realizzazione dei nuovi laboratori europeo e giapponese.Lo shuttle, che porta con sé un modulo costruito dall'Italia come ancoraggio per i nuovi laboratori, si è agganciato alla stazione, in orbita a oltre 320 chilometri dalla Terra dopo un viaggio di circa due giorni è l'equipaggio,coordinato da Nespoli,ha agganciato con una spettacolare manovra il Nodo 2 alla Stazione, ampliando e completandone così lo spazio abitativo.Completamente diverso e più avanzato e complesso del Nodo 1, realizzato negli Usa, il Nodo 2 e il suo gemello numero 3 (che sarà impiegato nell'ultima missione Shuttle della Nasa) sono stati progettati, sviluppati e realizzati da Thales Alenia Space, che ha anche avuto il compito di fornire il necessario supporto alla Nasa nelle verifiche finali e nella preparazione al lancio. Attività di supporto che proseguirà durante tutte le fasi della missione attraverso il Centro Altec di cui anche Thales Alenia Space e Asi fanno parte.Il Discovery effettuerà una missione di 14 giorni per rifornire la postazione spaziale, preparando la strada alla realizzazione del primo laboratorio permanente in orbita a disposizione dell'Europa.
martedì 23 ottobre 2007
LA BUSTINA DI MINERVA
A che serve il professore?
di Umberto Eco
Internet offre agli studenti molte più informazioni che la scuola. Ma poi c'è bisogno di qualcuno che li aiuti a cercare, filtrare e selezionare
Nella valanga di articoli sul bullismo nelle scuole ho letto di un episodio che proprio di bullismo non definirei ma al massimo d'impertinenza - e tuttavia si tratta di una impertinenza significativa. Dunque, si diceva che uno studente, per provocare un professore, gli avrebbe chiesto: "Scusi, ma nell'epoca d'Internet, Lei che cosa ci sta a fare?".
Lo studente diceva una mezza verità, che tra l'altro persino i professori dicono da almeno vent'anni, e cioè che una volta la scuola doveva trasmettere certamente formazione ma anzitutto nozioni, dalle tabelline nelle elementari, alle notizie sulla capitale del Madagascar nelle medie, sino alla data della guerra dei trent'anni nel liceo. Con l'avvento, non dico di Internet, ma della televisione e persino della radio, e magari già con l'avvento del cinema, gran parte di queste nozioni venivano assorbite da ragazzi nel corso della vita extrascolastica.
Mio padre da piccolo non sapeva che Hiroshima fosse in Giappone, che esistesse Guadalcanal, aveva notizie imprecise di Dresda, e sapeva dell'India quello che gli raccontava Salgari. Io sin dai tempi della guerra queste cose le ho apprese dalla radio e dalle cartine sui quotidiani, mentre i miei figli hanno visto in televisione i fiordi norvegesi, il deserto di Gobi, come le api impollinano i fiori, com'era un Tyrannosaurus Rex; e infine un ragazzo d'oggi sa tutto sull'ozono, sui koala, sull'Iraq e sull'Afghanistan. Forse un ragazzo d'oggi non sa dire bene che cosa siano le staminali ma le ha sentite nominare, mentre ai miei tempi non ce lo diceva neppure la professoressa di scienze naturali. E allora che ci stanno a fare gli insegnanti?
Ho detto che quella dello studente di cui parlavo era solo una mezza verità, perché anzitutto l'insegnante oltre che informare deve formare. Quello che fa di una classe una buona classe non è che vi si apprendano date e dati ma che si stabilisca un dialogo continuo, un confronto di opinioni, una discussione su quanto si apprende a scuola e quanto avviene di fuori. Certo, che cosa accada in Iraq ce lo dice la televisione, ma perché qualcosa accada sempre lì, sin dai tempi della civiltà mesopotamica, e non in Groenlandia, lo può dire solo la scuola. E se qualcuno obiettasse che talora ce lo dicono persone anche autorevoli a 'Porta a Porta', è la scuola che deve discutere 'Porta a Porta'. I mass media ci dicono tante e cose e ci trasmettono persino dei valori, ma la scuola dovrebbe saper discutere il modo in cui ce lo trasmettono, e valutare il tono e la forza delle argomentazioni che vengono svolte sulla carta stampata e in televisione. E poi c'è la verifica delle informazioni trasmesse dai media: per esempio, chi se non un insegnante può correggere le pronunce sbagliate di quell'inglese che ciascuno crede di imparare dalla televisione?
Ma lo studente non stava dicendo al professore che non aveva bisogno di lui perché erano ormai radio e televisione a dirgli dove stia Timbuctu o che si è discusso sulla fusione fredda, e cioè non gli stava dicendo che il suo ruolo era stato assunto da discorsi per così dire sciolti, che circolano in modo casuale e disordinato giorno per giorno sui vari media - e che se sappiamo molto sull'Iraq e poco sulla Siria dipende dalla buona o cattiva volontà di Bush. Lo studente stava dicendo che oggi esiste Internet, la Gran Madre di tutte le Enciclopedie, dove si trovano la Siria, la fusione fredda, la guerra dei trent'anni e la discussione infinita sul più alto dei numeri dispari. Gli stava dicendo che le informazioni che Internet gli mette a disposizione sono immensamente più ampie e spesso più approfondite di quelle di cui dispone il professore. E trascurava un punto importante: che Internet gli dice 'quasi tutto', salvo come cercare, filtrare, selezionare, accettare o rifiutare quelle informazioni.
A immagazzinare nuove informazioni, purché si abbia buona memoria, sono capaci tutti. Ma decidere quali vadano ricordate e quali no è arte sottile. Questo fa la differenza tra chi ha fatto un corso di studi regolari (anche male) e un autodidatta (anche se geniale).
Il problema drammatico è certamente che forse neppure il professore sa insegnare l'arte della selezione, almeno non su ogni capitolo dello scibile. Ma almeno sa che dovrebbe saperlo; e se non sa dare istruzioni precise su come selezionare può fornire l'esempio di qualcuno che si sforza di paragonare e giudicare volta per volta quello che Internet gli mette a disposizione. E infine può mettere quotidianamente in scena lo sforzo per riorganizzare in sistema ciò che Internet gli trasmette in ordine alfabetico, dicendo che esistono Tamerlano e i Monocotiledoni ma non quale sia il rapporto sistematico tra queste due nozioni.
Il senso di questi rapporti può darlo solo la scuola, e se non sa farlo dovrà attrezzarsi per farlo. Altrimenti le tre I di Internet, Inglese e Impresa rimarranno soltanto la prima parte di un raglio d'asino che non sale in cielo
di Umberto Eco
Internet offre agli studenti molte più informazioni che la scuola. Ma poi c'è bisogno di qualcuno che li aiuti a cercare, filtrare e selezionare
Nella valanga di articoli sul bullismo nelle scuole ho letto di un episodio che proprio di bullismo non definirei ma al massimo d'impertinenza - e tuttavia si tratta di una impertinenza significativa. Dunque, si diceva che uno studente, per provocare un professore, gli avrebbe chiesto: "Scusi, ma nell'epoca d'Internet, Lei che cosa ci sta a fare?".
Lo studente diceva una mezza verità, che tra l'altro persino i professori dicono da almeno vent'anni, e cioè che una volta la scuola doveva trasmettere certamente formazione ma anzitutto nozioni, dalle tabelline nelle elementari, alle notizie sulla capitale del Madagascar nelle medie, sino alla data della guerra dei trent'anni nel liceo. Con l'avvento, non dico di Internet, ma della televisione e persino della radio, e magari già con l'avvento del cinema, gran parte di queste nozioni venivano assorbite da ragazzi nel corso della vita extrascolastica.
Mio padre da piccolo non sapeva che Hiroshima fosse in Giappone, che esistesse Guadalcanal, aveva notizie imprecise di Dresda, e sapeva dell'India quello che gli raccontava Salgari. Io sin dai tempi della guerra queste cose le ho apprese dalla radio e dalle cartine sui quotidiani, mentre i miei figli hanno visto in televisione i fiordi norvegesi, il deserto di Gobi, come le api impollinano i fiori, com'era un Tyrannosaurus Rex; e infine un ragazzo d'oggi sa tutto sull'ozono, sui koala, sull'Iraq e sull'Afghanistan. Forse un ragazzo d'oggi non sa dire bene che cosa siano le staminali ma le ha sentite nominare, mentre ai miei tempi non ce lo diceva neppure la professoressa di scienze naturali. E allora che ci stanno a fare gli insegnanti?
Ho detto che quella dello studente di cui parlavo era solo una mezza verità, perché anzitutto l'insegnante oltre che informare deve formare. Quello che fa di una classe una buona classe non è che vi si apprendano date e dati ma che si stabilisca un dialogo continuo, un confronto di opinioni, una discussione su quanto si apprende a scuola e quanto avviene di fuori. Certo, che cosa accada in Iraq ce lo dice la televisione, ma perché qualcosa accada sempre lì, sin dai tempi della civiltà mesopotamica, e non in Groenlandia, lo può dire solo la scuola. E se qualcuno obiettasse che talora ce lo dicono persone anche autorevoli a 'Porta a Porta', è la scuola che deve discutere 'Porta a Porta'. I mass media ci dicono tante e cose e ci trasmettono persino dei valori, ma la scuola dovrebbe saper discutere il modo in cui ce lo trasmettono, e valutare il tono e la forza delle argomentazioni che vengono svolte sulla carta stampata e in televisione. E poi c'è la verifica delle informazioni trasmesse dai media: per esempio, chi se non un insegnante può correggere le pronunce sbagliate di quell'inglese che ciascuno crede di imparare dalla televisione?
Ma lo studente non stava dicendo al professore che non aveva bisogno di lui perché erano ormai radio e televisione a dirgli dove stia Timbuctu o che si è discusso sulla fusione fredda, e cioè non gli stava dicendo che il suo ruolo era stato assunto da discorsi per così dire sciolti, che circolano in modo casuale e disordinato giorno per giorno sui vari media - e che se sappiamo molto sull'Iraq e poco sulla Siria dipende dalla buona o cattiva volontà di Bush. Lo studente stava dicendo che oggi esiste Internet, la Gran Madre di tutte le Enciclopedie, dove si trovano la Siria, la fusione fredda, la guerra dei trent'anni e la discussione infinita sul più alto dei numeri dispari. Gli stava dicendo che le informazioni che Internet gli mette a disposizione sono immensamente più ampie e spesso più approfondite di quelle di cui dispone il professore. E trascurava un punto importante: che Internet gli dice 'quasi tutto', salvo come cercare, filtrare, selezionare, accettare o rifiutare quelle informazioni.
A immagazzinare nuove informazioni, purché si abbia buona memoria, sono capaci tutti. Ma decidere quali vadano ricordate e quali no è arte sottile. Questo fa la differenza tra chi ha fatto un corso di studi regolari (anche male) e un autodidatta (anche se geniale).
Il problema drammatico è certamente che forse neppure il professore sa insegnare l'arte della selezione, almeno non su ogni capitolo dello scibile. Ma almeno sa che dovrebbe saperlo; e se non sa dare istruzioni precise su come selezionare può fornire l'esempio di qualcuno che si sforza di paragonare e giudicare volta per volta quello che Internet gli mette a disposizione. E infine può mettere quotidianamente in scena lo sforzo per riorganizzare in sistema ciò che Internet gli trasmette in ordine alfabetico, dicendo che esistono Tamerlano e i Monocotiledoni ma non quale sia il rapporto sistematico tra queste due nozioni.
Il senso di questi rapporti può darlo solo la scuola, e se non sa farlo dovrà attrezzarsi per farlo. Altrimenti le tre I di Internet, Inglese e Impresa rimarranno soltanto la prima parte di un raglio d'asino che non sale in cielo
sabato 20 ottobre 2007
venerdì 19 ottobre 2007
CIC
Giovedì 25 ottobre durante le prime 2 ore del pomeriggio ci sarà il primo compito di informatica.Gli argomenti saranno:
- Descrizione di eventi
- Programma php
- Programma pascal
- Intelligenza artificiale
Probabilmente il compito sarà svolto su carta.
- Descrizione di eventi
- Programma php
- Programma pascal
- Intelligenza artificiale
Probabilmente il compito sarà svolto su carta.
giovedì 18 ottobre 2007
Intelligenza artificiale
Con il termine intelligenza artificiale (spesso abbreviato in AI, dall'inglese Artificial Intelligence), si intende generalmente l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana.L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi, la quale manifesta aspetti sia teorici che pratici.Nel suo aspetto puramente informatico, essa comprende la teoria e le tecniche per lo sviluppo di algoritmi che consentano alle macchine (tipicamente ai calcolatori) di mostrare un'abilità e/o attività intelligente, almeno in domini specifici.
L'origine del termine
L'espressione "Intelligenza Artificiale" (Artificial Intelligence) fu coniata nel 1956 dal matematico americano John McCarthy, durante uno storico seminario interdisciplinare svoltosi nel New Hampshire. Secondo le parole di Marvin Minsky, uno dei "pionieri" della I.A., lo scopo di questa nuova disciplina sarebbe stato quello di "far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini".
Storia
I primi passi
In tal senso la storia ha inizio nel XVII secolo quando Blaise Pascal (scienziato, scrittore e filosofo francese) inventa la cosiddetta "Pascalina" per aiutare il padre, incaricato dall'amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. La macchina era capace di eseguire automaticamente addizione e sottrazione; questa "macchina aritmetica" fu la capostipite dei calcolatori ad ingranaggi.In età vittoriana Charles Babbage creò macchine calcolatrici a rotelle: "The difference engine" (la macchina alle differenze) riusciva a fare calcoli differenziali ed arrivò a progettarne una intelligente che però, per problemi tecnici, non riuscì mai a funzionare, avrebbe dovuto essere programmata con schede perforate, un po' come accadde in seguito con i primi calcolatori. Le schede perforate, cartoncini forati a secondo della necessità, furono ampiamente usati per esempio per il funzionamento dei telai Jacquard, di pianole meccaniche, quindi dei primi calcolatori. Hermann Hollerith (statistico U.S.A. di origine tedesca) ideò le schede perforate applicate a calcolatrici attorno al 1885; questo sistema fu usato per la prima volta per i calcoli relativi all'11° censimento U.S.A., nel 1891. Il sistema meccanografico adottato da Hollerith riscosse tale successo da indurlo a fondare la Tabulating Machine corporation. In seguito i calcolatori furono molto usati dai militari per regolare il tiro dell'artiglieria.
La rivoluzione informatica
Se la teoria dell'IA evolve indipendentemente dai progressi scientifici, le sue applicazioni sono fortemente legate agli avanzamenti della tecnologia informatica. Infatti, solo nella seconda metà del XX secolo è possibile disporre di dispositivi di calcolo e linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sull'intelligenza.La struttura dei calcolatori viene stravolta con la sostituzione dei "relè", usati per i primi calcolatori elettromeccanici, con le "valvole" o tubi elettronici. Nel 1946 nasce ENIAC (Electronic Numerical Integrator And Calculator), concepito come calcolatore moderno nel '45 da John von Neumann; faceva l'elaborazione a lotti (batch) nell'ordine di migliaia di informazioni al minuto. La programmazione avveniva comunque tramite schede.La seconda generazione di computer si ha nei '60, "The time sharing", sistemi basati sulla divisione di tempo e quindi più veloci; più terminali, soprattutto telescriventi, sono collegati ad un calcolatore centrale". L'innovazione in questo periodo sta nel passaggio dalle valvole ai transistor.A quell'epoca i programmi erano fortemente condizionati dai limiti dei linguaggi di programmazione, oltre che dai limiti di velocità e memoria degli elaboratori. La svolta si ha proprio tra gli anni '50 e '60, con linguaggi di manipolazione simbolica come l'ILP, il LISP e il POP.
Il punto di svolta
Un punto di svolta della materia si ha con un famoso articolo di Alan Turing sulla rivista Mind nel 1950. Nell'articolo viene indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Quindi la progettazione di macchine intelligenti dipende fortemente dalle possibilità di rappresentazione simbolica del problema.Il test di Turing -così viene chiamata la condizione che la macchina dovrebbe superare per essere considerata intelligente- è stato più volte superato da programmi e più volte riformulato, tanto che queste teorie hanno ricevuto diverse confutazioni. Il filosofo Searle ne espose una famosa, chiamata "la stanza cinese".Nello stesso anno dell'articolo di Turing sull'omonimo test per le macchine pensanti, Arthur Samuel presenta il primo programma capace di giocare a Dama, un risultato molto importante perché dimostra la possibilità di superare i limiti tecnici (il programma era scritto in Assembly e girava su un IBM 704) per realizzare sistemi capaci di risolvere problemi tradizionalmente legati all'intelligenza umana. Per di più, l'abilità di gioco viene appresa dal programma scontrandosi con avversari umani.Nel 1956, alla conferenza di Dartmouth (la stessa conferenza a cui l'IA deve il suo nome), viene mostrato un programma che segna un'altra importante tappa dello sviluppo dell'IA. Il programma LT di Allen Newell, J. Clifford Shaw e Herb Simon rappresenta il primo dimostratore automatico di teoremi.La linea seguita dalla giovane IA si basa quindi sulla ricerca di un automatismo nella creazione di un'intelligenza meccanica. L'approccio segue essenzialmente un'euristica di ricerca basata su tentativi ed errori oltre che investigare su tecniche di apprendimento efficaci.
Verso l'IA moderna
Secondo le parole di Minsky, dopo il 1962 l'IA cambia le sue priorità: essa dà minore importanza all'apprendimento, mentre pone l'accento sulla rappresentazione della conoscenza e sul problema ad essa connesso del superamento del formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi."Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani" (Minsky, 1968).I punti cardine di questa ricerca sono gli studi di Minsky sulla rappresentazione distribuita della conoscenza, quella che viene chiamata la "società delle menti", e il lavoro di John McCarthy sulla rappresentazione dichiarativa della conoscenza. Quest'ultima viene espressa formalmente mediante estensioni della logica dei predicati e può quindi essere manipolata facilmente. Con i suoi studi sul "ragionamento non monotono" e "di default", McCarty contribuisce a porre gran parte delle basi teoriche dell'IA.Il punto di vista psicologico non viene assolutamente trascurato. Ad esempio il programma EPAM (Feigenbaum e Feldman, 1963) esplora la relazione tra memoria associativa e l'atto di dimenticare. Alla Carnegie Mellon University vengono sperimentati programmi per riprodurre i passi del ragionamento, inclusi eventuali errori.L'elaborazione del linguaggio naturale sembra essere un campo destinato a un rapido sviluppo. La traduzione diretta di testi porta però ad insuccessi che influenzeranno per molti anni i finanziamenti in tale campo. Malgrado ciò, viene dimostrato abbastanza presto che si possono ottenere buoni risultati in contesti limitati.I primi anni '70 vedono lo sviluppo dei sistemi di produzione, ossia dei programmi che sfruttano un insieme di conoscenze organizzate in base di dati, attraverso l'applicazione di regole di produzione, per ottenere risposte a domande precise. I sistemi esperti hanno sostituito i sistemi di produzione per via delle difficoltà incontrate da questi ultimi, con particolare riferimento alla necessità di fornire inizialmente la conoscenza in forma esplicita e la poca flessibilità delle regole di produzione. Questi sistemi, di cui Dendral è il più rappresentativo, mostrano le enormi possibilità offerte da un efficace sfruttamento di (relativamente) poche basi di conoscenza per programmi capaci di prendere decisioni o fornire avvisi in molte aree diverse. In pratica l'analisi dei dati è stata razionalizzata e generalizzata.Si pone ora il problema del trattamento dell'incertezza, che è parte costituente della realtà e delle problematiche più comuni. Mycin introduce l'uso di "valori di certezza": un numero associato a ciascun dato e che viene calcolato per la nuova conoscenza inferita.Malgrado ciò, le difficoltà nel trattare correttamente l'incertezza portano ad abbandonare l'uso di sistemi a regole per avvicinarsi a quella che è la moderna IA.
Caratteristiche e dibattiti filosofici
La formulazione attuale
L'IA come viene studiata oggigiorno tratta dell'individuazione dei modelli (appropriata descrizione del problema da risolvere) e degli algoritmi (procedura effettiva per risolvere il modello).Questa formulazione viene studiata con differenti sapori e con approcci differenti. Ognuno dei due aspetti (modellizzazione o algoritmico) ha via via maggiore o minore importanza e varia lungo uno spettro abbastanza ampio.
Creare un computer pensante
Le attività e le capacità dell'Intelligenza Artificiale comprendono:l'apprendimento automatico (machine learning), utile in contesti quale il gioco degli scacchila rappresentazione della conoscenza e il ragionamento automatico in maniera simile a quanto fatto dalla mente umanala pianificazione (planning)la cooperazione tra agenti intelligenti, sia software che hardware (robot)l'elaborazione del linguaggio naturale (Natural Language Processing)la simulazione della visione e dell'interpretazione di immagini, come nel caso dell'OCR.La domanda al centro del dibattito sull'intelligenza artificiale è fondamentalmente una sola: "I computer possono pensare?".Le risposte sono varie e discordi, ma perché abbiano un senso bisogna prima determinare cosa significhi pensare. Ironicamente, nonostante tutti siano d'accordo che gli esseri umani sono intelligenti, nessuno è ancora riuscito a dare una definizione soddisfacente di intelligenza; proprio a causa di ciò, lo studio dell'AI si divide in due correnti:la prima, detta intelligenza artificiale forte, sostenuta dai funzionalisti, ritiene che un computer correttamente programmato possa essere veramente dotato di una intelligenza pura, non distinguibile in nessun senso importante dall'intelligenza umana. L'idea alla base di questa teoria è il concetto che risale al filosofo empirista inglese Thomas Hobbes, il quale sosteneva che ragionare non è nient'altro che calcolare: la mente umana sarebbe dunque il prodotto di un complesso insieme di calcoli eseguiti dal cervello;la seconda, detta intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di eguagliare la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità. (fonte wikipedia)
L'origine del termine
L'espressione "Intelligenza Artificiale" (Artificial Intelligence) fu coniata nel 1956 dal matematico americano John McCarthy, durante uno storico seminario interdisciplinare svoltosi nel New Hampshire. Secondo le parole di Marvin Minsky, uno dei "pionieri" della I.A., lo scopo di questa nuova disciplina sarebbe stato quello di "far fare alle macchine delle cose che richiederebbero l'intelligenza se fossero fatte dagli uomini".
Storia
I primi passi
In tal senso la storia ha inizio nel XVII secolo quando Blaise Pascal (scienziato, scrittore e filosofo francese) inventa la cosiddetta "Pascalina" per aiutare il padre, incaricato dall'amministrazione fiscale della Normandia di eseguire un difficile lavoro di calcolo. La macchina era capace di eseguire automaticamente addizione e sottrazione; questa "macchina aritmetica" fu la capostipite dei calcolatori ad ingranaggi.In età vittoriana Charles Babbage creò macchine calcolatrici a rotelle: "The difference engine" (la macchina alle differenze) riusciva a fare calcoli differenziali ed arrivò a progettarne una intelligente che però, per problemi tecnici, non riuscì mai a funzionare, avrebbe dovuto essere programmata con schede perforate, un po' come accadde in seguito con i primi calcolatori. Le schede perforate, cartoncini forati a secondo della necessità, furono ampiamente usati per esempio per il funzionamento dei telai Jacquard, di pianole meccaniche, quindi dei primi calcolatori. Hermann Hollerith (statistico U.S.A. di origine tedesca) ideò le schede perforate applicate a calcolatrici attorno al 1885; questo sistema fu usato per la prima volta per i calcoli relativi all'11° censimento U.S.A., nel 1891. Il sistema meccanografico adottato da Hollerith riscosse tale successo da indurlo a fondare la Tabulating Machine corporation. In seguito i calcolatori furono molto usati dai militari per regolare il tiro dell'artiglieria.
La rivoluzione informatica
Se la teoria dell'IA evolve indipendentemente dai progressi scientifici, le sue applicazioni sono fortemente legate agli avanzamenti della tecnologia informatica. Infatti, solo nella seconda metà del XX secolo è possibile disporre di dispositivi di calcolo e linguaggi di programmazione abbastanza potenti da permettere sperimentazioni sull'intelligenza.La struttura dei calcolatori viene stravolta con la sostituzione dei "relè", usati per i primi calcolatori elettromeccanici, con le "valvole" o tubi elettronici. Nel 1946 nasce ENIAC (Electronic Numerical Integrator And Calculator), concepito come calcolatore moderno nel '45 da John von Neumann; faceva l'elaborazione a lotti (batch) nell'ordine di migliaia di informazioni al minuto. La programmazione avveniva comunque tramite schede.La seconda generazione di computer si ha nei '60, "The time sharing", sistemi basati sulla divisione di tempo e quindi più veloci; più terminali, soprattutto telescriventi, sono collegati ad un calcolatore centrale". L'innovazione in questo periodo sta nel passaggio dalle valvole ai transistor.A quell'epoca i programmi erano fortemente condizionati dai limiti dei linguaggi di programmazione, oltre che dai limiti di velocità e memoria degli elaboratori. La svolta si ha proprio tra gli anni '50 e '60, con linguaggi di manipolazione simbolica come l'ILP, il LISP e il POP.
Il punto di svolta
Un punto di svolta della materia si ha con un famoso articolo di Alan Turing sulla rivista Mind nel 1950. Nell'articolo viene indicata la possibilità di creare un programma al fine di far comportare un computer in maniera intelligente. Quindi la progettazione di macchine intelligenti dipende fortemente dalle possibilità di rappresentazione simbolica del problema.Il test di Turing -così viene chiamata la condizione che la macchina dovrebbe superare per essere considerata intelligente- è stato più volte superato da programmi e più volte riformulato, tanto che queste teorie hanno ricevuto diverse confutazioni. Il filosofo Searle ne espose una famosa, chiamata "la stanza cinese".Nello stesso anno dell'articolo di Turing sull'omonimo test per le macchine pensanti, Arthur Samuel presenta il primo programma capace di giocare a Dama, un risultato molto importante perché dimostra la possibilità di superare i limiti tecnici (il programma era scritto in Assembly e girava su un IBM 704) per realizzare sistemi capaci di risolvere problemi tradizionalmente legati all'intelligenza umana. Per di più, l'abilità di gioco viene appresa dal programma scontrandosi con avversari umani.Nel 1956, alla conferenza di Dartmouth (la stessa conferenza a cui l'IA deve il suo nome), viene mostrato un programma che segna un'altra importante tappa dello sviluppo dell'IA. Il programma LT di Allen Newell, J. Clifford Shaw e Herb Simon rappresenta il primo dimostratore automatico di teoremi.La linea seguita dalla giovane IA si basa quindi sulla ricerca di un automatismo nella creazione di un'intelligenza meccanica. L'approccio segue essenzialmente un'euristica di ricerca basata su tentativi ed errori oltre che investigare su tecniche di apprendimento efficaci.
Verso l'IA moderna
Secondo le parole di Minsky, dopo il 1962 l'IA cambia le sue priorità: essa dà minore importanza all'apprendimento, mentre pone l'accento sulla rappresentazione della conoscenza e sul problema ad essa connesso del superamento del formalismo finora a disposizione e liberarsi dalle costrizioni dei vecchi sistemi."Il problema della ricerca efficace con euristiche rimane un presupposto soggiacente, ma non è più il problema a quale pensare, per quanto siamo immersi in sotto-problemi più sofisticati, ossia la rappresentazione e modifica di piani" (Minsky, 1968).I punti cardine di questa ricerca sono gli studi di Minsky sulla rappresentazione distribuita della conoscenza, quella che viene chiamata la "società delle menti", e il lavoro di John McCarthy sulla rappresentazione dichiarativa della conoscenza. Quest'ultima viene espressa formalmente mediante estensioni della logica dei predicati e può quindi essere manipolata facilmente. Con i suoi studi sul "ragionamento non monotono" e "di default", McCarty contribuisce a porre gran parte delle basi teoriche dell'IA.Il punto di vista psicologico non viene assolutamente trascurato. Ad esempio il programma EPAM (Feigenbaum e Feldman, 1963) esplora la relazione tra memoria associativa e l'atto di dimenticare. Alla Carnegie Mellon University vengono sperimentati programmi per riprodurre i passi del ragionamento, inclusi eventuali errori.L'elaborazione del linguaggio naturale sembra essere un campo destinato a un rapido sviluppo. La traduzione diretta di testi porta però ad insuccessi che influenzeranno per molti anni i finanziamenti in tale campo. Malgrado ciò, viene dimostrato abbastanza presto che si possono ottenere buoni risultati in contesti limitati.I primi anni '70 vedono lo sviluppo dei sistemi di produzione, ossia dei programmi che sfruttano un insieme di conoscenze organizzate in base di dati, attraverso l'applicazione di regole di produzione, per ottenere risposte a domande precise. I sistemi esperti hanno sostituito i sistemi di produzione per via delle difficoltà incontrate da questi ultimi, con particolare riferimento alla necessità di fornire inizialmente la conoscenza in forma esplicita e la poca flessibilità delle regole di produzione. Questi sistemi, di cui Dendral è il più rappresentativo, mostrano le enormi possibilità offerte da un efficace sfruttamento di (relativamente) poche basi di conoscenza per programmi capaci di prendere decisioni o fornire avvisi in molte aree diverse. In pratica l'analisi dei dati è stata razionalizzata e generalizzata.Si pone ora il problema del trattamento dell'incertezza, che è parte costituente della realtà e delle problematiche più comuni. Mycin introduce l'uso di "valori di certezza": un numero associato a ciascun dato e che viene calcolato per la nuova conoscenza inferita.Malgrado ciò, le difficoltà nel trattare correttamente l'incertezza portano ad abbandonare l'uso di sistemi a regole per avvicinarsi a quella che è la moderna IA.
Caratteristiche e dibattiti filosofici
La formulazione attuale
L'IA come viene studiata oggigiorno tratta dell'individuazione dei modelli (appropriata descrizione del problema da risolvere) e degli algoritmi (procedura effettiva per risolvere il modello).Questa formulazione viene studiata con differenti sapori e con approcci differenti. Ognuno dei due aspetti (modellizzazione o algoritmico) ha via via maggiore o minore importanza e varia lungo uno spettro abbastanza ampio.
Creare un computer pensante
Le attività e le capacità dell'Intelligenza Artificiale comprendono:l'apprendimento automatico (machine learning), utile in contesti quale il gioco degli scacchila rappresentazione della conoscenza e il ragionamento automatico in maniera simile a quanto fatto dalla mente umanala pianificazione (planning)la cooperazione tra agenti intelligenti, sia software che hardware (robot)l'elaborazione del linguaggio naturale (Natural Language Processing)la simulazione della visione e dell'interpretazione di immagini, come nel caso dell'OCR.La domanda al centro del dibattito sull'intelligenza artificiale è fondamentalmente una sola: "I computer possono pensare?".Le risposte sono varie e discordi, ma perché abbiano un senso bisogna prima determinare cosa significhi pensare. Ironicamente, nonostante tutti siano d'accordo che gli esseri umani sono intelligenti, nessuno è ancora riuscito a dare una definizione soddisfacente di intelligenza; proprio a causa di ciò, lo studio dell'AI si divide in due correnti:la prima, detta intelligenza artificiale forte, sostenuta dai funzionalisti, ritiene che un computer correttamente programmato possa essere veramente dotato di una intelligenza pura, non distinguibile in nessun senso importante dall'intelligenza umana. L'idea alla base di questa teoria è il concetto che risale al filosofo empirista inglese Thomas Hobbes, il quale sosteneva che ragionare non è nient'altro che calcolare: la mente umana sarebbe dunque il prodotto di un complesso insieme di calcoli eseguiti dal cervello;la seconda, detta intelligenza artificiale debole, sostiene che un computer non sarà mai in grado di eguagliare la mente umana, ma potrà solo arrivare a simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità. (fonte wikipedia)
mercoledì 17 ottobre 2007
Carta Regionale dei Servizi
Nome:Carta Regionale dei Servizi
Luogo di nascita:Regione Lombardia
Professione:Chiave di accesso ai servizi della Pubblica Amministrazione
Promotore:Regione Lombardia, attraverso Lombardia Informatica e LISIT
Partner industriali di progetto:Telecom Italia, Finsiel, Lutech
Ambito di distribuzione:Cittadini della Regione Lombardia
Modalità di distribuzione:Invio per posta ai singoli cittadini
Funzioni:
-Tessera Sanitaria Nazionale
-Carta Nazionale dei Servizi
-Tessera Europea di Assicurazione Malattia
-Carta di pagamento
-Tesserino del Codice Fiscale
-Sostituisce il tesserino sanitario cartaceo
-Consente l'accesso al Sistema Informativo Socio
-Sanitario regionale
-Permette di usufruire dei servizi della Regione Lombardia e della Pubblica Amministrazione
-Consente l'autenticazione digitale del cittadino in rete e la firma elettronica
martedì 16 ottobre 2007
lunedì 15 ottobre 2007
Partenze
Stamattina ho accompagnato mia nonna in stazione perchè ha preso il treno per tornare a casa...
domenica 14 ottobre 2007
Problemi...
Ecco i punto fondametali per affrontare un problema:
1.capire il problema
2.affrontarlo con strumenti opportuni
3.ricavare una possibile soluzione
4.se non risulta tornare al passo 1
5.passa al prossimo problema
1.capire il problema
2.affrontarlo con strumenti opportuni
3.ricavare una possibile soluzione
4.se non risulta tornare al passo 1
5.passa al prossimo problema
il 2007 è...
Il 2008 è stato proposto come anno internazionale per i diritti umani, l anno corrente invece, il 2007 è:
_Anno del delfino
_Anno eliofisico internazionale
_Anno internazionale di Rumi
_Anno polare internazionale
sabato 13 ottobre 2007
Emeroteca
L'emeroteca è una raccolta di giornali, riviste e pubblicazioni periodiche per consultazione e lettura. Spesso l'emeroteca è un settore specializzato nell'ambito di una biblioteca.Riviste e giornali possono essere conservati sia in forma cartacea sia su microfilm o microfiche.Una emeroteca (il cui etimo ha radice in due parole greche: heméra "giorno" e theka "custodia") è un'istituzione, pubblica o privata, che offre con diverse modalità, l'accesso ad un servizio di catalogazione e consultazione di giornali, riviste e periodici. Un'emeroteca colleziona giornali, archiviando riviste specialistiche e fornendo così spunti di ricerca alle comunità scientifiche, in modo da garantire la possibilità di mantenersi aggiornate sui progressi nei loro rispettivi campi d’interesse.Tali pubblicazioni sono rivolte per lo più a ricercatori, docenti e studenti universitari. Un'emeroteca è dedita però anche alla raccolta dei più comuni quotidiani (permettendo così di preservare la memoria collettiva di un passato più o meno recente) ed ha per scopo quello di "far sì che l'effimera cronaca diventi Storia
venerdì 12 ottobre 2007
Columbus Day
Il Giorno di Colombo (Columbus Day in inglese) è una festa celebrata in molti paesi delle Americhe, per commemorare il giorno dell'arrivo di Cristoforo Colombo nel Nuovo Mondo il 12 ottobre 1492.Feste simili, celebrate come Día de las Culturas (Giorno delle culture) in Costa Rica, Discovery Day (Giorno della scoperta) nelle Bahamas, Hispanic Day (Giorno Spagnolo) in Spagna, e rinominato da poco (nel 2002) Día de la Resistencia Indígena (Giorno della resistenza indiana) in Venezuela, commemorano lo stesso evento.
sabato 6 ottobre 2007
Visite...
Oggi sono arrivati a trovarmi mia nonna Bruna e mio zio Walter da Rimini..
Wow..che bello...!
mercoledì 3 ottobre 2007
martedì 2 ottobre 2007
Iscriviti a:
Post (Atom)