Text
stringlengths
1
19.1k
Language
stringclasses
17 values
Il primo di tali abstract ad avere un link a Wikipedia fu A White Collar Protein Senses Blue Light (Linden, 2002), e da allora altre ne seguirono.
Italian
Tali collegamenti, tuttavia, sono proposti al lettore solo come letture supplementari e non come fonti usate dall'autore dell'articolo, e le enhanced perspectives non sono pensate per servire, esse stesse, da materiale di riferimento.
Italian
In un articolo del 2004, The Faith-Based Encyclopedia (L'enciclopedia basata sulla fiducia) l'ex direttore della Britannica Robert McHenry, criticò l'approccio wiki, sostenendo che «…per quanto vicina — in qualche momento della sua vita — al raggiungimento della credibilità, una voce di Wikipedia è sempre aperta a qualche ficcanaso poco informato o semi acculturato… L'utente che visita Wikipedia per apprendere qualche argomento, per confermare qualche dato di fatto, è piuttosto nella posizione dell'avventore di un bagno pubblico.
Italian
Potrebbe essere palesemente sporco, così che egli sa di dover fare molta attenzione, o potrebbe sembrare discretamente pulito, così che egli potrebbe farsi cullare dal falso senso di sicurezza.
Italian
Ciò che certamente non può sapere è chi ha usato i servizi prima di lui».
Italian
Per rispondere a tale critica sono stati proposti metodi per indicare l'origine del materiale nelle voci di Wikipedia.
Italian
L'idea è di fornire una provenienza della fonte su ciascun intervallo del testo di una voce, e una provenienza temporale per indicarne l'annata.
Italian
In questo modo il lettore può conoscere «chi ha usato i servizi prima di lui» e quanto tempo la comunità ha impiegato per elaborare e giudicare le informazioni contenute in una voce allo scopo di fornire una calibratura sul "senso di sicurezza".
Italian
Comunque, queste proposte riguardanti la provenienza sono abbastanza controverse.
Italian
Uno degli ideatori del progetto, Larry Sanger, criticò Wikipedia nel 2004, per la sua supposta filosofia anti-elitaria di attivo disprezzo per la competenza.
Italian
Il processo di redazione di Wikipedia presuppone che l'esposizione di una voce a molti utenti conduca, con il tempo di per sé, all'accuratezza.
Italian
Facendo riferimento alla Legge di Linus sullo sviluppo open source, Sanger aveva in passato sostenuto che «dati sufficienti occhi, tutti gli errori sono superficiali».
Italian
Jōichi Itō, personaggio di spicco del mondo tecnologico, ha poi scritto, a proposito dell'autorità in Wikipedia, che «sebbene dipenda un po' dall'argomento, l'interrogativo è se qualcosa sia con tutta probabilità vera quando provenga da una fonte il cui curriculum suoni autorevole oppure da una fonte che sia stata esaminata da centinaia di migliaia di persone (con la capacità di commentare) e sia sopravvissuta».
Italian
Al contrario, in un test informale sulla capacità di Wikipedia di individuare informazioni errate, l'autore sottolineò che il processo usato in Wikipedia «non è realmente un meccanismo in grado di verificare i fatti tanto quanto lo sarebbe un meccanismo di voto» e che un materiale che non apparisse apertamente falso verrebbe accettato come vero.
Italian
Wikipedia è stata accusata di insufficienza nella conoscenza a causa della sua natura volontaria e di riflettere i pregiudizi sistemici dei suoi collaboratori.
Italian
Il redattore capo della Britannica, Dale Hoiberg, ha commentato che «le persone scrivono di cose alle quali sono interessate, perciò molti argomenti non vengono coperti e le notizie di attualità sono trattate con molto dettaglio.
Italian
Nell'edizione inglese di Wikipedia la voce sull'uragano Frances è lunga cinque volte quella sull'arte cinese, e la voce sulla soap opera Coronation Street è lunga il doppio di quella sul primo ministro inglese Tony Blair.» L'ex redattore capo di Nupedia, Larry Sanger, affermò nel 2004 che «quando si tratta di argomenti relativamente specializzati (al di fuori degli interessi di molti dei collaboratori), la credibilità del progetto è molto irregolare».
Italian
Wikipedia è stata elogiata poiché, come wiki, permette alle voci di essere aggiornate o create in risposta ad avvenimenti di attualità.
Italian
Per esempio, la voce sul maremoto dell'Oceano Indiano nella sua edizione inglese venne citata spesso dalla stampa poco dopo l'episodio.
Italian
I suoi redattori hanno anche affermato che Wikipedia, come sito web è capace di includere voci su un più ampio numero di argomenti di quanto potrebbe fare un'enciclopedia stampata.
Italian
La rivista di informatica tedesca c't nell'ottobre 2004 ha fatto un confronto tra le enciclopedie Brockhaus Premium, Microsoft Encarta e Wikipedia.
Italian
Degli esperti hanno valutato 66 voci in varie discipline.
Italian
Nel punteggio complessivo, Wikipedia ha ottenuto 3,6 punti su 5, la Brockhaus Premium 3,3 e Microsoft Encarta 3,1.
Italian
In un'analisi sulle enciclopedie online, i professori della Indiana University Emigh e Herring, hanno poi sostenuto che «Wikipedia apporta miglioramenti alle tradizionali fonti di informazione, specialmente per le aree in cui è forte, come tecnologia e avvenimenti d'attualità».
Italian
Alla fine del 2005 è sorta una controversia dopo che il giornalista John Seigenthaler Sr. aveva notato come la sua biografia fosse stata vandalizzata inserendo informazioni false.
Italian
Ciò ha portato alla decisione di restringere – nell'edizione di Wikipedia in inglese – la possibilità di creare nuove voci ai soli utenti registrati.
Italian
La rivista scientifica Nature nel 2005 riportava (anche in risposta al caso Seigenthaler) i risultati di uno studio comparato secondo cui le voci scientifiche in Wikipedia erano comparabili in accuratezza a quelle presenti nell'Enciclopedia Britannica (sull'edizione inglese di Wikipedia furono riscontrati una media di 4 errori per voce contro i 3 della Britannica).
Italian
[46][47][48] La ricerca di Nature fece notevole scalpore nei media, dai quali è stata spesso citata come dimostrazione dell'efficacia dei progetti basati sul crowdsourcing.
Italian
Secondo un nuovo studio condotto nel 2012 dalla società Epic e da alcuni ricercatori dell'università di Oxford, Wikipedia è divenuta più precisa, documentata e aggiornata rispetto alla Britannica.
Italian
[49][50] Tra il 28 dicembre 2005 e il 10 gennaio 2006 l'edizione in lingua italiana di Wikipedia è stata sottoposta a un esperimento da parte del settimanale L'espresso, che ha inserito volutamente quattro errori in altrettante voci dell'enciclopedia (Álvaro Recoba, Ugo Foscolo, Giovanni Spadolini, Georg Hegel) e una voce del tutto inventata su un inesistente poeta di nome Carlo Zamolli.
Italian
La voce Álvaro Recoba è stata corretta in poco più di un'ora.
Italian
La voce Georg Hegel è stata corretta dopo dieci giorni.
Italian
Le altre due voci contenenti gli inserimenti errati e la voce inventata sono state corrette solo dopo l'uscita del settimanale nelle edicole.
Italian
Come ulteriore esempio una voce intitolata Elia Spallanzani, del tutto inventata, inserita l'8 gennaio 2005 non è stata corretta fino al 19 maggio 2006: nel corso della procedura di cancellazione la voce è stata modificata in modo da chiarire che si trattava di una biografia immaginaria.
Italian
Nel suo pamphlet sulla specializzazione, frammentazione e disgregazione del sapere,[51] Lucio Russo conclude: «Non è facile prevedere l'esito dell'esperimento sociologico-culturale di massa di Wikipedia, ma credo che in ogni caso questo tentativo di ricostruire dal basso uno strumento condivisibile di conoscenza, al quale stanno partecipando milioni di volontari di tutto il mondo, costituisca un'esperienza da cui non si potrà prescindere in futuro e autorizza qualche timida speranza.» Wikipedia ha vinto due premi importanti nel maggio 2004: il primo è stato un Golden Nica per le Comunità Digitali all'interno del Prix Ars Electronica di Linz in Austria[52], in cui annualmente sono consegnati premi nel campo dell'arte elettronica ed interattiva, dell'animazione al computer, della cultura digitale e della musica.
Italian
Questo premio fu accompagnato da un finanziamento di 10.000 euro e da un invito a presenziare al PAE Cyberarts Festival di quell'anno.
Italian
Il secondo è stato un Webby Award (premio annuale per i migliori siti web) proposto dalla giuria per la categoria "Comunità".
Italian
Wikipedia è anche stata nominata per il premio della categoria "Migliori attività".
Italian
Nel settembre 2004 l'edizione giapponese di Wikipedia ha ottenuto un Premio per la Creazione Web dalla Associazione Inserzionisti del Giappone.
Italian
Questo premio, normalmente consegnato a singole persone che si sono distinte per il loro contributo al web in giapponese, è stato ritirato da un collaboratore di lunga data, per conto del progetto.
Italian
Wikipedia ha ricevuto plausi da fonti giornalistiche quali BBC News, USA Today, The Economist, Newsweek, BusinessWeek, il Chicago Sun-Times, Time Magazine e Wired Magazine[senza fonte].
Italian
A dicembre 2005 la Wikipedia in italiano ha ricevuto due premi nell'ambito del Premio WWW 2005, organizzato da Il Sole 24 Ore: Nell'edizione 2007 dello stesso premio si aggiudica la categoria Portali, siti di informazione & community.
Italian
[54] Nel 2009 il lancio di Wikipedia (avvenuto nel 2001) è stato inserito da Webby Awards nei 10 momenti più importanti per Internet nell'ultimo decennio (2000-2009).
Italian
[55] Wikipedia è riconosciuta dal Guinness World Records (Guinness dei primati) come la più grande enciclopedia online[56] e come la più grande enciclopedia in assoluto.
Italian
[4] Altri progetti L’apprendimento automatico (nella letteratura di lingua anglosassone machine learning) è una branca dell'intelligenza artificiale che raccoglie metodi sviluppati negli ultimi decenni del XX secolo in varie comunità scientifiche, sotto diversi nomi quali: statistica computazionale, riconoscimento di pattern, reti neurali artificiali, filtraggio adattivo, teoria dei sistemi dinamici, elaborazione delle immagini, data mining, algoritmi adattivi, ecc; che utilizza metodi statistici per migliorare la performance di un algoritmo nell'identificare pattern nei dati.
Italian
Nell'ambito dell'informatica, l'apprendimento automatico è una variante alla programmazione tradizionale nella quale in una macchina si predispone l'abilità di apprendere qualcosa dai dati in maniera autonoma, senza istruzioni esplicite[1][2].
Italian
Arthur Samuel, che coniò il termine nel 1959[3], in linea di principio identifica due approcci distinti.
Italian
Il primo metodo, indicato come rete neurale, sviluppa macchine ad apprendimento automatico per impiego generale il cui comportamento è appreso da una rete di commutazione connessa casualmente, a seguito di una routine di apprendimento basata su ricompensa e punizione (apprendimento per rinforzo).
Italian
Il secondo metodo, più specifico, consiste nel riprodurre l'equivalente di una rete altamente organizzata progettata per imparare solo attività specifiche.
Italian
La seconda procedura, che necessita di supervisione e richiede la riprogrammazione per ogni nuova applicazione, è molto più efficiente dal punto di vista computazionale.
Italian
L'apprendimento automatico è strettamente legato al riconoscimento di pattern e alla teoria computazionale dell'apprendimento[4] ed esplora lo studio e la costruzione di algoritmi che possano apprendere da un insieme di dati e fare delle predizioni su questi,[5] costruendo in modo induttivo un modello basato su dei campioni.
Italian
L'apprendimento automatico viene impiegato in quei campi dell'informatica nei quali progettare e programmare algoritmi espliciti è impraticabile; tra le possibili applicazioni citiamo il filtraggio delle email per evitare spam, l'individuazione di intrusioni in una rete o di intrusi che cercano di violare dati,[6] il riconoscimento ottico dei caratteri[7], i motori di ricerca e la visione artificiale.
Italian
L'apprendimento automatico è collegato, e spesso si sovrappone, alla statistica computazionale, che si occupa dell'elaborazione di predizioni tramite l'uso di computer.
Italian
L'apprendimento automatico è anche fortemente legato all'ottimizzazione matematica, che fornisce metodi, teorie e domini di applicazione a questo campo.
Italian
Per usi commerciali, l'apprendimento automatico è conosciuto come analisi predittiva.
Italian
L'apprendimento automatico si sviluppa con lo studio dell'intelligenza artificiale, e vi è strettamente collegato: infatti già dai primi tentativi di definire l'intelligenza artificiale come disciplina accademica, alcuni ricercatori si erano mostrati interessati alla possibilità che le macchine imparassero dai dati.
Italian
Questi ricercatori, in particolare Marvin Minsky, Arthur Samuel e Frank Rosenblatt, provarono ad avvicinarsi al problema sia attraverso vari metodi formali, sia con quelle che vengono definite reti neurali nei tardi anni '50.
Italian
Le reti neurali erano allora costituite da singoli percettroni e da modelli matematici derivati dal modello lineare generalizzato della statistica, come l'ADALINE di Widrow[8][9].
Italian
Si provò a sfruttare anche ragionamenti probabilistici, in particolare nelle diagnosi mediche automatiche[10].
Italian
Sempre negli anni '50, Alan Turing propose l'idea di una macchina che apprende, ovvero in grado di imparare e dunque diventare intelligente.
Italian
La proposta specifica di Turing anticipa gli algoritmi genetici[11].
Italian
Tuttavia già dalla metà degli anni '50 lo studio dell'intelligenza artificiale si stava concentrando su approcci logici di tipo knowledge-based, nota oggi sotto il nome di GOFAI, causando un distacco tra lo studio dell'IA e quello dell'apprendimento automatico.
Italian
Sistemi di tipo probabilistico erano invasi di problemi sia teoretici sia pratici in termini di acquisizione e rappresentazione dei dati[10].
Italian
Negli anni Ottanta, i sistemi esperti dominavano il campo dell'IA, e i sistemi basati sulla statistica non venivano più studiati[12].
Italian
Lo studio dell'apprendimento simbolico e knowledge-based continuò nell'ambito dell'IA, portando a sviluppare la programmazione logica induttiva, ma ora la ricerca più prettamente statistica si svolgeva al di fuori del campo vero e proprio dell'intelligenza artificiale, nel riconoscimento di pattern e nell'information retrieval[10].
Italian
Un altro motivo per cui lo studio dell'apprendimento automatico fu abbandonato fu la pubblicazione del libro Perceptrons: an introduction to computational geometry di Marvin Minsky e Seymour Papert, che vi descrivevano alcune delle limitazioni dei percettroni e delle reti neurali.
Italian
La ricerca sulle reti neurali subì un significativo rallentamento a causa dell'interpretazione del libro, che le descriveva come intrinsecamente limitate[13][14].
Italian
Anche la linea di ricerca sulle reti neurali continuò al di fuori del campo dell'IA, portata avanti da ricercatori provenienti da altre discipline quali Hopfield, Rumelhart, Hinton e Fukushima.
Italian
Il loro successo principale fu a metà degli anni '80 con la riscoperta della backpropagation[10] e della self-organization[15].
Italian
L'apprendimento automatico, sviluppatosi come campo di studi separato dall'IA classica, cominciò a rifiorire negli anni '90.
Italian
Il suo obiettivo cambiò dall'ottenere l'intelligenza artificiale ad affrontare problemi risolvibili di natura pratica.
Italian
Distolse inoltre la propria attenzione dagli approcci simbolici che aveva ereditato dall'IA, e si diresse verso metodi e modelli presi in prestito dalla statistica e dalla teoria della probabilità[12].
Italian
L'apprendimento automatico ha inoltre beneficiato dalla nascita di Internet, che ha reso l'informazione digitale più facilmente reperibile e distribuibile.
Italian
Tom M. Mitchell ha fornito la definizione più citata di apprendimento automatico nel suo libro "Machine Learning": "Si dice che un programma apprende dall'esperienza E con riferimento a alcune classi di compiti T e con misurazione della performance P, se le sue performance nel compito T, come misurato da P, migliorano con l'esperienza E."[16] In poche parole, si potrebbe semplificare dicendo che un programma apprende se c'è un miglioramento delle prestazioni dopo un compito svolto.
Italian
Questa definizione di Mitchell è rilevante poiché fornisce una definizione operativa dell'apprendimento automatico, invece che in termini cognitivi.
Italian
Fornendo questa definizione, Mitchell di fatto segue la proposta che Alan Turing fece nel suo articolo "Computing Machinery and Intelligence", sostituendo la domanda "Le macchine possono pensare?"
Italian
con la domanda "Le macchine possono fare quello che noi (in quanto entità pensanti) possiamo fare?"[17].
Italian
L'obiettivo principe dell'apprendimento automatico è che una macchina sia in grado di generalizzare dalla propria esperienza[18], ossia che sia in grado di svolgere ragionamenti induttivi.
Italian
In questo contesto, per generalizzazione si intende l'abilità di una macchina di portare a termine in maniera accurata esempi o compiti nuovi, che non ha mai affrontato, dopo aver fatto esperienza su un insieme di dati di apprendimento.
Italian
Gli esempi di addestramento (in inglese chiamati training examples) si assume provengano da una qualche distribuzione di probabilità, generalmente sconosciuta e considerata rappresentativa dello spazio delle occorrenze del fenomeno da apprendere; la macchina ha il compito di costruire un modello probabilistico generale dello spazio delle occorrenze, in maniera tale da essere in grado di produrre previsioni sufficientemente accurate quando sottoposta a nuovi casi.
Italian
L'analisi computazionale degli algoritmi di apprendimento automatico e delle loro prestazioni è una branca dell'Informatica teorica chiamata teoria dell'apprendimento.
Italian
Dato che gli esempi di addestramento sono insiemi finiti di dati e non c'è modo di sapere l'evoluzione futura di un modello, la teoria dell'apprendimento non offre alcuna garanzia sulle prestazioni degli algoritmi.
Italian
D'altro canto, è piuttosto comune che tali prestazioni siano vincolate da limiti probabilistici.
Italian
Il bias-variance tradeoff è uno dei modi di quantificare l'errore di generalizzazione.
Italian
Affinché la generalizzazione offra le migliori prestazioni possibili, la complessità dell'ipotesi induttiva deve essere pari alla complessità della funzione sottostante i dati.
Italian
Se l'ipotesi è meno complessa della funzione, allora il modello manifesta underfitting.
Italian
Quando la complessità del modello viene aumentata in risposta, allora l'errore di apprendimento diminuisce.
Italian
Al contrario invece se l'ipotesi è troppo complessa, allora il modello manifesta overfitting e la generalizzazione sarà più scarsa[19].
Italian
Oltre ai limiti di prestazioni, i teorici dell'apprendimento studiano la complessità temporale e la fattibilità dell'apprendimento stesso.
Italian
Una computazione è considerata fattibile se può essere svolta in tempo polinomiale.
Italian
I compiti dell'apprendimento automatico vengono tipicamente classificati in tre ampie categorie, a seconda della natura del "segnale" utilizzato per l'apprendimento o del "feedback" disponibile al sistema di apprendimento.
Italian
Queste categorie, anche dette paradigmi, sono:[10] A metà strada tra l'apprendimento supervisionato e quello non supervisionato c'è l'apprendimento semi-supervisionato, nel quale l'insegnante fornisce un dataset incompleto per l'allenamento, cioè un insieme di dati per l'allenamento tra i quali ci sono dati senza il rispettivo output desiderato.
Italian
La trasduzione è un caso speciale di questo principio, nel quale l'intero insieme delle istanze del problema è noto durante l'apprendimento, eccetto la parte degli output desiderati che è mancante.
Italian
Un'altra categorizzazione dei compiti dell'apprendimento automatico si rileva quando si considera l'output desiderato del sistema di apprendimento automatico.
Italian
[20] L'apprendimento automatico e la statistica sono discipline strettamente collegate.
Italian
Secondo Michael I. Jordan, le idee dell'apprendimento automatico, dai principi metodologici agli strumenti teorici, sono stati sviluppati prima in statistica[22].
Italian
Jordan ha anche suggerito il termine data science come nome con cui chiamare l'intero campo di studi[22].
Italian
Leo Breiman ha distinto due paradigmi statistici di modellazione: modello basato sui dati e modello basato sugli algoritmi[23], dove "modello basato sugli algoritmi" indica approssimativamente algoritmi di apprendimento automatico come la foresta casuale.
Italian
Alcuni statistici hanno adottato metodi provenienti dall'apprendimento automatico, il che ha portato alla creazione di una disciplina combinata chiamata "apprendimento statistico"[24].
Italian
L'apprendimento automatico viene a volte unito al data mining,[25] che si focalizza maggiormente sull'analisi esplorativa dei dati ed utilizza principalmente il paradigma di apprendimento chiamato "apprendimento non supervisionato"[26].
Italian