Arthur Samuel, che coniò il termine nel 1959[4], in linea di principio identifica due approcci distinti. Il primo metodo, indicato come rete neurale, sviluppa macchine ad apprendimento automatico per impiego generale il cui comportamento è appreso da una rete di commutazione connessa casualmente, a seguito di una routine di apprendimento basata su ricompensa e punizione (apprendimento per rinforzo). Il secondo metodo, più specifico, consiste nel riprodurre l'equivalente di una rete altamente organizzata progettata per imparare solo attività specifiche. La seconda procedura, che necessita di supervisione e richiede la riprogrammazione per ogni nuova applicazione, è molto più efficiente dal punto di vista computazionale.
L'apprendimento automatico è strettamente legato al riconoscimento di pattern e alla teoria computazionale dell'apprendimento[5] ed esplora lo studio e la costruzione di algoritmi che possano apprendere da un insieme di dati e fare delle predizioni su questi,[6] costruendo in modo induttivo un modello basato su dei campioni. L'apprendimento automatico viene impiegato in quei campi dell'informatica nei quali progettare e programmare algoritmi espliciti è impraticabile; tra le possibili applicazioni citiamo il filtraggio delle email per evitare spam, l'individuazione di intrusioni in una rete o di intrusi che cercano di violare dati,[7] il riconoscimento ottico dei caratteri[8], i motori di ricerca e la visione artificiale.
L'apprendimento automatico è collegato, e spesso si sovrappone, alla statistica computazionale, che si occupa dell'elaborazione di predizioni tramite l'uso di computer. L'apprendimento automatico è anche fortemente legato all'ottimizzazione matematica, che fornisce metodi, teorie e domini di applicazione a questo campo. Per usi commerciali, è conosciuto come analisi predittiva.
Storia
L'apprendimento automatico si sviluppa con lo studio dell'intelligenza artificiale, e vi è strettamente collegato: infatti già dai primi tentativi di definire l'intelligenza artificiale come disciplina accademica, alcuni ricercatori si erano mostrati interessati alla possibilità che le macchine imparassero dai dati. Questi ricercatori, in particolare Marvin Minsky, Arthur Samuel e Frank Rosenblatt, provarono ad avvicinarsi al problema sia attraverso vari metodi formali, sia con quelle che vengono definite reti neurali nei tardi anni '50. Le reti neurali erano allora costituite da singoli percettroni e da modelli matematici derivati dal modello lineare generalizzato della statistica, come l'ADALINE di Widrow[9][10]. Si provò a sfruttare anche ragionamenti probabilistici, in particolare nelle diagnosi mediche automatiche[11].
Sempre negli anni '50, Alan Turing propose l'idea di una macchina che apprende, ovvero in grado di imparare e dunque diventare intelligente. La proposta specifica di Turing anticipa gli algoritmi genetici[12].
Tuttavia già dalla metà degli anni '50 lo studio dell'intelligenza artificiale si stava concentrando su approcci logici di tipo knowledge-based, nota oggi sotto il nome di GOFAI, causando un distacco tra lo studio dell'IA e quello dell'apprendimento automatico. Sistemi di tipo probabilistico erano invasi di problemi sia teoretici sia pratici in termini di acquisizione e rappresentazione dei dati[11]. Negli anni Ottanta, i sistemi esperti dominavano il campo dell'IA, e i sistemi basati sulla statistica non venivano più studiati[13].
Lo studio dell'apprendimento simbolico e knowledge-based continuò nell'ambito dell'IA, portando a sviluppare la programmazione logica induttiva, ma ora la ricerca più prettamente statistica si svolgeva al di fuori del campo vero e proprio dell'intelligenza artificiale, nel riconoscimento di pattern e nell'information retrieval[11].
Un altro motivo per cui lo studio dell'apprendimento automatico fu abbandonato fu la pubblicazione del libro Perceptrons: an introduction to computational geometry di Marvin Minsky e Seymour Papert, che vi descrivevano alcune delle limitazioni dei percettroni e delle reti neurali. La ricerca sulle reti neurali subì un significativo rallentamento a causa dell'interpretazione del libro, che le descriveva come intrinsecamente limitate[14][15]. Anche la linea di ricerca sulle reti neurali continuò al di fuori del campo dell'IA, portata avanti da ricercatori provenienti da altre discipline quali Hopfield, Rumelhart, Hinton e Fukushima. Il loro successo principale fu a metà degli anni '80 con la riscoperta della backpropagation[11] e della self-organization[16].
L'apprendimento automatico, sviluppatosi come campo di studi separato dall'IA classica, cominciò a rifiorire negli anni '90. Il suo obiettivo cambiò dall'ottenere l'intelligenza artificiale ad affrontare problemi risolvibili di natura pratica. Distolse inoltre la propria attenzione dagli approcci simbolici che aveva ereditato dall'IA, e si diresse verso metodi e modelli presi in prestito dalla statistica e dalla teoria della probabilità[13]. L'apprendimento automatico ha inoltre beneficiato dalla nascita di Internet, che ha reso l'informazione digitale più facilmente reperibile e distribuibile.
Un teorema pubblicato nell'agosto 2022 ha dimostrato che, nel caso di un computer quantistico, per una vasta classe di problemi è errata l'ipotesi secondo cui la dimensione del campione di dati che deve essere processato dalla macchina ad apprendimento automatico sia descritta da uno spazio di Hilbert che cresce esponenzialmente col numero di qubit addestrati. Ad esempio, per vari anni si è ipotizzato che per addestrare 30 qubit fosse necessario un miliardo di punti-dato. La quantità di dati che è necessario elaborare è significativamente inferiore e rende possibile eseguire la compilazione e l'addestramento del modello ad apprendimento automatico direttamente su un computer classico.[17]
Generalità
Tom M. Mitchell ha fornito la definizione più citata di apprendimento automatico nel suo libro "Machine Learning": "Si dice che un programma apprende dall'esperienza E con riferimento a alcune classi di compiti T e con misurazione della performance P, se le sue performance nel compito T, come misurato da P, migliorano con l'esperienza E."[18] In poche parole, si potrebbe semplificare dicendo che un programma apprende se c'è un miglioramento delle prestazioni dopo un compito svolto. Questa definizione di Mitchell è rilevante poiché fornisce una definizione operativa dell'apprendimento automatico, invece che in termini cognitivi. Fornendo questa definizione, Mitchell di fatto segue la proposta che Alan Turing fece nel suo articolo "Computing Machinery and Intelligence", sostituendo la domanda "Le macchine possono pensare?" con la domanda "Le macchine possono fare quello che noi (in quanto entità pensanti) possiamo fare?"[19].
Teoria dell'apprendimento
L'obiettivo principe dell'apprendimento automatico è che una macchina sia in grado di generalizzare dalla propria esperienza[20], ossia che sia in grado di svolgere ragionamenti induttivi. In questo contesto, per generalizzazione si intende l'abilità di una macchina di portare a termine in maniera accurata esempi o compiti nuovi, che non ha mai affrontato, dopo aver fatto esperienza su un insieme di dati di apprendimento. Gli esempi di addestramento (in inglese chiamati training examples) si assume provengano da una qualche distribuzione di probabilità, generalmente sconosciuta e considerata rappresentativa dello spazio delle occorrenze del fenomeno da apprendere; la macchina ha il compito di costruire un modello probabilistico generale dello spazio delle occorrenze, in maniera tale da essere in grado di produrre previsioni sufficientemente accurate quando sottoposta a nuove ipotesi.
L'analisi computazionale degli algoritmi di apprendimento automatico e delle loro prestazioni è una branca dell'Informatica teorica chiamata teoria dell'apprendimento. Dato che gli esempi di addestramento sono insiemi finiti di dati e non c'è modo di sapere l'evoluzione futura di un modello, la teoria dell'apprendimento non offre alcuna garanzia sulle prestazioni degli algoritmi. D'altro canto, è piuttosto comune che tali prestazioni siano vincolate da limiti probabilistici. Il bias-variance tradeoff è uno dei modi di quantificare l'errore di generalizzazione.
Affinché la generalizzazione offra le migliori prestazioni possibili, la complessità dell'ipotesi induttiva deve essere pari alla complessità della funzione sottostante i dati. Se l'ipotesi è meno complessa della funzione, allora il modello manifesta underfitting. Quando la complessità del modello viene aumentata in risposta, allora l'errore di apprendimento diminuisce. Al contrario invece se l'ipotesi è troppo complessa, allora il modello manifesta overfitting e la generalizzazione sarà più scarsa[21].
Oltre ai limiti di prestazioni, i teorici dell'apprendimento studiano la complessità temporale e la fattibilità dell'apprendimento stesso. Una computazione è considerata fattibile se può essere svolta in tempo polinomiale.
Tipi di problemi e compiti
I compiti dell'apprendimento automatico vengono tipicamente classificati in tre ampie categorie, a seconda della natura del "segnale" utilizzato per l'apprendimento o del "feedback" disponibile al sistema di apprendimento. Queste categorie, anche dette paradigmi, sono:[11]
apprendimento supervisionato, in cui al modello vengono forniti degli esempi nella forma di possibili input e i rispettivi output desiderati e l'obiettivo è quello di estrarre una regola generale che associ l'input all'output corretto;
apprendimento non supervisionato, in cui il modello ha lo scopo di trovare una struttura negli input forniti, senza che questi vengano etichettati in alcun modo;
apprendimento per rinforzo, in cui il modello interagisce con un ambiente dinamico nel quale cerca di raggiungere un obiettivo (per esempio guidare un veicolo), avendo un insegnante che gli dice solo se ha raggiunto l'obiettivo. Un altro esempio è quello di imparare a giocare un gioco giocando contro un avversario[22].
A metà strada tra l'apprendimento supervisionato e quello non supervisionato c'è l'apprendimento semi-supervisionato, nel quale l'insegnante fornisce un dataset incompleto per l'allenamento, cioè un insieme di dati per l'allenamento tra i quali ci sono dati senza il rispettivo output desiderato. La trasduzione è un caso speciale di questo principio, nel quale l'intero insieme delle istanze del problema è noto durante l'apprendimento, eccetto la parte degli output desiderati che è mancante.
Un'altra categorizzazione dei compiti dell'apprendimento automatico si rileva quando si considera l'output desiderato del sistema di apprendimento automatico.[22]
Nella classificazione, gli output sono divisi in due o più classi e il sistema di apprendimento deve produrre un modello che assegni gli input non ancora visti a una o più di queste. Questo viene affrontato solitamente in maniera supervisionata. Il filtraggio anti-spam è un esempio di classificazione, dove gli input sono le email e le classi sono "spam" e "non spam".
Nella regressione, che è anch'essa un problema supervisionato, l'output e il modello utilizzati sono continui. Un esempio di regressione è la determinazione della quantità di olio presente in un oleodotto, avendo le misurazioni dell'attenuazione dei raggi gamma che passano attraverso il condotto. Un altro esempio è la predizione del valore del tasso di cambio di una valuta nel futuro, dati i suoi valori in tempi recenti.[23]
Nel clustering un insieme di input viene diviso in gruppi. Diversamente da quanto accade per la classificazione, i gruppi non sono noti prima, rendendolo tipicamente un compito non supervisionato. Un tipico esempio di clustering è l'analisi del comportamento degli utenti di un sito web.
L'apprendimento automatico e la statistica sono discipline strettamente collegate. Secondo Michael I. Jordan, le idee dell'apprendimento automatico, dai principi metodologici agli strumenti teorici, sono stati sviluppati prima in statistica[24]. Jordan ha anche suggerito il termine data science come nome con cui chiamare l'intero campo di studi[24].
Leo Breiman ha distinto due paradigmi statistici di modellazione: modello basato sui dati e modello basato sugli algoritmi[25], dove "modello basato sugli algoritmi" indica approssimativamente algoritmi di apprendimento automatico come la foresta casuale.
Alcuni statistici hanno adottato metodi provenienti dall'apprendimento automatico, il che ha portato alla creazione di una disciplina combinata chiamata "apprendimento statistico"[26].
L'apprendimento automatico viene a volte unito al data mining,[27] che si focalizza maggiormente sull'analisi esplorativa dei dati ed utilizza principalmente il paradigma di apprendimento chiamato "apprendimento non supervisionato"[28]. Invece, l'apprendimento automatico può essere anche supervisionato[29].
L'apprendimento automatico e il data mining infatti si sovrappongono in modo significativo, ma mentre l'apprendimento automatico si concentra sulla previsione basata su proprietà note apprese dai dati, il data mining si concentra sulla scoperta di proprietà prima sconosciute nei dati. Il data mining sfrutta i metodi dell'apprendimento automatico, ma con obiettivi differenti; d'altro canto, l'apprendimento automatico utilizza i metodi di data mining come metodi di apprendimento non supervisionato o come passi di preprocessing per aumentare l'accuratezza dell'apprendimento. Gran parte della confusione tra le due comunità di ricerca scaturisce dall'assunzione di base del loro operato: nell'apprendimento automatico, le prestazioni sono generalmente valutate in base all'abilità di riprodurre conoscenza già acquisita, mentre in data mining il compito chiave è la scoperta di conoscenza che prima non si aveva.
L'apprendimento automatico ha legami molto stretti con l'ottimizzazione: molti problemi di apprendimento sono formulati come la minimizzazione di una qualche funzione di costo su un insieme di esempi di apprendimento. La funzione di costo (o funzione di perdita) rappresenta la discrepanza tra le previsioni del modello che si sta addestrando e le istanze del problema reale. Le differenze tra i due campi (l'apprendimento automatico e l'ottimizzazione) sorgono dall'obiettivo della generalizzazione: mentre gli algoritmi di ottimizzazione possono minimizzare la perdita su un insieme di apprendimento, l'apprendimento automatico si preoccupa di minimizzare la perdita su campioni mai visti dalla macchina[30].
La risoluzione automatica di problemi avviene, nel campo dell'informatica, in due modi differenti: tramite paradigmi di hard computing o tramite paradigmi di soft computing. Per hard computing si intende la risoluzione di un problema tramite l'esecuzione di un algoritmo ben definito e decidibile. La maggior parte dei paradigmi di hard computing sono metodi ormai consolidati, ma presentano alcuni lati negativi: infatti richiedono sempre un modello analitico preciso e definibile, e spesso un alto tempo di computazione.
Le tecniche di soft computing d'altro canto antepongono il guadagno nella comprensione del comportamento di un sistema a scapito della precisione, spesso non necessaria. I paradigmi di soft computing si basano su due principi[31]:
L'apprendimento a partire da dati sperimentali;
L'integrazione di conoscenza umana, strutturata e preesistente, all'interno di modelli matematici computabili.
L'apprendimento automatico si avvale delle tecniche di soft computing.
La programmazione logica induttiva (anche ILP, dall'inglese inductive logic programming) è un approccio all'apprendimento di regole che usa la programmazione logica come rappresentazione uniforme per gli esempi di input, per la conoscenza di base della macchina, e per le ipotesi. Data una codifica della (nota) conoscenza di base e un insieme di esempi rappresentati come fatti in una base di dati logica, un sistema ILP deriva un programma logico ipotetico da cui conseguono tutti gli esempi positivi, e nessuno di quelli negativi. La programmazione induttiva è un campo simile che considera ogni tipo di linguaggio di programmazione per rappresentare le ipotesi invece che soltanto la programmazione logica, come ad esempio programmi funzionali.
L'albero di decisione è un metodo di apprendimento per approssimazione di una funzione obiettivo discreta in cui l'elemento che apprende è rappresentato da un albero di decisione. Gli alberi di decisione possono essere rappresentati da un insieme di regole if-else per migliorare la leggibilità umana.
L'apprendimento automatico basato su regole di associazione è un metodo di apprendimento che identifica, apprende ed evolve delle "regole" con l'intento di immagazzinare, manipolare e applicare conoscenza. La caratteristica principale di questo tipo di apprendimento è l'identificazione ed utilizzo di un insieme di regole relazionali che rappresenta nel suo insieme la conoscenza catturata dal sistema. Ciò si pone in controtendenza con altri tipi di apprendimento automatico che normalmente identificano un singolo modello che può essere applicato universalmente ad ogni istanza per riuscire a fare su di essa una previsione[32]. Gli approcci dell'apprendimento basato su regole di associazione includono il sistema immunitario artificiale.
Una rete neurale artificiale è un sistema adattivo che cambia la sua struttura basata su informazioni esterne o interne che scorrono attraverso la rete durante la fase di apprendimento.
In termini pratici le reti neurali sono strutture non-lineari di dati statistici organizzate come strumenti di modellazione. Esse possono essere utilizzate per simulare relazioni complesse tra ingressi e uscite che altre funzioni analitiche non riescono a rappresentare. Inoltre esse sono robuste agli errori presenti nei dati di addestramento.
Gli algoritmi genetici forniscono un approccio all'apprendimento che è liberamente ispirato all'evoluzione simulata. La ricerca di una soluzione del problema inizia con una popolazione di soluzioni iniziale. I membri della popolazione attuale danno luogo a una popolazione di nuova generazione per mezzo di operazioni quali la mutazione casuale e crossover, che sono modellati sui processi di evoluzione biologica. Ad ogni passo, le soluzioni della popolazione attuale sono valutate rispetto a una determinata misura di fitness, con le ipotesi più adatte selezionate probabilisticamente come semi per la produzione della prossima generazione. Gli algoritmi genetici sono stati applicati con successo a una varietà di compiti di apprendimento e di altri problemi di ottimizzazione. Ad esempio, essi sono stati usati per imparare raccolte di norme per il controllo del robot e per ottimizzare la topologia dei parametri di apprendimento per reti neurali artificiali.
Il ragionamento bayesiano fornisce un approccio probabilistico di inferenza. Esso si basa sul presupposto che le quantità di interesse sono disciplinate da distribuzioni di probabilità e che le decisioni ottimali possono essere prese a seguito dell'analisi di queste probabilità insieme ai dati osservati. Nell'ambito dell'apprendimento automatico, la teoria Bayesiana è importante perché fornisce un approccio quantitativo per valutare le prove a sostegno dell'ipotesi alternativa. Il Ragionamento bayesiano fornisce la base per l'apprendimento negli algoritmi che manipolano direttamente le probabilità.
Macchine a vettori di supporto (Support Vector Machine, SVM) sono un insieme di metodi di apprendimento supervisionato usati per la classificazione e la regressione di pattern. Dato un insieme di esempi di addestramento, ciascuno contrassegnato come appartenente a due possibili categorie, un algoritmo di addestramento SVM costruisce un modello in grado di prevedere a quale categoria deve appartenere un nuovo esempio di input.
La discesa dei prezzi per l'hardware e lo sviluppo di GPU per uso personale negli ultimi anni hanno contribuito allo sviluppo del concetto di apprendimento profondo, che consiste nello sviluppare livelli nascosti multipli nelle reti neurali artificiali. Questo approccio tenta di modellizzare il modo in cui il cervello umano processa luce e suoni e li interpreta in vista e udito. Alcune delle applicazioni più affermate dell'apprendimento profondo sono la visione artificiale e il riconoscimento vocale[33].
La cluster analisi, o clustering, è in grado di rilevare similarità strutturali tra le osservazioni di un dataset attraverso l'assegnazione di un insieme di osservazioni in sottogruppi (cluster) di elementi tra loro omogenei[1]. Il clustering è un metodo di apprendimento non supervisionato, e una tecnica comune per l'analisi statistica dei dati.
Esempi di applicazioni pratiche
Riconoscimento vocale del testo
Tutti i sistemi di riconoscimento vocale di maggior successo utilizzano metodi di apprendimento automatico. Ad esempio, il SPHINXsystem[34] impara le strategie di altoparlanti specifici per riconoscere i suoni primitivi (fonemi) e le parole del segnale vocale osservato. Metodi di apprendimento basati su reti neurali e su modelli di Markov nascosti sono efficaci per la personalizzazione automatica di vocabolari, caratteristiche del microfono, rumore di fondo, ecc.
Guida automatica di veicoli
Metodi di apprendimento automatico sono stati usati per addestrare i veicoli controllati da computer. Ad esempio, il sistema ALVINN[35] ha usato le sue strategie per imparare a guidare senza assistenza a 70 miglia all'ora per 90 miglia su strade pubbliche, tra le altre auto. Con tecniche simili sono possibili applicazioni in molti problemi di controllo basato su sensori.
Classificazione di nuove strutture astronomiche
Metodi di apprendimento automatico sono stati applicati ad una varietà di banche dati di grandi dimensioni per imparare regolarità generali implicite nei dati. Ad esempio, algoritmi di apprendimento basati su alberi di decisione sono stati usati dalla NASA per classificare oggetti celesti a partire dal secondo Palomar Observatory Sky Survey[36]. Questo sistema è oggi utilizzato per classificare automaticamente tutti gli oggetti nel Sky Survey, che si compone di tre terabyte di dati immagine.
Giocatore di backgammon di classe mondiale
I programmi per computer di maggior successo per il gioco del backgammon sono basati su algoritmi di apprendimento. Ad esempio, il miglior programma di computer al mondo per backgammon, TD-Gammon[37], ha sviluppato la sua strategia giocando oltre un milione di partite di prova contro se stesso. Tecniche simili hanno applicazioni in molti problemi pratici in cui gli spazi di ricerca molto rilevanti devono essere esaminati in modo efficiente.
Apprendimento automatico in finanza
Le istituzioni finanziarie hanno utilizzato a lungo sistemi di reti neurali artificiali per rilevare addebiti o reclami al di fuori della norma, segnalandoli per le indagini umane.[38] L'uso dell'intelligenza artificiale nel settore bancario può essere fatto risalire al 1987,[39] quando la Security Pacific National Bank negli Stati Uniti ha istituito una task force per la prevenzione delle frodi per contrastare l'uso non autorizzato delle carte di debito. Programmi come Kasisto e Moneystream utilizzano l'intelligenza artificiale nei servizi finanziari.
Progettazione in ingegneria e architettura
Diversi studi di architettura, urbanistica e ingegneria adottano metodi di apprendimento automatico per l'ottimizzazione topologica delle strutture, metodi che ricalcano processi genetici sono disponibili all'interno di alcuni programmi di modellazione tridimensionale [40], e vengono già utilizzati per ottimizzazione degli spazi sulla base di flussi o delle performance ambientali per gli edifici [41]. Un numero ancora limitato di studi professionali e ricercatori ha iniziato ad adoperare le reti generative avversarie per organizzare la distribuzione spaziale [42] degli ambienti e la Fluidodinamica computazionale[43].
Procedure per imparare a controllare i processi al fine di ottimizzare gli obiettivi predefiniti e che imparano a predire lo stato successivo del processo che si sta controllando.
Lunghezza minima descrizione delle modalità di apprendimento.
Codici ottimali e la loro relazione alle sequenze di allenamento ottimale per la codifica di una ipotesi.
Filosofia.
Rasoio di Occam, suggerisce che l'ipotesi più semplice è la migliore.
Analisi della giustificazione per generalizzare i dati osservati.
Psicologia e neurobiologia.
La legge di potenza della pratica, che stabilisce che in un intervallo molto ampio di problemi di apprendimento, il tempo di risposta della gente migliora con la pratica secondo una legge di potenza.
Gli studi neurobiologici motivano modelli di reti neurali artificiali di apprendimento.
Etica
L'apprendimento automatico solleva un numero di problematiche etiche. I sistemi addestrati con insiemi di dati faziosi o pregiudizievoli possono esibire questi pregiudizi quando vengono interpellati: in questo modo possono essere digitalizzati pregiudizi culturali quali il razzismo istituzionale e il classismo[44]. Di conseguenza la raccolta responsabile dei dati può diventare un aspetto critico dell'apprendimento automatico.
In ragione dell'innata ambiguità dei linguaggi naturali, le macchine addestrate su corpi linguistici necessariamente apprenderanno questa ambiguità[45].
^Wernick, Yang, Brankov, Yourganov and Strother, Machine Learning in Medical Imaging, IEEE Signal Processing Magazine, vol. 27, no. 4, July 2010, pp. 25-38
^ B. Widrow, M.E. Hoff (1960), Adaptive switching circuits, in IRE WESCON, Conv. Rec., pt. 4, pp. 96-104.
^Mitchell, T. (1997). Machine Learning. McGraw Hill. p. 2. ISBN 0-07-042807-7.
^Harnad, Stevan (2008), "The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence", in Epstein, Robert; Peters, Grace, The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Kluwer
^(EN) Gareth James, Daniela Witten, Trevor Hastie e Robert Tibshirani, An Introduction to Statistical Learning, Springer, 2013, p. vii. URL consultato il 14 dicembre 2016 (archiviato dall'url originale il 23 giugno 2019).
^Mannila, Heikki (1996). Data mining: machine learning, statistics, and databases. Int'l Conf. Scientific and Statistical Database Management. IEEE Computer Society.
^Friedman, Jerome H. (1998). "Data Mining and Statistics: What's the connection?". Computing Science and Statistics. 29 (1): 3–9.
^(EN) Nick Bostrom, The Ethics of Artificial Intelligence (PDF), su nickbostrom.com, 2011. URL consultato l'11 aprile 2016 (archiviato dall'url originale il 4 marzo 2016).
Artikel ini tidak memiliki referensi atau sumber tepercaya sehingga isinya tidak bisa dipastikan. Tolong bantu perbaiki artikel ini dengan menambahkan referensi yang layak. Tulisan tanpa sumber dapat dipertanyakan dan dihapus sewaktu-waktu.Cari sumber: Daftar Penguasa Britania Raya menurut masa kekuasaan – berita · surat kabar · buku · cendekiawan · JSTOR Elizabeth II70 tahun, 214 hari Victoria63 tahun, 216 hari George III59 ta...
CloserAlbum mini karya Oh My GirlDirilis08 Oktober 2015 (2015-10-08)GenreK-popdream popBahasaKoreaLabelWM EntertainmentLOEN EntertainmentProduserLee Won-min72Moon Jeong-gyuKronologi Oh My Girl Oh My Girl(2015)Oh My Girl2015 Closer(2015) Pink Ocean(2016)Pink Ocean2016 Singel dalam album Closer CloserDirilis: 8 Oktober 2015 Closer adalah album mini kedua dari grup vokal wanita asal Korea Selatan Oh My Girl, dirilis pada tanggal 8 Oktober 2015. Lagu yang berjudul Closer digunakan untuk ...
Artikel ini membutuhkan rujukan tambahan agar kualitasnya dapat dipastikan. Mohon bantu kami mengembangkan artikel ini dengan cara menambahkan rujukan ke sumber tepercaya. Pernyataan tak bersumber bisa saja dipertentangkan dan dihapus.Cari sumber: Berpacu dalam Melodi – berita · surat kabar · buku · cendekiawan · JSTOR Berpacu Dalam MelodiGenreKuisPembuatAni SumadiNegara asal IndonesiaJmlh. musim6Jmlh. episode2.024 (17 Juli 2021)Rilis asliJaringanTVRI ...
Не следует путать с Орденом Святого Георгия. У этого термина существуют и другие значения, см. Георгиевский крест (значения). Знак отличия Военного ордена Девиз «За службу и храбрость» Страна Российская империя Тип знак отличия Кому вручается нижним чинам Основани�...
Prima Categoria 1920-1921 Competizione Prima Categoria Sport Calcio Edizione 20ª Organizzatore Comitati Regionali e FIGC Date dal 10 ottobre 1920al 24 luglio 1921 Luogo Italia Partecipanti 64 (Nord)24 (Centro-Sud)88 (totale) Formula campionati regionali, semifinali, finali nazionali e finalissima Risultati Vincitore Pro Vercelli(6º titolo) La Pro Vercelli campione d'Italia Cronologia della competizione 1919-1920 1921-1922 (FIGC)1921-1922 (CCI) Manuale La Prima Categ...
Artikel ini perlu dikembangkan agar dapat memenuhi kriteria sebagai entri Wikipedia.Bantulah untuk mengembangkan artikel ini. Jika tidak dikembangkan, artikel ini akan dihapus. Komite Yudisial Dewan PenasihatLengan Dewan PriviDidirikan1833NegaraBeberapa anggotsa Commonwealth of NationsLokasiMiddlesex Guildhall, Kota Westminster, London, Britania RayaDisahkan olehHM Government via Undang-Undang Komite Yudisial 1833Situs webwww.jcpc.ukHer Majesty in CouncilSaat iniElizabeth IIMulai menjabat6 Fe...
Западная Япония (яп. 西日本, にしにほん、にしにっぽん) — термин для обозначения западной части Японского архипелага. Антоним — Восточная Япония. Законодательно пределы Западной Японии не определены. В узком смысле к Западной Японии относят регионы Кансай, Тюгоку и Сикоку...
Artikel ini sebatang kara, artinya tidak ada artikel lain yang memiliki pranala balik ke halaman ini.Bantulah menambah pranala ke artikel ini dari artikel yang berhubungan atau coba peralatan pencari pranala.Tag ini diberikan pada November 2022. Evelina MountLahirJuly 31, 1837Stony Brook, New YorkMeninggal24 Juli 1920(1920-07-24) (umur 82)Stony Brook, New YorkKebangsaanAmerikaDikenal atasLukisan Floral Still-Lifes dan LanskapEvelina Nina Mount (31 Juli 1837 – 24 Juli 1920...
President of the Senate of Trinidad and Tobago Flag of Trinidad and TobagoIncumbentNigel de Freitassince 18 January 2023StyleThe Honourable (formal)Mr. President (informal)AppointerMembers of the SenateTerm lengthDuring the life of the Senate of Trinidad and Tobago (five years maximum)Inaugural holderJ. Hamilton Maurice (1961-1971)Formation29 December 1961DeputyVice President of the SenateSalaryTT$29,590 (per month) (President)TT$18,280 (per month) (Vice President)[1]Websit...
MortorioGeografia fisicaLocalizzazioneMar Tirreno Coordinate41°04′31.68″N 9°36′10.82″E / 41.075467°N 9.603006°E41.075467; 9.603006Coordinate: 41°04′31.68″N 9°36′10.82″E / 41.075467°N 9.603006°E41.075467; 9.603006 ArcipelagoArcipelago di La Maddalena Superficie0,6 km² Geografia politicaStato Italia Regione Sardegna Provincia Sassari Comune La Maddalena CartografiaMortorio voci di isole d'Italia presenti su Wikipedia L...
John LazarusJohn LazarusBorn1845Died1925OccupationChristian missionaryKnown forTranslating the Tirukkural into English John Lazarus (1845–1925) was a Christian missionary to India who rendered the Tirukkural into English. He revised the work of his predecessor William Henry Drew, who had already translated the first 63 chapters (out of the total of 133 chapters) of the Tirukkural, and translated the remaining portion of the Kural text. Work John Lazarus completed his graduation from t...
Higher Institute of Mining, Industry and GeologyÉcole des Mines, de l'Industrie et de la Géologie (EMIG)TypePublic – Government of NigerMinistry of Education)Established1990 (First Academic Year)AffiliationAgence universitaire de la francophonie (AUF)[1]Students356 (2010)LocationNiamey, Niamey Capitol District, NigerCampusMain: 1349 rue du CHU LamordéBP 732/Niamey, NigerWebsitehttp://www.emig-niger.org/ Higher Institute of Mining, Industry and Geology (fr. École des Mines, de l...
Gross pathology of an ovarian carcinoma. Benign, borderline, or malignant neoplasm involving the ovary Ovarian tumors, or ovarian neoplasms, are tumors found in the ovary. They can be benign or malignant (ovarian cancer). They consist of mainly solid tissue, while ovarian cysts contain fluid. Histopathologic classification Ovarian tumors by incidence and risk of ovarian cancer[1] Further information: Ovarian cancer Tumor of the ovary vary remarkably as they may arise from any of the 3...
Untuk orang lain dengan nama yang sama, lihat Iskandar. Iskandar Bupati Ogan Komering Ilir ke-16Masa jabatan15 Januari 2014 – 3 November 2023PresidenSusilo Bambang YudhoyonoJoko WidodoGubernurAlex NoerdinHadi Prabowo (Pj.)Herman DeruWakilMuhammad Rifa'i (2014-2017)M. Dja'far Shodiq (2019-2024)PendahuluIshak MekkiRuslan Bahri (Plt.)PenggantiDjafar ShoddiqWakil Bupati Ogan Ilir ke-1Masa jabatan22 Agustus 2005 – 22 Agustus 2010PresidenSusilo Bambang YudhoyonoGubernu...
This article is about the building in Clinton, Iowa. For other buildings, see Van Allen. Not to be confused with the Van Alen Building. United States historic placeVan Allen and Company Department StoreU.S. National Register of Historic PlacesU.S. National Historic Landmark The Van Allen BuildingShow map of IowaShow map of the United StatesLocationNorthwest corner, Fifth Avenue and South 2nd Street, Clinton, IowaCoordinates41°50′28.95″N 90°11′17.98″W / 41.8413750°N ...
1 Tawarikh 27Kitab Tawarikh (Kitab 1 & 2 Tawarikh) lengkap pada Kodeks Leningrad, dibuat tahun 1008.KitabKitab 1 TawarikhKategoriKetuvimBagian Alkitab KristenPerjanjian LamaUrutan dalamKitab Kristen13← pasal 26 pasal 28 → 1 Tawarikh 27 (atau I Tawarikh 27, disingkat 1Taw 27) adalah bagian dari Kitab 1 Tawarikh dalam Alkitab Ibrani dan Perjanjian Lama di Alkitab Kristen. Dalam Alkitab Ibrani termasuk dalam bagian Ketuvim (כְּתוּבִים, tulisan).[1][2] Te...
Piala FA 1882–1883Negara Inggris Wales Skotlandia IrlandiaJumlah peserta84Juara bertahanOld EtoniansJuaraBlackburn Olympic(gelar ke-1)Tempat keduaOld Etonians← 1881–1882 1883–1884 → Piala Challenge The Football Association 1882–1883 adalah edisi ke-12 dari penyelenggaraan Piala FA, turnamen tertua dalam sepak bola di Inggris. 84 tim mengikuti turnamen ini, di mana 5 dari 84 tim tidak memainkan satupun pertandingan. Edisi ini dimenangkan oleh Blackburn Olympic s...