În informatică, inteligența artificială (IA) este inteligențamașinilor, spre deosebire de inteligența naturală de la oameni și animale. Informatica definește cercetarea IA ca studiu al „agenților inteligenți(d)”: orice dispozitiv care își percepe mediul și efectuează acțiuni care maximizează șansa de a-și atinge cu succes obiectivele.[1][2] Mai exact, Kaplan și Haenlein definesc IA ca fiind „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”.[3] Termenul „inteligență artificială” este utilizat colocvial pentru a descrie mașinile care imită funcțiile cognitive pe care le asociază oamenii cu alte minți umane, cum ar fi „învățarea” și „rezolvarea problemelor”.[4][5] Inteligența artificială implică dezvoltarea de algoritmi și modele care permit mașinilor să-și perceapă mediul, să își motiveze mediul și să facă acțiuni adecvate pentru a atinge obiective specifice. Acești algoritmi folosesc volume mari de date și tehnici avansate, cum ar fi învățarea automată, învățarea profundă, procesarea limbajului natural și viziunea computerizată.
Împrumutând din literatura de management, Kaplan și Haenlein clasifica inteligență artificială în trei tipuri diferite de sisteme IA: inteligență artificială analitică, inspirată de om, și umanizată.[3] IA analitică are doar unele caracteristici compatibile cu inteligența cognitivă; ea generează o reprezentare cognitivă a lumii și utilizează învățarea bazată pe experiențe anterioare pentru a informa deciziile viitoare. IA inspirată de om are elemente din inteligența cognitivă și emoțională; înțelegerea emoțiilor umane, în plus față de elementele cognitive, și luarea în considerare a acestora în luarea deciziilor. IA umanizată prezintă caracteristicile tuturor tipurilor de competențe (de exemplu, inteligența cognitivă, emoțională și socială(d)), este capabilă să fie conștientă de sine atât ca atare, cât și în interacțiunile cu ceilalți.
Inteligența artificială a fost fondată ca disciplină academică în 1956, și de atunci a trecut mai multe valuri de optimism,[10][11] urmate de dezamăgiri și pierderi de fonduri (cunoscute sub numele de „ierni ale IA”),[12][13] urmate și ele de noi abordări, succes și reînnoirea finanțării.[11][14] Pentru cea mai mare parte a istoriei sale, cercetarea IA a fost împărțită în subdomenii care adesea nu au reușit să comunice între ele.[15] Aceste subdomenii se bazează pe considerații tehnice, cum ar fi obiective specifice (de exemplu, „robotica” sau „învățarea automată”),[16] utilizarea unor anumite instrumente („logica” sau rețele neurale artificiale) sau pe diferențe filosofice profunde.[17][18][19] Subdomeniile se bazau și pe factori sociali (anumite instituții sau activitatea anumitor cercetători). [15]
Domeniul a fost întemeiat pe afirmația că inteligența umană(d) „poate fi descrisă atât de precis încât poate fi făcută o mașină pentru a o simula”.[21] Acest lucru ridică argumente filosofice cu privire la natura minții și la etica creării de ființe artificiale dotate cu inteligență umană, care sunt chestiuni care au fost explorate de mit(d), ficțiune și filozofie(d) încă din Antichitate.[22] Unii oameni consideră și că IA ar fi un pericol pentru omenire dacă progresează necontrolat.[23] Alții cred că, spre deosebire de revoluțiile tehnologice anterioare, IA va crea un risc de șomaj în masă(d). [24]
În secolul al XXI-lea, tehnicile de IA au înregistrat o renaștere în urma unor progrese concomitente în puterea de calcul(d), acumulării de cantități mari de date, și înțelegerii teoretice; iar tehnicile IA au devenit o parte esențială a industriei tehnologice(d), ajutând la rezolvarea multor probleme dificile în domeniul informaticii, ingineriei software și cercetării operaționale(d).[25][14]
Studiul raționamentului formal a început cu filozofii și matematicienii din Antichitate. Studiul logicii matematice a condus direct la teoria computației a lui Alan Turing, care sugera că o mașină, amestecând simboluri simple ca „0” și „1”, ar putea simula orice acțiune de deducție matematică posibilă. Această observație, că calculatoarele numerice pot simula orice proces de raționament formal, este cunoscută sub numele de teza Church-Turing.[28] Odată cu descoperirile concurente din neurobiologie, teoria informației și cibernetică, cercetătorii au luat în considerare posibilitatea creării unui creier electronic. Turing a sugerat că „dacă un om nu ar putea distinge între răspunsurile unei mașini și cele ale unui om, atunci mașina ar putea fi considerată «inteligentă»”.[29] Prima lucrare care este acum recunoscută în general ca fiind de IA a fost „neuronii artificiali” Turing-compleți(d) ai lui McCullouch(d) și Pitts(d).[30]
Domeniul cercetării IA s-a născut la un workshop(d) la Colegiul Dartmouth(d) în 1956.[31] Participantii Allen Newell (CMU(d)), Herbert Simon (CMU(d)), John McCarthy (MIT), Marvin Minsky (MIT) și Arthur Samuel(d) (IBM) au devenit fondatorii și liderii cercetarii IA.[32] Ei și studenții lor au produs programe pe care presa le-a descris ca fiind „uimitoare“:[33] calculatoarele învățau strategii de dame (c . 1954)[34] (și până în 1959 ajunseseră să joace mai bine decât media jucătorilor umani),[35] să rezolve probleme de algebră, să demonstreze teoreme logice (Logic Theorist(d), prima rulare c. 1956) și să vorbească în engleză.[36] Până la mijlocul anilor 1960, cercetarea în SUA a fost finanțată în mare măsură de Departamentul Apărării,[37] și s-au înființat laboratoare în întreaga lume.[38] Fondatorii IA erau optimiști în privința viitorului: Herbert Simon prezicea: „mașinile vor fi capabile, în decurs de douăzeci de ani, să facă orice lucru poate face un om”. Marvin Minsky era de acord, scriind: „într-o generație... problema creării «inteligenței artificiale» va fi rezolvată substanțial”.[10]
Ei nu puteau însă identifica dificultatea unor sarcini rămase de realizat. Progresul a încetinit, iar în 1974, în urma criticii lui James Lighthill(d)[39] și a presiunii continue a Congresului SUA de a finanța proiecte mai productive, guvernele american și britanic au întrerupt cercetarea exploratorie în IA. Următorii câțiva ani aveau mai târziu să fie numiți „iarna IA(d)”,[12] o perioadă în care obținerea de finanțare pentru proiectele de IA era dificilă.
La începutul anilor 1980, cercetarea IA a fost revitalizată de succesul comercial al unor sisteme expert,[40] o formă de programe IA care simulau cunoștințele și abilitățile analitice ale experților umani. Până în 1985, piața pentru IA ajunsese la peste un miliard de dolari. În același timp, proiectul japonez de calculator de generația a cincea(d) a inspirat guvernele american și britanic să reînceapă finanțarea cercetării academice.[11] Cu toate acestea, începând cu prăbușirea pieței de mașini Lisp(d) în 1987, IA a căzut din nou în dizgrație începând o a doua pauză de durată.[13]
IA și-a restaurat treptat reputația spre sfârșitul anilor 1990 și la începutul secolului al XXI-lea exploatând metodele matematice formale și găsind soluții specifice la probleme specifice. Această concentrare „îngustă” și „formală” a atenției a permis cercetătorilor să producă rezultate verificabile și să colaboreze cu alte domenii (cum ar fi statistica, economia și matematica).[41] Până în 2000, soluțiile dezvoltate de cercetătorii din domeniul IA erau folosite pe scară largă, deși în anii 1990 ele fuseseră rareori descrise drept „inteligență artificială”.[42]
Mai mulți cercetători academici s-au îngrijorat însă că IA nu își mai urmărește obiectivul său de la origini, de a crea mașini versatile, pe deplin inteligente. Începând de prin 2002, ei au fondat subdomeniul inteligenței artificale generale („IAG”), care beneficia de câteva instituții bine finanțate la începutul anilor 2010.[43]
Deep learning a început să domine reperele din industrie în 2012 și a fost adoptat în tot domeniul.[44]
Pentru multe sarcini specifice, alte metode au fost abandonate.[a]
Succesul deep learningului s-a bazat atât pe progrese în domeniul hardware-ului (calculatoare mai rapide,[46]unități de prelucrare grafică, cloud computing[47]) și acces la mari cantități de date[48] (inclusiv seturi de date îngrijite,[47] cum ar fi ImageNet(d)). Succesul deep learningului a dus la o enormă creștere a interesului și finanțării IA.[b] Cantitatea de cercetare în domeniul învățării automate (măsurată după publicații totale) a crescut cu 50% în anii 2015–2019.[49]
În 2016, problemele de corectitudine(d) și de rea utilizare a tehnologiei au fost catapultate pe scena centrală a conferințelor de învățare automată, numărul de publicații a crescut mult, au apărut surse de finanțare și mulți cercetători și-au reorientat carierele către aceste subiecte. Problema alinierii(d) a devenit un domeniu serios de studiu academic.[50]
Spre sfârșitul anilor 2010 și la începutul anilor 2020, companiile de IAG au început să livreze programe care au generat un interes enorm. În 2015, AlphaGo(d), dezvoltat de DeepMind, l-a învins pe campionul mondial de Go(d). Programul a fost învățat doar regulile jocului și și-a dezvoltat singur o strategie. GPT-3(d) este un model de limbaj mare lansat în 2020 de OpenAI și capabil de a genera texte de bună calitate similare celor scrise de oameni.[51] Aceste programe, ca și altele, au inspirat un agresiv boom IA(d), în care multe mari companii au început să investească miliarde în cercetarea IA. Conform AI Impacts, circa 50 de miliarde de dolari se investeau anual în „IA” la nivelul anului 2022 doar în SUA și circa 20% din noii absolvenți americani de informatică s-au specializat în „IA”.[52]
În SUA, în 2022 existau circa 800.000 de locuri de muncă vacante având legătură cu IA.[53]
Elementele de bază
O IA tipică își analizează mediul și efectuează acțiuni care îi maximizează șansele de succes.[1]Funcția utilitate (sau obiectiv) dorită pentru o OA poate fi simplă („1 dacă IA câștigă jocul de go, 0 în caz contrar”) sau complexă („efectuează acțiuni matematic asemănătoare celor care au reușit în trecut”). Obiectivele pot fi definite explicit sau induse. Dacă IA este programată pentru „învățarea prin întărire(d)”, obiectivele pot fi induse implicit prin recompensarea unor tipuri de comportament sau prin pedepsirea altora.[c] Alternativ, un sistem evolutiv poate induce scopuri prin folosirea unei funcții de fitness(d) pentru a muta și replica în mod preferențial sistemele AI cu scoruri mari, similar cu modul în care animalele au evoluat pentru a-și dori în mod inerent anumite obiective, cum ar fi găsirea de alimente. [54] Unele sisteme AI, cum ar fi cel mai apropiat vecin, în loc de rațiune prin analogie, aceste sisteme nu au scopuri generale, cu excepția cazului în care scopurile sunt implicite în datele lor de instruire. [55] Astfel de sisteme pot fi încă evaluate, dacă sistemul non-goal este încadrat ca un sistem al cărui "scop" este de a-și îndeplini cu succes sarcina îngustă de clasificare. [56]
IA gravitează adesea în jurul utilizării algoritmilor. Un algoritm este un set de instrucțiuni neechivoce pe care un calculator mecanic le poate executa.[d] Un algoritm complex este adesea construit pe baza altor algoritmi mai simpli. Un exemplu simplu al unui algoritm este următoarea rețetă (optimă pentru primul jucător) la jocul de X și 0:[57]
Dacă cineva „amenință” (adică are două pe rând), ocupă pătratul rămas. In caz contrar,
dacă o mișcare „ramifică” pentru a crea două amenințări simultan, joacă această mișcare. În caz contrar,
ocupă pătratul central dacă acesta este liber. În caz contrar,
dacă adversarul a jucat într-un colț, ocupă colțul opus. În caz contrar,
ocupă un colț gol dacă există unul. În caz contrar,
ocupă orice pătrat gol.
Mulți algoritmi IA sunt capabili să învețe din date; se pot îmbunătăți prin învățarea unor noi euristici (strategii sau „reguli generale”, care au funcționat bine în trecut) sau pot scrie alți algoritmi. Unii dintre „învățăceii” descriși mai jos, între care rețelele bayesiene, arborii de decizie și cel mai apropiat vecin, ar putea teoretic (dacă dispun de date, timp și memorie infinite) să învețe să aproximeze orice funcție, inclusiv combinația de funcții matematice care ar descrie cel mai bine lumea. Prin urmare, acești cursanți ar putea să obțină toate cunoștințele posibile, luând în considerare toate ipotezele posibile și potrivindu-le cu datele. În practică, aproape niciodată nu se poate lua în considerare orice posibilitate, din cauza fenomenului de „explozie combinatorică(d)”, în care timpul necesar pentru a rezolva o problemă crește exponențial. O mare parte din cercetarea de IA implică determinarea modului de identificare și de evitare a unei game largi de posibilități care sunt puțin probabil să fie benefice.[58][59] De exemplu, atunci când se vizualizează o hartă și se caută pentru cel mai scurt drum care duce de la Denver la New York, în cele mai multe cazuri, se poate sări peste orice drum prin San Francisco sau alte zone aflate mult la vest; astfel, o IA care utilizează un algoritm de trasare a traiectoriei ca A*(d) poate evita explozia combinatorie care ar rezulta dacă ar trebui calculat fiecare traseu posibil în parte.[60]
Cea mai veche abordare de IA a fost simbolismul (cum ar fi logica formală): „Dacă un adult altfel sănătos are febră, atunci poate să aibă gripă”. O a doua abordare, mai generală, este inferența bayesiană: „Dacă pacientul curent are febră, ajustează probabilitatea ca acesta să aibă gripă așa sau așa”. Cea de-a treia abordare majoră, extrem de populară în aplicațiile de IA de afaceri de rutină, sunt analogizatori precum SVM(d) și cel mai apropiat vecin(d): „După examinarea înregistrărilor despre pacienți cunoscuți din trecut, a căror temperatură, simptome, vârstă și alți factori se potrivesc cel mai mult cu pacientul actual, acei pacienți s-au dovedit a avea gripă”. O a patra abordare este mai greu de înțeles intuitiv, dar este inspirată de felul în care funcționează mecanismul creierului: abordarea cu rețele neurale artificiale folosește „neuroni” artificiali care pot învăța prin compararea cu rezultatul dorit și modificând punctele tari ale conexiunilor dintre neuronii săi interni pentru a „întări” conexiunile care par astfel utile. Aceste patru abordări principale se pot suprapune între ele și cu sisteme evolutive; de exemplu, rețelele neurale pot învăța să facă inferențe, să generalizeze și să facă analogii. Unele sisteme utilizează, implicit sau explicit, mai multe dintre aceste abordări, alături de mulți alți algoritmi de IA și non-IA; [61] adesea, cea mai bună abordare diferă în funcție de problemă.[62][63]
Algoritmii de învățare funcționează pe baza faptului că strategiile, algoritmii și inferențele care au funcționat bine în trecut vor continua să funcționeze bine și în viitor. Aceste concluzii pot fi evidente, cum ar fi „întrucât soarele a răsărit în fiecare dimineață pentru ultimele 10.000 de zile, probabil că va răsări și mâine dimineață”. Ele pot fi nuanțate, cum ar fi „X% din familii au specii separate din punct de vedere geografic cu variante de culoare, deci există o șansă de Y% să existe lebede negre încă nedescoperite”. Mașinile de învățare lucrează și pe baza „briciului lui Occam”: cea mai simplă teorie care explică datele este cea mai probabilă. Prin urmare, pentru a avea succes, o mașină care învață trebuie concepută astfel încât să prefere teoriile mai simple celor mai complexe, cu excepția cazurilor în care teoria complexă se dovedește a fi substanțial mai bună. Blocarea pe o teorie foarte complexă, dar proastă, care se potrivește cu toate datele de învățare din trecut, se numește overfitting. Multe sisteme încearcă să reducă overfittingul recompensând o teorie în funcție de cât de bine se potrivește cu datele, dar și penalizând-o în funcție de cât de complexă este.[64] Pe lângă suprapunerea clasică, mașinile pot dezamăgi și „învățând lecția greșită”. Un exemplu este un clasificator de imagini antrenat numai pe imagini de cai maro și pisici negre ar putea concluziona că toate petecele de culoare brună ar putea fi cai.[65] Un exemplu din lumea reală este că, spre deosebire de oameni, clasificatoarele de imagine actualee nu determină relația spațială dintre componentele imaginii; în schimb, ele învață modele abstracte de pixeli pe care oamenii le ignoră, dar care se corelează liniar cu imaginile anumitor tipuri de obiecte reale. Suprapunând superficial un astfel de model pe o imagine legitimă are drept rezultat o imagine „contradictorie” pe care sistemul nu o poate clasifica.[e][66][67][68]
În comparație cu oamenii, IA existente nu dispun de mai multe trăsături ale „raționamentului de bun simț(d)”; cel mai notabil, oamenii au mecanisme puternice pentru a raționa despre „fizica naivă(d)”, cum ar fi spațiul, timpul și interacțiunile fizice. Aceasta permite chiar copiilor mici să tragă ușor concluzii cum ar fi „dacă rostogolesc pixul acest de pe masă, va cădea pe podea”. Oamenii au, de asemenea, un mecanism puternic de „psihologie populară(d)”, care îi ajută să interpreteze propozițiile în limbaj natural precum „consilierii locali au refuzat autorizarea unei demonstrații pentru că aceasta militează pentru violență”. (O IA generică are dificultăți în a deduce dacă consilierii sau demonstranții sunt cei care pretind că susțin violența.)[71][72][73] Această lipsă de „cultură generală” înseamnă că IA face deseori alte greșeli decât cele ale oamenilor, în moduri care pot părea de neînțeles. De exemplu, autovehiculele autonome existente nu pot raționa cu privire la locația și intențiile pietonilor exact așa cum fac oamenii, iar în schimb trebuie să utilizeze moduri de gândire neumane pentru a evita accidentele.[74][75][76]
Probleme
Scopul general al cercetării inteligenței artificiale este de a crea o tehnologie care să permită calculatoarelor și mașinilor să funcționeze într-o manieră inteligentă. Problema generală a simulării (sau a creării) inteligenței a fost împărțită în subprobleme. Acestea constau în particularități sau capacități pe care cercetătorii se așteaptă să le prezinte unui sistem inteligent. Caracteristicile descrise mai jos au primit cea mai mare atenție.[16]
Raționamentul, rezolvarea problemelor
Primii cercetători au dezvoltat algoritmi care imită pas cu pas raționamentul pe care oamenii îl folosesc atunci când rezolvă puzzle-uri sau fac deducții logice.[77] Până la sfârșitul anilor 1980 și 1990, cercetarea IA a elaborat metode de abordare a informațiilor incerte sau incomplete, folosind concepte din probabilitate și economie.[78]
Acești algoritmi s-au dovedit a fi insuficienți pentru rezolvarea problemelor mari de raționament, deoarece ajungeau într-o „explozie combinatorică”: deveneau exponențial mai lenți, pe măsură ce problemele creșteau.[58] De fapt, chiar și oamenii folosesc rareori deducția pas-cu-pas pe care a reușit să o modeleze cercetarea timpurie în IA. Ei rezolvă majoritatea problemelor lor folosind judecăți rapide și intuitive.[79]
Reprezentarea cunoștințelor
Reprezentarea cunoștințelor(d)[80] și ingineria cunoștințelor(d)[81] sunt esențiale pentru cercetarea clasică din IA. Unele „sisteme expert” încearcă să reunească cunoștințe explicite posedate de experți într-un domeniu îngust. În plus, unele proiecte încearcă să strângă cunoștințele „de bun simț”, cunoscute oamenilor obișnuiți, într-o bază de date care conține cunoștințe extinse despre lume. Printre lucrurile pe care o bază cuprinzătoare de cunoștințe comune ar conține sunt: obiectele, proprietățile, categoriile și relațiile dintre obiecte;[82] situații, evenimente, stări și timp; [83] cauze și efecte;[84] cunoștințe despre cunoștințe (ce știm despre ceea ce știu ceilalți);[85] și multe alte domenii mai puțin bine cercetate. O reprezentare a „ceea ce există” este o ontologie(d): setul de obiecte, relațiile, conceptele și proprietățile descrise formal astfel încât agenții software să le poată interpreta. Semantica acestor elemente este capturată sub formă de concepte, roluri și indivizi din logica descriptivă(d) și sunt, de obicei, implementate drept clase, proprietăți și indivizi în OWL.[86] Cele mai generale ontologii sunt numite ontologii superioare(d), care încearcă să ofere o bază pentru toate celelalte cunoștințe[87] acționând ca mediatori între ontologiile de domeniu(d) care acoperă cunoștințe specifice despre un anumit domeniu de cunoștințe (domeniu sau arie de interes). Astfel de reprezentări formale ale cunoștințelor pot fi utilizate în indexarea și regăsirea pe bază de conținut,[88] interpretarea scenei,[89] sprijinirea deciziilor clinice,[90] descoperirea de cunoștințe (extragerea de inferențe „interesante“ și deducții acționabile din baze mari de date),[91] și alte domenii.[92]
Printre cele mai dificile probleme ale reprezentării cunoștințelor se numără:
Multe dintre lucrurile pe care oamenii le cunosc iau forma unor „ipoteze de lucru”. De exemplu, dacă în conversație vine vorba despre o pasăre, oamenii își imaginează de obicei un animal care are dimensiunea pumnului, care cântă și zboară. Niciunul dintre aceste lucruri nu este adevărat despre toate păsările. John McCarthy a identificat această problemă în 1969[93] drept problem calificării: pentru orice regulă de bun simț pe care cercetătorii de IA doresc să o reprezinte, există un număr mare de excepții. Aproape nimic nu este pur și simplu adevărat sau fals în felul în care o impune logica abstractă. Cercetarea IA a explorat o serie de soluții la această problemă.[94]
Lărgimea cunoașterii generale
Numărul de fapte atomice pe care le știe un om oarecare este foarte mare. Proiectele de cercetare care încearcă să construiască o bază de cunoștințe completă a cunoștințelor comune(d) (de exemplu, Cyc(d)) necesită o cantitate enormă de inginerie ontologică(d) laborioasă - acestea trebuie să fie construite manual, fiecare concept complicat pe rând.[95]
Forma subsimbolică a unor cunoștințe comune
O mare parte din ceea ce știu oamenii nu este reprezentat ca „fapte” sau „afirmații” pe care le-ar putea exprima verbal. De exemplu, un maestru de șah va evita o anumită poziție de șah pentru că „se simte prea expus”[96] sau un critic de artă poate să arunce o singură privire pe o statuie și să-și dea seama că este un fals.[97] Acestea sunt intuiții și tendințe inconștiente și subsimbolice din creierul uman.[98] Cunoașterea de acest gen informează, sprijină și oferă un context pentru cunoașterea simbolică și conștientă. Ca și în cazul problemelor legate de raționamentul subsimbolic, se speră că IA situată(d), inteligența computațională(d) sau IA statistică va oferi modalități de reprezentare a acestui tip de cunoaștere.[98]
Planificarea
Agenții inteligenți trebuie să poată să-și stabilească și să îndeplinească obiective.[99] Ei au nevoie de o modalitate de a vizualiza viitorul — o reprezentare a stării lumii și să poată face previziuni cu privire la modul în care acțiunile lor o vor schimba — și să poată face alegeri care maximizează utilitatea (sau „valoarea”) alegerilor disponibile.[100]
În problemele de planificare clasică, agentul poate presupune că este singurul sistem care acționează în lume, permițând agentului să se asigure de consecințele acțiunilor sale.[101] Cu toate acestea, dacă agentul nu este singurul actor, atunci este necesar ca agentul să poată raționa sub incertitudine. Aceasta necesită un agent care să nu poată evalua doar mediul său și să facă previziuni, ci și să își evalueze previziunile și să se adapteze pe baza evaluării sale.[102]
Învățarea automată este studiul programelor care își pot îmbunătăți automat performanța la o anumită sarcină.[104] A făcut obiectul cercetării IA de la începutul domeniului.[105]
Învățarea nesupravegheată(d) este abilitatea de a găsi șabloane într-un flux de intrare, fără a cere unui om să eticheteze mai întâi intrările.[106]Învățarea supravegheată(d) include atât clasificarea(d), cât și regresia numerică, care necesită etichetarea în prealabil de către om a datelor de intrare. Clasificarea este folosită pentru a determina în ce categorie aparține ceva, după ce a văzut câteva exemple de lucruri din mai multe categorii. Regresia este încercarea de a produce o funcție care descrie relația dintre intrări și ieșiri și prezice modul în care ieșirile ar trebui să se schimbe odată cu schimbarea intrărilor.[107] Atât clasificatorii, cât și mașinile de învățare prin regresie pot fi văzuți ca „aproximatori de funcții”, încercând să învețe o funcție necunoscută (eventual implicită); de exemplu, un clasificator de spam poate fi privit ca învățând o funcție care mapează textul unui e-mail într-una din cele două categorii, „spam” sau „non spam”. Teoria învățării computaționale(d) poate evalua cursanții prin complexitate computațională(d), prin complexitatea eșantionului(d) (de câte date este nevoie) sau prin alte noțiuni de optimizare.[108] În învățarea prin întărire(d),[109] agentul este răsplătit pentru răspunsuri bune și pedepsit pentru cele greșite. Agentul folosește această succesiune de recompense și pedepse pentru a forma o strategie de operare în spațiul problemei.
Prelucrarea limbajului natural
Prelucrarea limbajului natural[110] (PLN) oferă mașinilor posibilitatea de a citi și de a înțelege limbajul uman. Un sistem suficient de puternic de procesare a limbajului natural ar permite interfețele utilizator în limbaj natural(d) și dobândirea de cunoștințe direct din surse scrise de om, cum ar fi textele știrilor. Unele aplicații simple ale procesării limbajului natural includ recuperarea informațiilor(d), extragerea cunoștințelor din texte(d), răspunsul la întrebări[111] și traducerea automată. [112] Multe abordări actuale utilizează frecvențe de co-apariție a cuvintelor pentru a construi reprezentări sintactice ale textului. Strategiile de căutare a cuvintelor-cheie sunt populare și scalabile, dar simpliste; o interogare de căutare după „câine” ar putea să se potrivească doar documentelor cu cuvântul literal „câine” și să rateze un document cu cuvântul „pudel”. Strategiile de „afinitate lexicală” utilizează apariția unor cuvinte precum „accident” pentru a evalua sentimentul(d) unui document. Abordările statistice moderne ale PLN pot combina toate aceste strategii, precum și altele, și ating adesea o acuratețe acceptabilă la nivel de pagină sau de paragraf, dar continuă să lipsească înțelegerea semantică necesară pentru a clasifica bine propoziții izolate. Pe lângă dificultățile obișnuite cu codificarea cunoașterii semantice, PLN semantică existentă scalează, uneori, prea slab pentru a fi viabilă în aplicațiile curente. Dincolo de PLN semantică, scopul final al PLN „narative” este de a încorpora o înțelegere deplină a raționamentului de bun-simț.[113]
Percepție
Percepția automată(d)[114] este abilitatea de a folosi date de intrare de la senzori (cum ar fi camerele (de spectru vizibil sau infraroșu), microfoane, semnale wireless și lidare(d), sonare, radare si senzori tactili(d)) pentru a deduce aspecte ale lumii. Aplicațiile includ recunoașterea vorbirii,[115]recunoașterea facială(d) și recunoașterea obiectelor(d).[116]Vederea mașinilor(d) este abilitatea de a analiza intrările vizuale. O astfel de intrare este de obicei ambiguă; un pieton uriaș, de cincizeci de metri, aflat la distanță, poate produce exact aceiași pixeli ca un pieton de dimensiuni normale aflat în apropiere, ceea ce necesită ca IA să judece probabilitatea relativă și rezonabilitatea diferitelor interpretări, de exemplu prin utilizarea modelului său de obiecte pentru a evalua că nu există pietoni de cincizeci de metri înălțime.[117]
Mișcare și manipulare
IA este mult folosită în robotică.[118]Brațele robotice(d) avansate și alți roboți industriali, utilizați pe scară largă în fabricile moderne, pot învăța din experiență cum să se deplaseze eficient în ciuda prezenței frecării și alunecării angrenajelor.[119] Un robot mobil modern, atunci când i se dă un mediu mic, static și vizibil, își poate determina cu ușurință locația și își poate reprezenta(d) mediul; totuși, mediile dinamice, cum ar fi (în endoscopie) interiorul corpului unui pacient viu, reprezintă o provocare mai mare. Planificarea mișcării(d) este procesul de descompunere a unei sarcini de mișcare în „primitive”, cum ar fi mișcările individuale comune. O astfel de mișcare implică adesea mișcare conformă, un proces în care mișcarea necesită menținerea unui contact fizic cu un obiect.[120][121][122]Paradoxul lui Moravec(d) generalizează că abilitățile senzorimotorii de nivel scăzut, pe care oamenii le iau ca atare sunt, în mod contraintuitiv, greu de programat într-un robot; paradoxul este numit după Hans Moravec(d), care a afirmat în 1988 că „este destul de ușor să se facă computerele să prezinte performanțe la nivelul adulților pe testele de inteligență sau la jocul de dame, dar este dificil spre imposibil să capete abilitățile unui copil de un an când vine vorba de percepție și mobilitate”.[123][124] Acest lucru se datorează faptului că, spre deosebire de jocul de dame, dexteritatea fizică a fost o țintă directă a selecției naturale timp de milioane de ani.[125]
Inteligența socială
Paradoxul lui Moravec poate fi extins la multe forme de inteligență socială.[127][128] Distribuirea coordonării multi-agent a vehiculelor autonome rămâne o problemă dificilă.[129]Calculul afectiv(d) este o umbrelă interdisciplinară care cuprinde sisteme care recunosc, interpretează, procesează sau simulează afecțiunile(d) umane.[130][131][132] Printre succesele moderate legate de calculul se numără analiza textuală a sentimentelor(d) și, mai recent, analiza afectivă multimodală, în care IA clasifică afectele prezentate de un subiect înregistrat pe un film.[133]
Pe termen lung, aptitudinile sociale și înțelegerea emoției umane și a teoriei jocurilor ar fi valoroase pentru un agent social. Capacitatea de a prezice acțiunile altora prin înțelegerea motivelor și a stărilor emoționale ar permite unui agent să ia decizii mai bune. Unele sisteme informatice imită emoțiile și expresiile umane pentru a deveni mai sensibile la dinamica emoțională a interacțiunii umane sau pentru a facilita altfel interacțiunea om-calculator.[134] În mod similar, unii asistenți virtuali(d) sunt programați să poarte conversații sau chiar să se pălăvrăgească în glumă; acest lucru tinde să ofere utilizatorilor naivi o concepție nerealistă despre cât de inteligenți sunt de fapt agenții automați existenți.[135]
Inteligența generală
Din punct de vedere istoric, proiectele ca baza de cunoștințe Cyc (1984-) și inițiativa japoneză masivă a sistemelor informatice din generația a cincea(d) (1982-1992), au încercat să acopere amploarea cunoașterii umane. Aceste proiecte timpurii nu au reușit să scape de limitările modelelor logice simbolice necantitative și, în retrospectivă, au subestimat foarte mult dificultatea inteligenței artificiale inter-domeniu. În zilele noastre, marea majoritate a cercetătorilor actuali din IA lucrează în schimb pe aplicații de „IA îngust” mai tractabile (cum ar fi diagnosticul medical sau navigația automobilelor).[136] Mulți cercetători prognozează că astfel de „IA înguste" vor lucra în diferite domenii individuale, și în cele din urmă vor fi integrate într-o mașină cu inteligență generală artificială (AGI) combinând majoritatea competențelor înguste menționate în acest articol și într-un anumit punct chiar depășind capacitatea umană în majoritatea sau toate aceste domenii.[20][137] Multe progrese au o semnificație generală, pe mai multe domenii. Un exemplu de mare anvergură este faptul că DeepMind a dezvoltat în 2010 o „inteligență artificială generalizată” care ar putea învăța multe jocuri Atari diferite de una singură și mai târziu a dezvoltat o variantă a sistemului care reușește la învățarea secvențială(d).[138][139][140] Pe lângă învățarea prin transfer,[141] descoperirile ipotetice ale IGA ar putea cuprinde dezvoltarea unor arhitecturi reflexive care să se poată implica în metaraționamentul decizional-teoretic și găsirea unui mod de a „absorbi” o bază de cunoștințe cuprinzătoare din întregul web nestructurat.[8] Unii susțin că un fel de „algoritm master” (încă nedescoperit) conceptual simplu, dar matematic dificil, ar putea conduce la AGI.[142] În cele din urmă, câteva abordări „emergente“, privesc la simularea inteligenței umane extrem de îndeaproape, și cred că unele caracteristici antropomorfe, cum ar fi creierul artificial(d) sau simularea dezvoltării copiilor(d) pot ajunge într-o zi într-un punct critic în care apare inteligența generală.[143][144]
Multe dintre problemele din acest articol pot necesita, de asemenea, inteligență generală, dacă mașinile trebuie să rezolve problemele așa cum o fac oamenii. De exemplu, chiar și sarcini simple, cum ar fi traducerea automată, necesită ca o mașină să citească și să scrie în ambele limbi (PLN), să urmeze logica (raționamentul) autorului, să știe despre ce se vorbește (cunoștințe) și să reproducă cu fidelitate intenția originară a autorului (inteligență socială). O problemă precum traducerea automată este considerată „IA-completă(d)”, pentru că toate aceste probleme trebuie rezolvate simultan pentru a considera că mașina a atins performanța unui om.
Abordări
Nu există o teorie sau paradigmă unificatoare care să ghideze cercetarea de IA. Cercetătorii nu au căzut de acord asupra multor aspecte.[145] Câteva dintre cele mai îndelungate întrebări care au rămas fără răspuns sunt următoarele: ar trebui inteligența artificială să simuleze inteligența naturală prin studiul psihologiei sau neurobiologiei? Sau biologia umană(d) este irelevantă pentru cercetarea IA, așa cum este biologia păsărilor pentru ingineria aeronautică?[17] Poate fi descris un comportament inteligent folosind principii simple și elegante (cum ar fi logica sau optimizarea)? Sau este neapărat nevoie de rezolvarea unui număr mare de probleme complet independente?[18]
Cibernetica și simularea creierului
În anii 1940 și 1950, mai mulți cercetători au explorat legătura dintre neurobiologie, teoria informațiilor și cibernetică. Unii dintre aceștia au construit mașini care utilizează rețele electronice pentru a expune informații rudimentare, cum ar fi țestoasele(d) lui W. Gray Walter(d) și fiara de la Johns Hopkins. Mulți dintre acești cercetători s-au adunat pentru întâlnirile Societății Teleologice de la Universitatea Princeton și în Clubul Ratio(d) din Anglia.[146] Până în 1960, această abordare a fost în mare parte abandonată, deși elemente ale acesteia aveau să fie reînviate în anii 1980.
Simbolice
Când accesul la calculatoarele digitale a devenit posibil la mijlocul anilor 1950, cercetarea IA a început să exploreze posibilitatea ca inteligența umană să poată fi redusă la manipularea simbolurilor. Cercetarea a fost centrată în trei instituții: Universitatea Carnegie Mellon(d), Stanford și MIT, iar după cum este descris mai jos, fiecare și-a dezvoltat propriul stil de cercetare. John Haugeland(d) a numit aceste abordări simbolice ale IA „good old-fashioned AI” („Inteligență artificială simbolică”; în traducere liberă „IA bună ca pe vremuri”).[147] În anii 1960, abordările simbolice au avut un mare succes în simularea gândirii la nivel înalt în programele demonstrative mici. Abordările bazate pe cibernetică sau pe rețele neurale artificiale au fost abandonate sau împinse în fundal.[148] Cercetătorii din anii 1960 și 1970 au fost convinși că abordările simbolice ar reuși în cele din urmă să creeze o mașină cu inteligență generală artificială și să considere acest lucru scopul țelului lor.
Simularea cognitivă
Economistul Herbert Simon și Allen Newell au studiat abilitățile de rezolvare a problemelor umane și au încercat să le formalizeze, iar activitatea lor a pus bazele domeniului inteligenței artificiale, precum și ale științei cognitive, cercetării operaționale(d) și științei managementului. Echipa lor de cercetare a folosit rezultatele experimentelor psihologice pentru a dezvolta programe care au simulat tehnicile pe care oamenii le foloseau pentru rezolvarea problemelor. Această tradiție, centrată pe Universitatea Carnegie Mellon(d), avea să culmineze în cele din urmă în dezvoltarea arhitecturii Soar(d) în mijlocul anilor 1980.[149][150]
Pe bază de logică
Spre deosebire de Simon și Newell, John McCarthy a simțit că mașinile nu au nevoie să simuleze gândirea umană, ci ar trebui să încerce să găsească esența raționamentului abstract și a rezolvării problemelor, indiferent dacă oamenii folosesc aceleași algoritmi.[17] Laboratorul său de la Stanford (SAIL(d)) s-a concentrat pe utilizarea logicii formale pentru a rezolva o mare varietate de probleme, inclusiv reprezentarea cunoștințelor(d), planificarea(d) și învățarea.[151] Logica a fost, de asemenea, subiectul unor lucrări de la Universitatea din Edinburgh și din alte părți ale Europei, care au condus la dezvoltarea limbajului de programare Prolog și a științei programării logice(d).[152]
Când au devenit disponibile computerele cu memorii mari pe la 1970, cercetătorii din toate cele trei tradiții au început să introducă cunoștințe(d) în aplicațiile IA.[155] Această „revoluție a cunoștințelor” a dus la dezvoltarea și desfășurarea sistemelor expert (introduse de Edward Feigenbaum), prima formă cu adevărat de succes a software-ului cu IA.[40] O componentă cheie a arhitecturii de sistem pentru toate sistemele expert este baza de cunoștințe care stochează fapte și reguli care ilustrează IA.[156] Revoluția cunoștințelor a fost determinată și de realizarea faptului că o mulțime de cunoștințe ar fi necesare multor aplicații cu IA simple.
Subsimbolice
Până în anii 1980, progresul în domeniul IA simbolic părea să se blocheze și mulți credeau că sistemele simbolice nu ar putea niciodată să imite toate procesele cunoașterii umane, în special percepția(d), robotica, învățarea și recunoașterea șabloanelor(d). Mai mulți cercetători au început să privească spre abordările „subsimbolice” asupra problemelor specifice IA.[19] Metodele sub-simbolice reușesc să abordeze inteligența fără reprezentări specifice ale cunoașterii.
Inteligență întruchipată
Aceasta include IA întruchipată(d), situată, bazată pe comportament(d) și nouvelle(d). Cercetătorii din domeniul asociat al roboticii, cum ar fi Rodney Brooks(d), respingeau IA simbolică și s-au concentrat asupra problemelor fundamentale de inginerie care ar permite roboților să se miște și să supraviețuiască.[157] Munca lor a reînviat punctul de vedere nesimbolic al cercetătorilor timpurii ai ciberneticii din anii 1950 și a reintrodus utilizarea teoriei controlului(d) în IA. Acest lucru a coincis cu dezvoltarea tezei gândirii încorporate(d) în domeniul conex al științei cognitive: ideea că aspecte ale corpului (cum ar fi mișcarea, percepția și vizualizarea) sunt necesare unei inteligențe superioare.
În cadrul roboticii de dezvoltare, se elaborează abordări de învățare pentru dezvoltare pentru a permite roboților să acumuleze repertorii de abilități noi prin auto-explorare autonomă, interacțiune socială cu profesori umani și utilizarea mecanismelor de orientare (învățare activă, maturizare, sinergii motorii etc.).[158][159][160][161]
O mare parte din GOFAI tradiționale s-au împotmolit în mici modificări ad-hoc aduse calculului simbolic care a lucrat pe propriile modele, dar nu s-a generalizat la rezultatele din lumea reală. Cu toate acestea, în jurul anilor 1990, cercetătorii din IA au adoptat instrumente matematice sofisticate, cum ar fi modelele Markov ascunse(d) (HMM), teoria informațiilor și teoria bayesiană a deciziei(d) pentru a compara sau unifica arhitecturile concurente. Limbajul matematic comun a permis un nivel ridicat de colaborare cu mai multe domenii (cum ar fi matematica, economia sau cercetarea operațională(d)).[f] În comparație cu GOFAI, noi tehnici de "învățare statistică", cum ar fi rețelele neurale și HMM, au obținut niveluri mai înalte de precizie în multe domenii practice, cum ar fi data mining, fără a se obține neapărat înțelegerea semantică a seturilor de date. Succesele sporite cu datele din lumea reală au condus la accentul sporit pe compararea diferitelor abordări ale datelor de testare partajate, pentru a vedea care dintre metodele au cea mai bună performanță într-un context mai larg decât cel oferit de modelele idiosincratice; cercetarea AI a devenit tot mai științifică. În prezent, rezultatele experimentelor sunt adesea măsurabile riguros și uneori (cu dificultate) pot fi reproduse.[164][165] Diferitele tehnici de învățare statistică au limite diferite; de exemplu, HMM de bază nu poate modela combinațiile posibile infinite ale limbajului natural.[166] Criticii remarcă faptul că trecerea de la GOFAI la învățarea statistică implică adesea, de asemenea, abandonarea IA explicabile(d). În cercetarea IGA, unii cercetători avertizează împotriva dependenței excesive de învățarea statistică și susțin că cercetarea continuă a GOFAI va fi totuși necesară pentru a obține informații generale.[167][168]
Integrarea abordărilor
Paradigma agentului inteligent
Un agent inteligent(d) este un sistem care își percepe mediul și efectuează acțiuni care îi maximizează șansele de succes. Cei mai simpli agenți inteligenți sunt programe care rezolvă probleme specifice. Printre agenții mai complicați se numără ființele umane și organizațiile de ființe umane (cum ar fi firmele). Paradigma permite cercetătorilor să compare direct sau chiar să combine diferite abordări pentru problemele izolate, întrebând care agent este cel mai bun la maximizarea unei „funcții de țintă” date. Un agent care rezolvă o problemă specifică poate folosi orice abordare care funcționează — unii agenți sunt simbolici și logici, unii sunt rețele neurale artificiale subsimbolice și alții pot folosi noi abordări. Paradigma oferă, de asemenea, cercetătorilor un limbaj comun pentru a comunica cu alte domenii — cum ar fi teoria deciziei și economia — care utilizează și ele conceptul agenților abstracți. Construirea unui agent complet necesită ca cercetătorii să abordeze probleme realiste de integrare; de exemplu, deoarece sistemele senzoriale oferă informații nesigure despre mediu, sistemele de planificare trebuie să poată funcționa în prezența incertitudinii. Paradigma agentului inteligent a devenit pe scară largă acceptată în anii 1990.[169]
Cercetătorii au creat sisteme pentru a construi sisteme inteligente din interacțiunea agenților inteligenți(d) într-un sistem multi-agent.[170] Un sistem ierarhic de control(d) oferă o punte între IA subsimbolică la nivelurile sale reactive, cele mai scăzute, și IA simbolică tradițională de la cele mai înalte niveluri, unde constrângerile de timp relaxate permit planificarea și modelarea lumii.[171] Unele arhitecturi cognitive sunt personalizate pentru a rezolva o problemă îngustă; altele, cum ar fi Soar, sunt concepute pentru a imita cogniția umană și pentru a oferi o perspectivă asupra inteligenței generale. Extensiile moderne ale Soar sunt sisteme inteligente hibride(d) care includ atât componente simbolice, cât și sub-simbolice.[172][173]
Instrumente
IA a dezvoltat un număr mare de instrumente pentru a rezolva cele mai dificile probleme din domeniul informaticii. Câteva dintre cele mai generale dintre aceste metode sunt discutate mai jos.
Căutarea și optimizarea
Multe probleme din IA pot fi rezolvate teoretic prin căutarea inteligentă între multe soluții posibile: [174]Raționamentul poate fi redus la efectuarea unei căutări. De exemplu, demonstrația logică poate fi privită drept căutarea unei căi care conduce de la ipoteză la concluzie(d), în care fiecare pas este aplicarea unei reguli de inferență(d).[175] Algoritmii de planificare(d) caută prin arbori de obiective și subobiective, încercând să găsească o cale către un obiectiv țintă, un proces numit analiză mijloc-scop(d).[176] Algoritmii de robotică pentru mișcarea membrelor și pentru apucarea obiectelor utilizează căutări locale(d) în spațiul de configurații(d).[119] Mulți algoritmi de învățare utilizează algoritmi de căutare bazați pe optimizare.
Căutările exhaustive simple[177] sunt rareori suficiente pentru majoritatea problemelor din lumea reală: dimensiunea spațiului de căutare(d) (numărul de locuri de căutare) crește rapid la cifre astronomice(d). Rezultatul este o căutare care este prea lentă sau nu se termină niciodată. Soluția, pentru multe probleme, este de a folosi „euristica(d)” sau „regula aproximativă” care prioritizează opțiunile în favoarea celor care au mai multe șanse de a atinge un obiectiv și de a face acest lucru într-un număr mai mic de pași. În unele metodologii de căutare, euristica poate servi, de asemenea, la eliminarea în totalitate a unor alegeri care sunt puțin probabil să conducă la un scop (numită „tăierea ramurilor(d)arborelui de căutare(d)”). Euristica(d) furnizează programului o „estimare a căii celei mai bune” spre care ar putea exista soluția.[178] Euristica limitează căutarea soluțiilor într-un eșantion de dimensiune mai mică.[120]
Un tip foarte diferit de căutare a ieșit în evidență în anii 1990, bazat pe teoria matematică a optimizării. Pentru multe probleme, este posibil să se înceapă căutarea cu o anumită formă de aproximare și apoi să se rafineze această aproximare incremental până când nu mai pot fi făcute îmbunătățiri. Acești algoritmi pot fi vizualizați ca escaladă(d) orbească: se începe căutarea într-un punct aleatoriu din peisaj și apoi, prin salturi sau pași, se continuă mișcarea în sus, până se ajunge în vârf. Alți algoritmi de optimizare sunt simulated annealing(d), beam search(d) și optimizarea aleatorie(d).[179]
În cercetarea IA se folosesc mai multe forme diferite de logică. Logica propozițională(d)[186] implică funcții de adevăr(d), cum ar fi „sau” și „non”. Logica de ordinul întâi(d)[187] adaugă cuantificatori(d) și predicate(d) și poate exprima fapte despre obiecte, proprietățile lor și relațiile dintre ele. Teoria mulțimilor vagi atribuie un „grad de adevăr” (între 0 și 1) unor afirmații vagi precum „Alice este bătrână” (sau „bogată”, „înaltă” sau „înfometată”) care sunt prea imprecise din punct de vedere lingvistic pentru a fi complet adevărate sau complet false. Logica fuzzy este folosită cu succes în sistemele de control(d) pentru a permite experților să contribuie cu reguli vagi precum „dacă ești aproape de stația de destinație și te miști rapid, crește presiunea de frânare a trenului”; aceste reguli vagi pot fi rafinate numeric în cadrul sistemului. Logica fuzzy nu reușește să scaleze bine în bazele de cunoștințe; mulți cercetători de IA sunt reticenți față de validitatea inferențelor de logică fuzzy.[g][189][190]
În ansamblu, logica simbolică calitativă este fragilă și scalează rău în prezența zgomotului sau a altei incertitudini. Excepțiile de la reguli sunt numeroase și este dificil pentru sistemele logice să funcționeze în prezența unor reguli contradictorii.[192][193]
Metode probabilistice pentru raționament incert
Multe probleme din IA (de raționament, planificare, învățare, percepție și robotică) necesită ca agentul să funcționeze cu informații incomplete sau nesigure. Cercetătorii de IA au conceput o serie de instrumente puternice pentru a rezolva aceste probleme utilizând metode din teoria probabilităților și din economie. [194]
Rețelele bayesiene[195] sunt un instrument foarte general, care poate fi folosit pentru un număr mare de probleme: de raționament (folosind algoritmul inferențelor bayesiane),[196] de învățare (folosind algoritmul EM(d)),[h][198]planificare(d) (prin utilizarea rețelelor decizionale(d)) [199] și percepție(d) (utilizând rețele bayesiene dinamice(d)).[200] Se pot utiliza și algoritmi probabilistici pentru filtrarea, predicția, rafinarea și găsirea de explicații pentru fluxurile de date, ajutând sistemele de percepție(d) să analizeze procesele care apar în timp (de exemplu, modelele Markov ascunse(d) sau filtrele Kalman(d)).[200] În comparație cu logica simbolică, inferența bayesiană formală este costisitoare din punct de vedere computațional. Pentru ca inferența să fie tractabilă, majoritatea observațiilor trebuie să fie dependente condiționat(d) una de cealaltă. Graficele complexe cu „bucle” (cicluri neorientate) pot necesita o metodă sofisticată, cum ar fi metoda Monte Carlo cu lanțuri Markov(d) , care răspândește un ansamblu de drumuri aleatoare(d) prin întreaga rețea bayesiană și încearcă să conveargă la o evaluare a probabilităților condiționate. Rețelele bayesiene sunt utilizate pe Xbox Live pentru a evalua și a potrivi jucătorii între ei; victoriile și înfrângerile sunt „dovezi” despre cât de bun este un jucător. AdSense utilizează o rețea bayesiană cu peste 300 de milioane de muchii pentru a afla ce reclame să afișeze.[192]
Cele mai simple aplicații de IA pot fi împărțite în două tipuri: clasificatori („dacă sclipește, atunci diamant”) și controlori („dacă lucios, atunci ridică”). Controlorii mai și clasifică însă condițiile înainte de a infera acțiuni și, prin urmare, clasificarea formează o parte centrală a multor sisteme cu IA. Clasificatorii(d) sunt funcții care utilizează aplicarea șabloanelor(d) pentru a determina potrivirea cea mai apropiată. Ele pot fi reglate conform exemplelor, făcându-le foarte atractive pentru utilizarea în IA. Aceste exemple sunt cunoscute ca observații sau șabloane. În învățarea supravegheată, fiecare model aparține unei anumite clase predefinite. O clasă poate fi văzută ca o decizie care trebuie luată. Toate observațiile combinate cu etichetele lor de clasă sunt cunoscute ca un set de date. Atunci când se primește o nouă observație, această observație este clasificată pe baza experienței anterioare.[204]
Un clasificator poate fi instruit în diferite moduri; există multe abordări statistice și de învățare automată. Arborele de decizie(d)[205] este probabil cel mai utilizat algoritm de învățare automată.[206] Alți clasificatori utilizați pe scară largă sunt rețelele neurale,[207]algoritmul k-NN(d),[i][209]metodele kernel(d), cum ar fi support-vector machine(d) (SVM),[j][211]modelul gaussian de amestec(d)[212] și clasificatorul Bayes naiv.[k][214] Performanța clasificatorului depinde în mare măsură de caracteristicile datelor care urmează a fi clasificate, cum ar fi dimensiunea setului de date, distribuția eșantioanelor pe clase, dimensionalitatea și nivelul zgomotului. Clasificatorii bazați pe modele funcționează bine dacă modelul asumat se potrivește extrem de bine pe datele reale. În caz contrar, dacă nu există un model compatibil și dacă singura preocupare este acuratețea (și nu viteza sau scalabilitatea), se știe că clasificatorii discriminatori (în special SVM) tind să fie mai exacți decât clasificatorii bazați pe model, cum ar fi „Bayes naiv” pe cele mai multe seturi de date din practică.[215][216]
Rețele neurale artificiale
Rețelele neurale s-au inspirat din arhitectura neuronilor din creierul uman. Un „neuron” simplu N acceptă intrări de la mai mulți neuroni, fiecare dintre ei, atunci când este activat, aruncă un „vot” ponderat pentru sau împotriva activării neuronului N. Învățarea necesită un algoritm de ajustare a acestor ponderi pe baza datelor de antrenament; un algoritm simplu (pe principiul „conectează ce se declanșează împreună(d)”) este de a crește ponderea conexiunii între doi neuroni conectați atunci când activarea unuia declanșează activarea cu succes a altuia. Rețeaua formează „concepte” care sunt distribuite într-o subrețea de neuroni partajați[l] care tind să se activeze împreună; de exemplu, un concept care înseamnă „picior” ar putea fi cuplat cu o subrețea care înseamnă „picior”, care include sunetul pentru „picior”. Neuronii au un spectru continuu de activare; mai mult, ei pot procesa intrările neliniar, în loc să cântărească voturi simple. Rețelele neurale moderne pot învăța atât funcții continue, cât și, surprinzător, operații logice digitale. Rețelele neuronale au avut succese la prezicerea evoluției pieței bursiere și (în 1995) un autovehicul care se conducea în mare parte automat.[m][217] În anii 2010, progresele înregistrate în rețelele neurale ce utilizează învățarea în profunzime au propulsat domeniul IA în conștiința publică, și au contribuit la o creștere enormă a investițiilor corporative în IA; de exemplu, fuziunile și achizițiile(d) de companii în domeniul IA în 2017 erau de peste 25 de ori mai substanțiale decât în 2015.[218][219]
Pe scurt, majoritatea rețelelor neurale utilizează o anumită formă de coborâre de gradient(d) pe o topologie neurală creată manual. Cu toate acestea, unele grupuri de cercetare, cum ar fi Uber, susțin că o neuroevoluție(d) simplă, în care prin mutație se generează noi topologii și ponderi de rețele neurale, poate fi competitivă chiar și în fața unor abordări sofisticate cu coborâre de gradient. Un avantaj al neuroevoluției este acela că ar putea fi mai puțin predispusă la a fi blocată într-o „fundătură”.[228]
Rețele neurale cu feedforward
Învățarea profundă este orice rețea neurală artificială care poate învăța un lanț lung de legături de cauzalitate. De exemplu, o rețea cu feedforward cu șase straturi ascunse poate învăța un lanț de cauzalitate cu șapte legături (șase straturi ascunse + stratul de ieșire) și are o profunzime de „alocare a creditului” (CAP) de șapte. Multe sisteme cu învățare profundă trebuie să poată învăța lanțuri cu zece sau mai multe legături de cauzalitate.[229] Învățarea profundă a transformat multe subdomenii importante ale inteligenței artificiale, inclusiv vederea mașinilor(d), recunoașterea vorbirii, prelucrarea limbajului natural și altele.[230][231][229]
Conform unei vederi de ansamblu,[232] expresia Deep Learning a fost introdusă în comunitatea de învățare automată de către Rina Dechter(d) în 1986[233] și a căpătat anvergură după ce Igor Aizenberg si colegii săi au introdus-o în rețelele neurale artificiale în 2000.[234] Primele rețele rețele funcționale de învățare profundă au fost publicate de Alexei Grigorevici Ivahnenko(d) și VG Lapa în 1965.[235] Aceste rețele sunt antrenate strat cu strat. Articolul lui Ivahnenko din 1971 [236] descrie învățarea unui perceptron multistrat feedforward profund cu opt straturi, deja mult mai profund decât multe rețele ulterioare. În 2006, o publicație a lui Geoffrey Hinton și a lui Ruslan Salahutdinov a introdus un alt mod de pre-antrenare a unor rețele neurale feedforward multistrat, tratând fiecare strat pe rând ca pe o mașină Boltzmann restrânsă(d)nesupravegheată(d), apoi folosind Backpropagationsupravegheat(d) pentru reglajul fin.[237] Asemenea rețelelor neurale artificiale superficiale, rețelele neurale profunde pot modela relații neliniare complexe. În ultimii ani, progresele atât în domeniul algoritmilor de învățare automată, cât și în domeniul hardware-ului calculatoarelor au condus la metode mai eficiente de formare a rețelelor neurale profunde care conțin mai multe straturi de unități neliniare ascunse și un strat de ieșire foarte mare.[238]
Învățarea profundă utilizează adesea rețele neurale convoluționale(d) (RNC), ale căror origini par a fi în Neocognitronul(d) introdus de Kunihiko Fukushima(d) în 1980.[239] În 1989, Yann LeCun(d) și colegii săi au aplicat Backpropagation pe o astfel de arhitectură. La începutul anilor 2000, într-o aplicație industrială, RNC prelucrau deja aproximativ 10% până la 20% din toate cecurile scrise în SUA.[240] Începând cu 2011, implementările rapide de RNC pe unitățile de procesare grafică au câștigat numeroase concursuri de recunoaștere vizuală a formelor.[229]
RNC cu 12 straturi convoluționale au fost utilizate împreună cu învățarea prin întărire(d) de către „AlphaGo(d) Lee” al lui Deepmind, programul care l-a învins pe campionul la go în 2016.[241]
Rețele neuronale profunde recurente
Încă de la început, învățarea profundă a fost aplicată și la învățarea de succesiuni cu rețele neurale recurente(d)[242] care sunt, teoretic, Turing-complete[243] și pot executa programe arbitrare pentru a procesa secvențe arbitrare de intrări. Adâncimea unei RN recurent este nelimitată și depinde de lungimea secvenței sale de intrare; astfel, o RN recurentă este un exemplu de învățare profundă.[229] Rețelele neurale recurente pot fi antrenate prin coborâre de gradient(d)[244][245][246] dar suferă de problema dispariției gradientului(d).[230][247] În 1992, s-a demonstrat că pre-antrenarea nesupravegheată a unui set de rețele neurale recurente poate accelera învățarea ulterioară supravegheată a problemelor secvențiale profunde.[248]
Numeroși cercetători folosesc acum variante ale unei RN recurente pentru învățare profundă numită Long-Short Term Memory(d) (LSTM), publicată de Hochreiter & Schmidhuber în 1997.[249] LSTM este adesea antrenată prin Connectionist Temporal Classification (CTC).[250] La Google, Microsoft și Baidu, această abordare a revoluționat recunoașterea vorbirii.[251][252][253] De exemplu, în 2015, recunoașterea vocală de la Google a înregistrat un salt spectaculos de performanță de 49% cu ajutorul lui LSTM instruit de CTC, disponibil acum prin Google Voice(d) către utilizatorii a miliarde de smartphone-uri.[254] Google a folosit de asemenea LSTM pentru a îmbunătăți traducerea automată,[255] modelarea limbajului[256] și prelucrarea lingvistică multilingvă.[257] LSTM combinat cu RNC a îmbunătățit și descrierea automată a imaginilor[258] și o multitudine de alte aplicații.
Evaluarea progresului
Ca și electricitatea sau motorul cu abur, IA este o tehnologie cu scop general. Nu există un consens despre cum să se caracterizeze sarcinile la care IA tinde să exceleze.[259] Deși proiecte precum AlphaZero(d) au reușit să-și genereze propriile cunoștințe de la zero, multe alte proiecte de învățare automată necesită seturi de date de antrenament mari.[260][261] Cercetătorul Andrew Y. Ng(d) a sugerat, ca o „regulă aproximativă extrem de imperfectă”, că „aproape orice poate fi făcut de un om cu mai puțin de o secundă de gândire mentală, poate să fie, acum sau în viitorul apropiat, automatizat prin utilizarea IA”.[262]Paradoxul lui Moravec(d) sugerează că IA rămâne în urma omului la multe sarcini pentru a căror bună îndeplinire creierul uman a evoluat anume.[125]
Jocurile oferă un punct de referință foarte mediatizat pentru evaluarea ratei progresului. AlphaGo(d) a adus, în preajma lui 2016, sfârșitul epocii testelor cu jocuri de masă. Jocurile de cunoștințe imperfecte oferă noi provocări pentru IA în domeniul teoriei jocurilor.[263][264]E-sporturile, cum ar fi StarCraft, continuă să furnizeze repere publice suplimentare.[265][266] Există numeroase concursuri și premii, cum ar fi Imagenet Challenge(d), pentru promovarea cercetării în domeniul inteligenței artificiale. Cele mai comune domenii de concurs sunt inteligența automată generală, comportamentul conversațional, data mining, mașini robotizate și fotbal jucat de roboți, pe lângă jocuri convenționale.[267]
„Jocul imitației” (o interpretare a testului Turing din 1950 care evaluează dacă un calculator poate imita un om) este în prezent considerat prea exploatabil pentru a fi un test semnificativ.[268] Un derivat al testului Turing este Testul Turing Public Complet Automatizat pentru Deosebirea Omului de Calculator (Completely Automated Public Turing test to tell Computers and Humans Apart, CAPTCHA). După cum sugerează și numele, acest lucru ajută la determinarea dacă utilizator este o persoană reală sau un computer care simulează un om. Spre deosebire de testul Turing standard, care este administrat de către un om unei mașini, CAPTCHA este administrat de o mașină unui om. Un computer cere unui utilizator să completeze un test simplu, apoi generează o notă pentru acel test. Computerele nu reușesc să rezolve problemele, deci soluțiile corecte sunt considerate a fi rezultatul faptului că testul a fost efectuat de un om. Un tip comun de CAPTCHA este un test care necesită identificarea unor litere, numere sau simboluri distorsionate care apar într-o imagine care ar fi indescifrabilă pentru un calculator.[269]
Testele de „inteligență universale” propuse au scopul de a compara cât de bine se comportă mașinile, oamenii și chiar animalele la seturi de probleme care sunt cât mai generice cu putință. La extrem, suita de test poate conține orice problemă posibilă, ponderată de complexitatea Kolmogorov(d); din păcate, aceste seturi de probleme tind să fie dominate de exerciții slabe de aplicare a șabloanelor, la care o IA acordată corespunzător poate depăși cu ușurință performanța umană.[270][271]
Metrici universale de tip cutie neagră de măsurare a inteligenței sistemelor
Pe baza diversității mari de sisteme inteligente (agenți inteligenți și sisteme multi-agent cooperative inteligente), trebuie utilizate metrici universale capabile să măsoare inteligența sistemelor și, totodată, să compare sistemele pe baza inteligenței lor. Una dintre proprietățile cele mai importante ale unei metrici de măsurare a inteligenței este tratarea aspectului de variabilitate în inteligență. Metricile de inteligență de tip cutie neagră, cum ar fi MetrIntPair [272], MetrIntPairII [273], MetrIntMeas [274] și metoda ExtrIntDetect [275] sunt universale, deoarece nu depind de arhitectura sistemelor a căror inteligență o măsoară. MetrIntPair este o metrică precisă care poate măsura și compara simultan inteligența a două sisteme. MetrIntPairII este o metrică precisă și robustă care poate măsura și compara simultan inteligența unui număr oarecare de sisteme inteligente. Metricile MetrIntPair și MetrIntPairII folosesc măsurători specifice de inteligență bazate pe o metodă de măsurare pe perechi și pot clasifica sistemele studiate în clase de inteligență. MetrIntMeas poate măsura și compara inteligența unui sistem studiat cu o inteligență de referință. Metoda ExtrIntDetect poate să detecteze sistemele cu inteligență extremă dintr-un set de sisteme inteligente studiate.
Aplicații
IA este relevantă pentru orice sarcină intelectuală.[276] Tehnicile moderne de inteligență artificială sunt omniprezente și sunt prea numeroase pentru a fi prezentate exhaustiv aici. Frecvent, atunci când o tehnică ajunge în uz general, ea nu mai este considerată a fi inteligență artificială; acest fenomen este denimit efectul IA(d).[277]
Printre exemplele de IA foarte vizibile se numără vehiculele autonome (cum ar fi dronele și autoturismele conduse automat), diagnosticul medical, unele creații artistice (cum ar fi poezia), demonstrarea unor teoreme matematice, jocurile (cum ar fi șahul sau go), motoarele de căutare (cum ar fi Google Search), asistenți online (cum ar fi Siri), recunoașterea imaginilor în fotografii, filtrarea spamului, prezicerea întârzierilor zborurilor,[278] prezicerea deciziilor judiciare[279] și direcționarea reclamelor online.[276][280][281]
După ce site-urile de social media au depășit televiziunea ca sursă de știri pentru tineri, organizațiile de știri se bazează tot mai mult pe platformele de social media pentru generarea de distribuție,[282] editorii majori folosesc acum tehnologia inteligenței artificiale pentru a publica mai eficient articole și de a genera volume mai mari de trafic.[283]
Sănătate
IA se aplică în problema de cost ridicat a dozajului — unde unele rezultate sugerau că IA ar putea economisi 16 miliarde de dolari. În 2016, un studiu de pionierat efectuat în California a constatat că o formulă matematică dezvoltată cu ajutorul IA a determinat în mod corect doza exactă de medicamente imunosupresoare care să fie administrată pacienților implicați în transplante de organe. [284]
Inteligența artificială pătrunde în industria sănătății ca asistent al medicilor. Potrivit Bloomberg Technology, Microsoft a dezvoltat IA pentru a ajuta medicii să găsească tratamentele corecte pentru cancer.[285] Există o cantitate substanțială de cercetare și un număr mare de medicamente dezvoltate pentru cancer. În detaliu, există peste 800 de medicamente și vaccinuri pentru tratarea cancerului. Acest lucru afectează negativ medicii, deoarece există prea multe opțiuni din care să aleagă, făcând mai dificilă alegerea medicamentelor potrivite pentru pacienți. Microsoft lucrează la un proiect pentru a dezvolta o mașină numită „Hanover”. Obiectivul său este de a memora toate lucrările necesare din domeniul oncologiei și de a ajuta să se prevadă care combinații de medicamente vor fi cele mai eficiente pentru fiecare pacient. Un proiect la care se lucrează în prezent este combaterea leucemiei mieloide, un cancer mortal al cărui tratament nu s-a îmbunătățit de decenii. Un alt studiu a arătat că inteligența artificială este la fel de bună ca medicii instruiți în identificarea cancerelor de piele.[286] Un alt proiect utilizează inteligența artificială pentru a încerca monitorizarea mai multor pacienți cu risc crescut și acest lucru se face prin punerea de numeroase întrebări fiecărui pacient, pe baza datelor obținute din interacțiunile medicului uman cu pacientul.[287] S-a realizat un studiu cu învățare prin transfer, mașina a efectuat un diagnostic similar unui oftalmolog bine pregătit și ar putea genera o decizie în 30 de secunde dacă pacientul trebuie sau nu să fie trimis la tratament, cu o precizie de peste 95%.[288]
Potrivit CNN, un studiu efectuat de chirurgi de la Centrul Medical National pentru Copii din Washington a demonstrat cu succes o interventie chirurgicală efectuată de un robot autonom. Echipa a supravegheat robotul în timp ce el efectua o intervenție chirurgicală pe țesuturi moi, reparând intestinul rupt al unui porc într-o intervenție chirurgicală deschisă cu o reușită mai bună decât a unui chirurg uman, după afirmațiile echipei.[289] IBM și-a creat propriul calculator de inteligență artificială, IBM Watson, care a depășit inteligența umană (la anumite nivele). Watson nu numai că a câștigat la show-ul de joc Jeopardy! împotriva foștilor campioni[290] dar a fost declarat erou după ce a diagnosticat cu succes o femeie care suferea de leucemie.[291]
Industria auto
Progresele din IA au contribuit la creșterea industriei de automobile prin crearea și evoluția autovehiculelor cu autovehicule. În 2016, existau peste 30 de companii care utilizau IA la crearea mașinilor fără șofer. Câteva companii implicate în IA sunt Tesla, Google și Apple.[292]
Multe componente contribuie la funcționarea autoturismelor. Aceste vehicule incorporează sisteme cum ar fi frânarea, schimbarea benzii de rulare, prevenirea coliziunilor, navigarea și cartografierea. Împreună, aceste sisteme, precum și computerele de înaltă performanță, sunt integrate într-un singur vehicul complex.[293]
Evoluțiile recente în domeniul autovehiculelor autonome au făcut posibilă inovația autoturismelor conduse automat, deși acestea se află încă în faza de testare. Guvernul britanic a adoptat legislație pentru începerea testării unor mici flote de autoturisme fără șofer în 2018.[294] Plutoanele de camioane automate sunt o flotă de autocamioane care conduc în urma unui camion condus de un om, deci plutonul de camioane nu este în întregime autonom. Între timp, Daimler, o companie germană de automobile, testează Freightliner Inspiration, o mașină semi-autonomă de fi folosit numai pe șosele interurbane.[295]
Un factor principal care influențează abilitatea unui automobil de a funcționa fără conducător auto este cartografierea. În general, vehiculul ar putea fi pre-programat cu o hartă a zonei prin care conduce. Această hartă ar include date privind aproximarea luminii stradale și a înălțimii bordurilor pentru ca vehiculul să fie conștient de împrejurimile sale. Cu toate acestea, Google a lucrat la un algoritm al cărui scop este de a elimina nevoia de hărți preprogramate și a creat, în schimb, un dispozitiv care să se poată adapta la o varietate de împrejurimi noi.[296] Unele autovehicule automate nu sunt echipate cu volane sau pedale de frână, așa că s-au concentrat pe cercetări asupra creării unui algoritm capabil să mențină un mediu sigur pentru pasagerii vehiculului prin conștientizarea condițiilor de condus și de viteză.[297]
Un alt factor care influențează capacitatea unui automobil fără șofer este siguranța pasagerului. Pentru a face un automobil fără șofer, inginerii trebuie să-l programeze pentru a gestiona situațiile cu risc ridicat. Aceste situații ar putea include o ciocnire frontală cu pietoni. Scopul principal al mașinii trebuie să fie acela de a lua o decizie care să evite lovirea pietonilor și salvarea pasagerilor în mașină. Dar există o posibilitate ca mașina să aibă nevoie de o decizie care ar pune pe cineva în pericol. Cu alte cuvinte, mașina ar trebui să decidă să salveze pietonii sau pasagerii.[298] Programarea mașinii în aceste situații este esențială pentru un automobil fără conducător auto.
Finanțe și economie
Instituțiile financiare folosesc de mult timp sistemele de rețele neurale artificiale pentru a detecta debite sau cereri de debitare extraordinare, marcându-le pentru a fi cercetate de oameni. Utilizarea IA în sectorul bancar datează din 1987, când Security Pacific Bank(d) din SUA a înființat un Task force pentru Prevenirea Fraudelor cu scopul de a contracara utilizarea neautorizată a cardurilor de debit. Programe precum Kasisto și Moneystream utilizează IA în serviciile financiare.
Băncile utilizează astăzi sisteme cu inteligență artificială pentru a organiza operațiuni, a menține evidența contabilă, a investi în acțiuni și a gestiona proprietățile. IA poate reacționa la schimbări bruște și în timpul nopții sau în zilele nelucrătoare.[299] În august 2001, roboții au învins oamenii într-o competiție simulată de tranzacționare financiară(d).[300] IA a redus și frauda și criminalitatea financiară prin monitorizarea modelelor comportamentale(d) ale utilizatorilor pentru orice schimbări anormale sau anomalii.[301]
Utilizarea mașinilor cu IA pe piață în aplicații precum comerțul online și luarea deciziilor a schimbat teoriile economice majore.[302] De exemplu, platformele de cumpărare și vânzare bazate pe IA au schimbat legea cererii și ofertei prin faptul că acum este posibilă estimarea cu ușurință a unor curbe individualizate de cerere și ofertă și, prin urmare, stabilirea prețurilor individualizate. În plus, mașinile cu IA reduc asimetria informației(d) pe piață, făcând astfel piețele mai eficiente, și reducând volumul tranzacțiilor. Printre alte teorii în care IA a avut impact se numără alegerea rațională, așteptările raționale, teoria jocurilor, punctul de cotitură Lewis(d), optimizarea portofoliului(d) și gândirea contrafactuală(d).
Jocuri video
În jocurile video, inteligența artificială este utilizată în mod obișnuit pentru a genera un comportament dinamic la personajele nejucător (NPC). În plus, tehnici IA bine cunoscute sunt utilizate în mod curent pentru găsirea de drumuri(d). Unii cercetători consideră că NPC cu IA în jocuri sunt o „problemă rezolvată” pentru majoritatea cazurilor din producție. Printre jocurile cu IA mai atipice se numără directorul IA din Left 4 Dead(d) (2008) și antrenamentul neuroevoluționar al plutoanelor în Supreme Commander 2(d) (2010).[303][304]
Armată
Cheltuielile militare mondiale anuale pe robotică au crescut de la 5,1 miliarde de dolari în 2010 la 7,5 miliarde de dolari în 2015.[305][306] Dronele militare capabile de acțiune autonomă sunt considerate pe scară largă o dotare utilă. Mulți cercetători în domeniul inteligenței artificiale încearcă să se distanțeze de aplicațiile militare ale AI. [307]
Inteligența artificială generativă
Inteligența artificială generativă este inteligența artificială capabilă să genereze texte, imagini, video, sau alte date folosind modele generative.
Audit
Pentru auditul contabilității financiare, IA face posibil auditul continuu. Instrumentele cu IA pot analiza pe loc multe seturi de informații diferite. Beneficiul potențial este reducerea riscului general de audit, creșterea nivelului de asigurare și reducerea duratei auditului.[308]
Publicitate
Se poate utiliza IA pentru a anticipa sau generaliza comportamentul clienților din amprenta lor digitală(d), pentru a-i viza cu ajutorul unor promoții personalizate sau pentru a construi în mod automat profiluri de client.[309] Un caz documentat arată că companiile de jocuri de noroc online folosesc IA pentru a îmbunătăți direcționarea reclamelor către clienți.[310]
Mai mult, aplicarea modelelor de IA de calcul al personalității(d) poate contribui la reducerea costurilor campaniilor publicitare prin adăugarea de direcționare psihologică la direcționarea , sociodemografică sau comportamentală.[311]
Artă
Inteligența artificială a inspirat numeroase aplicații creative, inclusiv utilizarea sa pentru a produce arte vizuale. Expoziția „Mașini gânditoare: artă și design în era calculatoarelor, 1959-1989” de la MoMA[312] oferă o imagine de ansamblu asupra aplicațiilor istorice ale IA în artă, arhitectură și design. Printre expozițiile recente care prezintă utilizarea de IA pentru a produce artă se numără acțiunile și licitațiile de binefacere sponsorizate de Google de la Fundația Grey Area din San Francisco, unde artiștii au experimentat cu algoritmul deepdream, [313] și expoziția „Unhuman: Art in Age of AI”, care a avut loc în Los Angeles și Frankfurt, în toamna anului 2017.[314][315] În primăvara anului 2018, Association for Computing Machinery a dedicat un număr special al revistei sale subiectului computerelor și artei, evidențiind rolul învățării automate în artă.[316]
Este posibilă inteligența artificială generală? Poate o mașină să rezolve orice problemă pe care o ființă umană o poate rezolva folosind inteligența? Sau există limite dure pentru ceea ce poate realiza o mașină?
Sunt mașinile inteligente periculoase? Cum putem să ne asigurăm că mașinile se comportă etic și că sunt utilizate în mod etic?
Nu trebuie să decidem dacă o mașină poate „gândi”; trebuie doar să decidem dacă o mașină poate funcționa inteligent ca o ființă umană. Această abordare a problemelor filosofice asociate cu inteligența artificială formează baza testului Turing.[317]
„Fiecare aspect al învățării sau orice altă caracteristică a inteligenței poate fi atât de precis descris încât poate fi făcută o mașină pentru a-l simula”. Această presupunere a fost tipărită în propunerea pentru Conferința de la Dartmouth din 1956 și reprezintă poziția celor mai mulți cercetători din IA.[318]
„Un sistem de simboluri fizice are mijloacele necesare și suficiente pentru acțiune inteligentă generală”. Newell și Simon susțin că inteligența constă în operațiuni formale pe simboluri. [319]Hubert Dreyfus argumenta că, dimpotrivă, expertiza umană depinde mai degrabă de instinctul inconștient decât de manipularea simbolică a conștientului și pe un „simț” al situației, mai degrabă decât o cunoaștere simbolică explicită.[320][321]
Argumentele Gödeliene
Gödel însuși,[322] John Lucas (în 1961) și Roger Penrose (într-un argument mai detaliat începând cu 1989) au susținut cu argumente extrem de tehnice că matematicienii umani pot vedea constant adevărul propriilor lor „afirmații Gödel” și, prin urmare, că au abilități de calcul dincolo de mașinile Turing mecanice.[323] Cu toate acestea, consensul modern în comunitatea științifică și matematică este că aceste „argumente Gödeliene” nu sunt valide.[324][325][326]
Creierul poate fi simulat de mașini și, deoarece creierul este inteligent, creierul simulat trebuie să fie și el inteligent; astfel mașinile pot fi inteligente. Hans Moravec(d), Ray Kurzweil și alții au susținut că este posibil din punct de vedere tehnologic să se copieze creierul direct în hardware și software, și ca o astfel de simulare să fie în esență identică cu originalul.[143]
Mașinile sunt deja inteligente, dar observatorii nu își dau seama. Când Deep Blue l-a învins pe Garry Kasparov la șah, mașina se purta inteligent. Cu toate acestea, privitorii neagă de obicei comportamentul unui program cu inteligență artificială, argumentând că nu este în definitiv inteligență „reală”; astfel, inteligența „reală” este orice comportament inteligent pe care oamenii îl pot avea, dar mașinile încă nu. Acesta este cunoscut sub numele de efectul IA: „IA este ceea ce nu s-a făcut încă”.
Probleme potențiale
Utilizarea pe scară largă a inteligenței artificiale ar putea avea consecințe neintenționate(d) care pot fi periculoase sau nedorite. Oamenii de știință de la Institutul pentru Viitorul Vieții(d) au descris, printre altele, câteva obiective de cercetare pe termen scurt pentru a vedea cum IA influențează economia, legile și etica implicate în IA și cum să minimizeze riscurile de securitate aduse de IA. Pe termen lung, oamenii de știință au propus să se continue să se optimizeze funcțiilor, reducând în același timp riscurile posibile de securitate care vin împreună cu noile tehnologii.[327]
În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.
Preocuparea față de riscul produs de inteligența artificială a dus la unele donații și investiții foarte cunoscute. Un grup de titani tehnologici proeminenți, printre care Peter Thiel(d), Amazon Web Services și Musk, au angajat 1 miliard de dolari pentru OpenAI, o companie nonprofit care vizează promovarea dezvoltării responsabile a IA.[331] Opinia experților din domeniul inteligenței artificiale este diversă, existând fracțiuni considerabile care nu sunt îngrijorate, dar și altele care sunt, de riscul unei IA capabile de supra-umanitate.[332] În ianuarie 2015, Elon Musk a donat zece milioane de dolari Institutului „Viitorul Vieții”(d) pentru a finanța cercetarea privind înțelegerea procesului de decizie în IA. Scopul institutului este „să crească înțelepciunea cu care gestionăm" puterea tot mai mare a tehnologiei. Musk finanțează și companiile care dezvoltă inteligență artificială, cum ar fi DeepMind și Vicarious(d), doar pentru „a urmări ce se întâmplă cu inteligența artificială”.[333] El crede că „există un rezultat potențial periculos.”[334][335] In anul 2015 a avut loc o conferință științifică majoră în domeniul siguranței Inteligenței Artificiale, printre organizatorii căreia a fost cercetătorul Max Tegmark[336], dar și foarte mulți specialiști în domeniu de la Harvard, Boston și alte cele mai importante universități americane, care s- a ținut în Puerto- Rico, și la care a participat și Elon Musk. Tocmai aici miliardarul american și- a anunțat susținerea financiară pentru cercetările în domeniul siguranței inteligenței Artificiale. Evenimentul avea loc chiar în ajunul lansării a două rachete de către Space X, și faptul susținerii acestui domeniu de către una dintre cele mai importante figuri din domeniul spațial din lume a însemnat un progres substanțial al cercetării în domeniul inteligenței artificiale in SUA.
Pentru ca acest pericol să fie realizat, un IA ipotetic ar trebui să capete putere și inteligență superioară întregii umanități, posibilitate suficient de îndepărtată în viitor ca să nu merite cercetată.[337][338] Alte contraargumente se învârt în jurul ideii că oamenii sunt, fie intrinsec, fie convergent, valoroși din perspectiva unei inteligențe artificiale.[339]
Devalorizarea umanității
Joseph Weizenbaum(d) scria că aplicațiile IA nu pot, prin definiție, să simuleze cu adevărat empatia umană reală și că utilizarea tehnologiei IA în domenii precum serviciul pentru clienți(d) sau psihoterapia[340] este profund greșită. Weizenbaum a fost deranjat și de faptul că cercetătorii IA (și unii filozofi) erau dispuși să vadă mintea umană ca pe un program de calculator (o poziție cunoscută acum sub numele de computaționalism(d)). Pentru Weizenbaum aceste idei sugerează că cercetarea IA ar devaloriza viața umană.[341]
O preocupare este că programele IA pot fi programate pentru a fi părtinitoare împotriva anumitor grupuri, cum ar fi femeile și minoritățile, deoarece majoritatea dezvoltatorilor sunt bărbați albi bogați.[342] Sprijinul pentru inteligența artificială este mai mare în rândul bărbaților (cu aprobarea de 47%) decât femeile (35%).
Scăderea cererii pentru munca umană
Relația dintre automatizare și ocuparea forței de muncă este complicată. În timp ce automatizarea elimină locurile de muncă vechi, ea și creează noi locuri de muncă prin efectele microeconomice și macroeconomice.[343] Spre deosebire de valurile anterioare de automatizare, multe locuri de muncă ale clasei mijlocii pot fi eliminate prin inteligența artificială; The Economist afirmă că „îngrijorarea pe care IA ar putea să o facă în cazul muncii calificate ceea ce a făcut mașina cu aburi celei manuale în timpul Revoluției Industriale” merită luat în serios.[344] Estimările subiective ale riscului variază foarte mult; de exemplu, Michael Osborne și Carl Benedikt Frey(d) estimează că 47% din locurile de muncă din SUA sunt „cu risc ridicat” de automatizare potențială, în timp ce raportul OCDE clasifică doar 9% din locurile de muncă din SUA cu „risc ridicat”.[345][346][347] Locurile de muncă cu intervalul de risc extrem sunt cele de tipul paralegal sau bucătar de fast-food, în timp ce cererea de locuri de muncă este probabil să crească pentru profesiile legate de servicii directe, de la asistența medicală personală la cler. [348] Autorul Martin Ford(d) și alții merg mai departe și susțin că un număr mare de locuri de muncă sunt de rutină, repetitive și (pentru o IA) previzibile; Ford avertizează că aceste locuri de muncă ar putea fi automatizate în următoarele decenii și că multe dintre noile locuri de muncă ar putea să nu fie „accesibile persoanelor cu capacități medii”, chiar și prin recalificare. Economiștii subliniază faptul că tehnologia din trecut avea tendința de a crește, și nu de a reduce ocuparea totală a forței de muncă, dar a recunoscut că „suntem pe un teritoriu neexplorat” cu IA.[24]
Arme autonome
Actualmente, peste 50 de țări cercetează roboți de luptă, inclusiv Statele Unite, China, Rusia și Regatul Unit. Mulți oameni preocupați de riscul de IA superinteligent doresc, de asemenea, să limiteze utilizarea soldaților și a dronelor artificiale.[349]
Mașini etice
Mașinile cu inteligență au potențialul de a-și folosi inteligența pentru a preveni daunele și pentru a minimiza riscurile; ele pot avea capacitatea de a folosi raționamentul etic pentru a-și alege mai bine acțiunile în lume. Cercetarea în acest domeniu cuprinde etica mașinii(d), agenții artificiali morali(d) și IA prietenoasă(d).
Agenți artificiali morali
Wendell Wallach a introdus conceptul de agent artificial moral(d) (AMA) în cartea sa Morale Machines.[350] Pentru Wallach, AMA au devenit o parte a peisajului de cercetare al inteligenței artificiale, fiind ghidat de cele două întrebări centrale pe care le identifică drept: „Vrea omenirea ca mașinile să ia decizii morale?”[351] și „pot (ro)boții să fie cu adevărat morali?”.[352] Pentru Wallach, întrebarea nu este centrată pe problema dacă mașinile pot demonstra echivalența comportamentului moral, ci pe constrângerile pe care societatea le poate impune asupra dezvoltării AMA.[353]
Etica mașinilor
Domeniul eticii mașinilor se referă la imprimarea de principii etice mașinilor sau la o procedură de descoperire a unei modalități de rezolvare a dilemelor etice pe care le-ar putea întâmpina, permițându-le să funcționeze într-o manieră etică responsabilă prin propriile decizii etice.[354] Domeniul a fost descris în Simpozionul AAAI Fall 2005 privind etica mașinilor: „Cercetările anterioare privind relația dintre tehnologie și etică s-au axat în mare parte pe utilizarea responsabilă și iresponsabilă a tehnologiei de către ființele umane, câțiva oameni fiind interesați de modul în care ființele umane tratează mașinile. În toate cazurile, numai ființele umane s-au angajat în raționamentul etic. A sosit timpul să adăugăm o dimensiune etică cel puțin unora din mașini. Recunoașterea ramificațiilor etice ale comportamentului care implică mașini, precum și evoluțiile recente și potențiale ale autonomiei mașinilor necesită acest lucru. Spre deosebire de hackingul calculatoarelor, problemele legate de proprietatea software-ului, problemele de confidențialitate și alte subiecte care sunt în mod normal atribuite eticii calculatoarelor, etica mașinilor se referă la comportamentul mașinilor față de utilizatorii umani și față de alte mașini. Cercetarea în etica mașinilor este esențială pentru atenuarea preocupărilor cu sistemele autonome — s-ar putea argumenta că noțiunea de mașini autonome fără o asemenea dimensiune este la baza tuturor temerilor legate de inteligența mașinilor. În plus, investigarea eticii mașinilor ar putea permite descoperirea unor probleme cu teoriile etice actuale, îmbunătățindu-ne gândirea despre etică.”[355] Etica mecanică este uneori denumită „moralitatea mașinii”, „etică computațională” sau „moralitate computațională”. O varietate de perspective ale acestui domeniu incipient pot fi găsite în ediția colectivă „Machine Ethics”[354] care provine din simpozionul AAAI Fall 2005 privind etica mașinilor.[355]
IA rău-voitoare și IA prietenoasă
Politologul Charles T. Rubin(d) consideră că IA nu poate fi nici proiectată, nici garantată a fi binevoitoare.[356] El susține că „orice bunăvoință suficient de avansată poate fi indisolubilă de rea-voință”. Oamenii nu ar trebui să presupună că mașinile sau roboții ne vor trata favorabil, deoarece nu există niciun motiv a priori de a crede că ar simpatiza cu sistemul nostru de moralitate, care a evoluat odată cu biologia noastră particulară (pe care IA nu ar împărtăși-o). Software-ul inteligent poate să nu decidă neapărat să susțină existența umanității și ar fi extrem de dificil să se oprească. Acest subiect a început de curând să fie discutat în publicațiile academice ca o adevărată sursă de risc pentru civilizație, oameni și planeta Pământ.
O propunere de abordare a acestei situații este aceea de a se asigura că prima IA inteligentă în general este „IA prietenoasă(d)” și că va fi capabilă să controleze IA dezvoltate ulterior. Unii se întreabă dacă acest tip de control ar putea rămâne funcțional.
Cercetătorul de IA Rodney Brooks(d) scria: „cred că este o greșeală să ne îngrijorăm că am putea dezvolta IA rău-voitoare oricând în următoarele câteva sute de ani. Cred că îngrijorarea provine dintr-o eroare fundamentală de a nu distinge diferența dintre progresele recente foarte reale într-un anumit aspect al IA pe de o parte, și enormitatea și complexitatea construirii unei inteligențe voluntare conștiente de sine.”[357]
Conștiința, sentimentul și mintea pentru o mașină
Dacă un sistem cu IA replică toate aspectele cheie ale inteligenței umane, va fi și acest sistem conștient de sine(d) — va avea o minte care are experiențe conștiente? Această întrebare este strâns legată de problema filosofică cu privire la natura conștiinței umane, numită în general problema grea a conștiinței(d).
Conștiința
David Chalmers(d) a identificat două probleme în înțelegerea minții, pe care le-a numit problemele „grea” și „ușoară” ale conștiinței.[358] Problema ușoară este înțelegerea modului în care creierul procesează semnale, face planuri și controlează comportamentul. Problema grea explică cum se simte sau de ce ar trebui să se simtă. Prelucrarea informației(d) umane este ușor de explicat, însă experiența subiectivă(d) umană este dificil de explicat.
De exemplu, să considerăm ceea ce se întâmplă atunci când unei persoane i se arată un specimen de culoare și ea o identifică, spunând că este „roșu”. Problema ușoară necesită doar înțelegerea mecanismelor din creier care fac posibil ca o persoană să știe că specimenul de culoare este roșu. Problema dificilă este că oamenii mai știu și altceva — ei știu și cum arată roșu. (o persoană născută fără vedere poate să știe că ceva este roșu fără să știe ce arată roșu.) [n] Toată lumea știe că experiența subiectivă există, deoarece o au în fiecare zi (de exemplu, toți oamenii care pot vedea știu ce este roșu). Problema dificilă explică modul în care creierul îl creează, de ce există, și cum este diferit de cunoștințe și de alte aspecte ale creierului.
Computaționalism și funcționalism
Computaționalismul este poziția din domeniul filosofiei minții că mintea umană, creierul uman sau ambele sunt sisteme de procesare a informațiilor și că gândirea este o formă de calcul.[359] Computaționalismul susține că relația dintre minte și corp este similară sau identică cu relația dintre software și hardware și, astfel, poate fi o soluție la problema minții și corpului(d). Această poziție filosofică a fost inspirată de activitatea cercetătorilor din IA și a specialiștilor în științele cognitive din anii 1960 și a fost inițial propusă de filozofii Jerry Fodor(d) și Hilary Putnam.
Ipoteza IA puternice
Poziția filosofică pe care John Searle a numit-o Inteligență artificială puternică afirmă: „calculatorul programat corespunzător, cu intrările și ieșirile corecte ar avea astfel o minte în același sens cu care oamenii au minți”.[360] Searle contrazice această afirmație cu argumentul camerei chinezești(d), care ne cere să privim în interiorul calculatorului și să încercăm să găsim unde ar putea fi „mintea”.[361]
Drepturile roboților
Dacă o mașină poate fi creată cu inteligență, ar putea simți(d)? Dacă poate simți, are aceleași drepturi ca și omul? Această problemă, cunoscută acum ca „drepturile roboților”, este în prezent analizată de către Institutul pentru Viitor(d) din California, deși mulți critici consideră că discuția este prematură.[362] Unii critici ai transumanismului susțin că orice drepturi ipotetice ale robotului ar rezida pe un spectru, cu drepturile animalelor și drepturile omului.[363] Subiectul este discutat în profunzime în filmul documentar Plug & Pray(d) din 2010.[364]
Superinteligența
Există limite pentru cât de inteligente pot fi mașinile sau hibrizii om-mașină? O superinteligență, hiperintelligență sau inteligență supraomenească este un agent ipotetic care ar avea o inteligență care depășește cu mult pe cea a celei mai strălucite și mai talentate minți umane. Superinteligența se poate referi și la forma sau gradul de inteligență posedat de un astfel de agent.[137]
Singularitatea tehnologică
Dacă cercetarea despre IA puternică ar produce software suficient de inteligent, s-ar putea reprograma și îmbunătăți singură. Software-ul îmbunătățit ar fi chiar mai bun la a se îmbunătăți singur, ceea ce ar duce la o auto-îmbunătățire recursivă.[365] Noua inteligență ar putea astfel să crească exponențial și să depășească în mod dramatic oamenii. Scriitorul de science fiction Vernor Vinge a numit acest scenariu „singularitatea”.[366] Singularitatea tehnologică este atunci când accelerarea progresului în tehnologii va provoca un efect în cascadă, în care inteligența artificială va depăși controlul și capacitatea intelectuală a omului, schimbând astfel radical sau chiar punând capăt civilizației. Deoarece capacitățile unei astfel de inteligențe pot fi imposibil de înțeles, singularitatea tehnologică este un eveniment dincolo de care evenimentele sunt imprevizibile sau chiar imposibil de imaginat.[366][137]
Ray Kurzweil a folosit legea lui Moore (care descrie îmbunătățirea exponențială neîncetată a tehnologiei digitale) pentru a calcula că calculatoarele desktop(d) vor avea aceeași putere de procesare ca și creierul uman până în anul 2029 și prezice că singularitatea va avea loc în 2045.[366]
Isaac Asimov a introdus cele trei legi ale roboticii în multe cărți și povestiri, mai ales seria „Multivac” despre un computer super-inteligent cu același nume. Legile lui Asimov sunt adesea aduse în discuțiile nespecialiștilor în etica mașinilor;[370] aproape toți cercetătorii de inteligență artificială sunt familiarizați cu legile lui Asimov prin cultura populară, dar ei le consideră în general inutile din mai multe motive, dintre care unul este ambiguitatea lor.[371]
Transumanismul (îmbinarea oamenilor și mașinilor) este explorat în mangaGhost in the Shell și în seria science-fiction Dune. În anii 1980, seria Sexy Robots a artistului Hajime Sorayama(d) a fost pictată și publicată în Japonia, reprezentând forma umană organică reală cu piei metalice pline de viață, și ulterior cartea „Gynoids", care a fost folosită de sau chiar i-a influențat pe producători de film, între care George Lucas. Sorayama nu a considerat niciodată că acești roboți organici sunt o parte reală a naturii, ci mereu un produs nenatural al minții umane, o fantezie existentă doar în minte chiar și atunci când este realizată în formă reală.
Mai multe lucrări utilizează IA pentru a ne forța să ne confruntăm cu întrebarea fundamentală despre ce ne face să fim umani, arătându-ne ființe artificiale care au capacitatea de a simți(d) și, astfel, de a suferi. Acest lucru apare în „RUR” a lui Karel Čapek, în filmele „Inteligența artificială” și „Ex Machina”, precum și în romanul „Visează androizii oi electrice?” de Philip K. Dick. Dick consideră ideea că înțelegerea subiectivității umane este modificată de tehnologia creată cu inteligența artificială.[372]
Note de completare
^Matteo Wong scria în The Atlantic: „După ce, timp de decenii, domeniile informatice ca prelucrarea limbajului natural, vederea calculatoarelor, și robotica au utilizat metode extrem de diferite, astăzi ele folosesc toate o metodă de programare denumită „deep learning”. Ca urmare, codul și abordările lor au devenit mai similare, iar modelele lor sunt mai ușor de integrat unul în celălalt.”[45]
^Jack Clark scria în Bloomberg(d): „După o jumătate de deceniu de realizări nemediatizate în domeniul inteligenței artificiale, anul 2015 a fost unul de cotitură. Calculatoarele sunt mai deștepte și învață mai repede ca oricând”, și a observat că numărul proiectelor software care utilizează învățarea automată la Google a crescut de la „utilizare sporadică” în 2012 la peste 2700 de proiecte în 2015.[47]
^Acțiunea de a acorda recompensele poate fi chiar ea formalizată sau automatizată într-o „funcție de recompensă(d)”.
^Adversarial vulnerabilities can also result in nonlinear systems, or from non-pattern perturbations. Some systems are so brittle that changing a single adversarial pixel predictably induces misclassification.
^O asemenea „victorie a taberei neat” poate fi o consecință a faptului că domeniul a devenit mai matur; cu toate acestea, AIMA(d) afirmă că în practică atât abordările neat cât și cele scruffy(d) continuă să fie necesare în cercetarea IA.
^„Există multe tipuri diferite de incertitudine, neclaritate și ignoranță... [Noi] confirmăm independent inadecvarea sistemelor de raționare pe incertitudine, care propagă factori numerici numai după ce conectori apar în aserțiuni.”[188]
^Expectation-Maximization, unul din cei mai populari algoritmi de învățare automată, permite clusterizarea în prezența unor variabile latente(d) necunoscute[197]
^Cea mai frecvent folosită metodă de IA analogic până pe la jumătatea anilor 1990[208]
Poole, Mackworth & Goebel 1998, p. 1. , care furnizează versiunea utilizată în acest articol. Acolo se folosește termenul „inteligență computațională” ca sinonim pentru inteligența artificială.
^ ab
Pamela McCorduck (2004, pp. 424) scrie despre „divizarea IA în subdomenii—vedere, limbaj natural, teoria deciziei, algoritmi genetici, robotică ... și fiecare cu subsubdomeniile lui—care n-ar avea ce să-și spună unul altuia."
^ abc
Lista trăsăturilor inteligente se bazează pe subiecte acoperite de principalele manuale de IA, între care:
McCorduck 2004, pp. 100–101. , care scrie că există „două ramuri majore ale inteligenței artificiale: una care are ca scop să producă comportament inteligent indiferent de cum se realizează aceasta, cealaltă spre a modela procesele inteligente găsite în natură, mai ales cele umane”.
Kolata 1982. , un articol din Science, care descrie indiferența lui McCarthy față de modelele biologice. Kolata îl citează pe McCarthy scriind: „aceasta este IA, deci nu ne interesează dacă este reală din punct de vedere psihologic”„Science”. august 1982.. McCarthy și-a reiterat recent poziția la conferința AI@50(d) în care a spus că „inteligența artificială, prin definiție, nu este simularea inteligenței umane”.(Maker 2006)
^ ab
Aceasta este o idee centrală a cărții Pamelei McCorduck(d)Machines Who Think. Ea scria: „îmi place să mă gândesc la inteligența artificială ca apoteoza științifică a unei tradiții culturale venerabile”. (McCorduck 2004, p. 34) „Inteligența artificială într-o formă sau alta este o idee care a pătruns istoria intelectuală occidentală, un vis în urgentă nevoie de a fi îndeplinit”. (McCorduck 2004, p. xviii) „Istoria noastră este plină de tentative—nebunești, sinistre, comice, muncite, legendare și adevărate—de a crea inteligențe artificiale, de a reproduce ceea ce suntem esențialmente noi—depășind mijloacele obișnuite. Pendulând între mit și realitate, imaginația dându-ne ce nu ne puteau da workshopurile, ne-am angajat multă vreme în această formă ciudată de autoreproducere.” (McCorduck 2004, p. 3) Ea datează rădăcinile acestei dorințe în vremurile elenistice și o denumește dorința de a „făuri zeii”. (McCorduck 2004, pp. 340–400)
^ Schaeffer J. (2009) Nu a reușit Samuel să rezolve acel joc? În: Un salt înainte. Springer, Boston, MA
^Samuel, A. L. (iulie 1959). „Some Studies in Machine Learning Using the Game of Checkers”. IBM Journal of Research and Development. 3 (3): 210–229. doi:10.1147/rd.33.0210. ISSN0018-8646.
^
"Anii de aur(d)" ai IA (programele reușite de raționament simbolic 1956–1973):
^ Lindenbaum, M., Markovitch, S. și Rusakov, D. (2004). Eșantionare selectivă pentru clasificatorii cei mai apropiați. Învățarea în mașină, 54 (2), 125-152.
^Hart, P. E.; Nilsson, N. J.; Raphael, B. (). „Correction to "A Formal Basis for the Heuristic Determination of Minimum Cost Paths"”. SIGART Newsletter (37): 28–29. doi:10.1145/1056777.1056779.
^ Goodfellow, Ian J., Jonathon Shlens și Christian Szegedy. "Explicarea și valorificarea exemplelor contradictorii". arXiv preprint arXiv: 1412.6572 (2014).
^Matti, D.; Ekenel, H. K.; Thiran, J. P. (). Combining LiDAR space clustering and convolutional neural networks for pedestrian detection. 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6. doi:10.1109/AVSS.2017.8078512. ISBN978-1-5386-2939-0.
^Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (). Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions. Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics (în engleză). 107. Springer, Cham. pp. 161–177. doi:10.1007/978-3-319-16595-0_10. ISBN978-3-319-16594-3.
^Prakken, Henry (). „On the problem of making autonomous vehicles conform to traffic law”. Artificial Intelligence and Law. 25 (3): 341–363. doi:10.1007/s10506-017-9210-0.
^
Rezolvarea de probleme, rezolvarea de puzzle-uri, jocuri și deducție:
^
Dovezi psihologice ale raționamentului subsimbolic:
Wason & Shapiro (1966) a arătat că oamenii se descurcă rău la probleme complet abstracte, dar dacă problema este reformulată pentru a permite utilizarea inteligenței sociale(d) intuitive, performanțele se îmbunătățesc dramatic.
Lakoff & Núñez (2000) au susținut, controversat, că chiar aptitudinile noastre la matematică depind de cunoștințe și aptitudini care provin din „trup”, adică din aptitudinile sensorimotorii și perceptuale.
^MCGARRY, KEN (). „A survey of interestingness measures for knowledge discovery”. The Knowledge Engineering Review. 20 (1): 39. doi:10.1017/S0269888905000408.
^Bertini, M; Del Bimbo, A; Torniai, C (). „Automatic annotation and semantic retrieval of video sequences using multimedia ontologies”. MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
Deși McCarthy s-a preocupat în principal cu chestiuni de reprezentare logică a acțiunilor, Russell & Norvig 2003. aplică termenul la chestiunea mai generală a raționamentului implicit în vasta rețea de presupuneri de la baza cunoștințelor de bun simț.
Dreyfus & Dreyfus 1986. (Hubert Dreyfus este un filosof și critic al IA care a fost printre primii care au afirmat că cele mai utile cunoștințe umane sunt codificate nesimbolic)
Gladwell 2005. (Blink(d) a lui Gladwell este o introducere populară în raționamentul și cunoștințele subsimbolice.)
Hawkins & Blakeslee 2005. (Hawkins susține că cunoștințele subsimbolice ar trebui să fie obiectul primar de interes al cercetării de IA.)
^Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septembrie 2017). „A review of affective computing: From unimodal analysis to multimodal fusion”. Information Fusion. 37: 98–125. doi:10.1016/j.inffus.2017.02.003.
^Mnih, Volodymyr; Kavukcuoglu, Koray; Silver, David; Rusu, Andrei A.; Veness, Joel; Bellemare, Marc G.; Graves, Alex; Riedmiller, Martin; Fidjeland, Andreas K. (). „Human-level control through deep reinforcement learning”. Nature. 518 (7540): 529–533. Bibcode:2015Natur.518..529M. doi:10.1038/nature14236. PMID25719670.
Cea mai extremă formă a acestui argument (scenariul cu înlocuirea creierului) a fost avansată de Clark Glymour(d) pe la jumătatea anilor 1970 și a fost atinsă de Zenon Pîlîșîn(d) și John R. Searle în 1980.
^Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (decembrie 2010). „A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures”. Neurocomputing. 74 (1–3): 30–49. doi:10.1016/j.neucom.2010.08.012.
^Nils Nilsson(d) scrie: „În termeni simpli, există dezacorduri ample în domeniu pe tema a ce reprezintă de fapt IA” (Nilsson 1983, p. 10).
The definition used in this article, in terms of goals, actions, perception and environment, is due to Russell & Norvig (2003). Other definitions also include knowledge and learning as additional criteria.
^Laird, John (). „Extending the Soar cognitive architecture”. Frontiers in Artificial Intelligence and Applications. 171: 224.
^Lieto, Antonio; Bhatt, Mehul; Oltramari, Alessandro; Vernon, David (mai 2018). „The role of cognitive architectures in general artificial intelligence”. Cognitive Systems Research. 48: 1–3. doi:10.1016/j.cogsys.2017.08.003.
^Daniel Merkle; Martin Middendorf (). „Swarm Intelligence”. În Burke, Edmund K.; Kendall, Graham. Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques (în engleză). Springer Science & Business Media. ISBN978-1-4614-6940-7.
^Seppo Linnainmaa(d) (1970). Reprezentarea erorii cumulative de rotunjire a unui algoritm ca expansiune Taylor a erorilor locale de rotunjire. Teza de masterat (în limba finlandeză), Univ. Helsinki, 6-7.
^ Griewank, Andreas (2012). Cine a inventat modul invers de diferențiere? Povești de optimizare, Documenta Matematica, Extra Volume ISMP (2012), 389-400.
^Paul Werbos(d), "Dincolo de regresie: noi instrumente de predicție și analiză în științele comportamentale", teză de doctorat, Universitatea Harvard , 1974.
^Paul Werbos(d) (1982). Applications of advances in nonlinear sensitivity analysis. In System modeling and optimization (pp. 762–770). Springer Berlin Heidelberg. OnlineArhivat în , la Wayback Machine.
^Rina Dechter(d) (1986). Learning while searching in constraint-satisfaction problems. University of California, Computer Science Department, Cognitive Systems Laboratory.OnlineArhivat în , la Wayback Machine.
^ Igor Aizenberg, Naum N. Aizenberg, Joos PL Vandewalle (2000). Neuronii binari multi-valori și universali: teorie, învățare și aplicații. Springer Știință și Business Media.
^Fukushima, K. (). „Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position”. Biological Cybernetics. 36 (4): 193–202. doi:10.1007/bf00344251. PMID7370364.
^Hyötyniemi, Heikki (). „Turing machines are recurrent neural networks”. Proceedings of STeP '96/Publications of the Finnish Artificial Intelligence Society: 13–24.
^ PJ Werbos. Generalizarea backpropagation-ului cu aplicarea pe un model recurent de piață a gazelor " Neural Networks 1, 1988.
^ AJ Robinson și F. Fallside. Rețeaua de propagare a erorilor dinamice cauzate de utilitate. Raport Tehnic CUED / F-INFENG / TR.1, Departamentul de Inginerie al Universității din Cambridge, 1987.
^ RJ Williams și D. Zipser. Gradienți bazate pe algoritmi de învățare pentru rețele recurente și complexitatea lor computațională. În propagarea înapoi: teorie, arhitecturi și aplicații. Hillsdale, NJ: Erlbaum, 1994.
^Schmidhuber, J. (). „Learning complex, extended sequences using the principle of history compression”. Neural Computation. 4 (2): 234–242. doi:10.1162/neco.1992.4.2.234.
^Alex Graves, Santiago Fernandez, Faustino Gomez, și Jürgen Schmidhuber(d) (2006). Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural nets. Proceedings of ICML'06, pp. 369–376.
^Hannun, Awni; Case, Carl; Casper, Jared; Catanzaro, Bryan; Diamos, Greg; Elsen, Erich; Prenger, Ryan; Satheesh, Sanjeev; Sengupta, Shubho; Coates, Adam; Ng, Andrew Y. (). „Deep Speech: Scaling up end-to-end speech recognition” (în engleză). arXiv:1412.5567 [cs.CL].
^Hasim Sak and Andrew Senior and Francoise Beaufays (2014). Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling. Proceedings of Interspeech 2014.
^Li, Xiangang; Wu, Xihong (). „Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition” (în engleză). arXiv:1410.4281 [cs.CL].
^Ontanon, Santiago; Synnaeve, Gabriel; Uriarte, Alberto; Richoux, Florian; Churchill, David; Preuss, Mike (decembrie 2013). „A Survey of Real-Time Strategy Game AI Research and Competition in StarCraft”. IEEE Transactions on Computational Intelligence and AI in Games. 5 (4): 293–311. doi:10.1109/TCIAIG.2013.2286295.
^„ILSVRC2017”. image-net.org (în engleză). Arhivat din originalul de la . Accesat în .
^Schoenick, Carissa; Clark, Peter; Tafjord, Oyvind; Turney, Peter; Etzioni, Oren (). „Moving beyond the Turing Test with the Allen AI Science Challenge”. Communications of the ACM. 60 (9): 60–64. doi:10.1145/3122814.
^N. Aletras; D. Tsarapatsanis; D. Preotiuc-Pietro; V. Lampos (). „Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective”. PeerJ Computer Science. 2: e93. doi:10.7717/peerj-cs.93.
^ "33 Corporații care lucrează pe autovehicule autonome". Statistici CB. Np, 11 august 2016. 12 noiembrie 2016.
^ West, Darrell M. "Mergând înainte: autovehicule cu autovehicule în China, Europa, Japonia, Coreea și Statele Unite". Centrul de Inovare în Tehnologie de la Brookings. Np, septembrie 2016. 12 noiembrie 2016.
^ McFarland, Matt. "Descoperirea inteligenței artificiale a Google poate avea un impact imens asupra autovehiculelor și mult mai mult". Washington Post, 25 februarie 2015. Chioșc Infotrac. 24 octombrie 2016
^ "Programarea siguranței în autoturisme". Fundația Națională de Științe. Np, 2 februarie 2015. 24 octombrie 2016.
^Chang, Hsihui; Kao, Yi-Ching; Mashruwala, Raj; Sorensen, Susan M. (). „Technical Inefficiency, Allocative Inefficiency, and Audit Pricing”. Journal of Accounting, Auditing & Finance. 33 (4): 580–600. doi:10.1177/0148558X17696760.
^ Matz, SC și colab. "Direcționarea psihologică ca o abordare eficientă a persuasiunii digitale în masă". Lucrări ale Academiei Naționale de Științe (2017): 201710966.
^Celli, Fabio, Pietro Zani Massani și Bruno Lepri. Profilio: Profilul psihometric pentru a stimula publicitatea în mass-media socială. " Procesele din 2017 ACM pe Conferința Multimedia. ACM, 2017 [1]Arhivat în , la Wayback Machine.
^
Dreyfus criticized the necessary(d) condition of the sistem de simboluri fizice(d) hypothesis, which he called the "psychological assumption": "The mind can be viewed as a device operating on bits of information according to formal rules." (Dreyfus 1992, p. 156)
^Gödel 1951. : în această prelegere, Kurt Gödel utilizează teorema de incompletitudine pentru a ajunge la următoarea disjuncție: (a) mintea umană nu este o mașină finită consistentă, sau (b) există ecuații diofantice(d) pentru care nu se poate decide dacă există soluții. Gödel consideră că (b) este implauzibilă, și părea astfel a crede că mintea umană nu este echivalentă cu o mașină finită, deci puterea sa o depășește pe cea a oricărei mașini finite. El a recunoscut că afirmația lui nu este demonstrată, întrucât nimeni nu poate demonstra falsitatea afirmației (b). El considera însă că concluzia sa disjunctivă este un „fapt cert”.
^Stuart Russell(d); Peter Norvig(d) (). „26.1.2: Philosophical Foundations/Weak AI: Can Machines Act Intelligently?/The mathematical objection”. Artificial Intelligence: A Modern Approach (ed. 3rd). Upper Saddle River, NJ: Prentice Hall(d). ISBN978-0-13-604259-4. even if we grant that computers have limitations on what they can prove, there is no evidence that humans are immune from those limitations.
^ Mark Colyvan. O introducere în filosofia matematicii. Cambridge University Press , 2012. Din 2.2.2, "semnificația filosofică a rezultatelor incompletenței lui Gödel": "Înțelepciunea acceptată (cu care concur) este că argumentele Lucas-Penrose nu reușesc".
^ Russel, Stuart, Daniel Dewey și Max Tegmark. Priorități de cercetare pentru o inteligență artificială robustă și benefică. AI Magazine 36: 4 (2015). 8 decembrie 2016.
^In the early 1970s, Kenneth Colby(d) presented a version of Weizenbaum's eliza(d) known as DOCTOR which he promoted as a serious therapeutic tool. (Crevier 1993, pp. 132–144)
Weizenbaum (the AI researcher who developed the first Chatbot program, eliza(d)) argued in 1976 that the misuse of artificial intelligence has the potential to devalue human life.
^E McGaughey, "Robotii vă vor automatiza locul de muncă? Ocuparea integrală, venitul de bază și democrația economică "(2018) SSRN, partea 2 (3)Arhivat în , la Wayback Machine.
^Frey, Carl Benedikt; Osborne, Michael A (). „The future of employment: How susceptible are jobs to computerisation?”. Technological Forecasting and Social Change. 114: 254–280. doi:10.1016/j.techfore.2016.08.019. ISSN0040-1625.
^ Arntz, Melanie, Terry Gregory și Ulrich Zierahn. "Riscul de automatizare a locurilor de muncă în țările OCDE: o analiză comparativă". Documentele de lucru socială, ocuparea forței de muncă și migrația din OCDE 189 (2016). p. 33.
^
Această versiune provine din Searle (1999), și este citată și în Dennett 1991, p. 435. . Formularea originală a lui Searle era „Calculatorul programat adecvat este de fapt o minte, în sensul în care despre acel calculator, dacă primește programele potrivite, se poate spune literalmente că înțelege și că are și alte stări cognitive.” (Searle 1980, p. 1). IA puternică este definită similar de Russell & Norvig (2003, p. 947): „Aserțiunea că mașinile ar putea să se comporte inteligent (sau, poate chiar mai bine, să acționeze ca și cum ar fi inteligente) este numită de filosofi ipoteza «Inteligență artificială slabă», iar aserțiunea că mașinile care o fac chiar gândesc (și nu doar simulează gândirea) este numită ipoteza «IA puternică»”.
^Omohundro, Steve (). The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
^ Anderson, Susan Leigh. "Cele trei legi ale lui Asimov despre robotică" și metaetica mașinilor. " AI și societatea 22.4 (2008): 477-493.
^McCauley, Lee (). „AI armageddon and the three laws of robotics”. Ethics and Information Technology. 9 (2): 153–164. doi:10.1007/s10676-007-9138-2.
^Galvan, Jill (). „Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"”. Science Fiction Studies. 24 (3): 413–429. JSTOR4240644.
Newquist, HP (). The Brain Makers: Genius, Ego, And Greed In The Quest For Machines That Think (în engleză). New York: Macmillan/SAMS. ISBN978-0-672-30412-5.
Nilsson, Nils (). The Quest for Artificial Intelligence: A History of Ideas and Achievements (în engleză). New York: Cambridge University Press. ISBN978-0-521-12293-1.
Alte surse
Asada, M.; Hosoda, K.; Kuniyoshi, Y.; Ishiguro, H.; Inui, T.; Yoshikawa, Y.; Ogino, M.; Yoshida, C. (). „Cognitive developmental robotics: a survey”. IEEE Transactions on Autonomous Mental Development. 1 (1): 12–34. doi:10.1109/tamd.2009.2021702.
Brooks, R. A. (). „How to build complete creatures rather than isolated cognitive simulators”. În VanLehn, K. Architectures for Intelligence. Hillsdale, NJ: Lawrence Erlbaum Associates. pp. 225–239. CiteSeerX10.1.1.52.9510.
Clark, Jack (). „Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg News. Arhivat din originalul de la . Accesat în . After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.
Dreyfus, Hubert; Dreyfus, Stuart (). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN978-0-02-908060-3.
Edelson, Edward (). The Nervous System. New York: Chelsea House. ISBN978-0-7910-0464-7.
Fearn, Nicholas (). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN978-0-8021-1839-4.
Gödel, Kurt (). Some basic theorems on the foundations of mathematics and their implications. Gibbs Lecture. In Feferman, Solomon, ed. (). Kurt Gödel: Collected Works, Vol. III: Unpublished Essays and Lectures. Oxford University Press. pp. 304–23. ISBN978-0-19-514722-3.
Kaplan, Andreas; Haenlein, Michael (). „Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence”. Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004.
Kumar, Gulshan; Kumar, Krishan (). „The Use of Artificial-Intelligence-Based Ensembles for Intrusion Detection: A Review”. Applied Computational Intelligence and Soft Computing. 2012: 1–20. doi:10.1155/2012/850160.
Law, Diane (iunie 1994). Searle, Subsymbolic Functionalism and Synthetic Intelligence (Raport tehnic). University of Texas at Austin. p. AI94-222. CiteSeerX10.1.1.38.8384.
NRC (United States National Research Council) (). „Developments in Artificial Intelligence”. Funding a Revolution: Government Support for Computing Research. National Academy Press.
Solomonoff, Ray (). An Inductive Inference Machine(PDF). Dartmouth Summer Research Conference on Artificial Intelligence – via std.com, pdf scanned copy of the original. Later published as Solomonoff, Ray (). „An Inductive Inference Machine”. IRE Convention Record. Section on Information Theory, part 2. pp. 56–62.
Brooks, R. A. (). „How to build complete creatures rather than isolated cognitive simulators”. În VanLehn, K. Architectures for Intelligence. Hillsdale, NJ: Lawrence Erlbaum Associates. pp. 225–239. CiteSeerX10.1.1.52.9510.
Clark, Jack (). „Why 2015 Was a Breakthrough Year in Artificial Intelligence”. Bloomberg News. Arhivat din originalul de la . Accesat în . After a half-decade of quiet breakthroughs in artificial intelligence, 2015 has been a landmark year. Computers are smarter and learning faster than ever.
Dreyfus, Hubert; Dreyfus, Stuart (). Mind over Machine: The Power of Human Intuition and Expertise in the Era of the Computer. Oxford, UK: Blackwell. ISBN978-0-02-908060-3.
Edelson, Edward (). The Nervous System. New York: Chelsea House. ISBN978-0-7910-0464-7.
Fearn, Nicholas (). The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press. ISBN978-0-8021-1839-4.
Gödel, Kurt (). Some basic theorems on the foundations of mathematics and their implications. Gibbs Lecture. In Feferman, Solomon, ed. (). Kurt Gödel: Collected Works, Vol. III: Unpublished Essays and Lectures. Oxford University Press. pp. 304–23. ISBN978-0-19-514722-3.
Kaplan, Andreas; Haenlein, Michael (). „Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence”. Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004.
Kumar, Gulshan; Kumar, Krishan (). „The Use of Artificial-Intelligence-Based Ensembles for Intrusion Detection: A Review”. Applied Computational Intelligence and Soft Computing. 2012: 1–20. doi:10.1155/2012/850160.
Law, Diane (iunie 1994). Searle, Subsymbolic Functionalism and Synthetic Intelligence (Raport tehnic). University of Texas at Austin. p. AI94-222. CiteSeerX10.1.1.38.8384.
NRC (United States National Research Council) (). „Developments in Artificial Intelligence”. Funding a Revolution: Government Support for Computing Research. National Academy Press.
Solomonoff, Ray (). An Inductive Inference Machine(PDF). Dartmouth Summer Research Conference on Artificial Intelligence – via std.com, pdf scanned copy of the original. Later published as Solomonoff, Ray (). „An Inductive Inference Machine”. IRE Convention Record. Section on Information Theory, part 2. pp. 56–62.
Jalur TsugaruTsugaru Line along Mutsu BayIkhtisarJenisHeavy rail PassengerTerminusAomoriMinmayaStasiun18OperasiDibuka1951PemilikJR EastRangkaianKiHa 100 seriesData teknisPanjang lintas584 km (363 mi)Lebar sepur1.067 mm (3 ft 6 in)Elektrifikasi20 kV AC, 50 Hz (Aomori to Shin Naka-Oguni Signal) Peta rute diagram rute Legenda Aoimori Railway Line 0.0 Aomori 0.9 Takeuchi Signal Ōu Main Line Seikan Ferry 4.4 Shin-Aburakawa Signal 6.0 Aburakawa 9.7 Tsugaru-Miyata 11.5...
Festival Film Indonesia ke-1Penutupan Festival Film Indonesia 1955, JakartaTanggal5 April 1955TempatRumah Dinas Wali Kota Jakarta RayaJl. Taman Suropati No. 7, Menteng, Jakarta Pusat[1]SorotanFilm TerbaikTarmina dan Lewat Djam MalamPenyutradaraan TerbaikLilik SudjioTarminaAktor TerbaikA.N. Alcaff - Lewat Djam MalamA. Hadi - TarminaAktris TerbaikDhalia - Lewat Djam MalamFifi Young - TarminaPenghargaan terbanyakTarmina dan Lewat Djam Malam (5) Festival Film Indonesia 1960 → B...
2023 Indian Tamil period crime thriller film Viduthalai Part 1Theatrical release posterDirected byVetrimaaranWritten byVetrimaaranB. JeyamohanBased onThunaivanby B. JeyamohanProduced byElred KumarStarringSooriVijay SethupathiBhavani SreGautham Vasudev MenonCinematographyR. VelrajEdited byR. RamarMusic byIlaiyaraajaProductioncompaniesRS InfotainmentGrass Root Film CompanyDistributed byRed Giant MoviesRelease date 31 March 2023 (2023-03-31)[1] Running time150 minutes[...
Voce principale: Taranto Football Club 1927. Questa voce o sezione sull'argomento stagioni delle società calcistiche italiane non cita le fonti necessarie o quelle presenti sono insufficienti. Puoi migliorare questa voce aggiungendo citazioni da fonti attendibili secondo le linee guida sull'uso delle fonti. Segui i suggerimenti del progetto di riferimento. Taranto F.C. 1927Stagione 2012-2013Sport calcio Squadra Taranto Allenatore Tommaso Napoli,poi Giacomo Pettinicchio Presidente ...
Voce principale: Unione Sportiva Cremonese. Unione Sportiva CremoneseStagione 2012-2013Sport calcio Squadra Cremonese Allenatore Oscar Brevi, poi Giuseppe Scienza Presidente Maurizio Calcinoni Prima Divisione7º posto Coppa ItaliaTerzo turno Coppa Italia Lega ProTerzo turno Maggiori presenzeCampionato: Sales (27) Miglior marcatoreCampionato: Le Noci e Carlini (10) StadioStadio Giovanni Zini Maggior numero di spettatori4.113 vs Trapani(12 maggio 2013)[1] Minor numero di spettator...
Painting by Paolo Veronese Supper at EmmausItalian: Cena in Emmaus, French: Les Pèlerins d'EmmaüsArtistPaolo VeroneseYearcirca 1559–1560[1]Mediumoil on canvasSubjectRoad to Emmaus appearanceDimensions241 cm × 415 cm (7.91 ft × 13.62 ft)LocationLouvre, ParisOwnerGovernment of France Supper at Emmaus (Cena in Emmaus) is a painting by Italian Renaissance artist Paolo Veronese. At the Louvre, where it is housed, it is known as Les Pèlerins ...
Airport serving Montreal, Quebec, Canada This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Montréal–Mirabel International Airport – news · newspapers · books · scholar · JSTOR (June 2009) (Learn how and when to remove this message) Montréal–Mirabel International AirportAéroport international Montréal-M...
Private university in Neihu, Taipei, Taiwan Takming University of Science and Technology德明財經科技大學TypePrivateEstablished1965PresidentDavid ShyuAddressNeihu, Taipei, Taiwan25°05′11.4″N 121°33′56.0″E / 25.086500°N 121.565556°E / 25.086500; 121.565556WebsiteOfficial website Takming University of Science and TechnologyTraditional Chinese德明財經科技大學TranscriptionsStandard MandarinHanyu PinyinDémíng Cáijīng Kējì DàxuéSouther...
Politeknik STTT BandungNama sebelumnyaSekolah Tinggi Teknologi TekstilJenisPoliteknik, Perguruan tinggi kedinasanDidirikan2015Lembaga indukKementerian Perindustrian Republik IndonesiaDirekturTina Martina, A.T., M.Si.AlamatJalan Jakarta No. 31, BandungSitus webstttekstil.ac.id Politeknik STTT Bandung yang sebelumnya dikenal sebagai Sekolah Tinggi Teknologi Tekstil adalah perguruan tinggi yang dikelola oleh Kementerian Perindustrian Republik Indonesia dan merupakan kampus vokasi di bidang indus...
International cricket tour English cricket team in Sri Lanka in 2020–21 Sri Lanka EnglandDates 14 – 26 January 2021Captains Dinesh Chandimal Joe RootTest seriesResult England won the 2-match series 2–0Most runs Angelo Mathews (213) Joe Root (426)Most wickets Lasith Embuldeniya (15) Dom Bess (12)Player of the series Joe Root (Eng) The England cricket team toured Sri Lanka in January 2021 to play two Test matches.[1][2] The Test series formed part of the ...
Ji So-Yun지소연 Informasi pribadiNama lengkap Ji So-YunTanggal lahir 21 Februari 1991 (umur 33)Tempat lahir Seoul, Korea SelatanTinggi 161 m (528 ft 2+1⁄2 in)Posisi bermain GelandangInformasi klubKlub saat ini Chelsea LFCNomor 10Karier junior2006–2008 Dongsan Info & Industry HS2009–2010 Hanyang Women's CollegeKarier senior*Tahun Tim Tampil (Gol)2011–2013 INAC Kobe Leonessa 2014– Chelsea LFC Tim nasional‡2007–2008 U-17 Republik Korea ? (11)2007–2...
Владимир I Святославич (миниатюра «Царского титулярника») Церковный устав Владимира — источник церковного права государственного происхождения, изначально составленный в конце X — начале XI веков. Составление Устава приписывается князю Владимиру Святославичу. У...
Tirana TiranëBashkia e TiranësTirana di malam hari BenderaLambangNegara AlbaniaCountyCounty TiranaDistrikDistrik tiranaDibentuk1614Pemerintahan • wali kotaErion VeliajLuas • Total41,8 km2 (161 sq mi)Ketinggian110 m (360 ft)Populasi (2008)[1] • Munisipalitas618.431Zona waktuUTC+1 (CET) • Musim panas (DST)UTC+2 (CEST)kode pos1001-1028[2]Kode area telepon+355 4Plat kendaraanTRSitus webwww.tirana....
United States historic placeOld QueensU.S. National Register of Historic PlacesU.S. National Historic LandmarkU.S. Historic districtContributing propertyNew Jersey Register of Historic Places Old Queens, oldest building at Rutgers UniversityShow map of New Brunswick, NJShow map of Middlesex County, New JerseyShow map of New JerseyShow map of the United StatesLocationNew Brunswick, New JerseyCoordinates40°29′55.5″N 74°26′46.5″W / 40.498750°N 74.446250°W / 4...
For the South Korean variety show, see True Justice (South Korean TV series). American TV series or program True JusticeGenreDramaActionCrimeCreated bySteven SeagalWritten bySteven Seagal (season 1)Keoni Waxman (season 2)Directed byKeoni WaxmanWayne RoseLauro ChartrandStarringSteven SeagalCountry of originUnited StatesOriginal languageEnglishNo. of seasons2No. of episodes26 (list of episodes)ProductionRunning time1 hourProduction companyVoltage PicturesOriginal releaseNetwork5USA & ReelzR...
Jacob KarlstrømNazionalità Norvegia Altezza200 cm Peso90 kg Calcio RuoloPortiere Squadra Molde CarrieraGiovanili Tromsø Squadre di club1 2014-2021 Tromsø85 (-112)2022- Molde21 (-19) 1 I due numeri indicano le presenze e le reti segnate, per le sole partite di campionato.Il simbolo → indica un trasferimento in prestito. Statistiche aggiornate al 7 settembre 2022 Modifica dati su Wikidata · Manuale Jacob Karlstrøm (Tromsø, 9 gennaio 1997) è un calcia...
Hari Kucing Jalanan NasionalPoster perayaan Hari Kucing Jalanan Nasional (2012) di California.Dirayakan olehAmerika SerikatTanggal16 Oktober Hari Kucing Jalanan Nasional adalah hari peringatan di Amerika Serikat yang dirayakan pada tanggal 16 Oktober setiap tahunnya. Pendiri Hari Kucing Jalanan Nasional adalah sebuah organisasi bernama Alley Cat Allies Diarsipkan 2021-03-23 di Wayback Machine. di Maryland, Amerika Serikat. Alley Cat Allies mendirikan hari perayaan ini pada ulang tahunnya yang...
Iranian footballer (born 2001) This biography of a living person needs additional citations for verification. Please help by adding reliable sources. Contentious material about living persons that is unsourced or poorly sourced must be removed immediately from the article and its talk page, especially if potentially libelous.Find sources: Saman Fallah – news · newspapers · books · scholar · JSTOR (June 2022) (Learn how and when to remove this message) ...