Тази статия вероятно е резултат от машинен превод, има неверен синтаксис и/или неуточнени специални термини и трудно разбираем текст. Ако желаете да помогнете на Уикипедия, използвайте опцията редактиране в горното меню над статията, за да нанесете нужните корекции.
Дълбокото обучение (известно още като дълбоко структурирано обучение) е част от по-широко семейство методи за машинно самообучение, основано на изкуствени невронни мрежи с учебно представяне. В превод от немски на немски: mehrschichtiges Lernen наричано многослойно обучение, е метод за машинно самообучение на машините, което използва изкуствени невронни мрежи с многобройни междинни слоеве между слоя за въвеждане и слоя за издаване (извеждане) и с това образува една широкообхватна вътрешна структура. Ученето може да бъде контролирано, полуконтролирано или без надзор[1][2][3].
Дълбоко обучаващи се архитектури като дълбоки невронни мрежи, дълбоки мрежи за сигурност, графични невронни мрежи, повтарящи се невронни мрежи и конволюционни невронни мрежи са приложени в области, включително компютърно зрение, разпознаване на реч, обработка на естествен език, машинен превод, биоинформатика, дизайн на лекарства, медицински анализ на изображения, проверка на материали и програми за настолни игри, където те са дали резултати, сравними с и в някои случаи надминаващи човешките експертни резултати[4][5][6][7]
Изкуствените невронни мрежи (ANN) са вдъхновени от обработката на информация и разпределените комуникационни възли в биологичните системи. ANN имат различни разлики от биологичните мозъци. По-конкретно, невронните мрежи са склонни да бъдат статични и символични, докато биологичният мозък на повечето живи организми е динамичен (пластичен) и аналогов[8][9][10]
Прилагателното „дълбоко“ в дълбокото обучение се отнася до използването на множество слоеве в мрежата. Ранната работа показа, че линейният персептрон не може да бъде универсален класификатор, но че мрежа с неполиномиална функция за активиране с един скрит слой с неограничена ширина може. Дълбокото обучение е модерен вариант, който се занимава с неограничен брой слоеве с ограничен размер, което позволява практическо приложение и оптимизирано изпълнение, като същевременно запазва теоретичната универсалност при меки условия. При дълбокото учене на слоевете също е позволено да бъдат разнородни и да се отклоняват широко от биологично информирани модели на свързване, в името на ефективността, обучимостта и разбираемостта, откъдето идва и „структурираната“ част.
Определение
Дълбокото обучение е клас алгоритми за машинно обучение, който[12]
използва множество слоеве за прогресивно извличане на функции от по-високо ниво от суровия вход. Например при обработката на изображения по-ниските слоеве могат да идентифицират ръбове, докато по-високите слоеве могат да идентифицират понятията, свързани с човека, като цифри, букви или лица.
Общ преглед
Повечето съвременни модели на дълбоко обучение се основават на изкуствени невронни мрежи, по-специално на конволюционни невронни мрежи (CNN), въпреки че те могат да включват и формули за предложения или латентни променливи, организирани по слоеве в дълбоки генеративни модели, като възлите в дълбоките мрежи и дълбоките Болцман машини[13].
При задълбочено обучение всяко ниво се научава да трансформира своите входни данни в малко по-абстрактно и съставно представяне. В приложение за разпознаване на изображения суровият вход може да бъде матрица от пиксели; първият представителен слой може да абстрахира пикселите и да кодира ръбове; вторият слой може да композира и кодира аранжименти на ръбове; третият слой може да кодира носа и очите; и четвъртият слой може да разпознае, че изображението съдържа лице. Важното е, че процесът на задълбочено обучение може да научи кои функции да постави оптимално на кое ниво самостоятелно. (Разбира се, това не премахва напълно необходимостта от ръчна настройка; например, различен брой слоеве и размери на слоевете могат да осигурят различна степен на абстракция.)[14][15]
Думата „дълбоко“ в „дълбоко обучение“ се отнася до броя на слоевете, през които данните се трансформират. По-точно, системите за дълбоко обучение имат значителна дълбочина на пътя на кредитно разпределение (CAP). ОСП е веригата от трансформации от вход към изход. ОСП описват потенциално причинно-следствени връзки между входа и изхода. За пренасочена невронна мрежа дълбочината на CAP е тази на мрежата и е броят на скритите слоеве плюс един (тъй като изходният слой също е параметризиран). За повтарящи се невронни мрежи, при които сигнал може да се разпространи през слой повече от веднъж, дълбочината на CAP е потенциално неограничена[16].
Никой универсално договорен праг на дълбочина не разделя плиткото учене от дълбокото обучение, но повечето изследователи се съгласяват, че дълбокото обучение включва дълбочина на ОСП по-голяма от 2. Доказано е, че ОСП на дълбочина 2 е универсален апроксиматор в смисъл, че може да емулира всяка функция[17]
Освен това, повече слоеве не добавят към функцията за апроксимация на функциите на мрежата. Дълбоките модели (CAP> 2) могат да извлекат по-добри характеристики от плитките модели и следователно допълнителните слоеве помагат за ефективното усвояване на характеристиките.
Архитектурите за задълбочено обучение могат да бъдат конструирани с greedy алгоритъм слой по слой[18]. Дълбокото обучение помага да се развържат тези абстракции и да се избере кои функции подобряват производителността[19].
За контролирани учебни задачи методите за задълбочено обучение елиминират конструирането на функции, като превеждат данните в компактни междинни представителства, подобни на основните компоненти, и извличат слоести структури, които премахват излишното представяне. Алгоритмите за задълбочено обучение могат да се прилагат към задачи за учене без надзор. Това е важна полза, защото немаркираните данни са по-богати от етикетираните данни. Примери за дълбоки структури, които могат да бъдат обучени без надзор, са компресори[20] с невронна история
и мрежи с дълбока обучаваща се DBN е генеративен графичен модел и алтернативен клас дълбока невронна мрежа, съставена от множество слоеве скрити променливи („скрити единици“), с връзки между слоевете, но не и между единици в всеки слой[21].[22]
Източници
↑Bengio, Y.; Courville, A.; Vincent, P. (2013). „Representation Learning: A Review and New Perspectives“. IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (8): 1798 – 1828. arXiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338. S2CID 393948.
↑Schmidhuber, J. (2015). „Deep Learning in Neural Networks: An Overview“. Neural Networks. 61: 85 – 117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637. S2CID 11715509.
↑iresan, D.; Meier, U.; Schmidhuber, J. (2012). „Multi-column deep neural networks for image classification“. 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642 – 3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
↑Olshausen, B. A. (1996). „Emergence of simple-cell receptive field properties by learning a sparse code for natural images“. Nature. 381 (6583): 607 – 609. Bibcode:1996Natur.381..607O. doi:10.1038/381607a0. PMID 8637596. S2CID 4358477
↑Bengio, Yoshua; Lee, Dong-Hyun; Bornschein, Jorg; Mesnard, Thomas; Lin, Zhouhan (13 February 2015). „Towards Biologically Plausible Deep Learning“. arXiv:1502.04156 [cs.LG].
↑Schulz, Hannes; Behnke, Sven (1 November 2012).
„Deep Learning“. KI – Künstliche Intelligenz. 26 (4): 357 – 363. doi:10.1007/s13218-012-0198-z. ISSN 1610 – 1987. S2CID 220523562.