У випадку найпростішої архітектури вузли поєднуються у батьківські із застосуванням вагової матриці, яка є спільною для всієї мережі, та нелінійності, такої як гіперболічний тангенс. Якщо c1 та c2 є n-мірними векторними представленнями вузлів, то їхній батьківський вузол також буде n-мірним вектором, що обчислюється як
де W є навченою ваговою матрицею .
Цю архітектуру, з деякими поліпшеннями, було застосовано для успішного розбору природних сцен та для синтаксичного розбору речень природної мови.[4]
Рекурсивна каскадна кореляція
Рекурсивна каскадна кореляція (РекКК, англ.Recursive Cascade Correlation, RecCC) є конструктивним нейромережевим підходом до деревних областей[2] з новаторськими застосуваннями в хімії[5] та розширенням для орієнтованих ациклічних графів.[6]
Некерована РНМ
Систему для некерованих РНМ (англ.Unsupervised RNN) було представлено в працях [7][8].
Тензорна
Рекурсивні нейронні тензорні мережі (англ.recursive neural tensor networks) використовують одну функцію поєднання на основі тензорів для всіх вузлів дерева.[9]
В літературі було доведено здатність РНМ до універсального наближення над деревами.[10][11]
Пов'язані моделі
Рекурентні нейронні мережі
Рекурентні нейронні мережі є рекурсивними штучними нейронними мережами з певною структурою: такою, як в лінійного ланцюжка. В той час як рекурсивні нейронні мережі працюють на будь-якій ієрархічній структурі, поєднуючи дочірні представлення в батьківські, рекурентні нейронні мережі діють на лінійній послідовності часу, поєднуючи попередній такт і приховане представлення в представлення поточного такту.
Деревні мережі з відлунням стану
Дієвий підхід до втілення РНМ дають деревні мережі з відлунням стану (англ.Tree Echo State Networks)[12] в рамках парадигми резервуарного обчислення.
Розширення для графів
До розширень для графів належать графова нейронна мережа (ГНМ, англ.Graph Neural Network, GNN),[13] нейронна мережа для графів (НМДГ, англ.Neural Network for Graphs, NN4G)[14] та новіші згорткові нейронні мережі для графів.
Примітки
↑Goller, C.; Küchler, A. Learning task-dependent distributed representations by backpropagation through structure. Neural Networks, 1996., IEEE. doi:10.1109/ICNN.1996.548916. (англ.)