Volltext

Volltext
NEURONALE NETZE ALS MODELL
BOOLESCHER FUNKTIONEN
Von der Fakultät für Mathematik und Informatik
der Technischen Universität Bergakademie Freiberg
genehmigte
DISSERTATION
zur Erlangung des akademischen Grades
Doktor-Ingenieur
(Dr.-Ing.)
vorgelegt
von M.Sc. Roman Kohut
geboren am 19. August 1979
Gutachter:
in Werchnja
Prof. Dr.-Ing. habil. Bernd Steinbach, Freiberg
Prof. Dr.-Ing. habil. Wolfgang Rehm, Chemnitz
Prof. Dr. rer. nat. habil. Günther Palm, Ulm
Tag der Verleihung: 30. Mai 2007
ABSTRACT
This dissertation presents neural networks as a model of Boolean functions. A new kind of Boolean neural
networks (BNN) was developed. The basic element of Boolean neural networks is a new Boolean neuron
(BN) that operates in contrast to classical neuron by Boolean signals directly and uses Boolean operations
for processing only. A sequential algorithm was developed in order to train the BNN. This algorithm
guarantees a quick convergence and needs therefore a short training time. A new created procedure to
synthesize the architecture of the BNN based on this training algorithm. Furthermore, the developed
training forms a new special decomposition method for Boolean functions. Neural networks can be realized in both software and hardware. The very high complexity of the hardware realization of usual neural
networks was simplified substantially by the use of BN and BNN. The number of necessary CLBs (configurable logic blocks) for the implementation of a single neuron was reduced by about two orders of
magnitudes. A one Boolean neuron is mapped onto one single LUT (lookup table) directly. The training
algorithm of the BNN was adapted for a very compact mapping of the BNN into a FPGA structure. The
synthesis effort for hardware implementation of BNN could be reduced significantly by both the specification of the BNN using UML models and the application of the MDA technique for hardware/softwareCo-design.
* * *
In der vorliegenden Arbeit werden die Darstellungsmöglichkeiten Boolescher Funktionen durch Neuronale Netze untersucht und eine neue Art von Booleschen Neuronalen Netzen (BNN) entwickelt. Das Basiselement Boolescher Neuronaler Netze ist ein neuartiges Boolesches Neuron (BN), das im Gegensatz zum
klassischen Neuron direkt mit Booleschen Signalen operiert und dafür ausschließlich Boolesche Operationen benutzt. Für das Training der BNN wurde ein sequentieller Algorithmus erarbeitet, der eine schnelle
Konvergenz garantiert und somit eine kurze Trainingzeit benötigt. Dieser Trainingsalgorithmus bildet die
Grundlage eines neuen geschaffenen Verfahrens zur Architektursynthese der BNN. Das entwickelte Training stellt darüber hinaus ein spezielles Dekompositionsverfahren Boolescher Funktionen dar.
Neuronale Netze können sowohl in Software als auch in Hardware realisiert werden. Der sehr hohe Aufwand der Hardware-Realisierung üblicher Neuronaler Netzen wurde durch die Verwendung von BN und
BNN wesentlich vereinfacht. Die Anzahl erforderlicher CLBs (configurable logic blocks) zur Realisierung
eines Neurons wurde um 2 Größenordnungen verringert. Ein Boolesche Neuron wird direkt auf eine einzige LUT (lookup table) abgebildet. Für diese sehr kompakte Abbildung der BNN in eine FPGA-Struktur
wurde der Trainingsalgorithmus des BNN angepasst. Durch die Spezifikation der BNN mit UMLModellen und die Anwendung der MDA-Technologie zum Hardware/Software-Codesign konnte der Syntheseaufwand für Hardware-Realisierung von BNN signifikant verringert werden.
DANKSAGUNG
VORWORT
Die vorliegende Arbeit entstand in den Jahren 2002-2006 einschließlich meines Studiums
im Graduiertenkolleg “Räumliche Statistik” am Institut für Informatik der Technischen
Universität Bergakademie Freiberg. Dem Freistaat Sachsen und der Deutschen Forschungsgemeinschaft, die die finanzielle Förderung der Arbeit ermöglichen, seien an dieser Stelle gedankt.
Mein besonderer Dank gilt Herrn Prof. Dr.-Ing. habil. Bernd Steinbach, der mir das interessante Thema überließ und diese Arbeit ermöglichte. Durch seine jederzeit gewährte
Unterstützung und fachliche Hinweise hat er beträchtlich zum Gelingen der Arbeit beigetragen.
Bei Herrn Prof. Dr.-Ing. habil. Wolfgang Rehm, Leiter der Professur Rechnerarchitektur
an der Technischen Universität Chemnitz, Fakultät für Informatik und Herrn
Prof. Dr. rer. nat. habil. Günther Palm, Leiter der Abteilung Neuroinformatik an der Universität Ulm, Fakultät für Informatik, die die weiteren Gutachten übernahmen, möchte
ich mich herzlich bedanken.
Für die anhaltende Unterstützung meines Promotionsvorhabens während meines Studium im Graduiertenkolleg bin ich dankbar der Koordinatorin des Graduiertenkollegs Frau
Gudrun Seifert, dem Sprecher des Graduiertenkollegs Herrn Prof. Dr.-Ing. habil. Dietrich
Stoyan, den Kollegiatinnen und Kollegiaten.
Schließlich gilt der Dank meinen Freunden und Kollegen. Hervorheben möchte ich
Frau Irmgard Gugel, die sich der Mühe unterzog, sehr ausführlich das Script durchzusehen und mich auf Mängel aufmerksam zu machen.
Ganz besonderer Dank gilt meiner Frau Olha und meinen Eltern, Mykola und Jaroslawa
Kohut für ihre stete Liebe und Geduld. Sie unterstützten mich während meiner Ausbildung und Doktorandenzeit geduldig und nach Kräften. Щиро дякую за Вашу турботу,
любов, підтримку і розуміння, за те, що Ви завжди були поруч. This thesis is dedicated to all of them.
Roman Kohut
Freiberg, November 2006
iii
INHALTVERZEICHNIS
INHALTSVERZEICHNIS
Symbolverzeichnis
Abkürzungsverzeichnis
1. Einleitung
vi
ix
1
2. Grundlagen
4
2.1 Boolesche Funktionen............................................................................................4
2.1.1 Boolesche Funktionen und ihre Darstellung ..........................................4
2.1.2 Euklidischer und Hamming-Abstand.......................................................9
2.1.3 Dekomposition ............................................................................................9
2.2 Neuronale Netzwerke ......................................................................................... 10
2.2.1 Künstliches Neuron ................................................................................. 10
2.2.2 Neuronales Netz....................................................................................... 12
2.2.3 Klassen von Neuronalen Netzen ........................................................... 13
2.2.4 Sequentielle Trainingsalgorithmen......................................................... 14
2.2.5 Hardwarerealisierungen von Neuronalen Netzen ............................... 16
2.3 RTR-Systeme ........................................................................................................ 17
2.3.1 Rekonfigurierbare Systeme ..................................................................... 17
2.3.2 Field Programmable Gate Arrays - FPGA ........................................... 17
2.3.3 Hardware/Software-CoDesign .............................................................. 20
2.3.4 MOdel Compiler for reConfigurable Architecture ............................. 21
2.4 Darstellung von Algorithmen ............................................................................ 22
3. Klassische Booleschen Neuronalen Netze
24
3.1 Einzelnes Neuron ................................................................................................ 24
3.1.1 Problem der linearen Separierbarkeit (EXOR-Funktion) .................. 24
3.1.2 Lösungen des EXOR-Problems ............................................................ 26
3.2 Neuronale Netzwerke ......................................................................................... 30
3.2.1 Backpropagation Boolesche Neuronale Netze .................................... 30
3.2.2 Boolesche Neuronale Netze mit sequentiellen
Trainingsalgorithmen............................................................................... 34
3.2.3 „Boolean-like“ Trainingsalgorithmus .................................................... 38
3.2.4 „Expand-and-Truncate“-Trainingsalgorithmen .................................. 41
3.2.5 Kaskaden- und Oil-Spot-Training ......................................................... 45
3.2.6 Hamming-Abstand-basierende Trainingsalgorithmen........................ 47
3.3 Problemanalyse und Bewertung ........................................................................ 50
iv
INHALTVERZEICHNIS
4. Netze aus Booleschen Neuronen
53
4.1 Boolesches Neuron.............................................................................................. 53
4.1.1 Struktur eines Booleschen Neurons ...................................................... 53
4.1.2 Mathematische Beschreibung ................................................................. 54
4.2 Boolesche Neuronale Netze mit einer verborgenen Schicht ........................ 59
4.2.1 Training ...................................................................................................... 59
4.2.2 Struktur....................................................................................................... 63
4.2.3 Arbeitsweise............................................................................................... 65
4.2.4 Eigenschaften............................................................................................ 66
4.2.5 Boolesche Neuronale Netze für AND-, OR-, EXOR- und
Äquivalenz-Dekomposition Boolescher Funktionsmengen ............. 67
4.2.6 Beispiel zur Dekomposition einer Funktionsmenge........................... 73
4.3 Mehrschichtige Boolesche Neuronale Netze .................................................. 79
4.3.1 Erweiterung der Ausgangsschicht.......................................................... 79
4.3.2 Erweiterung der verborgenen Schicht................................................... 81
5. Hardware-Realisierung von Booleschen Neuronalen Netzen mit
FPGA
84
5.1 Boolesche Neuronale Netze im FPGA ............................................................. 84
5.1.1 Abbildung eines Booleschen Neurons im FPGA ............................... 84
5.1.2 Adaptierter Trainingsalgorithmus .......................................................... 89
5.2 Hardware-Realisierung von Booleschen Neuronalen Netzen am
Beispiel von Virtex II-FPGA .............................................................................. 97
5.2.1 Methodik.................................................................................................... 97
5.2.2 UML-Modelle.......................................................................................... 101
5.3 Hardware/Software-CoDesign ......................................................................... 107
5.3.1 RTR-Manager.......................................................................................... 107
5.3.2 Softwaremodul........................................................................................ 108
5.3.3 Hardwaremodul ...................................................................................... 109
5.4 Bewertung experimentaler Ergebnisse ............................................................ 111
5.4.1 Experimente ............................................................................................ 111
5.4.2 Qualitätsbewertungen ............................................................................ 112
5.4.3 Quantitative Bewertungen..................................................................... 115
6. Zusammenfassungen
120
Literaturverzeichnis
123
Anhang A
131
Boolesche Neuronale Netze .................................................................................... 131
A.1 Beispiel des Netzes für die OR-Dekomposition ................................. 131
A.2 BNN mit dem adaptierten Training ...................................................... 135
A.3 AND-Netze für den Benchmark alcom................................................ 140
Anhang B
144
FPGA-Realisierung von BNN ................................................................................ 144
B.1 C++ Implementation ............................................................................... 144
B.2 VHDL Implementation ........................................................................... 147
iv
v
INHALTVERZEICHNIS
Anhang C
158
Experimentale Ergebnisse........................................................................................ 158
C.1 Vorbemerkungen ...................................................................................... 158
C.2 Zeitmessungen........................................................................................... 161
C.3 Quantitative Ergebnisse........................................................................... 165
C.4 Technologische Schaltpläne ................................................................... 168
Index
178
Abbildungsverzeichnis
181
Tabellenverzeichnis
183
Glossar
184
Thesen
188
v
vi
SYMBOLVERZEICHNIS
SYMBOLVERZEICHNIS
Operatoren und Mengenoperatoren
A={a1, a2, …, an}
Menge von Elementen a1, a2, …, an
a∈A
a Element von A
∀
für alle
Uin
Menge der Eingabeneuronen,
Uout
Menge der Ausgabeneuronen
Uhidden
Menge der versteckten/verborgenen Neuronen
A⊆B
Teilmenge oder gleiche Menge
A∪B
Vereinigung
A∩B
Durchschnitt
∅
leere Menge
|A|
Elementesanzahl der Menge A
A→B
Abbildung der Menge A in die Menge B
xi
Boolesche Variable
x=(x1, x2,…, xn)
Vektor aus n Booleschen Variablen
|x|
Länge des Vektors x
aT
Transponierter Vektor
ab
Skalarprodukt zweier Vektoren
B={0,1}
Boolescher Raum
Bn
n-dimensionaler Boolescher Raum
Funktionen
f(x)
Boolesche Funktion
f0
Nullfunktion, f(x)=0
f1
Einsfunktion, f(x)=1
F2n
∂f(x)
∂xi
Menge Boolescher Funktionen von 2 Variablen
partielle Ableitung der Booleschen Funktion f(x) nach xi
vi
vii
SYMBOLVERZEICHNIS
Boolesche Operatoren
not(a), a
Negation
a∧b
Konjunktion
a∨b
Disjunktion
a⊕b
Antivalenz
a☼b
Äquivalenz
DE (a, b)
Euklidischer Abstand zwischen den Vektoren a und b
DHM (a, b)
Hemming-Abstand zwischen den Vektoren a und b
sab
Ähnlichkeit der Vektoren a und b
Neuronen
actt
Aktivierungszustand zum Zeitpunkt t
t
Zeitpunkt
act(t), fact
Aktivierungsfunktion
net
Netzeingabe
fnet
Netzeingabefunktion
fout
Ausgabefunktion
fT
Transferfunktion
λ1, ..., λl; θ1, ..., θk
Parameter
w1, w2, …, wNx
Verbindungsgewichte
x1, x2, ..., xNx
Eingabesignale
y, yi
Ausgabesignal
ωi
Gewichtsfunktion für die Eingabe i
Nz
Neuronenanzahl in der verborgenen Schicht
wij , vij , uij
zugeordnetes Gewicht
k, k(), k(i)
k-Funktion
[wij], [vjk]
Gewichtsmatrix
w
Gewichtsvektor
θ
Schwellwert
F, ψ
Schwellwertfunktion
vii
viii
SYMBOLVERZEICHNIS
Andere
’*’, ’-’, ’~’
„don’t care“
π(ak)
innere Abbildung von ak
[ak]
Klasse von inneren Abbildungen π(ak)
εk
Kostenfunktion für „tiling“ Trainingsalgorithmus
E(Xi)
Eingangskodierungsfunktion
Ω
Kumulationsoperator
Ω [x, w]
Kumulationsoperator mit den Vektoreingaben x und w
Ω 0Ni
Kumulationsoperator mit den Grenzen 0 und Ni
Fj
Polynom-Operator
G
Graph
sgn()
Vorzeichenfunktion (mit Wertebereich{-1,0,1})
viii
ix
ABKÜRZUNGSVERZEICHNIS
ABKÜRZUNGSVERZEICHNIS
ABNN
AF
ANN
BDD
BF
BLTA
BN
BNN
BP
BV
BVL
CLB
CPU
CSCLA
DF
DFF
DRAM
EEPROM
EF
ES
ETL
FBNN
FF
FFNN
FPGA
FSM
FSMD
FTF
HC
HwNN
IETL
IOB
ITA
KF
KI
KN
KNN
LCA
LUT
Adaptierbares Boolesches Neuronales Netz
Antivalenzform
Artificial Neural Network
Binary Decision Diagram (Binäre Lösungsdiagramm)
Boolesche Funktion
Boolean-Like Training Algorithm
Boolesches Neuron
Boolesches Neuronales Netz
Back Propagation
Binärvektor
Binärvektorliste
Configurable Logic Block
Central Processing Unit
Constructive Set Covering Learning Algorithm
Disjunktive Form
D-Flip-Flop
Dynamic Random Access Memory
Electrical Erasable and Programable ROM
Äquivalenzform
Embedded Systems
Expand-and-Truncate Learning
Feed Back Neural Network
Flip-Flop
Feed Forward Neural Network
Field Programmable Gate Array
Finite State Machine
Finite State Machine with Datapath
Functional on the Tabular Functions
Hamming-Clustering
Hardware Neuronales Netz
Improved Expand-and-Truncate Learning
Input Output Block
Iterativer Trainingsalgorithmus
Konjunktive Form
Künstliche Intelligenz
Künstliches Neuron
Künstliches Neuronales Netz
Logic Cell Array
Lookup Table
ix
x
ABKÜRZUNGSVERZEICHNIS
MAL
MCETL
MCL
MDA
MLBNN
MLNN
MOCCA
MPGA
MUX
NETLA
NN
NRE
PDA
PE
PIM
PLA
PSM
RAM
ROM
RTR
RUP
SITV
SRAM
STA
SWL
TPM
TV
TVL
UML
VHDL
VHSIC
VLSI
MOCCA Action Language
Multi-Core Expand-and-Truncate Learning
Multi-Core Learning
Model-Driven-Architecture
Multi-Layer Boolean Neural Network
Multi-Layer Neural Network
MOdel Compiler for reConfigurable Architecture
Masked-Programmable Gate Array
Multiplexer
Newly Expanded and Truncated Learning Algorithm
Neuronales Netz
Non-Recurring Engineering
Platform Dependent Application
Processing Element
Platform Independent Model
Programmable Logic Array
Platform Specific Model
Random Access Memory
Read-Only Memory
Run-Time Reconfigurable
Rational Unified Process
Set of Included True Vertices
Static Random Access Memory
Sequentieller Trainingsalgorithmus
Sequential Window Learning
Target Platform Model
Ternärvektor
Ternary Vector List (Ternärvektorliste)
Unified Modeling Language
VHSIC Hardware Description Language
Very High Speed Integrated Circuit
Very Large Scale Integration
x
1
KAPITEL 1 EINLEITUNG
Kapitel 1
Einleitung
Die ständig wachsenden Anforderungen verschiedener Zweige der Computerwissenschaft
und Informationstechnologie haben in den letzten 20 Jahren eine besonders starke Entwicklung der Künstlichen Intelligenz (KI) und Künstlichen Neuronalen Netze (KNN)
hervorgerufen. KNN werden häufig in den Anwendungsbereichen Data Mining, Quantum Computing und Robotertechnik [43], [66], [83], [125], aber auch darüber hinaus angewendet. Eine der wichtigsten Rollen spielen KNN bei der Modellierung von verschiedenen Prozessen und Objekten. Obwohl es sehr viele Anwendungsgebiete von KNN
gibt, wurden KNN anfangs zur Modellierung Boolescher Funktionen entwickelt [99].
Künstliche Neuronale Netze, die für die Modellierung Boolescher Daten Verwendung
finden, werden Boolesche Neuronale Netze (BNN) genannt. Aus der Literatur sind viele
Anwendungsbeispiele von BNN für Data Mining [66], [173], [175], Klassifizierung [142],
Mustererkennung [74] etc. bekannt. Bei der Anwendung von KNN und noch stärker bei
BNN gibt es noch viele offene Fragen. Zum Beispiel, die Entwicklung innovativer Methoden zum effektiven Training Boolescher Neuronaler Netze ist zur Zeit immer noch
ein aktuelles Thema der laufenden Forschungen [41], [76], [91], [165]. Die Flexibilität und
in den letzten Jahren stark gestiegene Leistungsfähigkeit von „Run-Time Reconfigurable“ (RTR)-Systemen haben die Vorteile von Hardware-Realisierungen von KNN und
insbesondere Boolescher Neuronaler Netze verstärkt [11], [48], [59], [180].
In den letzten 20 bis 30 Jahren sind die wissenschaftlichen Forschungen an KNN als
Modell Boolescher Funktionen in den Hintergrund getreten und KNN wurden meistens
für andere Aufgabengebiete eingesetzt. In dieser Arbeit werden Künstliche Neuronale
Netze in ihrer ursprünglichen Intention betrachtet und zur Modellierung Boolescher
Funktionen verwendet. Boolesche Funktionen werden insbesondere für Design- und
Entwurfsprozesse digitaler elektronischer Schaltungen angewendet. Seit der Entwicklung
der ersten integrierten Schaltung in den 60er Jahren sind die Entwurfseinheit und die Packungsdichte auf den Chips millionenfach gestiegen. Die ständig zunehmende Entwicklungsgeschwindigkeit der Mikroelektronik erfordert den Entwurf immer komplexerer
Boolescher Schaltnetzwerke. Dabei müssen ständig neue leistungsfähigere Designmetho1
2
KAPITEL 1 EINLEITUNG
den entwickelt werden. Für diese werden kompaktere Datenstrukturen für Boolesche
Funktionen und deren schnelle Verarbeitung benötigt.
Aus diesen aktuellen Anforderungen motivieren die Forschungsziele dieser Arbeit. Es sollen die Fragen beantwortet werden, ob sich Neuronale Netze als alternative kompakte
Datenstruktur für Boolesche Funktionen eignen und ob eine effiziente Verarbeitung Boolesche Funktionen unter Verwendung von BNN möglich ist.
Die Forschungen auf dem Gebiet Boolescher Funktionen haben in den letzten Jahren
bestätigt, dass dekompositorische Syntheseverfahren den überdeckenden Syntheseverfahren wesentlich überlegen sind. Ein ungelöstes Problem besteht aber immer noch darin,
dass aus lokalen Entwurfsentscheidungen nicht auf das globale Entwurfsergebnis geschlossen werden kann. In Anbetracht der Fähigkeiten Neuronale Netze zur Optimierung
soll in dieser Dissertation die Frage beantwortet werden, welchen Beitrag Neuronale Netze zum Finden geeigneter Dekompositionsfunktionen für Boolescher Funktionen leisten
können. Dafür ist eine neue Art der Booleschen Neuronalen Netze für die kompakte
Darstellung und schnelle Berechnung Boolescher Funktionen zu entwickeln.
Die Anwendung Neuronaler Netze setzt das Training des Netzes auf die konkrete Aufgabe voraus. Basierend auf dem Verfahren der Back Propagation [173], [134] zum Training
von Neuronalen Netze wurden mehrere iterativen Trainingsalgorithmen (ITA) entwickelt.
Obwohl die iterativen Trainingsalgorithmen in der Praxis das Training Neuronaler Netze dominieren, sind mehre bisher nicht gelöste Probleme von ITA bekannt. Dazu gehören zum Beispiel lokale Minima, flache Plateaus, die Wahl der Schrittweite und die Wahl
des Dynamikbereiches [179]. KNN mit ITA garantieren keine schnelle Konvergenz und
benötigen oft eine lange Trainingszeit, die überproportional von der Netzgröße und von
der Größe der Lerndatenmenge abhängt. Kritisch ist weiterhin, dass unbekannt ist, ob für
eine vorgegebene Netzstruktur die gewünschte Fehlergrenze als Abbruchkriterium überhaupt erreicht werden kann.
Um diese Probleme zu überwinden wurden als Alternative die sequentiellen Trainingsalgorithmen (STA) vorgeschlagen [19], [42], [93]. Im Vergleich zu ITA haben STA viele
Vorteile aber haben auch eigene Probleme. Zu den Nachteilen von STA gehört das rechenaufwendige Training eines einzelnen Schwellwertneurons. Das Netzdesign ergibt sich
im Verlauf des sequentiellen Trainings, so dass mit Sicherheit ein nutzbares Neuronales
Netz entsteht. Allerdings garantieren die bekannte STA nicht, dass eine minimale Netzstruktur erzeugt wird [8].
Die bisher betrachteten Probleme von Trainingsalgorithmen wirken sich verstärkt bei
Booleschen Neuronalen Netzen aus. Ein weiteres Problem von BNN mit sequentiellen
Trainingsalgorithmen besteht darin, dass man beim Training ein extrem großes Speichervolumen braucht [82], [154].
2
3
KAPITEL 1 EINLEITUNG
Ein Ziel dieser Arbeit besteht darin die geschilderten Probleme des Trainings von BNN
zu überwinden oder wenigstens stark abzuschwächen. Durch die Konzentration auf das
Paradigma des sequentiellen Trainings treten die Nachteile der iterativen Trainingsmethoden nicht auf und die Netzstruktur kann implizit ermittelt werden. Mit den zu erarbeitenden sequentiellen Trainingsmethoden soll eine schnelle Konvergenz und eine optimale
Netzstruktur der BNN erreicht werden. Diese Trainingsmethoden sollen mit möglichst
kleinem Speichervolumen auskommen und die Charakteristika für jedes einzelne Neuron
durch einfache Berechnungen finden.
Das Problemfeld von BNN ist sehr groß. Bekannte Verfahren für Boolesche Funktionen
könnten zur Weiterentwicklung von Trainingsmethoden von Neuronalen Netzen dienen.
Mit BNN könnten Boolesche Funktionen mit gewünschten Eigenschaften wie zum Beispiel geringer Leistungsverbrauch oder kurze Laufzeit aus Funktionsmengen ausgewählt
werden. Sehr interessant wäre es auch zu analysieren, welche Abhängigkeit zwischen der
Komplexität von Booleschen Funktionen und der Komplexität von BNN bestehen. Dieses Aufgabenspektrum geht weit über die Möglichkeiten hinaus, die in einer Dissertation
fundiert bearbeitet werden kann. Deshalb bleiben die in diesem Abschnitt genannten
Problemen zukünftigen Arbeiten überlassen. Beachtliche Teilergebnisse zur Komplexität
Neuronaler Netze findet man in [142], [120]. Ihre Kombination mit dem bekannten Wissen zur Komplexität Boolescher Funktionen [168], [49] könnte zu neuen umfassenderen
Erkenntnissen führen.
Da es in dieser Arbeit immer um Künstliche Neuronen (KN) und Künstliche Neuronale
Netze geht, werden sie in dieser Arbeit einfach Neuronen und Neuronale Netze (NN)
genannt. Neuronale Netze zur Modellierung Boolescher Daten werden als Boolesche
Neuronale Netze (BNN) bezeichnet.
Die vorliegende Arbeit hat folgenden Aufbau. Die zum Verständnis der Arbeit erforderlichen Grundlagen über Booleschen Funktionen, Neuronalen Netzen und RTR-Systeme
werden im Kapitel 2 vorgestellt. Das Kapitel 3 befasst sich mit klassischen Neuronen
und Booleschen Neuronalen Netzen. Dabei werden Lösungsmöglichkeiten des Problems
der linearen Separierbarkeit betrachtet. Auch werden wesentliche bekannte Ergebnisse
Boolescher Neuronaler Netze dargestellt, ihre Vor- und Nachteile bewertet und kritisch
analysiert. Im Kapitel 4 werden das Boolesche Neuron und das Boolesche Neuronale
Netz beschrieben und ein geeigneter Trainingsalgorithmus entwickelt. Die Möglichkeit
des Einsatzes der RTR-Architektur bei der Hardware-Realisierung von Booleschen Neuronalen Netzen wird im Kapitel 5 analysiert. Zur Optimierung wird der Trainingsalgorithmus des BNN an die FPGA-Eigenschaften angepasst. An das zusammenfassende
Kapitel 6 schließen sich die Bibliographie und einige Anhänge mit weiterführenden Informationen an.
3
4
KAPITEL 2 GRUNDLAGEN
Kapitel 2
Grundlagen
2.1 Boolesche Funktionen
2.1.1 Boolesche Funktionen und ihre Darstellung
Eine Boolesche Variable ist eine Variable, die nur die Werte 0 oder 1 (falsch oder wahr,
negativ oder positiv) annehmen kann. Einen Vektor aus n Booleschen Variablen
x=(x1, x2, x3, …, xn): xi ∈ B nennt man Binärvektor (BV) der Länge n, wobei
B={0,1} der Boolesche Raum ist. Ein n-dimensionaler Boolescher Raum Bn wird durch
die Menge aller möglichen Binärvektoren der Länge n definiert [130]:
Bn ={x | x = (x1, x2, …, xn) mit xi ∈ B}
(2.1)
Die Zahl n bestimmt die Raumdimension, n ist gleich der Länge der Binärvektoren und
bestimmt die Elementanzahl des Raumes zu 2n.
Eine Boolesche Operation nennt man eine mathematische Operation, die auf einem
bzw. mehreren Booleschen Elementen (Variable, Konstante) definiert ist und ein Boolesches Resultat ergibt. Die auf mehreren Booleschen Variablen definierten Booleschen
Operationen werden auch Verknüpfungsoperationen genannt [126]. Die Operationszeichen werden Operatoren genannt. In der Tabelle 2.1 sind die Booleschen Grundoperationen, die auch als Verknüpfungsoperationen verwendet werden können, gesammelt.
Tabelle 2.1 Boolesche Grundoperationen
Operation Schreibweise
Negation
a
Konjunktion
a∧b
Disjunktion
a∨b
Antivalenz
a⊕b
Äquivalenz
a☼b
Verknüpfung
AND-Verknüpfung
OR-Verknüpfung
EXOR-Verknüpfung
Äquivalenz -Verknüpfung
4
5
KAPITEL 2 GRUNDLAGEN
In dieser Arbeit werden die in der Tabelle 2.1 angeführten Operationszeichen verwendet,
wobei eine Vereinbarung gilt, dass AND-Zeichen weggelassen werden können.
Für die angegebenen Booleschen Grundoperationen gelten die Gesetze der Idempotenz,
Verknüpfung mit Null und Eins, Verknüpfung mit dem Komplement, die Gesetze der
Kommutativität, Assoziativität, Distributivität und Absorption und die Sätze von de Morgan und von Stone, die in der Literatur ausführlich beschrieben sind [12], [25], [126]
and [130].
Definition 2.1. Eine Boolesche Funktion (BF) y =f(x1, x2, …, xn) von n Booleschen Variablen definiert man als eindeutige Abbildung des n-dimensionalen Booleschen
Raumes auf den Booleschen Raum ersten Grades Bn → B.
Jede Boolesche Funktion hängt mindestens von einer Booleschen Variable ab und produziert nur einen Ausgang y, der zum Raum B gehört. Die Verknüpfungen aus der Tabelle 2.1 können auch als Boolesche Funktionen betrachtet werden.
Wenn ein BV aus n Booleschen Variablen besteht, dann gibt es
F2n = 2
Bn
n
= 22
(2.2)
verschiedene Boolesche Funktionen, die auf diesen BV definiert werden können. Dabei
bezeichnet F2n eine Menge aller Booleschen Funktionen, die von n Booleschen Variablen
abhängen.
1
Zum Beispiel gibt es 22 = 4 Boolesche Funktionen, die auf eine einzige Boolesche Variable a definiert sind. Das sind 0, 1, a und a .
In der Tabelle 2.2 werden elementare Boolesche Funktionen: Negation (NOT), Disjunktion (OR), Konjunktion (AND), Antivalenz (EXOR) und Äquivalenz eingeführt. Dabei
werden zwei Darstellungsweisen Boolescher Funktionen beschrieben durch Boolesche
Ausdrücke und Wertetabellen.
Tabelle 2.2 Elementare Boolesche Funktionen
Operanden
Negation
x1
x2
f(x1)= x1
0
0
1
1
0
1
0
1
1
1
0
0
Disjunktion
f(x1,x2)
=x1∨x2
0
1
1
1
Konjunktion
f(x1,x2)
=x1x2
0
0
0
1
5
Antivalenz
f(x1,x2)
=x1⊕x2
0
1
1
0
Äquivalenz
f(x1,x2)
=x1☼x2
1
0
0
1
6
KAPITEL 2 GRUNDLAGEN
Die Wertetabelle einer auf n Variablen definierten Booleschen Funktion besteht aus
n+1 Spalten (n Operandenspalten und 1 Funktionsspalte) und 2n Zeilen. Die Funktionswerte werden in der Funktionsspalte vollständig erklärt, d.h. die Boolesche Funktion wird
durch die Wertetabelle komplett beschrieben.
Boolesche Ausdrücke werden definiert durch:
1. Die Konstanten 0 und 1, die Variablen x1, x2,…, xn sind Boolesche Ausdrücke.
2. Sind A und B Boolesche Ausdrücke, dann sind A , B , A ∨ B, AB, A ⊕ B und
A ☼ B auch Boolesche Ausdrücke.
3. Durch die Verknüpfung zweier Booleschen Ausdrücke mit einer Booleschen Operation entsteht ein neuer Boolescher Ausdruck.
In der Menge aller Booleschen Ausdrücke gibt es vier Ausdrucksformen Boolescher
Funktionen, die besondere Bedeutung haben [12]:
Disjunktive Form (DF) ist eine Disjunktion einzelner Konjunktionen,
Antivalenzform (AF) ist eine Antivalenz einzelner Konjunktionen,
Konjunktive Form (KF) ist eine Konjunktion einzelner Disjunktionen,
Äquivalenzform (EF) ist eine Äquivalenz einzelner Disjunktionen.
Ein Beispiel der Formen DF, AF, KF und EF für Boolesche Funktionen ist in (2.3) dargestellt.
f1(x) = x1x2 ∨ x1x3
f2(x) = x1x2 ⊕ x1x3
f3(x) = (x1 ∨ x 2)(x1 ∨ x3)
f4(x) = (x1 ∨ x 2)☼(x1 ∨ x3)
(2.3)
Zur Beschreibung, Speicherung und Bearbeitung Boolescher Funktionen gibt es viele
Möglichkeiten. In überwiegendem Maß basieren die Beschreibungsweisen Boolescher
Funktionen entweder auf Tabellen oder Entscheidungsdiagrammen. Zu den einfachsten
und bekanntesten Darstellungsweisen Boolescher Funktionen gehören Karnaugh-Pläne
– KP, Binärvektorlisten – BVL, Ternärvektorlisten – TVL, Binäre Entscheidungsdiagramme (Binary Decision Diagram – BDD) etc. Ein Beispiel zu verschiedenen Beschreibungsweisen einer Booleschen Funktion wird in der Abbildung 2.1 gezeigt.
Ein Karnaugh-Plan ist eine zweidimensionale rechteckige Tabelle, deren Koordinaten in
Gray-Code [25], [130] angegeben sind. Eine Binärvektorliste (BVL) ist eine Tabelle, in
der die Variablen des Raumes und die Werte des einzelnen BV spaltengerecht untereinander geschrieben werden. Für die Bearbeitung umfangreicher Probleme haben sich Ternärvektorlisten als besonders effektiv erwiesen [84], [128], [129]. Als TVL kann ein Boolescher Ausdruck in jeder der vier Formen (2.3) dargestellt werden. Eine TVL besteht aus
Ternärvektoren – TV (dreiwertige Vektoren), die die Konjunktionen von Variablen einer Funktion in disjunktiver Form oder Antivalenzform bzw. Disjunktionen von Variab6
7
KAPITEL 2 GRUNDLAGEN
len einer Funktion in konjunktiver Form oder Äquivalenzform abbilden. Den Spalten der
TVL sind die Boolesche Variablen xi zugeordnet. Ein TV beschreibt durch „0“, dass eine
Variable negiert auftritt, durch „1“, dass eine Variable nicht negiert auftritt, oder durch „“, dass eine Variable nicht vorhanden ist. Jeder Ternärvektor mit k Strichen „-“ repräsentiert 2k Binärvektoren. Die ausführliche Beschreibung der Kodierung ist in [25], [47] zu
finden.
x2
f = x 2 ∧ (x1 ∨ x 3)
x1
0 0 0
1 0 0
0 0
0 1
1
1
1
1
a)
1
0
1 x2
0 x3
x1
x1 x2 x3
0 1 0
0 1 1
1 1 1
b)
x3
x1 x2 x3
0 1 1 1 1
c)
Abbildung 2.1 Darstellung einer Booleschen Funktion:
a) Karnaugh-Plan; b) BVL; c) TVL; d) BDD
1
0
d)
Neben den TVL treten BDD als fundamentale und besonders wichtige Beschreibungsweisen hervor. BDD wurden aus Binären Entscheidungsbäumen entwickelt und stellen
Boolesche Funktionen durch Graphen dar (siehe Abb. 2.1.d). Dabei soll in jedem Knoten
des Graphen eine Boolesche Variable abgefragt werden. Gemäß dem Wert der entsprechenden Variablen werden Pfade durch den Graphen weiterverfolgt. Es gibt viele Erweiterungen der BDD: geordnete BDD - OBDD [31], [45] und [100], Funktionale BDD –
FDD [45] und [73], Kronecker Funktionale BDD – KFDD [45], [46], [44] und [85] etc.
Eine ausführliche Beschreibung von BDD ist in [85] und [137] zu finden.
Alle diese Datenstrukturen haben spezifische Vorteile in Bezug auf den Speicherbedarf
für spezielle Funktionsklassen oder in Bezug auf die Kompliziertheit für bestimmte
Operationen. Deshalb hängt die optimale Darstellung Boolescher Daten von ihrer Struktur und den algorithmischen Anforderungen an die zu lösende Aufgaben ab. Es gibt keine
Darstellung, die für alle Fälle optimal wäre.
Boolesche Funktionen mit einem gemeinsamen Merkmal können als Klassen Boolescher
Funktionen betrachtet werden. Zu den wichtigsten gehören duale und selbstduale, monotone, lineare, symmetrische, Schwellwertfunktionen und Funktionen mit einer festen Zahl
von Einsen in der Wertetabelle. Die besondere Bedeutung haben auch partiell definierte
Funktionen, die die Funktionsverbände bzw. Funktionsintervalle charakterisieren. Eine
7
8
KAPITEL 2 GRUNDLAGEN
ausführliche Definition und Beschreibung von Klassen Boolescher Funktionen ist in [23],
[25] und [130] zu finden.
In dieser Arbeit werden lineare Boolesche Funktionen verwendet. Deswegen ist der Bergriff der Linearität Boolescher Funktionen im Folgenden gegeben.
Definition 2.2. Eine Boolesche Funktion f(x) ist in der Variable xi linear, wenn gilt:
∂f(x)
= f(xi, x 0) ⊕ f(xi, x0) = 1
∂xi
wobei
(2.4)
∂f(x)
die partielle Ableitung einer Boolesche Funktion f(x) nach der Variable xi
∂xi
ist [24], [25], [129], [130] und [157].
Definition 2.3. Eine Boolesche Funktion f(x) ist linear, wenn (2.4) für jede Variable xi
des Vektors x gilt.
Die zwei weitere wichtige Ableitungsoperationen werden in dem Booleschen Differentialkalkül definiert.
Definition 2.4. Das partielle Minimum und das partielle Maximum einer Booleschen
Funktion f(x) nach der Variable xi ∈ x werden in (2.5) und (2.6) definiert:
min f(x) = f(xi, x 0) ∧ f(xi, x 0)
(2.5)
max f(x) = f(xi, x 0) ∨ f(xi, x 0)
(2.6)
xi
xi
Das k-fache Minimum (2.7) und das k-fache Maximum (2.8) einer Booleschen Funktion f(x) entstehen durch die mehrfache Ausführung der partiellen Minima und Maxima
nach Variablen xi1 , xi2, K , xik .
⎛
⎛
⎞⎞
min k f(x) = min ⎜ min ⎜K min f(x)K⎟ ⎟
xk
xi1 ⎜ x
xik
⎠ ⎟⎠
⎝ i2 ⎝
(2.7)
⎛
⎛
⎞⎞
maxk f(x) = max ⎜ max ⎜K max f(x)K⎟ ⎟
xk
xi1 ⎜ x
xik
⎠ ⎟⎠
⎝ i2 ⎝
(2.8)
8
9
KAPITEL 2 GRUNDLAGEN
2.1.2 Euklidischer und Hamming-Abstand
Zwischen zwei Vektoren mit gleicher Länge kann eine Ähnlichkeit gemessen werden. Zur
Berechnung des Ähnlichkeitsmaßes zwischen zwei beliebigen Vektoren wird oft der
quadratische euklidische Abstand benutzt. Der euklidische Abstand wird durch (2.9)
definiert.
DE (ai, aj ) =
n
∑ (a
− aik )2 ,
ik
k =1
(2.9)
wobei DE - euklidischer Abstand zwischen den Binärvektoren ai und aj ,
aik und ajk - k-te Elemente der Vektoren ai und aj und
n – Dimension der Eingangsvektoren.
Für die Binärvektoren ai und aj , deren Elemente nur die Werte 0 oder 1 annehmen
können, ist der quadratische euklidische Abstand (2.9) gleich dem Hamming-Abstand DHM
(2.10).
DHM (ai, aj ) =
n
∑a
k =1
ik
⊕ aik
(2.10)
Deshalb benutzt man oft als Ähnlichkeitskriterium zwischen zwei Binärvektoren den euklidischen Abstand, der eine geometrische Visualisierung in bezug auf Hypersphären erlaubt.
Unter Verwendung des euklidischen Abstandes DE und folglich des Hamming-Abstandes
DHM wird die Ähnlichkeit zwischen zwei beliebigen Binärvektoren ai und aj durch (2.11)
definiert:
sij = n − DE (ai, aj )
(2.11)
wobei sij - Ähnlichkeit zwischen den beliebigen zwei Binärvektoren.
2.1.3 Dekomposition
Jede Boolesche Funktion kann in andere Boolesche Funktionen zerlegt werden. Die allgemein bekannten und in der Literatur ausreichend beschriebenen Dekompositionsverfahren sind die Dekompositionen in zwei Boolesche Funktionen. Besonders verbreitet
sind die Shannon- und Davio-Dekompositionen.
Shannon-Dekomposition: Ist f(x)=f(x1, x2,…, xn) eine Boolesche Funktion Bn → B,
so gilt für alle xi ∈ (x1, x2,…, xn):
9
10
KAPITEL 2 GRUNDLAGEN
f (xi, x 0 ) = xifS0 (x 0 ) ∨ xifS1 (x 0 )
= xif (xi = 0, x 0 ) ∨ xif (xi = 1, x 0 )
(2.12)
Die Funktionen fS0(x0) und fS1(x0) werden als Cofaktoren bezeichnet und beschreiben
die Funktion f(xi, x0) an den Stellen xi=0 und xi=1.
Davio-Dekomposition: Ist f(x)=f(x1, x2,…, xn) eine Boolesche Funktion Bn → B, so
gilt für alle xi ∈ (x1, x2,…, xn):
f (xi, x 0 ) = fS0 (x 0 ) ⊕ xifD (x 0 )
= f (xi = 0, x 0 ) ⊕ xi (f (xi = 0, x 0 ) ⊕ f (xi = 1, x 0 ))
f (xi, x 0 ) = fS1 (x 0 ) ⊕ xifD (x 0 )
= f (xi = 1, x 0 ) ⊕ xi (f (xi = 0, x 0 ) ⊕ f (xi = 1, x 0 ))
(2.13)
(2.14)
Es gibt verschiedene Methoden zur Zerlegung Boolescher Funktionen. Bezüglich des Ansatzes der Dekomposition unterscheiden sich die Curtis- und Bi-Dekompositionen signifikant. Eine ausführliche Beschreibung von Dekompositionsmethoden ist in [26], [85][87], [89], [108], [126], [130], [137], [150]-[152] zu finden.
2.2 Neuronale Netzwerke
2.2.1 Künstliches Neuron
Ein (künstliches) Neuron (KN) ist ein mathematisches Modell einer Nervenzelle des
menschlichen zentralen Nervensystems. Das Neuron kann als ein einfacher Prozessor gesehen werden. Ein verallgemeinertes künstliches Neuron mit vier Eingängen, entsprechenden Gewichten und einem Ausgang wird in Abbildung 2.2 gezeigt.
Eingänge
x1
x2
x3
Gewichte
w1
w2
w3
w4
Ausgang
y
x4
Abbildung 2.2
Ein einfaches Neuron
10
11
KAPITEL 2 GRUNDLAGEN
Für das bessere Verständnis des Aufbaus und der Arbeitsweise von Neuronen wird eine
detailliertere Darstellung des Neurons in der Abbildung 2.3 gegeben.
ext
x1
w1
x2
w2
net
fact
act
fout
y
…
…
…
xNx
fnet
wNx
λ1, λ2, ..., λl
θ1, θ2, ..., θk
Abbildung 2.3 Aufbau eines Neurons [28]
Ein Neuron besitzt die folgenden Bestandteile.
ƒ Aktivierungszustand (activation) act(t). Er gibt den Grad der Aktivierung des
Neurons im Moment t an.
ƒ Aktivierungsfunktion fact. Sie gibt an, wie sich ein neuer Aktivierungszustand
actt des Neurons aus der alten Aktivierung actt-1 und der Netzeingabe net
ergibt.
ƒ Ausgabefunktion fout. Die Ausgabe des Neurons wird durch eine so genannte
Ausgabefunktion aus der Aktivierung des Neurons definiert.
Die Berechnungen eines einzelnen Neurons bestehen aus drei Teilfunktionen: eine Netzeingabefunktion (2.15), eine Aktivierungsfunktion (2.16) und eine Ausgabefunktion (2.17).
net = fnet(x, w, λ)= fnet(x1, x2, ..., xNx , w1, w2, …, wNx , λ1, λ2, ..., λl),
actt = fact (net , θ1, θ2, ..., θk, actt-1)
y = fout (actt)
(2.15)
(2.16)
(2.17)
Die Netzeingabefunktion fnet berechnet aus den Eingaben x1, x2, ..., xNx und den Verbindungsgewichten w1, w2, …, wNx die Netzeingabe net. In diese Berechnung können
eventuell zusätzliche Parameter λ1, λ2, ..., λl eingehen. Aus der Netzeingabe net, einer
bestimmten Anzahl von Parametern θ1, θ2, ..., θk und eventuell einer Rückführung der
aktuellen Aktivierung des Neurons berechnet die Aktivierungsfunktion fact die neue Aktivierung actt des Neurons. Schließlich wird aus der Aktivierung act durch die Ausgabefunktion fout die Ausgabe y des Neurons berechnet. Durch die externe Eingabe ext
11
12
KAPITEL 2 GRUNDLAGEN
kann die (Anfangs-) Aktivierung des Neurons festgelegt werden. Die Zahl l der zusätzlichen Argumente der Netzeingabefunktion und die Zahl k der Argumente der Aktivierungsfunktion hängen von der Art dieser Funktionen und dem Aufbau des Neurons ab.
Meist hat die Netzeingabefunktion nur 2 Argumente (die Ausgaben der Vorgängerneuronen und die zugehörigen Gewichte). Die Aktivierungsfunktion hat meist auch zwei Argumente: die Netzeingabe und einen Parameter (z.B. für Schwellwertelemente ist dieser
Parameter ein Schwellwert). Die Ausgabefunktion hat dagegen nur die Aktivierung als
Argument und dient meistens nur dazu, die Ausgabe des Neurons in einen gewünschten
Wertebereich zu transformieren (meist durch eine lineare Abbildung) [28].
Normalerweise besteht die Aktivierungsfunktion aus einer nichtlinearen Transformation.
Es kann aber auch eine lineare Abhängigkeit als Aktivierungsfunktion verwendet werden.
Dann spricht man von einem linearen Neuron [112].
2.2.2 Neuronales Netz
Um die Berechnungsmöglichkeiten von einzelnen Neuronen zu erhöhen, schaltet man
mehrere Neuronen zu Netzen von Neuronen (Neuronale Netze) zusammen. Neuronale
Netze (NN) werden oft auch als künstliche Neuronale Netze (KNN) oder artificial
neural networks (ANN) bezeichnet und sind Systeme zur Informationsverarbeitung, die
aus einer großen Anzahl einfacher parallel arbeitender Neuronen (Zellen, Einheiten) bestehen. Neuronale Netze sind modular aufgebaute Berechnungsmodelle, deren Funktionsprinzipien von biologischen Nerven-Systemen abgeleitet wurden, und deren herausragende Eigenschaft die Lernfähigkeit ist. In vielen Anwendungen dienen sie der Beschreibung und Berechnung von stetigen oder (partiell) differenzierbaren Funktionen. Man
kann ein gegebenes Neuronales Netz auch als eine Datenstruktur auffassen, die mit Hilfe
geeigneter (Auswertungs-) Methoden eine Funktion definiert [62], [83] und [166].
Eine wichtige Eigenschaft eines Neuronalen Netzes ist seine Struktur. Einer der besten
Wege um die Struktur eines Neuronalen Netzes zu beschreiben, ist die Verwendung von
gerichteten Graphen.
Definition 2.5. Ein gerichteter Graph ist ein Paar G = (V, E) bestehend aus einer endlichen Menge V von Knoten (vertices, nodes) und einer Menge E ⊆ V × V von Kanten (edges), wobei eine Kante e = (u, v) ∈ E vom Knoten u auf den Knoten v gerichtet sei.
Definition 2.6. Ein künstliches Neuronales Netz ist ein gerichteter Graph G = (U, C),
dessen Knoten u ∈ U Neuronen (units) und dessen Kanten c ∈ C Verbindungen (connections) heißen. Die Menge U der Knoten ist unterteilt in die Menge Uin der
12
13
KAPITEL 2 GRUNDLAGEN
Eingabeneuronen, die Menge Uout der Ausgabeneuronen und die Menge Uhidden der
versteckten (verborgenen) Neuronen. Es gilt
U = Uin ∪ Uout ∪ Uhidden,
Uin ≠ ∅,
Uout ≠ ∅, Uhidden ∩ (Uin ∪ Uout) ≠ ∅
(2.18)
und jeder Verbindung (u, v) ∈ C ist ein Gewicht wuv zugeordnet.
…
…
Abbildung 2.4
A u s g a b e n
…
…
E i n g a b e n
Eine Visualisierung der allgemeinen Struktur des Neuronalen Netzes ist in der Abbildung
2.4 dargestellt.
Allgemeine Struktur des neuronalen Netzes
Außer normalen vorwärts und rückwärts gerichteten Verbindungen zwischen Neuronen verschiedener Nachbarschichten sind in der Abbildung 2.4 auch die lateralen Verbindungen zwischen Neuronen einer Schicht und rückgekoppelte Verbindungen eines
Neurons enthalten.
2.2.3 Klassen von Neuronalen Netzen
Seit den ersten Versuchen von Warren McCullock und Walter Pitts ein künstliches Neuronales Netz zu schaffen und es bei Bearbeitung der Information zu verwenden, wurde
eine große Menge von Neuroarchitekturen und Paradigmen für vielfältige Ziele entwickelt.
Neuronale Netze unterscheiden sich nach verschiedenen Kriterien [112] und [125], z.B.:
nach der Lernmethode: überwacht, bestärkend, unüberwacht,
nach dem Lerntyp: Fehlerkorrektur, Hebbsches Lernen, konkurrierend etc.
nach der Art der Bestimmung der Musterklassen:
fest vorgegebene Anzahl von Mustern mit typischen Merkmalen,
Musterbestimmung mittels Selbstorganisation,
nach der Art der Berechnung: deterministisch, wahrscheinlichkeitstheoretisch,
13
14
KAPITEL 2 GRUNDLAGEN
nach der Art der Eingangs- und Ausgangssignale: digital, analog,
nach der Eingangs-/Ausgangsrelation:
mit Musterordnung, als Assoziativspeicher etc.
nach dem Architekturtyp:
Feed Forward (FFNN, Neuronale Netzwerke ohne Rückkopplungen),
Feed Back (FBNN, rückgekoppelte Neuronale Netzwerke),
nach der Zahl von Schichten: ein– und mehrschichtige Netze,
nach der Anwendung:
Klassifizierung, Mustererkennung, Allgemeine Abbildung, Vorhersage, Optimierung etc.
nach der Realisierungsart: Software-, Hardware- und Hybride-Netze.
Eine bedeutende Rolle spielt die Klassifizierung von Neuronalen Netzen nach ihrem
Trainingsalgorithmus. Dabei unterscheidet man:
Netze mit iterativen Trainingsalgorithmen (ITA),
Netze mit sequentiellen (oder konstruktiven) Trainingsalgorithmen (STA).
Ein typisches und meist verwendetes Beispiel des ITA ist das Backpropagation Verfahren
(Fehlerrückführungs-Methode). STA benutzen nichtiterative Berechnungen und basieren
oft auf einer graphischen Darstellung des zu modellierenden Objektes. Dabei sind STA
aussichtsvoller als ITA, weil sie eine schnellere Konvergenz garantieren und kürzere Trainingszeit brauchen. In den letzten zwei Jahrzehnten wurden STA sehr populär, weil sie
viele Vorteile im Vergleich zu ITA haben. Im nächsten Abschnitt wird eine allgemeine
Strategie von STA beschrieben.
Die angegebene Klassifizierung ist natürlich nicht vollständig, da noch viele andere Kriterien definiert werden können. Die folgende Definition erklärt eine spezielle Art von Neuronalen Netzen, die als Boolesche (manchmal als binäre) Neuronale Netze bezeichnet
werden.
Definition 2.7. Als ein Boolesches Neuronales Netz definiert man ein Neuronales
Netz, das für die Bearbeitung Boolescher Daten vorgesehen ist. Die Ein- sowie Ausgabesignale des Netzes sind Boolesche Werte. Dabei gibt es keine Beschränkung der Art der
Gewichte, der Transferfunktionen der Neuronen, der Arbeitsweise des Netzes oder überhaupt der Zugehörigkeit des Netzes zu einer Netzwerkklasse nach anderen Kriterien.
2.2.4 Sequentielle Trainingsalgorithmen
Eine ausführliche Beschreibung von sequentiellen Algorithmen (STA) ist in vielen Quellen zu finden [33], [92], [97], [113] und [165]. Einer der ersten Sätze für einen sequentiellen Trainingsalgorithmus für Boolesche Neuronale Netze wurde von Marchand, Golea
14
15
KAPITEL 2 GRUNDLAGEN
und Rujan vorgeschlagen [93]. Seine Implementierung hatte spezifische praktische Probleme, wie eine exponentielle Erhöhung der Gewichte in der Ausgangsschicht und eine
Verlängerung der für die Synthese des ganzen Netzes erforderlichen Zeit. Auch entstanden Schwierigkeiten, wenn die Ausgangsdimension größer als Eins war, da keine Erweiterung für das Standardverfahren angegeben wurde. Auf der anderen Seite garantierte ihr
Algorithmus eine kleine Struktur und eine annehmbare Trainingszeit des Netzes.
Später entstanden mehrere Arbeiten über sequentielle Trainingsalgorithmen, die die vielen
Vorteile der konstruktiven Trainingsmethoden von Neuronalen Netzen im Vergleich zu
iterativen Trainingsmethoden bewiesen haben.
Abbildung 2.5 zeigt ein Struktogramm eines verallgemeinerten STA von BNN für die
Abbildung einer Booleschen Funktion.
h=0
h = h+1
Einen beliebigen Wert dh aus der Menge {-1,+1} auswählen. Q+ und Q- ermitteln, die in der BVL der gegenwärtigen Trainingsmenge für Ausgabe dh bzw. -dh enthalten
Training des aktuellen verborgenen Neurons mit entsprechenden Gewichten wih
Y
dh =+1
P+ =P+\R P- =P-\R
N
P- =P-\R
P+ ≠ ∅ oder P- ≠ ∅
Definition des Ausgangneurons (z.B. als Schwellwertelement)
mit entsprechenden Gewichten vji
Abbildung 2.5 Struktogramm des verallgemeinerten STA von BNN
Dabei werden folgende Bezeichnungen verwendet:
h – Anzahl von verborgenen Neuronen,
[wij] – Gewichtsmatrix für Verbindungen zwischen Eingangs- und verborgener
Schicht,
[vjk] – Gewichtsmatrix für Verbindungen zwischen verborgener und Ausgangsschicht,
15
16
KAPITEL 2 GRUNDLAGEN
P+, P- - BVL aus der Lernmenge mit positiven “+“ beziehungsweise negativen “-“ Funktionswerten,
Q+ ⊆ P+, Q- ⊆ P- - BVL zum Training des aktuellen verborgenen Neurons mit positiven
“+“ beziehungsweise negativen “-“ Funktionswerten,
R ⊆ Q+ - Untermenge aus BV, für die das verborgene Neuron mit Nummer h eine
Ausgabe +1 zur Verfügung stellt.
Definition 2.8. Das Training eines einzelnen verborgenen Neurons umfasst die Erzeugung seiner Transferfunktion und der Gewichten wih zwischen Eingangsneuronen und
aktuellem Neuron. Dabei soll das trainierte Neuron zumindest für ein BV aus Q+ eine
Ausgabe +1 und für alle BV aus Q- eine Ausgabe -1 (bzw. 0) liefern.
Eine ausführliche Beschreibung von STA zur Entwicklung von BNN ist in [114] zu finden.
Die Mehrheit von existierenden konstruktiven Trainingsalgorithmen für Neuronale Netzen kann man gemäß der Vorgehensweise beim Aufbau von Netzen in Vorwärts- und
Rückwärtsmethoden klassifizieren. Die Begriffe „vorwärts“ und „rückwärts“ sind nicht
identisch den oben benutzten Begriffen für die Verbindungen in Netzen und für die Klasse von FFNN und FBNN. Die Vorwärtsmethoden von STA fügen neue Neuronen an die
vorhandenen Ausgänge des Netzes an. Umgekehrt fügen die rückwärts gerichteten Techniken neue Neuronen zwischen Eingang- und verbogener Schichte ein. Der „Tiling“ Algorithmus [103] mit seiner einfachsten Variante dem „Tower“ Algorithmus [57] und [115]
oder die Entscheidungsbaum-Algorithmen [60] und [141] sind typische Beispiele von
konstruktiven Vorwärtsalgorithmen. Der Aufbau des Netzes ist dagegen in der „Upstart“Methode [53] rückwärts gerichtet.
2.2.5 Hardwarerealisierungen von Neuronalen Netzen
Abhängig von der Art der Signale werden mit Hardware realisierte Neuronale Netze
(HwNN) in 3 Kategorien eingeteilt: digital, analog, hybrid [158]. Die in dieser Arbeit im
Mittelpunkt stehenden Booleschen Neuronalen Netze sind besonders für die digitalen
Hardware-Realisierungen geeignet, weil diese Netze mit Booleschen Daten arbeiten. Es
gibt viele Technologien zur Realisierung von Neuronalen Netzen in digitale Hardware.
Bekannt sind die Beispiele von HwNN in FPGA, VLSI, WSI [38], [59], [63], [64], [136]
und [180]. Hardware-Realisierungen von Neuronalen Netzen in FPGA sind besonders
verbreitet, weil diese viele Vorteile im Vergleich zu den anderen Basistechnologien besitzen [111]. Die erste erfolgreiche FPGA-Realisierung von künstlichen Neuronalen Netzen
wurde 1992 veröffentlicht [34].
16
17
KAPITEL 2 GRUNDLAGEN
Man unterscheidet HwNN auch danach, ob das Training On-Chip oder Without-Chip
ausgeführt wird. In weiteren Kapiteln werden Hardware-Realisierungen von Booleschen
Neuronalen Netzen mit dem Training außerhalb des Chips betrachtet.
2.3 RTR-Systeme
2.3.1 Rekonfigurierbare Systeme
Die rekonfigurierbaren Rechensysteme basieren auf einer adaptierbaren, rekonfigurierbaren Hardware. Abhängig von der rekonfigurierbaren Hardware-Plattform kann die rekonfigurierbare Logik nacheinander für verschiedene Aufgaben verwendet werden. Die
Hauptbesonderheit der rekonfigurierbaren Hardware ist die Fähigkeit, das benötigte Verhalten der Hardware im richtigen Zeitintervall zur Verfügung zu stellen. Außerdem sind
rekonfigurierbare Systeme wegen ihrer vielen gleichzeitig arbeitenden Elemente in der Lage, modernste Computer für viele Probleme zu überbieten.
Nicht jede rekonfigurierbare Hardware ist während der Laufzeit rekonfigurierbar. Zur
Konfigurationsspeicherung und Neuladung der Konfiguration beim Rücksetzen des rekonfigurierbaren Geräts, bekannt als statische Rekonfiguration, wird ein nichtflüchtiger
RAM verwendet. Ein während der Laufzeit rekonfigurierbares System (Run-Time Reconfigurable System RTR-System) kann sein Verhalten durch das dynamische Überschreiben
einer Konfiguration während der Laufzeit ändern. Dabei braucht man das System nicht
zurückzusetzen.
Diese Eigenschaften besitzen Field Programmable Gate Arrays (FPGA) [30], die Xilinx
Mitte der 1980er Jahre eingeführt hat. RTR-Computersysteme schließen einen klassischen
Mikroprozessor und ein programmierbares Logikteil, wie FPGA zusammen [15] und [17].
2.3.2 Field Programmable Gate Arrays - FPGA
Es gibt viele Arten rekonfigurierbarer Logik, aber FPGA dominieren auf diesem Gebiet.
FPGA wurden als eine Kombination von zwei Technologien entwickelt: Programmable
Logic Array (PLA) und Mask-Programmable Gate Arrays (MPGA). Wie PLA sind FPGA
elektrisch vollprogrammierbar. Die höheren Kosten zu einmal programmierbaren Technik (Non-Recurring Engineering (NRE) amortisieren sich schnell. Wie MPGA können sie
sehr komplizierte Berechnungen auf einem einzelnen Chip mit den Millionen von CLB
durchführen [39]. FPGA ermöglichen nicht nur die Programmierung der Logikzellen
sondern auch die Programmierung der Verbindungen zwischen ihnen.
17
18
KAPITEL 2 GRUNDLAGEN
Abbildung 2.6
Allgemeine FPGA-Struktur [110] und [131]
Eine typische innere Struktur eines FPGA [22] und [69] wird in Abbildung 2.6 gezeigt.
FPGA bestehen aus drei Schlüsselteilen:
ƒ konfigurierbare Logikblöcke (configurable logic blocks - CLB),
ƒ Eingabe/Ausgabe-Blöcke (I/O-blocks, IOB),
ƒ Verbindungsnetz (interconnect network).
Xilinx bezeichnet die Logikblöcke als konfigurierbare Logikblöcke (CLB) und die FPGA
selbst als Logic Cell Arrays (LCA). Ein typischer CLB enthält zwei identische Logikblöcke
(Slice) mit eigenen Look-up Tabellen (LUT), D-Flip-Flops (DFF) und einer schnellen
Übertragungslogik (siehe Abbildung 2.7).
Ein CLB enthält meist zwei oder vier LUT. Die Look-up table ist das grundlegende Rechenelement im FPGA. Eine LUT enthält 4-Eingänge. Flip Flops (FF) dienen der Speicherung von Ausgabewerten der LUT oder Außenquellsignale. D-Flip-Flops erlauben
18
19
KAPITEL 2 GRUNDLAGEN
dem Benutzer, effiziente synchrone Designs zu erzeugen und können für Parallelverarbeitung, Register, Zustandsmaschinen oder jede andere Situation verwendet werden, für die
eine Taktgebung erforderlich ist. Multiplexer (MUX) werden in CLB verwendet, um den
LUT-Ausgang oder ein anderes CLB-Eingangssignal mit dem FF-Eingang oder einem
CLB-Ausgang zu verbinden.
Abbildung 2.7
Allgemeine CLB-Struktur [80]
Eine LUT mit n Eingängen ermöglicht die Speicherung der 2n Werte einer Booleschen
Funktion mit n Eingängen. Durch eine LUT kann jede für n Variablen definierte Boolesche Funktion realisiert werden. Die Werte der Funktion für jede Kombination der n Variablen werden berechnet und in der LUT gespeichert. Die Eingangsvariablen werden
verwendet, um in der LUT die Position auszuwählen, an der der richtige Wert gespeichert
ist. Das Ergebnis erscheint am LUT-Ausgang. Die Anzahl vom Design benötigten CLBs
bestimmt die Größe des erforderlichen FPGA-Bausteins [20] und [39].
Die I/O-Blöcke am Rand des FPGAs verbinden das FPGA mit der Außenwelt. Die Anzahl von IOB hängt von der Größe des FPGA-Baustein ab und stimmt mit der Anzahl
der I/O-Pins überein. Das programmierbare Verbindungsnetz für FPGA besteht aus horizontalen und vertikalen Verbindungen, die die Ein- und Ausgänge von CLB mit den
IOB in verschiedenen Zeilen und Spalten verbinden. Es kann sehr flexible genutzt werden. Schaltungsmatrizen erlauben eine Programmierung der Verbindungen und unterstützen programmierbare Multiplexers.
Die Konfiguration für die LUT, die Multiplexers und das programmierbare Verbindungsnetz werden in Anti-Fuse, EEPROM/Flash oder statische RAM (SRAM) gespeichert. Für
RTR-Systeme wird SRAM verwendet.
19
20
KAPITEL 2 GRUNDLAGEN
2.3.3 Hardware/Software-CoDesign
Hardware/Software-CoDesign vereinigt die Phasen des Modellierens, der Analyse, der
Synthese und der Simulation von Systemen, die aus zusammenwirkenden Hard- und
Software-Modellen bestehen. Damit versucht man, die bei der Entwicklung von Hardware/Software-Systemen bestehenden Probleme zu lösen. Verallgemeinert besteht CoDesign aus drei Teilen: CoSpezifikation, CoSynthese und CoSimulation. Ausführliches zum
Hardware/Software-CoDesign ist in [65], [68] und [104] zu finden.
Mit der Entwicklung von Objekt-Orientierter Programmierung und Modellierung wurden
Technologien und Methoden zur Analyse und zum Design entwickelt. Dabei entstand
eine spezielle Sprache, die Unified Modeling Language (UML) [27], [117] und [135], zur
Modellierung von Systemen. Verschiedenen Vorgehensmethoden wie z.B. Unified Process oder Rational Unified Process (RUP) [72] setzen die UML als Modellierungssprache
voraus. Die UML ist eine graphische Sprache für die Visualisierung, die Spezifikation, die
Entwicklung und Dokumentation von Artefakten eines Softwaresystems. Die aktuelle
Version 2.0 der UML-Spezifikation enthält viele Verbesserungen der Semantik und Diagramm-Typen. Obwohl die UML insbesondere für den Entwurf objektorientierter Software entwickelt wurde, kann man die UML auch für den Hardware/Software-CoDesign
verwenden. Trotz der verschiedenen Fachgebiete und der verschiedene Begriffe sind die
Bezeichnungen aus der UML universell nutzbar.
Durch die UML werden 13 Diagramme zur Modellierung verschiedener Aspekte eines
Systems unterstützt. Diese umfassen zur Modellierung der Systemsstruktur:
•
Package Diagram,
•
Class Diagram,
•
Object Diagram,
•
Composite Structure Diagram,
•
Component Diagram,
•
Deployment Diagram,
und zur Modellierung des Systemsverhaltens:
•
Use Case Diagram,
•
Communication Diagram,
•
Sequence Diagram,
•
Timing Diagram,
•
Interaction Overview Diagram,
•
State chart Diagram,
•
Activity Diagram.
Einige diese Diagramme werden in dieser Arbeit verwendet.
20
21
KAPITEL 2 GRUNDLAGEN
2.3.4 MOdel Compiler for reConfigurable Architecture
Aus der Vielzahl von Entwicklungstools für das Hardware/Software-CoDesign wird ein
Modell-Compiler – MOCCA (MOdel Compiler for reConfigurable Architecture MOCCA) in dieser Arbeit benutzt. MOCCA wird laufend verbessert und erweitert.
Hauptsächlich ist dieser Compiler für Anwendungen mit rekonfigurierbaren Architekturen vorgesehen, aber kann auch bei anderen Aufgaben eingesetzt werden. MOCCA erschließt eine neue Entwicklungsmethode des UML-basierenden Hardware/SoftwareCoDesigns, die auf dem Konzept der Modell-gesteuerten Architektur (Model Driven Architecture Approach - MDA) aufbaut. Es wird die objektorientierte Methodik für alle
Phasen des Entwicklungszyklus verwendet. Sie reicht von der Spezifikation bis zur Realisierung, zur Installierung und zum Tests. Durch die Verwendung der UML wird die Visualisierung jedes Aspekts während des Designprozesses unterstützt [15]-[17].
Für die Beschreibung der Modelle benutzt MOCCA ein speziell entwickelte Aktionssprache (MOCCA Action Language (MAL)), die als eine Erweiterung zur UML Aktionssemantik in die UML-Spezifikation 1.5 eingeführt wurde. Die Syntax und Semantik der MAL orientieren sich an Java mit der zusätzlichen Unterstützung der UMLKonzepte bezüglich aktiver Klassen, Vereinigungen, des Zustands und der Zeit.
Der gesamte Prozess der Entwicklung von Anwendungen für FPGA, der durch MOCCA
durchgeführt und gesteuert wird, basiert auf Plattformmodellen (siehe Abbildung 2.8).
Dieser Prozess umfasst die automatische Partitionierung, die Bewertung und Realisierung
des Systems in Hardware/Software-Modulen. Für Design, Entwicklung und Realisierung
werden dabei verschiedene Modelle verwendet.
Abbildung 2.8 UML- basierendes CoDesign – Aktivitäten und Artefakten [146]
21
22
KAPITEL 2 GRUNDLAGEN
Die Abbildung 2.8 zeigt die grundlegenden Aktivitäten und Artefakte der Entwicklungsmethode. Die dargestellte Methode vereinigt die grundsätzliche Vorgehensweise des
Hardware/Software-CoDesigns mit dem MDA-Konzept. Das System wird durch ein
Plattform-unabhängiges Modell (PIM - platform independent model) vorgegeben. Das
Ziel-Plattformmodell (TPM - target platform model) definiert die Dienstleistungen, die
durch das Zielsystems bereitgestellt werden. Von MOCCA wird ein PIM in ein Plattformspezifisches Modell (PSM - platform specific model) umgewandelt. Während der Synthese
wird aus dem PSM eine Plattform-abhängige Anwendung (PDA - platform dependent
application) erzeugt, die auf der Ziel-Plattform ausgeführt werden kann. Solch eine Methodik erleichtert die Prüfung, die Übertragbarkeit, die Anpassungsfähigkeit, und die Widerverwendung des Systems.
2.4 Darstellung von Algorithmen
In dieser Arbeit werden Algorithmen durch einen Pseudo-Code beschrieben. In der angegebenen Algorithmusvorlage wird ein Beispiel gezeigt.
Algorithmus 2.1 Vektor-Gewicht – Berechnung des Gewichts eines Vektors
Eingabe:
V - Vektor
Ausgabe:
g – Gewicht des Vektors V
VEKTOR-GEWICHT(V )
1 g←0
2 for (i ← 0,…, LENGHT(V )-1)
g ← g + V[i]
3
4 return g
Die Vorlage beginnt mit dem Name des Algorithmus und einer kurzen Beschreibung.
Danach werden Ein- und Ausgabeparameter definiert. Der Pseudo-Code hält sich an die
folgende Regel:
Die Anweisung a←b weist den Wert von b der Variablen a zu.
Vektoren bzw. Matrizen werden durch eckige Klammern V[i] bzw. A[i,j] indiziert. Der
Anfangsindex von Vektoren ist 0. Die Länge eines Vektors liefert die Funktion
LENGHT(V ).
22
23
KAPITEL 2 GRUNDLAGEN
Strukturen von verschiedenen Elementen werden in geschweiften Klammern deklariert,
z.B. net={k_set, w_set, L }. Ein Zugriff auf einzelne Elemente der Struktur wird
durch den Strukturnamen und die Elementsbezeichnung realisiert, z.B. net.k_set.
Der Bereich einer Steueranweisung wird durch eingerückte Zeilen sichtbar. Im obengenannten Beispiel besteht der Körper der for-Schleife nur aus der Zeile 3.
Die Anweisung if erfordert eine Bedingung nach der ein then-Block folgt. Ein else-Block
ist optional.
Die Schleifen-Anweisungen for und while überprüfen ihre Bedingungen vor der ersten
Ausführung des Schleifen-Körpers, d.h. der Körper der Schleife kann auch gar nicht ausgeführt werden.
Die do…while-Anweisung führt ihren Körper mindestens einmal aus. Die Bedingung
wird am Ende jedes Durchlaufs geprüft.
Die Schleifen-Anweisungen while… und do…while werden wiederholt, solange die Bedingung nach while wahr ist.
Ergebniswerte werden durch die return-Anweisung zurückgegeben und der Algorithmus
wird sofort angehalten.
Bei der Verwendung weiterer spezieller Anweisungen wird eine entsprechende Erklärung
angegeben.
23
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
24
Kapitel 3
Klassische Booleschen
Neuronalen Netze
3.1 Einzelnes Neuron
3.1.1 Problem der linearen Separierbarkeit (EXOR-Funktion)
Es gibt viele Verfahrensweisen, wie man die Technik Neuronaler Netze verwendet, um
eine einzelne Boolesche Funktion oder eine ganze Funktionsmenge durch ein Neuronales
Netz darzustellen [76], [83], [106], [109], [132] und [154]. Da das einfachste Boolesche
Neuronale Netz aus einem einzigen Neuron besteht, wird in diesem Abschnitt die Fähigkeit eines einzelnen Booleschen Neurons zur Darstellung von Booleschen Funktionen
analysiert. Weiter befasst sich dieses Kapitel mit klassischen Booleschen Neuronalen Netzen. Zum Verständnis der bei der Darstellung Boolescher Funktionen durch Neuronale
Netze auftretenden Probleme werden wesentliche bekannte Ergebnisse Boolescher Neuronaler Netze analysiert.
Die Untersuchungen haben ergeben, dass nicht jede, sogar elementare, Boolesche Funktion (z.B. EXOR) durch ein Boolesches Neuron problemlos abgebildet werden kann. Eines
der bahnbrechenden Ergebnisse in der Geschichte der Neuronalen Netze war der Beweis
von Minsky und Papert [105] über die Unmöglichkeit einer Darstellung aller beliebigen
funktionellen Abhängigkeiten durch das Perzeptron von Rosenblatt (1962) [132], das als
erstes Neuronales Netz entwickelt wurde. Sie bewiesen diese Eigenschaft von Neuronalen
Netzen für die Booleschen Funktion exklusiv OR (EXOR) [70], [106], [159] und [166].
Man betrachtet die in der Tabelle 2.2 beschriebene Wertetabelle von elementaren Booleschen Funktionen OR, AND und EXOR. Die Neuronen im Perzeptron von Rosenblatt [132] werden Schwellwertelemente genannt, weil eine einfache Schwellwertfunktion
mit einem Schwellwert θ als Aktivierungsfunktion verwendet wird. Die Ausgabe eines
Neurons wird durch (3.1) berechnet.
24
25
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
⎧⎪1 falls
y = ⎨
⎪⎩0 sonst
∑w
i
xi ≥ θ
i
,
(3.1)
Ein entsprechendes Perzeptron für die Darstellung dieser drei Booleschen Funktionen
wird in Abbildung 3.1 gezeigt.
x1
w1
w2
x2
Abbildung 3.1
y
θ
Perzeptron für eine Boolesche Funktion mit 2 Eingänge
Die Funktionen OR und AND können durch ein Neuron dargestellt werden. Eine einfache Erklärung dafür wird in Abbildung 3.2 gezeigt. Im Fall eines Neurons mit zwei Eingängen wird die Aktivierungsfunktion (3.1) zur Geradengleichung in der Ebene x1 – x2
umgewandelt:
x1w1 + x2w2 = θ.
(3.2)
Diese Gerade trennt alle schwarzen Punkte von allen weißen Punkten in Abbildung 3.2,
wobei schwarze Punkte die Einswerte der Funktion abbilden und die weißen Punkte entsprechend die Nullwerte.
Definition 3.1. Funktionen, die mittels des einfachen Perzeptrons von Rosenblatt
(Schwellwertelement) berechnet werden können, nennt man linear separierbar.
x2
01
x2
01
11
11
x1
00
10
OR
x2
01
11
x1
00
10
x1
00
AND
10
EXOR
Abbildung 3.2 Lineare Separierbarkeit am Beispiel
der OR-, AND- und EXOR-Funktionen
Wenn es um mehr als zwei Boolesche Eingangsvariablen geht, trennt eine Ebene bzw.
Hyperebene die beiden Gebiete der jeweils gleichartigen Punkte im Würfel bzw. im Hyperwürfel untereinander.
25
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
26
Für die EXOR-Funktion
f(x1, x2) = x1 ⊕ x2 = x1 x2 ∨ x1x2
(3.3)
bestehen keine Trenngerade, Trennebene oder Hyperebene (siehe Abbildung 3.2). Gerade
an diesem Beispiel bewiesen Minsky und Papert, dass die Darstellung einiger funktioneller
Abhängigkeiten durch ein Neuron unmöglich ist [106]. Dieses Problem wurde als Problem der linearen Separierbarkeit bezeichnet.
Tabelle 3.1 Linear separierbare Boolesche Funktionen [166], [169] und [179]
Variablenanzahl Boolesche Funktionen linear separierbare Funktionen
1
4
4
2
16
14
3
256
104
4
65536
1882
9
5
4,3х10
94572
6
1,8х1019
15 028 134
In Tabelle 3.1. ist zu sehen, dass der Anteil von linear separierbaren Booleschen Funktionen mit steigender Variablenanzahl deutlich sinkt. Deshalb ist ein einschichtiges Perzeptron bei der Darstellung Boolescher Funktionen sehr beschränkt.
3.1.2 Lösungen des EXOR-Problems
Netze anstatt Neuronen.
Es ist bekannt, dass der Beweis von Minsky und Papert [106] nur für das einfachste Perzeptron von Rosenblatt gültig ist, das aus einem einzelnen Neuron besteht. Wenn man
mehrere Schwellwertelemente zusammenschaltet, d.h. von Schwellwertelementen zu Netzen übergeht, kann man die Ausdrucksmächtigkeit von Schwellwertelementen deutlich
erhöhen [28], [71], [124], [134], [167], [168]-[172]. Darin besteht die einfachste Lösung des
EXOR-Problems, also des Problems linearer Separierbarkeit. Der Kern dieser Methode
besteht in einer Zerlegung von nichtmonotonen Booleschen Funktionen in Superposition
von monotonen Booleschen Funktionen. Ein Beispiel einer solchen Zerlegung können
die disjunktiven oder konjunktiven Formen von Booleschen Funktionen sein, die nur
monotone Boolesche Operationen einschließen. Jede monotone Operation bzw. Funktion wird durch ein Neuron dargestellt.
26
27
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
x1
x2
Abbildung 3.3
w1
w2
w4
θ1 w5
w6
w3
θ3
y
θ2
Netz für die Berechnung der EXOR-Funktion
Diese einfache Methode kann für beliebige nichtmonotone Boolesche Funktionen verwendet werden. Jedoch erfordert sie die Nutzung von Neuronen mit einer großen Anzahl
von Eingängen oder führt auch zu komplizierten mehrschichtigen Strukturen von Netzen. Um eine EXOR-Funktion zu realisieren, braucht man drei Neuronen (siehe Abbildung 3.3).
Neuronen mit funktionell verbundenen Eingängen. Bei einer anderen bekannten Lösungsmethode des EXOR-Problems verwendet man in einem Neuron ein zusätzliches
Eingangssignal, das aus den ursprünglichen Eingangssignalen gebildet wird. Diese Methode wurde von Mkrttschjan [109] vorgeschlagen und benötigt ein zusätzliches ORGatter, das das zusätzliche Eingangssignal a3 liefert.
a3 = x1 ∨ x2
(3.4)
Die Hauptidee ist die Transformation der auf zwei Variablen definierten Booleschen
Funktion in den dreidimensionalen Booleschen Raum. Dabei wird die Gleichung (3.2) in
(3.5) umgewandelt.
w1 a1 + w2 a2 + w3 a3 = θ
(3.5)
wobei a1 = x1, a2 = x2, a3 = x1 ∨ x2 und die Werte w1 =-1, w2 =-1, w3 = 2, θ = 0,5
existieren, bei denen die EXOR-Funktion erfolgreich modelliert werden kann.
Unter Verwendung (3.4) wird (3.3) in die Boolesche Funktion (3.6) umgewandelt.
f(a1, a2, a3) = a1a2a3 ∨ a1a2a3 ∨ a1a2a3
(3.6)
In der Abbildung 3.4 sieht man, dass die schattierte Ebene einen Schnitt des Würfels mit
der Trennebene (3.5) bildet. Die mit einem punktierten Kreis gezeigten Punkte stellen
vier Punkte aus dem zweidimensionalen Raum dar. Die Achse x1 ist in der Ebene a1a3
modelliert worden und die Achse x2 entsprechend in der Ebene a2a3. Die Schnittlinie
der Trennebene mit den Ebenen a1a3 und a2a3 ist eine gebrochene Linie. Eine Projektion dieser Linie in den zweidimensionalen Eingangsraum ist auch eine gebrochene Linie.
27
28
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Diese gebrochene Linie trennt die Punkte, die den Nullwerten entsprechen, von den
Punkten, die den Einswerten entsprechen.
a2
x2
x2
110
010
111
011
100
000
a3
11
01
00
a1
10
x1
101
001
x1
a)
b)
Abbildung 3.4 Darstellung der EXOR-Funktion:
a) Trennebene, b) Schnittprojektion in 2-dimensionalem Raum
Diese Methode basiert auf der Einführung zusätzlicher Eingänge, die auch funktionell
verbundene Eingänge genannt werden. Signale dieser zusätzlichen Eingänge lassen sich
als Funktionswerte von existierenden Eingangssignalen bilden. Neuronale Netze mit
funktionell verbundenen Eingängen wurden von Jok-Han Pao entwickelt und sind als
Neuronale Netze höherer Ordnung bekannt [118].
x1
w1
∨
x2
Abbildung 3.5
w3
θ
y
w2
Darstellung der EXOR-Funktion mit zwei Neuronen
Die Methode von Mkrttschjan kann auch für beliebige Boolesche Funktionen verwendet
werden. Dazu benötigt man aber weitere Neuronen für eine Berechnung von zusätzlichen
Eingangssignalen.
Bei der Realisierung der EXOR-Funktion (3.3) wird ein Netz mit zwei Neuronen verwendet, wobei das erste Neuron eine OR-Funktion bildet. Ein entsprechendes Netz zur
Darstellung der EXOR-Funktion zeigt Abbildung 3.5.
28
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
29
Neuron ist kein Schwellwertelement.
Eine Alternative zu den zwei oben beschriebenen Methoden ist die Verwendung einer
komplizierten Funktion anstatt einer Schwellwertfunktion als Aktivierungsfunktion des
Neurons. In unseren früheren Forschungen [78] und [154] wurde vorgeschlagen, ein Polynom oder eine trigonometrische Funktion zu benutzen:
⎛
d ⎜w 0 +
⎝
k
⎞
w ixi ⎟ − θ ≥ 0 ,
∑
i =1
⎠
n
⎛
tanh⎜w 0 +
⎝
n
∑w
i =1
i
⎞
xi ⎟ − θ ≥ 0 ,
⎠
(3.7)
(3.8)
wobei tanh – der hyperbolische Tangens ist, d und k - Koeffizienten.
Wie man in Abbildung 3.6 sieht, trennt eine graphische Darstellung der Aktivierungsfunktion (3.7) alle Punkte mit Nullwerten von allen anderen Punkten mit Einswerten.
x2
01
11
00
10
x1
Abbildung 3.6 Geometrie des Neurons mit
einem Polynom als Aktivierungsfunktion
Im Fall der EXOR-Funktion (3.3) existieren die Koeffizientenwerte der Aktivierungsfunktion (3.7), bei denen nur ein einziges Neuron die EXOR-Funktion abbilden kann.
Beispiel: Für k = 2, w0 = d = -1, w1 =w2 =1 and θ = -0.5 folgt aus der (3.7)
-0.5 − (x1 + x 2 − 1)2 ≥ 0 .
(3.9)
Ein Vorteil dieser Methode ist eine Eins-zu-Eins Abbildung einer Booleschen Funktion
in das Neuron. Für die Darstellung (3.3) reicht ein in Abbildung 3.1 dargestelltes Neuron,
das aber kein Schwellwertelement ist, weil seine Aktivierungsfunktion keine lineare
Schwellwertfunktion ist.
29
30
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Neuron mit komplexen Gewichten.
Eine weitere Methode, die das Perzeptron zur Darstellung der nicht separierbaren Booleschen Funktionen befähigt, wurde von Aizenberg vorgeschlagen [1]-[4]. Seine Idee ist trivial. Die Gewichtskoeffizienten im Neuron können komplex sein, und die Aktivierungsfunktion wird durch (3.10) bestimmt:
⎧0, 0 ≤ arg(z) < π
⎪
2
f(z) = ⎨
π
⎪1,
≤ arg(z) < π
2
⎩
3π
2
oder
π ≤ arg(z) <
oder
3π
≤ arg(z) < 2π
2
(3.10)
Es ist leicht zu sehen, dass die nicht linear separierbare Funktion (3.3) mit dieser Erweiterung des Perzeptrons realisiert werden kann.
Diese Methode kann auch für komplizierte Boolesche Funktionen angewendet werden.
Der Autor beschrieb einem modifizierten Trainingsalgorithmus des normalen Perzeptrons für sein Neuron mit komplexen Gewichten, so dass nichtmonotone Boolesche
Funktionen mit mehreren Variablen durch ein Neuron realisiert werden können.
3.2 Neuronale Netzwerke
3.2.1 Backpropagation Boolesche Neuronale Netze
Im vorangehenden Abschnitt wurden Möglichkeiten zur Darstellung elementarer Boolescher Funktionen durch ein einzelnes Boolesches Neuron behandelt. Für die typischen
Einsatzfelder von Booleschen Neuronalen Netzen, wie Data mining [66], [173] und [175],
Klassifikation [142], Mustererkennung [74], ist aber die Modellierung Boolescher Funktionen mit großen Anzahl von Variablen erforderlich. Mit der Erhöhung der Zahl von Variablen erhöht sich auch die Kompliziertheit dieser Funktionen. Mit wachsender Kompliziertheit der zu modellierenden Funktionen (außer linearer Separierbarkeit) entstehen
auch viele anderen Fragen und Probleme. Dabei bleibt aber auch das oben diskutierte
Problem der linearen Separierbarkeit bestehen. Alle Schwierigkeiten und Probleme, die
bei der Modellierung von BF entstehen, gehen von den Besonderheiten des zu modellierenden Objektes und von dem Trainingsalgorithmus des Neuronalen Netzes aus.
Am meistens verbreitet zur Lösung von Abbildungsaufgaben der Eingangs- in die Ausgangsdatenmengen sind die vorwärts gerichteten Netze (FFNN). Da eine Boolesche
Funktion ein statisches Objekt ist, verwendet man auch für die Modellierung Boolescher
Funktionen die FFNN–Netze. Ein typisches Beispiel von feedforward–Netzen sind Neuronale Netze mit dem Backpropagation-Lernverfahren (Fehlerrückführungsmethode), das
30
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
31
in einer Vielzahl von Anwendungsbereichen untersucht und erfolgreich eingesetzt wurde.
Es besitzt daher eine höhere praktische Relevanz. Viele existierende Variationen des
Backpropagations werden zur Modellierung Boolescher Funktionen verwendet. Dabei hat
das Lernverfahren Backpropagation viele Nachteile, die sich bei der Abbildung Boolescher Funktionen mit vielen Variablen auf FFNN besonders stark auswirken. Zu den kritischen Aspekten des Backpropogation-Verfahrens als Optimierungsverfahren gehören
lokale Optima, Verhalten von BP bei Plateaus und Schluchten, Wahl der Lernrate, Wahl
der Topologie des Netzes und Wahl der Fehlerrate [138].
Adaptierbare Boolesche Neuronale Netze. Lauria u.a. präsentieren in ihrem Buch
„Adaptable Boolean neural networks“ Adaptierbare Boolesche Neuronale Netze
(ABNN), die zur Parameteranpassung fähig sind. Im ersten Teil ihres Buches erörtern die
Autoren die Beiträge von McCulloch, Pitts [99], Hebb [67] und Caianiello [32]. Für die
Beschreibung und Steuerung von Booleschen Netzen wurde eine höhere Programmiersprache „CONNET“ und ein „Assembler“ als eine formale Sprache vorgeschlagen. Der
„Assembler“ wird mit einem Booleschen Neuronalen Netz assoziiert und ist sehr praktisch bei der Beschreibung von Feingranulararchitekturen (FPGA, VLSI), die während der
Laufzeit erlauben, Ressourcen zu verteilen und Steuerungs- und Datenpfaden zu komprimieren. Auch für die Simulation von Eingangssteuerungen und ganzen Netzarchitekturen wird der „Assembler“ benutzt. CONNET bietet einen effizienten Knotenverteilungsalgorithmus an, der für die Netzsimulation und eine hocheffektive Erfüllung der Hebbschen Regel unentbehrlich ist. Im zweiten Teil des Buches werden Probleme analysiert,
die durch die Implementierung der Hebbschen Regel entstehen. Als eine Alternative zur
Hebbschen Regel wurde eine Unterteilung der Struktur des Booleschen Neuronalen Netzes in Baugruppen von Neuronen vorgeschlagen, wobei die Neuronenanzahl in jeder
Gruppe begrenzt ist. Für die Beschreibung von Booleschen Neuronalen Netzen mit adaptierbaren Gewichten wurde eine neue Art des endlichen Zustandsautomaten, ein endlicher adaptierbarer Zustandsautomat, vorgeschlagen. Dabei hängen die Zustands- und die
Ausgabefunktion dieses Zustandsautomaten eindeutig von Eingangssignalen des Netzes
ab. Ein großer Vorteil von ABNN ist ihre Fähigkeit auch bei einer begrenzten Anzahl
von Trainingspaaren zu lernen, und die richtige Ausgabe zu produzieren.
Funktionell erweiterte Boolesche Neuronale Netze. Eine effektive Verwendung der
funktionellen Erweiterung von Eingängen nach Pao [119] wurde für Boolesche Neuronale Netze von Chu in der Arbeit [36] präsentiert. Ein einfacher Algorithmus für die Erzeugung des funktionell erweiterten Eingangs im Rahmen des ganzen Trainingsalgorithmus
des Netzes wird von ihm angegeben. Außerdem wurde eine Methode zur Verminderung
31
32
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
der Anzahl von erweiterten Neuronen vorgeschlagen, die für ein erfolgreiches Training
des Netzes notwendig sind.
Die Gleichung eines Neuronalen Netzes kann man in Matrixform beschreiben [119]:
F (X W )=D
(3.11)
wobei X – Matrix der Eingaben,
W – Matrix der Verbindungsgewichte,
D – Matrix der Ausgaben,
F – Schwellwertfunktion.
Für die N Eingänge und M Trainingsbeispiele (der größte Wert von M ist 2N) besteht eine
Matrix X aus M Zeilen und N Spalten. Man nimmt an, dass die Vektoren
xi=(x1, x2, …, xN) für i=1, …, 2N linear unabhängig sind. Dann gibt es zwei Fälle:
falls N+1≥M, dann existiert die Lösung für (3.11),
•
falls N+1<M, dann kann die Lösung für (3.11) nicht existieren, d.h. der Trainingsalgorithmus kann keine korrekten Werte der Matrix W finden.
Im zweiten Fall wird die Matrix X erweitert, d.h. funktionell erweiterte Eingänge werden
zugegeben. Die Anzahl der zur Matrix X zu addierenden Spalten H=M-N-1. Dabei sollen
•
alle Zeilenvektoren der Matrix X linear unabhängig bleiben.
x1
x1
u1p
w11
x2
d1
…
ump
u0p
u2p
x2
w01
vp1
xm
1 (bias)
0
…
…
…
u2p
w21
wm1
u1p
xm
0
hp
ump
⎛ m
⎞
u0 p = −⎜ ∑ uip ⎟ + 1
⎝i =0
⎠
1 (bias)
0
a)
b)
Abbildung 3.7 a) Allgemeine Struktur des Perzeptrons
mit einem funktionell erweiterten Neuron;
b) Allgemeine Struktur des funktionell erweiterten Neurons
Die Abbildung 3.7 zeigt eine allgemeine Struktur des funktionell erweiterten Booleschen
Neuronalen Netzes nach Chu und ein funktionell erweitertes Neuron.
Von Chu wurde eine Methode zur Bestimmung von Gewichten jedes erweiterten Neurons entwickelt, wobei die Bedingung der linearen Unabhängigkeit der Zeilenvektoren der
Matrix X erfüllt wird.
32
33
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Für i=0, …, N; j=1, …, T; k=1, …, M; p=0, …, H:
wobei
v pj = w ij = 0
(3.12)
uip = xik
(3.13)
⎛N
⎞
u0 p = −⎜ ∑ xik ⎟ + 1
⎝ i =0
⎠
(3.14)
j – Nummer des Ausgangsneurons,
k – Zeilennummer in der Matrix X,
p – Nummer des funktionell erweiterten Neurons,
vpj – Gewicht zwischen dem p-ten funktionell erweiterten Neuron und
dem j-ten Ausgangsneuron,
uip – Gewicht zwischen dem i-ten Eingangsneuron und dem p-ten
funktionell erweiterten Neuron,
wij – Gewicht zwischen dem i-ten Eingangsneuron und dem j-ten
Ausgangsneuron.
Für weitere Anpassungen von Verbindungsgewichten wird ein typischer Backpropagation
Trainingsalgorithmus verwendet.
Boolesche Neuronale Netze mit Booleschen Gewichten und Nullschwellwerten.
Verschiedenen Wissenschaftler haben sich in ihren Forschungen mit Booleschen Neuronalen Netzen mit Booleschen Gewichten auseinander gesetzt. In der Arbeit von
Deolalikar [41] wird die Fähigkeit von BNN mit Booleschen Gewichten und Nullschwellwerten zur Darstellung Boolescher Funktionen betrachtet. Ein mathematisches
Modell eines Netzes mit diesen Beschränkungen wurde entwickelt. Anhand dieses Modells werden algebraische Manipulationen gezeigt. Im mathematischen Modell wird ein
Paar von Eingang und Ausgang (X und Y) durch eine einzelne „normalisierte“ Variable
ZXY ersetzt. Vorausgesetzt wird dafür, dass nur ein- oder zweischichtige Netze zur Darstellung einer gegebenen Booleschen Funktion verwendet werden. Eine besondere Eigenschaft dieses Modells ist die Möglichkeit, ein- und zweischichtige Netze zu vergleichen.
l
, l=1, 1 ≤ k ≤ K, 2 ≤ i ≤ mL:
Deolalikar definiert Variablen Z ki
1
Z ki
= Yki X k
(3.15)
und für 2 ≤ l ≤ L+1:
l
l −1
) ⋅ ⋅ ⋅ sgn(w lm −1 ⋅ Z kil −1 ))
Z ki
= (sgn(w 1l − 1 ⋅ Z ki
l −1
33
(3.16)
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
34
wobei sgn() – die Vorzeichenfunktion, die +1 nur dann zurückgibt, wenn ihr Argument positiv ist,
l – Schichtnummer, L – Anzahl von Schichten im Netz,
K – Anzahl von binären Eingangsvektoren Boolescher Funktion,
k – Nummer des Vektors, i – Neuronsnummer in der Schicht L,
Yki – Funktionswert, Xk – Eingangsvektor und w il – Gewichtsvektor.
Es wurde bewiesen, dass folgende drei Aussagen für ein Netz mit fixierten Gewichten
gleichwertig sind:
Das Netz realisiert die Abbildungen Xk →Yk, 1 ≤ k ≤ K.
1
Das Netz realisiert jede Abbildung Zki
→ (∗ ⋅ ⋅ ⋅1 ⋅ ⋅ ⋅ ∗) , 1 ≤ k ≤ K, 1 ≤ i ≤ mL,
1
wobei ‚*’ „don’t care“ bezeichnet und 1 in der Position i steht. Das bedeutet, falls Z ki
als
Netzeingang betrachtet wird, dann ist die Ausgabe des Neurons mit der Nummer i
gleich 1.
L +1
Zki
→ (∗ ⋅ ⋅ ⋅1 ⋅ ⋅ ⋅ ∗) , 1 ≤ k ≤ K, 1 ≤ i ≤ mL, wobei ‚1’ wieder in der Position i
steht.
Auf diese Weise können die Eingangsvariablen X und die Ausgangsvariable Y im Netz
mit Nullschwellwert durch eine einzelne „normalisierte“ Variable Z ersetzt werden. Das
1
gleich (∗ ⋅ ⋅ ⋅1 ⋅ ⋅ ⋅ ∗) ist. Genauer gesagt, wenn man
Netz stellt Xk in Yk dar, wenn Zki
1
ein Netz mit dem Eingang Zki
hat, produziert ein i–tes Neuron der Schicht L eine Aus-
gabe 1, und diese Feststellung gilt für 1 ≤ k ≤ K und 1 ≤ i ≤ mL. Entsprechend darf man
ein Ein-Ausgangspattern zu +1 normalisieren und weiterhin nur den normalisierten Aus1
gang Z benutzen. Darüber hinaus gilt, wenn die Eingabe der ersten Neuronenschicht Zki
l
ist, dann wird die Ausgabe der (l-1)-ten Schicht als Zki
, 2 ≤ l ≤ L+1 festgelegt.
Auf diesem Weg wurde eine Transformation der Mehrfachklassifikationsaufgabe [97] in
die Zweifachklassifikationsaufgabe durchgeführt.
Eine Beschränkung zu den Nullschwellwerten macht die Netze noch einfacher. Außerdem wird gezeigt, dass die Hinzufügung einer dritten Neuronenschicht innerhalb des
entwickelten Modells keinen Effekt bringt, und die durch die zweite Schicht gelegten Einschränkungen nicht gelöst werden können.
3.2.2 Boolesche Neuronale Netze mit sequentiellen Trainingsalgorithmen
Im vorangehenden Kapitel wurde eine Klassifizierung von Neuronalen Netzen nach verschiedenen Kriterien aufgeführt. Basierend auf den Trainingsalgorithmen von Neuronalen
Netzen unterscheidet man zwei Gruppen von Verfahrensmethoden. Zur ersten Gruppe
gehören Netze mit fixierter Struktur wie in der Neuronalen Netze mit Backpropagation34
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
35
Verfahren (BP). Zunächst wird die Anzahl von verborgenen Schichten und die Neuronenanzahl in jeder verborgenen Schicht festgelegt. Dann werden die Verbindungsgewichte und Schwellwerte im Parameter-Raum durch Abweichungsverminderung zwischen den
Ergebniswerten der Berechnung und gewünschten Ergebniswerten angepasst. Diese Algorithmen können keine schnelle Konvergenz garantieren und brauchen eine lange Trainingszeit, die von der Netzgröße und von der Größe der Lerndatenmenge überproportional abhängt. Das zu trainierende Netz kann sehr oft die gewünschte Fehlergröße nicht
erreichen.
Zur anderen Gruppe Neuronaler Netze gehören Netze, die durch sequentielle Trainingsalgorithmen spezifiziert werden. Im Verlauf des Trainings dieser Netze werden verborgene Schichten und verborgene Neuronen hinzugefügt. Beispiele solcher Methoden sind
das ETL-Training (Expand-and-Truncate Learning) [75], das CSCLA-Training (Constructive Set Covering Learning Algorithm) [90] oder das FTF-Training (Functional on the
tabular functions) [161], aber auch [19] und [33]. Sequentielle Trainingsalgorithmen sind
aussichtsvoller, weil sie schneller konvergieren und somit eine kürzere Trainingszeit brauchen. Der Unterschied in der Trainingszeit zwischen sequentiellen Neuronalen Netzen
und Neuronalen Netzen mit fixierter Struktur steigt besonders mit einer Vergrößerung
der Variablenanzahl Boolescher Funktionen.
Seit Anfang der 90er Jahre sind die innovativen sequentiellen Trainingsalgorithmen und
die konstruktiven Methoden zur Entwicklung von BNN Hauptrichtung der Forschungen
vieler Wissenschaftler auf dem Gebiet der Neuronalen Netze [13], [19], [42], [88], [91]
und [178].
Erste sequentielle Boolesche Perzeptrons. Marchand und Golea betrachten in ihrer
Arbeit [93] ein Perzeptron mit einer festen Anzahl von Eingängen, mit einem Ausgang
und mit einer nicht angegebenen Anzahl von verborgenen Neuronen. Sie schlugen einen
der ersten sequentiellen Trainingsalgorithmen für feedforward Neuronale Netze vor. Ihr
Lösungsvorschlag zur Strukturerrichtung des Netzes garantiert eine minimale Netzstruktur, wobei die Lernzeit annehmbar ist. Ihre Methode und zwei andere sequentielle Trainingsalgorithmen für feedforward Neuronale Netze, die fast gleichzeitig in [103] und
[133] vorgeschlagen wurden, wurden mit üblichen iterativen Algorithmen verglichen und
vorteilhaft bewertet. Der beschriebene Algorithmus ist eine wesentliche Verbesserung des
Verfahrens von Rujan und Marchand [133]. Die neue Methode erlaubt einen größeren
Satz von Netzstrukturen. Die durch Neuronen zu modellierenden Hyperebenen können
sich innerhalb eines Hyperwürfels überschneiden. Gewichte dürfen ganze Zahlen sein
und statt eines erschöpfenden Suchverfahrens in einer beschränkten Lösungsmenge wird
ein Perzeptron-Algorithmus [105] verwendet. Im Vergleich zu dem Verfahren von
35
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
36
Mezard und Nadal, bei dem man mehrere verborgene Schichten erhält und zwei Arten
von Neuronen in jeder Schicht vorkommen [103], ist in der Methode aus [93] nur eine
Art von Neuronen notwendig und es wird ein minimaler Fehler erreicht.
Etwas später wurde ein Perzeptron-Trainingsalgorithmus mit Booleschen Gewichten und
beliebigem Schwellwert von Golea und Marchand vorgeschlagen [60]. Netzparameter, die
mit allen Trainingsbeispielen übereinstimmen, werden im Verlauf des Algorithmus nicht
gesucht. Statt dessen wird ein binäres Perzeptron konstruiert, das auf verschiedenen in
den Lehrbeispielen erhaltenen Probabilistic-Schätzungen basiert. Ein Vorteil dieses Verfahrens besteht darin, dass die Trainingszeit des Perzeptrons bei einer größeren Anzahl
von Trainingsbeispielen nur linear vergrößert wird.
Kostenfunktion von Booleschen Neuronalen Netzen. Mayoraz und Aviolat stellen in
ihrer Arbeit [97] neue Ideen für Trainingsalgorithmen vor. Neue Optimierungskriterien
für das Training eines jeden hinzugefügten Neurons wurden angegeben, wobei sowohl die
Neuronen- als auch die Schichtenanzahl in der Netzstruktur reduziert wurden. Der Funktionstest ihrer Vorschläge wurde bei der Entwicklung von Feed Forward Neuronalen
Netzen mit Booleschen Schwellwerten und diskreten Gewichten erbracht. Die Konvergenz dieser Algorithmen wurde bewiesen. Einige experimentelle Ergebnisse in Bezug auf
die Größe und die Generalisierungsfähigkeit der erzeugten Netze wurden angegeben.
Gemäß der Aufbauweise des Netzes unterscheiden Autoren zwei Kategorien von Trainingsalgorithmen für Boolesche Neuronalen Netze: Vorwärts- und Rückwärtsalgorithmen. Die Vorwärtsmethoden fügen neue Neuronen nach dem vorhandenen Teil des Netzes hinzu. Umgekehrt fügen die rückwärts gerichteten Trainingsalgorithmen neue Neuronen zwischen der Eingangschicht und bereits gebautem Teil des Netzes, in der Tat vor
der vorhandenen verbogenen Schicht oder Teil der Schicht. Als Beispiele von vorwärtsgerichteten Trainingsalgorithmen sind „Tiling“ Algorithmus [103] und seine vereinfachte
Variante „Tower“ Algorithmus [57], [115] und die Entscheidungsbaum-Algorithmen [60],
[141]. Ein typisches Beispiel von konstruktiven Vorwärtsalgorithmen ist „Upstart” Methode [53].
Für die Darstellung einer nicht separierbaren Booleschen Funktion durch Vorwärts- sowie Rückwärtsalgorithmen wurden sequentielle Transformationen dieser Funktion durchgeführt, um sie zu vereinfachen und durch ein Neuron abbilden zu können. Dabei wurden folgende Definitionen zugrunde gelegt.
Definition 3.1. Eine Boolesche Funktion f: Bn→B ist eine lineare Boolesche Schwellwertfunktion, falls w∈Rn und w0∈R existieren, so dass gilt:
36
37
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
∀b ∈ Β n, f (b ) = sgn(w 0 + w T b ),
(3.17)
Wobei sgn() – Vorzeichenfunktion, die +1 nur zurückgibt, wenn Argument positiv ist,
w0 – Schwellwert
w – Gewichtsvektor der Funktion f,
b – Eingang.
Definition 3.2. Eine mit {(a k, b k )}k =1 ⊂ B n × B gegebene Darstellungsaufgabe T ist
p
kohärent, falls bk≠bl für ak≠al und jedes k≠l. Diese Aufgabe ist linear separierbar,
falls sie mit einem einzelnen Booleschen Neuron berechnet werden kann.
Algorithmus 3.1 MayAvi-Train - Skelett des Trainingsalgorithmus für BNN
Eingabe:
T={(ak, bk)}
Ausgabe:
net - Netz, das T ausführt
MAYAVI-TRAIN(T )
1 Füge eine Eingangsschicht ein
2 do
3
Start einer neuen Schicht
4
do
5
Lege die Parameter der Kostenfunktion c(w, w0) fest
6
Füge ein neues Perzeptron ein
7
(w, w0) ← (0, ½), wobei (w, w0) die Gewichte des neuen Perzeptrons
sind
8
do
9
(w, w0) ←arg min {c(w’, w0’)⎪ (w’, w0’)=m(w, w0), m∈M}
10
while ein Abbruchkriterium wahr ist
11 while alle Klassen sind wahr
12 T={(ak←π(ak), bk)}, wobei π eine durch die neue gebildete Schicht realisierte
Abbildung ist
13 while die neue gebildete Schicht hat ein Neuron
14 return net
Bei der Konstruktion einer neuen Schicht mit m Neuronen wird die Aufga-
be {(a k , b k )} ⊂ B n × B durch eine Abbildung π : Bn→Bm in eine neue Aufgabe
{(π(a ), b )} ⊂
k
k
B m × B umgewandelt. π(ak) bezeichnet eine innere Abbildung von ak.
Eine Menge aller al mit gleichen Abbildungen, wie ak durch π, ist eine Klasse von inneren Abbildungen π(ak) und wird mit [ak] bezeichnet. Die Klasse von inneren Abbildungen [ak] ist falsch, falls sie aus Paaren {ak, al} mit bk≠bl besteht.
37
38
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Von Mayoraz und Aviolat wurde ein globales Skelett präsentiert (siehe Algorithmus 3.1),
das mehrere Varianten von Trainingsalgorithmen für BNN erlaubt.
Der Kern des Algorithmus liegt in der Kostenfunktion c(w, w0). Diese führt die lokale
Suche zur besten Gewicht-Konfiguration des neuen Neurons aus. Die Trennungsqualität
wird durch das Minimum der Kostenfunktion gegeben. c=0 bedeutet, dass alle Klassen
mit den gegenwärtigen Neuronen getrennt sind, und die Kostenfunktion der gegenwärtige
Schicht abgeschlossen ist. Alle weiteren Algorithmen verwenden dieses Skelett und
unterscheiden sich nur in der Definition der Kostenfunktion c(w, w0).
Es wurde bewiesen, dass die in ihren früheren Arbeiten [96] und [98] beschriebenen Varianten der Kostenfunktion nicht ideal waren und die Konvergenz nicht garantiert wurde.
Deshalb wurden neue Arten der Kostenfunktion angegeben, die die Konvergenz garantieren. Formel (3.18) beschreibt eine allgemeine Form der Kostenfunktion.
c(w, w 0 ) =
∑
(
min εk,[a k] − εk
)
(3.18)
[ak ]∉ F
wobei [ak] – eine falsche Klasse,
F - Menge von falschen Klassen und
ε k - die klassische Kostenfunktion für den „Tiling“ Trainingsalgorithmus [103]:
ε k = {al ∈ [a k]| b l ≠ sgn(w 0 + w Tal )}
(3.19)
Ein anderer Weg zur Verbesserung des Trainingsalgorithmus besteht in der Analyse der
Potentiale des neuen Neurons und eine weitere Minimierung der Kostenfunktion. Statt
der Gewichte sollen die Potentialwerte als Argumente der Kostenfunktion verwendet
werden. Wie die in [97] angeführten Beispiele zeigten, benötigen ihre Netze im Vergleich
zu anderen Trainingsmethoden eine kleinere Neuronenanzahl.
3.2.3 „Boolean-like“ Trainingsalgorithmus
Gray und Michel führten im Jahre 1992 einen Trainingsalgorithmus (BLTA - Boolean-like
Training algorithm) für Boolesche Neuronale Netze ein [61]. BLTA generiert eine vierschichtige Architektur des FF-Netzes, das eine Eingangsschicht, eine verborgene Schicht,
eine Hemmungsschicht und eine Ausgangsschicht umfasst. Grundsätze von BLTA wurden aus der Booleschen Algebra mit einer Erweiterung abgeleitet. Dabei wurde die Trainingsgeschwindigkeit von BLTA im Vergleich zu Lernverfahren von Netzen, die die
Gradient-Abstiegstechnik benutzen, vergrößert. BLTA benutzt eine dynamische Technik,
die eine vollständige Lerndatenmenge verlangt und dabei die Konvergenz für jede Boolesche Funktion garantiert. Besonders, bei vollständig definierten Funktionen mit vielen
Variablen ist eine große Anzahl von verborgenen Neuronen erforderlich. Das ist ein
38
39
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Nachteil des BLTA. Grundsätzlich basiert BLTA auf der Technik der Funktionsminimierung durch Karnaugh-Pläne.
Das Neuron wird durch (3.20) und (3.21) beschrieben:
U =
m
∑W X
i =1
i
i
+θ
⎧0, U < 0;
V = G (U ) = ⎨
⎩1, U ≥ 0,
(3.20)
(3.21)
wobei
X i - Eingabesignal, i=1, …, m,
Wi - Gewichtswert, i=1, …, m,
θ - Schwellwert und
V – Boolesches Ausgabesignal der Aktivierungsfunktion des Neurons G mit reellem Argument U.
Die Gewichte zwischen den Schichten können drei Werte annehmen {-1; 0; 1}, wobei der
Nullwert das Fehlen einer entsprechenden Verbindung bedeutet. Die Schwellwerte sind
ganze Zahlen.
Vor dem Training werden die Eingabesignale durch die Eingangsschicht zu {-1; 1} kodiert:
⎧ 1, X i = 0
Qi = E (X i ) = ⎨
⎩− 1, X i = 1
(3.22)
wobei
E(Xi)- die Eingangskodierungsfunktion und
Qi – das Ausgabesignal der Eingangsschicht ist.
a)
b)
Abbildung 3.8 Operationen nach Gray-Michel
für den Aufbau einer verborgenen Schicht von BNN:
a) „ausführliche Darstellung“, b) „Generalisierung“, c) „Modifizierung“ [61].
39
c)
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
40
Für die Erzeugung einer verborgenen Schicht werden drei Arten von Operationen definiert:
1. „ausführliche Darstellung“,
2. „Generalisierung“,
3. „Modifizierung“ (Abb. 3.8).
Die ausführliche Darstellung verlangt nur die genauen Abhängigkeiten der Signale, die
implementiert werden sollen. Die Generalisierung erlaubt eine Abbildung dieser Abhängigkeiten über zusätzliche Abhängigkeiten, die durch den Algorithmus erzeugt werden
können. Die Modifizierung ist in der Lage, alle unerwünschten Beziehungen zu korrigieren.
Gemäß diesen drei Operationen werden folgende sieben Regeln befolgt, um Neuronale
Netze zu trainieren:
R1: Erlaubt ist eine Gruppierung von genau zwei Elementen (2-Kreis).
R2: Jedes Element darf nur in einer Gruppe auftreten.
R3: Jeder Minterm, der in einem 2-Kreis nicht eingeschlossen wird, soll als ein 1-Kreis
vertreten werden.
R4: Ein neuer Minterm wird in einem 2M-Kreis vereinigt (M≥2) wenn und nur wenn ein
2M-1-Kreis existiert, der den neuen Minterm umfassen kann, sonst wird
R5 verwendet.
R5: Jeder neue Minterm, der über R4 nicht vereinigt werden kann, wird durch R1, R2 und
R3 ausführlich abgebildet.
R6: Der bekannte Minterm der Funktion F soll zuerst bei der Generalisierung abgebildet
werden; diese Operation wird durch die ausführliche Darstellung von allen bekannten Mintermen der Funktion F, wie erforderlich, befolgt, um
die falsch generalisierte Ausgabe der Funktion F zu hemmen.
R7: Alle bekannten Minterme von F und F , die durch das vorhandene Netz nicht korrekt
abgebildet sind, sollen durch die „ausführliche Darstellung“ an das Netz
hinzugefügt werden.
R1, R2 und R3 sind Regeln für die ausführliche Darstellung. R2 illustriert, dass sich zwei
2-Kreise nicht überschneiden dürfen. Jedes verborgene Neuron bildet durch R1, R2 und
R3 nur 1 oder 2 Punkte ab, und jede Boolesche Funktion mit M Eingängen kann durch
2M/2 verborgene Neuronen in einer verborgenen Schicht ausführlich dargestellt werden.
Diese Verfahrensweise wird „ausführliche Darstellung“ in BLTA genannt. R4 und R5
sind Regeln für die „Generalisierung“. R4 erlaubt eine Erweiterung eines 2-Kreises in einen 4-Kreis, dann 8-Kreis und so weiter. Es wird zuerst versucht einen Funktionswert
durch die Regeln R4 und R5 in einem verborgenen Neuron abzubilden. Wenn das nicht
erfolgreich ist, werden R1, R2 und R3 für eine ausführliche Darstellung benutzt. Regel R6
40
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
41
definiert die Generalisierungsordnung eines Minterms. Wenn ein Konflikt zwischen einem vorher bekannten und einem neuen, durch die Generalisierung abgebildeten, inneren
Minterm der Funktion F oder F aufgetreten ist, bedeutet das eine „Übergeneralisierung“.
Dabei sollte die Regel R7 für die Korrektur vorhandener Speicher durch hemmende Neuronen verwendet werden.
BLTA erweitert das Minimierungsverfahren für Boolesche Funktionen durch KarnaughPläne, aber es benutzt für die Darstellung einer Booleschen Funktion durch ein Neuronales Netz eine kaum modifizierte disjunktive Form. Jede beliebige Boolesche Funktion
kann durch das BLTA abgebildet werden. Dazu werden viele verborgene Neuronen benötigt, besonders bei der Modellierung von komplizierten Booleschen Funktionen.
3.2.4 „Expand-and-Truncate“-Trainingsalgorithmen
Kim und Park schlugen den Trainingsalgorithmus „Expand-and-Truncate Learning“
(ETL) [75] vor. Sie definierten in der geometrischen Darstellung Boolescher Funktion eine Menge von Punkten (Set of Included True Vertices (SITV), die den Einswerten einer
zu modellierenden Booleschen Funktion entsprechen und von den restlichen Punkten
durch eine Hyperebene getrennt werden können. Im Verlauf des ETL-Algorithmus können die Mengen von Eins-Punkten und Null-Punkten umgetauscht werden, falls das
SITV nicht erweitert werden kann.
ETL basiert auf der geometrischen Analyse der Lerndatenmenge. Durch das ETL wird
ein Satz von trennenden Hyperebenen erzeugt, die für das Trennen der Eins-Punkte von
Null-Punkten erforderlich sind. Dabei werden die Verbindungsgewichte und Schwellwerte bestimmt. Die Autoren vergleichen ihre Methode mit BP. Als Vorteile von ETL werden folgende Eigenschaften genannt: In ETL werden nur ganze Zahlen für die Verbindungsgewichte und Schwellwerte verwendet, was eine Hardware-Implementierung erleichtert. ETL garantiert die Konvergenz und bestimmt automatisch eine erforderliche
Neuronenanzahl in der verborgenen Schicht. ETL baut ein dreischichtiges Neuronales
Netz mit einer Eingangsschicht, einer verborgenen Schicht und einer Ausgangsschicht
auf.
Eine Boolesche Funktion mit n Eingängen wird als ein n-dimensionaler Hyperwürfel betrachtet, wobei alle positiven Punkte dieses Hyperwürfels von negativen Punkten durch k
(n-1)-dimensionale Hyperebenen getrennt werden können. Um alle Hyperebenen zu finden, wird zuerst eine Menge von positiven Punkten (SITV) definiert, die von den restlichen Punkten durch eine Hyperebene getrennt werden können. Das gefundene SITV
wird erweitert, um möglichst viele Punkte mit demselben Wert einzuschließen. Kann die
SITV nicht weiter vergrößert werden, so wird ein nächstes SITV von negativen Punkten
41
42
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
bestimmt und so weiter. Am Ende sind alle SITV gefunden, wobei die Punkte zwischen
zwei konsekutiven Hyperebenen denselben gewünschten Ausgang haben. Zwei durch eine Hyperebene getrennte Konsekutivgruppen der Punkte haben verschiedene Ausgänge.
Demnach trennen diese k (n-1)-dimensionalen Hyperebenen alle Punkte x1, x2, …, xn in
k+1 Gruppen von Punkten mit denselben Werten (entweder 0 oder 1).
Eine graphische Darstellung des ETL-Algorithmus wird in der Abbildung 3.9 gezeigt.
h1
h2
h5
h3
h4
Abbildung 3.9
Visualisierung des ETL-Trainings
Schwarze Gebiete bezeichnen positive SITV und weiße Gebiete bezeichnen SITV von
negativen Punkten. Der ETL-Algorithmus beginnt mit der Auswahl von einem Kernpunkt. Punkte, die in kein SITV eingeschlossen sind, werden nacheinanderen untersucht,
um in einer neuen SITV mit diesem Kernpunkt eingeschlossen zu werden. Zum Schluss
schließt SITV soviel wie möglich Punkte ein. Wenn keine Punkte mehr dem SITV hinzugefügt werden können, ist der erste Trennhyperebene gefunden. wenn jedoch diese Hyperebene nicht alle positiven Punkte von allen negativen Punkten trennt, so muss eine
zweite Trennhyperebene gefunden werden. Dieser Prozess wird fortgesetzt, bis alle positiven Punkte von allen negativen Punkten getrennt wurden. Auf diese Weise wird eine linear untrennbare Funktion in eine Reihe von linear trennbaren Funktionen zerlegt, wobei
jede linear trennbare Funktion durch ein verborgenes Neuron abgebildet wird. Ausgaben
von Neuronen der verborgenen Schicht werden durch in der Ausgangsschicht mit logischen Operationen AND oder OR verknüpft.
Trennt h1 SITV mit Einsen wie in Abbildungen 3.9 dann wird OR benutzt. Trennt h2
SITV mit Nullen, dann wird AND benutzt. Das Ausgangssignal des Neurons für ein in
Abbildung 3.9 abgebildetes ETL wird durch (3.23) beschrieben:
B(h1, h2, h3, h4, h5) =h1+h2(h3(h4+h5)).
(3.23)
Die Anzahl der durch ETL erzeugten verborgenen Neuronen ist gleich der Anzahl von
Hyperebenen. Jede Hyperebene wird durch ein verborgenes Neuron realisiert.
Die Aktivierungsfunktion des Schwellwertelementes wird durch (3.24) beschrieben.
42
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
n
⎧
⎪1, ∑ w i xi − T ≥ 0
y = ⎨
i =1
⎪⎩0, sonst
43
(3.24)
wobei y – Ausgabe des Neurons,
wi – Gewicht zwischen dem Eingang mit der Nummer i und Neuron,
T – Schwellwert.
Für die Bestimmung von Gewichten und Schwellwerten von verborgenen Neuronen
wurden drei Methoden vorgeschlagen. Die ersten zwei Methoden sind stark beschränkt,
weil die Verbindungsgewichte auf 1, -1, 2 und -2 in der ersten Methode, und auf 1 und -1
in der zweiten Methode eingeschränkt wurden. Im Vergleich zu den ersten beiden Methoden wurde dritte Methode mehr verallgemeinert und wird meistens in der Praxis verwendet. Die Verbindung zwischen dem Neuron auf der verborgenen Schicht und dem
Neuron auf der Ausgangsschicht wird 1 gesetzt, wenn das verborgene Neuron ein SITV
von positiven Punkten abbildet. Für ein SITV von negativen Punkten wird als Verbindungsgewicht -1 gewählt. Der ETL-Algorithmus wurde in Anwendungen, wie die ZifferErkennung in Handschriften [120][122] oder die Muster-Klassifikation des Brustkrebses [123] erfolgreich verwendet. Dabei hat sich ein gutes Ergebnis sowohl in Bezug auf
die Geschwindigkeit des Trainingsalgorithmus als auch in Bezug auf die Anzahl von
verborgenen Neuronen gezeigt.
Weitere Modifikationen von ETL wurden im Jahre 1997 von Yamamoto und 2002 von
Shimada und Saito vorgeschlagen. Yamamoto und Saito verbesserten ETL bei der Modifizierung einiger Punkte des SITV in „unbestimmte“ (“don’t care”) und nannten ihren
Algorithmus „Improved Expand-and-Truncate Learning“ (IETL). Erwartungsgemäß ist
eine kleinere Neuronenanzahl erforderlich.
In ETL sowie in IETL hängt die Anzahl von verborgenen Neuronen von der Wahl des
Kernpunktes und der Ordnung der SITV-Ausbreitung ab. Folglich werden verschiedene
Strukturen von Neuronalen Netzen generiert. Verschiedene Kernpunkte und verschiedene Ordnungen (Permutationen) von Eingangswerten führen zu verschiedene Strukturen
von Neuronalen Netzen. Außerdem müssen viele Trainingsbeispiele im Verlauf von ETL
und IETL durchsucht werden, um jedes Neuron in der verborgenen Schicht zu bestimmen.
Im ETL-Algorithmus müssen alle durch eine vorherige Hyperebene getrennten Punkte in
einem neuen SITV eingeschlossen werden. Der IETL-Algorithmus erlaubt dagegen, einen
Teil von Punkten, die durch eine vorherige Hyperebene getrennt wurden, in einem neuen
SITV auszuschließen. Bei der Visualisierung des Prozesses sieht es wie eine Überdeckung
von Gebieten aus. Es wurde aber nicht angegeben, ob diese Punkte als „unbestimmte“
43
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
44
(“don’t care”) sein müssen. Außerdem werden die Punkte nicht nacheinanderen betrachtet, was eine Programmierung des IETL schwierig macht.
Schimada und Saito betrachteten zwei Probleme des ETL: das Steuern einer Anzahl von
verborgenen Neuronen und die Verminderung der Streuung von Parametern. Sie schlugen einen flexiblen Trainingsalgorithmus für 3-schichtige BNN vor. Alle Netzparameter
sind ganze Zahlen. Der Algorithmus basiert auf dem ETL, wobei ein genetischer Algorithmus [40] und [139] für die Bestimmung der Verbindungsgewichte verwendet wird. Ihr
Trainingsalgorithmus wird GAETL genannt. Im Vergleich zu ETL und IETL kann
GAETL die Anzahl von verborgenen Neuronen reduzieren und die Parameterstreuung
vermindern oder sogar völlig beseitigen. Ein generiertes BNN hat eine einfache Struktur
und ist gut für die Hardware-Implementierung geeignet [140].
Noch ein weiterer Trainingsalgorithmus “Newly Expanded and Truncated Learning Algorithm” (NETLA) wurde von Sung vorgeschlagen. Eine optionale Methode zur Synthese
von BNN wurde auf der Basis des ETL-Trainings erarbeitet und führt zur Minimierung
der Neuronenanzahl in der verborgenen Schicht sowie der Anzahl von Verbindungen
zwischen den Neuronen [155]. Dabei wird eine erweiterte Summe der Produkte von Booleschen Ausdrücken benutzt. Ein Vorteil von NETLA besteht darin, dass die Datenbeispiele unabhängig von der Eingangsordnung zusammengefügt werden können. Für die
korrekte Arbeit des Algorithmus muss die Boolesche Funktion durch einen Ausdruck beschrieben werden, weil NETLA auf der Ausdrucksminimierung basiert. Jedes Eingangsbit
soll sowohl durch seine ursprüngliche Form als auch durch seine Komplement zur Verfügung stehen. Das führt zur Verdoppelung der Anzahl von Eingangsneuronen.
Eine Kombination von BLTA und ETL wurde von Chaudhari und Tiwari [35] verwendet, um ein Netz zu trainieren, das Klassifikationsprobleme behandeln kann. Ihre Ideen
wurden von Wang und Chaudhari weitergeführt und ein neuer Lernalgorithmus „MultiCore Learning“ (MCL) wurde vorgeschlagen. MCL ist ein Algorithmus, der auf ETL und
BLTA basiert. Weitere Verbesserungen des MCL liefen auf einen flexiblen Trainingsalgorithmus „Multi-Core Expand-and-Truncate Learning“ (MCETL) hinaus. Der Hauptunterschied zwischen ETL (IETL) und MCETL liegt darin, dass MCETL mit mehreren
Kernpunkten beginnen und sie gleichzeitig erweitern kann. Wird MCETL mit einem
Kernpunkt begonnen, entartet MCETL zum ETL Algorithmus. Für MCETL wurde auch
eine einfache Wahlregel von Kernpunkten für SITV angegeben.
In den meisten Fällen reduziert MCETL die Anzahl von verborgenen Neuronen und
braucht eine kürzere Trainingszeit im Vergleich zu ETL und IETL. In einigen Fällen benötigen IETL und MCETL die gleiche Anzahl von verborgenen Neuronen, aber die Gewichte und Schwellwerte in MCETL sind viel kleiner als diejenigen in ETL und IETL,
was für die Hardware-Implementierung von BNN wichtig ist. Außerdem werden für die
44
45
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Bestimmung von Verbindungsgewichten und Schwellwerten der verborgenen Schicht
weniger Operationen benötigt. MCETL verbessert die Generalisierungs- und Darstellungsfähigkeit von BLTA, ETL und IETL.
3.2.5 Kaskaden- und Oil-Spot-Training
Eine sehr interessante Methode zur Lösung des Problems der Wahl der Neuronenanzahl
im Netz, die für die Abbildung gegebener Boolescher Funktion notwendig ist, wurde von
Martinelli, Mascioli und Bei [94] vorgeschlagen. In ihrer Arbeit beschäftigen sie sich mit
einer vorgegebenen Kaskadenstruktur des Netzes und dem entsprechenden Trainingsalgorithmus, sowie der Kompliziertheit und die Abbildungsfähigkeit des Netzes. Ihr Algorithmus basiert auch auf geometrischen Annäherungen. Die Wissenschaftler betrachten
den Fall einer Abbildung von unvollständig definierten Booleschen Funktionen. Dabei
wird die Generalisierungsfähigkeit des Netzes untersucht. Der Algorithmus erzeugt automatisch ein Neuronales Netz, ist immer konvergent und kann sowohl binäre aber auch
reelle Eingänge akzeptieren.
Grundsätzlich wird eine vollständige Abbildung einer Booleschen Funktion durch 2N Beispiele beschrieben, wobei jedes Beispiel durch ein Eingabemuster und die zugehörige
Ausgabe vorgegeben wird. Die Ausgabemuster werden durch Punkte eines Hyperwürfels
im N-dimensionalen Eingangsraum durch 1 oder 0 dargestellt, abhängig von der gewünschten Ausgabe.
Die Diagonale des Hyperwürfels nennt man die Gerade, die einen Punkt aus der Klasse
0(V0) mit dem Punkt aus der Klasse N (VN) verbindet. Dann gilt folgende geometrische
Eigenschaft: Die Punkte der Klasse K (1≤K ≤N-1) liegen in einer Hyperebene orthogonal
zur Diagonale und schneiden die Hyperebene in einer Entfernung K
N von V0. Die
Gleichung dieser Hyperebene ist:
N
∑x
i =1
i
= K.
(3.25)
Folglich werden die Punkte der Klasse K durch zwei zu (3.25) parallele Hyperebenen abgegrenzt. Diese Hyperebenen sind vom Punkt V0 jeweils
(K
− b2 )
(K
+ b1 )
N
und
N mit 0 <b1, b2 <1 entfernt. Deshalb kann das Paritätsproblem durch die
Verwendung einer Reihe aus N zu (3.25) parallelen Hyperebenen gelöst werden:
N
∑x
i =1
i
= 0.5 + K
K = 0, 1, ..., N − 1
45
(3.26)
46
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
Die erwähnten Hyperebenen teilen den Hyperwürfel in N+1 Hyperbereiche, wobei jeder
Hyperbereich die Punkte nur einer Klasse enthält. In Abbildung 3.10 werden die Paritätsentscheidungsbereiche im Fall N=3 gezeigt.
V0
Diagonal
VN
Abbildung 3.10 Visualisierung der Paritätsentscheidungsbereiche für N=3 [94]
Die durch den Trainingsalgorithmus erzeugte Netzstruktur (Abbildung 3.11) enthält M
Neuronen, wobei M ≥ (N+1)/2
1
w0(1)
y
d1,2
w1(1)
d2,3
wN(1) w1(2)
wN(2)
dM-1,M
w1(M)
xN
wN(M)
…
…
…
x1
w0(M)
w0(2)
xN
x1
x1
xN
Abbildung 3.11 Kaskaden-Perzeptron [94]
Ein anderes auf dem Booleschen Hyperwürfel basierendes Trainingsverfahren für Boolesche Neuronale Netze wurde Oil-Spot-Algorithmus genannt. Es baut zweischichtige
Neuronale Netze für die angegebenen Trainingsbeispiele auf. Dabei kann dieser Algorithmus auch auf reelle Werte erweitert werden. Im Vergleich zu einem Kaskadennetz optimiert dieser Trainingsalgorithmus die Netzstruktur in Hinsicht auf Neuronenanzahl.
Das Training führt im binären Hyperwürfel des Eingaberaums die Vereinigungen von
Unterräumen ein. Jeder Unterraum bildet ein angegebenes Trainingsbeispiel ab. Die Suche der kleinsten Vereinigung von Unterräumen, die mit einem gegebenen Satz von nichtlinear trennbareren Trainingsbeispielen übereinstimmt, ist ein NP vollständiges Problem.
Um dieses Problem zu lösen, wurde ein Approximationsalgorithmus angegeben, der eine
erfolgreiche Abbildung jeder Booleschen Funktion garantiert. Der Algorithmus zeichnet
sich durch eine direkte Kontrolle von trennenden Hyperebenen eines Entscheidungsbe46
47
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
reiches aus. Um die Unterräume, die den Entscheidungsbereich für das Problem bilden,
zu bestimmen, werden die Punkte des Booleschen Hyperwürfels durch ein Verfahren untersucht [95]. Dieses Verfahren baut eine Schicht von verborgenen Neuronen schrittweise
auf und, falls nötig, erzeugt er bei in jedem Schritt ein neues Neuron. Das Ziel ist, ein
größt mögliches linear trennbares Gebiet aus dem verbliebenen Teil des Hyperwürfels zu
finden.
3.2.6 Hamming-Abstand-basierende Trainingsalgorithmen
Xiaomin führte eine Hypersphäre des gewichteten Hamming-Abstands [91] ein. Durch
die Anwendung dieser Idee erreicht man eine bessere Darstellungsfähigkeit jedes verborgenen Neurons und folglich eine verbesserte Lernfähigkeit von BNN. Im Jahre 2001
wurde von Xiaomin der „Constructive Set Covering“ Trainingsalgorithmus - Constructive
Set Covering Learning Algorithm (CSCLA) - vorgeschlagen [90].
Gemäß dem Hamming-Abstand (2.10) zwischen einem beliebigen Punkt x und einem
Kernpunkt xc gilt:
d H (xc, x ) =
n
∑x
⊕ xi
c
i
i =1
(3.27)
Für einen gewichteten Hamming-Abstand zwischen x und xc gilt:
dW (xc, x ) =
∑ g (x
n
i =1
i
c
i
⊕ xi )
(3.28)
wobei i – Nummer des Bits in der Eingangsvariable xi und im Kernpunkt xic .
Folglich kann eine Hypersphäre des gewichteten Hamming-Abstands durch (3.29) definiert werden:
{
R (dW ) = X = (x1, x2, ..., xn ) ∈ F2n dW (X c, X ) ≤ dW
}
(3.29)
wobei dW – der Radius der Hypersphäre des gewichteten Hamming-Abstands ist.
Verschiedene Werte gi und dW erzeugen spezielle Hypersphären oder Hyperebenen:
g1 = g2 = ... = gn = 1; dw ≠ 0 - eine Hamming-Hypersphäre,
g1 = g2 = ... = gn = 1; dw = 0 - nur ein Punkt eingeschlossen,
g1 = g2 = ... = gr = 1; gr+1 = gr+2 = ... = gn = 0; dw = 0 - ein Hyperwürfel,
g1 = g2 = ... = gr = 1; gr+1 = gr+2 = ... = gn = 0; dw = 1 - eine n-r-dimensionale Hamming-Hypersphäre.
k
U
i =1
Ai und
L
U
j=k +1
Bj sind die Sätze von gewichteten Hamming-Hypersphären, wobei Ai
eine gewichtete Hamming-Hypersphäre ist, die nur positive Punkte und Bj eine gewichte47
48
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
te Hamming-Hypersphäre, die nur negative Punkte einschließt. Ai oder Bj vertreten ein
verborgenes Neuron. Folglich kann eine Boolesche Funktion
k
U
i =1
Ai
L
U
j= k + 1
Bj durch ein
3-schichtiges Neuronales Netz mit einer Eingangsschicht, einer verborgener Schicht und
einer Ausgangsschicht korrekt abgebildet werden. Jedes verborgene Neuron bildet eine
Teilmenge von Punkten ab, die denselben gewünschten Ausgangswert (Ai oder Bj) haben.
CSCLA ist einfach, zuverlässig und braucht wenig Berechnungen. In CSCLA werden nur
positive oder negative Punkte betrachtet. CSCLA ist schneller als ETL und IETL, weil
nicht jedes Eingangs-Ausgangspaar bei der Erzeugung eines verborgenen Neurons betrachtet wird. Die Konvergenz von CSCLA wird garantiert. Ein großer Nachteil dieses
Algorithmus ist die Notwendigkeit eines Hilfsnetzes. Deshalb verdoppelt sich der rechnerische Aufwand der Trainingsphase. In der Arbeitsphase bilden Punkte mit einem Hamming-Abstand 1 eine Teilmenge, die durch ein verborgenes Neuron abgebildet wird. Alle
anderen Punkte mit dem Hamming-Abstand größer 1 dürfen diese Teilmenge nicht angehören. Das führt zur Vergrößerung der Anzahl von verborgenen Neuronen in Netzen,
die von Xiaomin entwickelt wurden.
Ein sequentielles „Fenstertraining“ (sequential window learning - SWL) wird von Muselli
für das Konstruieren von 2-schichtigen Booleschen Neuronalen Netzen präsentiert. Das
Verfahren des sequentiellen Trainings [114] wurde zur Entwicklung von Neuronalen Netzen mit einer beliebigen Anzahl von Ausgängen erweitert. Das Trainingsverfahren kann
mit einem beliebigen Trainingspaar aus der Lerndatenmenge begonnen werden.
Eine neue Art des Neurons mit einer fensterartigen Aktivierungsfunktion wurde eingeführt, das die Konvergenzgeschwindigkeit und die Kompaktheit der resultierenden Netze
beträchtlich vergrößert. Dieses fensterartige Neuron erlaubt eine Entwicklung des schnellen SWL-Trainings, das auf der Lösung von algebraischen linearen Gleichungen basiert.
Ein fensterartiges Neuron wird durch (3.30) beschrieben.
⎧
⎪+ 1 falls
⎛ n
⎞
y = φ⎜ ∑ w ixi ⎟ = ⎨
⎝ i =0
⎠
⎪⎩− 1 sonst.
n
∑w
i =0
i
xi ≤ δ
(3.30)
wobei der reelle Wert δ als Amplitude bezeichnet wird und φ die Aktivierungsfunktion
des Fensterneurons ist.
Vereinfacht wird δ = 0 angenommen, aber in der Praxis benutzt man meistens für die
Amplitude Werte, die nicht gleich 0 sind.
Ein Fensterneuron kann immer durch drei Schwellwertneuronen ersetzt werden. Tatsächlich wird die Ausgabe eines allgemeinen Fensterneurons durch (3.31) gegeben.
48
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
⎛ n
⎞
⎛ n
⎞
⎛ n
⎞
y = φ⎜ ∑ w ixi ⎟ = ψ ⎜ ∑ w ixi + δ ⎟ − ψ ⎜ ∑ w ixi − δ ⎟ − 1
⎝ i =0
⎠
⎝ i =0
⎠
⎝ i =0
⎠
49
(3.31)
wobei ψ - Schwellwertfunktion mit dem Schwellwert 0.
Obwohl SWL eine effiziente Entwicklung des 2-schichtigen Perzeptrons erlaubt, hängt
die Generalisierungsfähigkeit des Algorithmus von einer Vielfalt von Faktoren ab, die
nicht direkt kontrollierbar sind. Deshalb wurde eine Technik für die Vorverarbeitung von
gegebenen Trainingsdaten erarbeitet, die Hamming-Clustering (HC) genannt wird.
Eine übliche Methode des sequentiellen Trainings von BNN gruppiert die Eingabemuster, die zu derselben Klasse gehören, d.h. einander gemäß dem Hamming-Abstand nah
sind. Diese Prozedur erzeugt einige Cluster im Eingangsraum, die die Klassenerweiterung
bestimmen. Eine grundsätzliche Rolle in HC spielt eine Schablone. Die Schablone ist eine Zeichenkette aus binären Bestandteilen ‚+’, ‚-’ und „don’t care“-Symbolen. Diese
Schablone ähnelt einem Ternärvektor, wobei die Zeichen ‚1’, ’0, und ‚-’ durch ‚+’, ‚-’ und
‚0’ ersetzt wurden. Das HC-Verfahren ist eine Art der Funktionsminimierung mit der
Ternärvektorliste [107], [148] und [153]. Das HC-Verfahren untersucht die lokalen Eigenschaften des Lernsatzes und veranlasst jede globale Überprüfung der Trainingsdatenmenge im Verlauf von konstruktiven Trainingsmethoden. Die Generalisierungsfähigkeit des
gesamten Booleschen Netzes wird vergrößert. Hamming-Clustering kann nicht nur direkt
im Trainingsalgorithmus SWL implementiert, sondern auch bei allen anderen Trainingsverfahren von vorwärtsgerichteten Booleschen Neuronalen Netzen verwendet werden.
Ein SWL mit HC ist ein gutes Mittel zur Minimierung der Netzkompliziertheit und zur
Verbesserung der Erkennungsgenauigkeit [21] und [113]. Auf diese Weise kann man ein
optimales Verhältnis zwischen der Lokalisierungsfähigkeit und der Kapazität des Netzes
finden [29] und [113]. HC ist auch im Stande, irrelevante Eingänge innerhalb des gegenwärtigen Lernsatzes zu erkennen und nutzlose Verbindungen zu entfernen. Die Kompliziertheit des resultierenden Netzes wird dadurch reduziert, was eine Strukturvereinfachung nach sich zieht. Diese Tatsache ist mit der Vapnik-Chervonenki-Dimension [14],
[102] und [162] des Systems streng verbunden, die von der Anzahl der Gewichte im Neuronalen Netz abhängt [113].
Der Hamming-Abstand wird auch von Amaldi benutzt, um die Prinzipien der beiden von
ihm entwickelten Trainingsalgorithmen zu erklären. Die erste Methode heißt SHIFTTraining und erzeugt Netze mit einer einzelnen verborgenen Schicht. Die PTI-Methode
wurde für mehrschichtige Netze entwickelt. Die resultierenden Netze garantieren eine erfolgreiche Abbildung für jede gegebene Aufgabe mit Booleschen oder reellwertigen Eingängen. Das SHIFT-Trainingsverfahren ist nichts anderes als UPSTART-Training [53].
Das TILING-Training [103] mit einigen Änderungen im Anpassungsprozess der Gewich-
49
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
50
te eines gerade hinzufügten verborgenen Neurons baut ähnlich zu dem PTI-Training eine
Netzstruktur Schicht für Schicht auf.
In Arbeit von Frean [51] wird eine gesteuerte Abkühlung (simulated annealing - SA) für
die Suche eines optimalen (oder nahezu optimalen) Gewichtsvektors für jedes einzelne
Neuron verwendet.
Dazu werden die Gewichte eines laufenden Neurons durch (3.32) verändert:
wi+1 = wi + ηi (bk - yk)ak
(3.32)
wobei ηi - die Schrittweite, wi - der Gewichtsvektor, ak - der Eingabevektor, bk - das
richtige Ausgabesignal und yk - das erhaltene Ausgabesignal ist.
Eine Besonderheit des SA-Verfahrens liegt in der speziellen Berechnungsweise der
Schrittweite:
ηi
⎛ − υ ik
t
exp⎜
=
⎜ t
t0
⎝
⎞
⎟
⎟
⎠
(3.33)
wobei υ ik - die Eingabe für wi und ak, t und t0 – Steuerparameter sind, die als „Temperatur“ bezeichnet werden [6] und [9].
Für die Bestimmung eines Gewichtsvektors des aktuellen Neurons können andere Methoden verwendet werden. Aber, wie es in den früheren Arbeiten von Amaldi gezeigt
wurde, ist das SA - Verfahren vorteilhaft im Vergleich mit einigen anderen Methoden [6],
[51], [52] und [56], die auf der minimalen mittleren quadratischen Abweichung oder auf
der Minimierung der Quer-Entropie basieren.
3.3 Problemanalyse und Bewertung
In diesem Kapitel wurden die wichtigsten vorhandenen Erkenntnisse in der Entwicklung
von BNN diskutiert. Außer der Effektivität und verschieden Vorteilen jeder einzelnen
Methode wurden auch zahlreiche, bei der Modellierung Boolescher Funktionen durch
Neuronale Netze entstehende Probleme, erörtert. Zu Problemen von iterativen Trainingsmethoden gehören alle aktuellen Probleme der iterativen Optimierungsverfahren,
wie z.B. lokale Minima, flache Plateaus, Wahl der Schrittweite und des Dynamikbereiches
[179]. BNN mit ITA- Algorithmen können keine schnelle Konvergenz garantieren und
benötigen lange Trainingszeit, die überproportional von der Netzgröße und von der Größe der Lerndatenmenge abhängt. Das zu trainierende Netz kann den gewünschten Fehler
sehr oft nicht erreichen.
50
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
51
Wie man sehen konnte, spielen die Booleschen Neuronalen Netze mit sequentiellen Trainingsstrategien eine bedeutendere Rolle. STA lösen die meisten Probleme, die bei der
Anwendung von ITA vorhanden sind. Eine bemerkenswerte Eigenschaft von konstruktiven Lernalgorithmen ist, dass sie die Netzwerkarchitektur während des Trainings ändern.
Im Vergleich mit den Algorithmen, die die Netzwerkarchitektur fixieren und die Parameter im Parameterraum herauszufinden versuchen, erhält man durch konstruktive Lernalgorithmen die optimale Netzwerkarchitektur sowie die optimalen Parameter. Konstruktive Lernalgorithmen garantieren die Konvergenz für BNN mit gegebenen endlichen Eingängen. Die Anzahl von verborgenen Schichten und verborgenen Neuronen wird automatisch ermittelt. Sequentielle Trainingsalgorithmen sind viel aussichtsvoller als ITA, weil
sie eine schnellere Konvergenz garantieren und somit eine geringere Trainingszeit benötigen. Der Unterschied in der Trainingszeit zwischen sequentiellen Neuronalen Netzen und
Neuronalen Netzen mit fixierter Struktur vergrößert sich besonders mit Vergrößerung der
Anzahl der Variablen Boolescher Funktionen.
Die STA-Methoden werden durch Vorschläge von Marchand, Golea, Mayoraz, Aviolat,
Gray, Kim, Yamamoto, Schimada, Sung, Chaudhari, Wang, Martinelle, Mascioli, Xiaomin,
Muselli, Amaldi und vielen anderen präsentiert. Zu diesen STA-Methoden zählen u.a.
SHIFT- Training, PTI-Methode, UPSTART-Training, TILING-Training, MCL, MCETL,
FCLA, BLTA, ETL, IETL GAETL, NETLA, Oil-Spot Training, CSCLA und SWL, [37],
[142], [155], [156] und [163]-[165].
Konstruktive (sequentielle) Strategien haben aber auch Nachteile. Da die STA relativ jung
sind, existieren gegenwärtig noch relativ wenig wissenschaftliche Erkenntnisse. Jedoch
wurden sie von einigen Wissenschaftlern erforscht und versucht zu klassifizieren. Amaldi
hat in [8] alle Beschränkungen von STA in zwei Hauptarten unterteilt. Zu den ersten
Problemen gehört das rechenaufwendige Training eines einzelnen Schwellwertneurons.
Wenn die Anzahl von richtigen Klassifikationen maximiert oder die Anzahl von Fehlern
minimiert werden soll, sind die Probleme, eine optimale Lösung zu finden oder zu approximieren NP-hard [5], [7], [8] und [10]. Diese Probleme verschärfen sich für Boolesche
Neuronale Netze [8].
Das zweite Problem liegt in der sequentiellen Methode. Das Netzdesign wird im Verlauf
des sequentiellen Trainings von einzelnen Neuronen gelöst. Jedoch, selbst wenn optimale
Gewichtsvektoren für jedes einzelne Neuron verfügbar wären, können sequentiellen Strategien nicht garantieren, dass eine minimale Netzstruktur hervorgebracht wird.
Ein anderes großes Problem der Booleschen Neuronalen Netze mit sequentiellem Trainingsalgorithmus besteht darin, dass man beim Lernen ein riesiges Speichervolumen
braucht [82], [154]. Besonders gilt das für mehrdimensionale Aufgaben mit großen Lerndatenmengen, die durch höhere Kompliziertheit charakterisiert werden. Zu den Aufgaben
51
KAPITEL 3. KLASSISCHE BOOLESCHEN NEURONALEN NETZE
52
mit gesteigerter Kompliziertheit gehören zweifellos die Darstellungs- und Verarbeitungsaufgaben Boolescher Funktionen, die von einer großen Anzahl der Variablen abhängen.
Aus der Analyse dieser Probleme folgt, dass ein Nachteil der Verwendung Neuronaler
Netze (einschließlich sequentieller BNN) für die kompakte Darstellung und schnelle Bearbeitung Boolescher Daten in der nicht binären Zahlendarstellung liegt. Sehr oft versucht man durch die Erhöhung der Byteanzahl in der binären Zahlendarstellung eine
möglichst kleinste Abweichung zu erreichen.
Für die Abbildungsaufgaben Boolescher Funktionen ist sogar die kleinste Abweichung
unzulässig, deshalb kann die Genauigkeit nicht durch weitere Erhöhung der Byteanzahl
für die Darstellung einen einzelnen Booleschen Werts erreicht werden. Daraus folgt, dass
die Ideen, für die Verbindungsgewichte in BNN nur die Boolesche Werte zu verwenden [41], weiter beibehalten und erweitert werden sollten.
Prinzipiell können in Neuronalen Netzen die Eingangssignale und die Gewichte der Neuronen als reelle, dezimale oder binäre Zahlen dargestellt werden, aber in der Regel verwendet man reelle, seltener – dezimale Zahlen. Das Ausgangssignal des Neurons wird
durch die Aktivierungsfunktion determiniert und kann ebenfalls reell, dezimal oder Boolesch sein. In jedem Fall operiert die Transferfunktion des Neurons mit Daten, die nicht
Boolesch sind. Da die reellen und dezimalen Zahlen im Rechner durch mehr als ein Bit
dargestellt werden, ist die Benutzung solcher Variablen für die Booleschen Daten, die nur
ein Bit für jede Variable brauchen, unrationell. Außerdem benötigt man für die Realisierung mathematischer Operationen mit reellen oder dezimalen Zahlen viel mehr Rechenressourcen als für die Ausführung der Booleschen Operationen mit Booleschen Operanden.
Um diese Mängel zu beheben, müsste man Neuronale Netze verwenden, die die oben erwähnten Probleme nicht besitzen. Im folgenden Kapitel wird als Basiselement solcher
Netze eine neue Art eines Neurons vorgeschlagen, das direkt mit Booleschen Signalen
operiert und ausschließlich Boolesche Operationen benutzt. Diese Art des Neurons wird
Boolesches Neuron (oder Boolesches Neuronales Element) genannt. Bereits hier lässt
sich erkennen, dass dieses Boolesche Neuron ein viel versprechendes Mittel für die Entwicklung und den Aufbau neuen Typen von Netze sein wird.
52
53
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Kapitel 4
Netze aus Booleschen Neuronen
4.1 Boolesches Neuron
4.1.1 Struktur eines Booleschen Neurons
Das mathematische Modell eines neuen Neurons, wurde erstmals in den Arbeiten [78][79] und [82] vorgestellt, die als Vorarbeiten vorliegender Dissertationsschrift entstanden
sind. Diese neue Art eines Neurons wurde Boolesches Neuron (BN) genannt. Dabei wurden auch seine Struktur sowie der Aufbau eines Netzes aus Booleschen Neuronen beschrieben.
Eingänge
x0
x1
x2
Gewichte
w0
w1
w2
w3
Ausgang
BN
y
x3
Abbildung 4.1
Allgemeine Struktur des Booleschen Neurons
Eine allgemeine Struktur eines einzelnen Booleschen Neurons mit vier Eingängen wird in
der Abbildung 4.1 gezeigt. Man sieht, dass die Struktur eines Booleschen Neurons im
Vergleich zur Struktur eines normalen Neurons nicht verändert wurde. Hieraus ergibt
sich die Möglichkeit, das Boolesche Neuron entweder für die Synthese bekannter Modelle
von Neuronalen Netzen zu verwenden oder neue Neuronale Architekturen mit Booleschen Neuronen zu entwickeln. In dieser Arbeit liegt der Schwerpunkt auf der Entwicklung eines neuen Neuronalen Netzes.
Das einfachste, aus einem einzelnen Neuron bestehende Boolesche Neuronale Netz zeigt
Abbildung 4.1. Ein Boolesches Neuron kann also als ein einfaches Boolesches Neuronales Netz betrachtet werden.
53
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
54
4.1.2 Mathematische Beschreibung
Abbildungsfunktion. Ein Boolesches Neuron verhält sich grundsätzlich genau so wie
ein normales Neuron. Die Abbildungsfunktion legt fest, wie aus den Eingabesignalen
das Ausgabesignal gebildet wird. Für den allgemeinen Fall unterscheidet man drei Teilfunktionen, die zu der Abbildungsfunktion gehören (2.15) - (2.17). Da es sich hier um ein
Boolesches Neuron handelt, müssen alle drei Teilfunktionen durch Boolesche Funktionen
beschrieben werden. Als Ausgabefunktion können nur vier mögliche Boolesche Funktionen verwendet werden. Das folgt daraus, dass die Ausgabefunktion eines Neurons nur
einen Eingabeparameter hat und laut (2.2) gibt es nur vier verschiedene Boolesche Funktionen, die für eine Booleschen Variable definiert sind. Alle möglichen für eine Variable
definierten Booleschen Funktionen sind in der Tabelle 4.1 angegeben.
Tabelle 4.1 Wertetabelle der für eine Variable
definierten Booleschen Funktionen
x f0=0 f1=x f2=not(x) f3=1
0
0
0
1
1
1
0
1
0
1
Die Funktionen f0 und f3 sind uninteressant, weil diese konstant sind und nicht von der
Eingangsvariable x abhängen. Daraus folgt, dass nur die Funktionen f1 (Identität) und
f2 (Negation) als Ausgabefunktion des Booleschen Neurons benutzt werden können. Die
Ausgabefunktion aller Booleschen Neuronen kann somit nur die Identität (4.1) oder die
Negation (4.2) sein.
wobei
y(actB) = actB
(4.1)
y(actB) = not(actB),
(4.2)
y - Ausgabesignal Boolesches Neuron,
actB - Ausgangssignal der Aktivierungsfunktion,
not – Boolesche Operation „Negation“,
y, actB ∈{0,1}.
Daraus folgt, dass die Ausgabefunktion in die Aktivierungsfunktion integriert werden
kann und somit nicht explizit auftreten muss. Da der Abhängigkeitscharakter der Abbildungsfunktion dabei unverändert bleibt, braucht man die Aktivierungs- und Ausgabefunktion nicht zu unterscheiden. Im Folgenden nehmen wir an, dass ein Boolesches Neuron aus zwei Teilen besteht: einem kumulativen Teil und einer Aktivierungsfunktion. Die
Aktivierungsfunktion kann auch als Transferfunktion bezeichnet werden.
54
55
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Aktivierung. Die schematische Darstellung eines Booleschen Neurons ist in der Abbildung 4.2 angegeben.
actB
x1
w1
x2
w2
netB
fact
y
…
…
…
xNi
fnet
wNi
λ1, λ2, ..., λl
θ1, θ2, ..., θk
Abbildung 4.2 Schematische Darstellung eines einzelnen Booleschen Neurons
Die in der Abbildung 4.2 gezeigte Aktivierungsfunktion fact ist eine Boolesche Transferfunktion, die von einem Argument netB und eventuell einer Rückführung der aktuellen
Aktivierung des Neurons actB(-1) und einer bestimmten Anzahl von Parametern
θ1, θ2, ..., θk abhängt.
actB = fact(netB [, actB(-1), θ1, θ2, ..., θk] ),
wobei gilt:
(4.3)
actB, netB, actB(-1), θ1, θ2, ..., θk ∈ {0,1}.
Eine Aktivierungsfunktion mit der Rückführung der aktuellen Aktivierung des Neurons
actB(-1) wird in dieser Arbeit nicht benutzt.
Im einfachsten Fall hängt die Aktivierungsfunktion nur von einem Argument netB und,
einige Beispiele solcher Transferfunktionen sind in der Tabelle 4.1 zu sehen. Dabei können nur die Funktionen f1 (Identität) und f2 (Negation) als Transferfunktion des Booleschen Neurons benutzt werden. Die Funktionen f0 und f3 werden in der Regel als
Transferfunktionen nicht verwendet. Die Verwendung von einer konstanten Funktionen
als Transferfunktion ist aber nicht grundsätzlich ausgeschlossen.
Ähnlich, wie unter den normalen Neuronen, unterscheidet man ein lineares und ein nichtlineares Boolesches Neuron. Bei den Transferfunktionen fT =f1 oder fT =f2 (Tab. 4.1)
wird ein Boolesches Neuron ein lineares Boolesches Neuron genannt.
Definition 4.1. Ein lineares Boolesches Neuron sei ein Boolesches Neuron mit der linearen Booleschen Aktivierungsfunktion.
Definition 4.2. Ein nichtlineares Boolesches Neuron sei ein Boolesches Neuron mit
einer nichtlinearen Booleschen Aktivierungsfunktion.
55
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
56
Netzeingabefunktion. Das Argument netB der Transferfunktion fact bezeichnet man
als Netzeingabe, die durch die Netzeingabefunktion fnet aus den Eingabesignalen
x1, x2, ..., xNi, den Verbindungsgewichten w1, w2, …, wNi und eventuell einer bestimmten Anzahl von zusätzlichen Parametern λ1, λ2, ..., λl berechnet wird:
netB = fnet(xB, wB [, λB] ),
wobei gilt:
(4.4)
xB ={x1, x2, ..., xNi}- Vektor der Eingabesignale,
wB ={w1, w2, …, wNi}- Vektor der Verbindungsgewichte,
λB ={λ1, λ2, ..., λl}- Vektor zusätzlicher Parameter,
fnet –Boolesche Netzeingabefunktion,
Ni – Eingangsanzahl des Neurons,
xi, wi, λj, fnet, netB ∈{0,1}und
Index B bezeichnet den Booleschen Typ der Variablen.
Da im Folgenden stets Boolesche Neuronen behandelt werden, kann der Index B weggelassen werden. In die Berechnungen des Booleschen Neurons kann eine bestimmte Anzahl zusätzlicher Parameter λ1, λ2, ..., λl und θ1, θ2, ..., θk eingehen. In dieser Arbeit
werden solche Varianten von Booleschen Neuronen nicht benutzt.
Kumulationsoperator. Die Netzeingabe net wird durch einen kumulierten Wert der
gewichteten Eingabesignale des Booleschen Neurons dargestellt.
net = Ω[x, w]= Ω1Ni [ωi(xi, wi)],
(4.5)
wobei gilt: Ω - der Kumulationsoperator mit den Vektoreingaben x und w,
Ω1Ni - der Kumulationsoperator mit Zahleneingaben; die Grenzen 0 und Ni
zeigen, dass der Operator für alle Argumente von i=1 bis i=Ni gilt,
ωi – Gewichtsfunktion für die Eingabe i.
Der Kumulationsoperator kann eine beliebige Boolesche Operation sein. Für die normalen Neuronen benutzt man meist als Kumulationsoperator eine Summe von gewichteten
Eingabesignalen. Als Kumulationsoperator Boolescher Neuronen kann auch eine beliebige Boolesche Funktion sein. Wie weiter in diesem Kapitel beschrieben wird, eine Verwendung beliebiger Booleschen Funktion (auch nichtlinearer BF) als Kumulationsoperator von Booleschen Neuronen erweitert die Entwicklungs- und Konstruktionsmöglichkeiten Boolescher Neuronalen Netze.
Gewichtsfunktionen. Die Gewichtsfunktionen von Booleschen Neuronen ωi und ωj
für i≠j sind voneinander unabhängig und können verschieden sein. Es ist aber nicht
ausgeschlossen, dass innerhalb eines Booleschen Neurons, innerhalb einer Schicht des
56
57
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Netzes oder überhaupt im ganzen Netz gleiche Boolesche Gewichtsfunktionen benutzt
werden.
Wie in dem normalen Neuron ist ein Gewicht wi jedem Eingang xi eines Booleschen
Neurons zugeordnet. Die synaptischen Gewichte eines Neurons bewirken die Verstärkung oder Hemmung der Eingangssignale. Für ein Boolesches Neuron können die synaptischen Gewichte nur die Werte 0 oder 1 annehmen. Das Eingangssignal wird durch das
Gewicht wi = 1 verstärkt und durch das Gewicht wi = 0 gehemmt. Das Verbindungsgewicht des Booleschen Neurons ist bestimmend für die Existenz des entsprechenden Eingangs. Ist wi = 0, fehlt das Eingangssignal xi, bei wi = 1 dagegen hat das Neuron einen
Eingang mit dem Signal xi. Dieses wird durch (4.6) beschrieben.
wi=0 → Ausgangssignal hängt nicht von xi ab,
wi=1 → Ausgangssignal hängt von xi ab.
(4.6)
Entscheidend für die Anwendung von (4.6) ist die Wahl eines Kumulationsoperators der
Netzeingabefunktion, weil (4.6) für jeden beliebigen Operator gelten soll. Man kann das
Gewichten als eine Art Filter mit einer Filterfunktion ωi beschreiben, die auf einem
Paar (xi, wi) Eingabesignal-Gewicht definiert ist. Die Filterfunktion ωi wurde oben Gewichtsfunktion genannt. Nachfolgend wird ein Fall beschrieben, in dem die Gewichtsfunktionen aller synaptischen Verbindungen eines Boolesches Neurons gleich sind.
Die einfachste und meist angewandte Art der Gewichtsfunktion ist eine elementare Boolesche Operation. Einige Beispiele, je nach Kumulationsoperator Ω, werden in Tabelle 4.2
gezeigt.
Tabelle 4.2 Beispiele von Gewichtsfunktionen für ausgewählte Kumulationsoperatoren
xi
wi
x
x
0
1
ω(xi, wi)
Ω = ’∨’
0
x
Ω = ’∧’
1
x
Ω = ’☼’
1
x
Ω = ’⊕’
0
x
Die angeführten Beispielfunktionen beschränken die möglichen Gewichtsfunktionen
nicht. Es gilt: als Gewichtsfunktion eines Booleschen Neurons kann jede der 16 möglichen für 2 Argumente definierten Booleschen Funktionen gewählt werden.
Boolesches Neuron mit einer verallgemeinerten Transferfunktion. Da im Folgenden nur Boolesche Neurone ohne zusätzliche Parameter (λ und θ) und ohne Rückführung der aktuellen Aktivierung des Neurons actB(-1) benutzt werden, hängt die Aktivierungsfunktion solcher Neuronen nur von einem Parameter ab und somit ist linear. Die
57
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
58
Verwendung nur linearer Boolescher Neuronen beschränkt die Entwicklungs- und Konstruktionsmöglichkeiten Boolescher Neuronalen Netze. Deswegen wird eine Modifizierung in die Berechnungen des Booleschen Neurons eingeführt.
Für die Berechnung der Netzeingabe wird eine Boolesche Netzeingabefunktion ohne
Kumulationsoperator benutzt. Als Netzeingabefunktion wird eine beliebige Boolesche
Funktion verwendet, die auf dem Vektor gewichteter Eingangssignale des Neurons definiert ist. Ähnlich, wie die Ausgabefunktion eines Booleschen Neurons oben ausgelassen
und die Aktivierungsfunktion mit der Ausgabefunktion zusammengesetzt wurde, kann die
Aktivierungsfunktion auch mit der Netzeingabefunktion verbunden werden. Die Netzeingabefunktion übernimmt dann auch die Rolle der Aktivierungsfunktion.
Die mit der Aktivierungsfunktion verbundene Netzeingabefunktion wird auch als Transferfunktion des Booleschen Neurons bezeichnet. Auf diese Weise wird eine Transferfunktion verallgemeinert und kann nichtlinear sein. Zu unterscheiden ist ein lineares Boolesches Neuron mit einer linearen Aktivierungsfunktion und ein verallgemeinertes Boolesches Neuron ohne Kumulationsoperation, das eine nichtlineare Transferfunktion hat.
Das Ausgangssignal des Booleschen Neurons y wird durch eine Relation zwischen den
mit Booleschen Werten gewichteten Eingaben und der Booleschen Ausgabe definiert.
Analog zur mathematischen Beschreibung eines normalen Neurons wird das Ausgangssignal eines Booleschen Neurons durch (4.7) beschrieben.
y = fT(x, w),
(4.7)
fT –Transferfunktion des Booleschen Neurons.
wobei gilt:
Bei der Verwendung eines Booleschen Neurons mit einer Booleschen Transferfunktion
wird die Zeit für die Konvertierung eines Eingangsvektors in das Ausgangssignal des
Booleschen Neurons wesentlich reduziert. Ein weiterer Vorteil des Booleschen Neurons
besteht in der Reduzierung des erforderlichen Speicherbedarfs, da für die Speicherung der
Booleschen Daten viel weniger Speicherplatz als für reelle Daten benötigt wird. Ein zusätzlicher Vorteil ist die Eignung des Booleschen Neurons für die HardwareImplementierung des Neuronalen Netzes, das nur aus Booleschen Neuronen besteht. Die
oben angeführte verallgemeinerte Struktur und mathematische Beschreibung des Booleschen Neurons erlaubt eine Synthese von verschiedenen Strukturen Boolescher Neuronaler Netze, die zur Lösung unterschiedlicher Boolescher Aufgaben verwendet werden
können.
Anderseits ist ein Boolesches Neuron kein „Allheilmittel“. Das Spektrum der Aufgaben,
die mit Booleschen Neuronalen Netzen gelöst werden können, beschränkt sich auf Aufgaben, die mit der Booleschen Logik beschrieben werden können.
58
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
59
4.2 Boolesche Neuronale Netze mit einer verborgenen
Schicht
4.2.1 Training
Im vorherigen Abschnitt wurde ein Boolesches Neuron als ein elementares Bauelement
Boolescher Neuronaler Netze eingeführt. Boolesche Neuronale Netze können verschiedene Strukturen und Zielsetzungen haben. Mögliche Anwendungen Boolescher Neuronaler Netze werden später diskutiert. Zunächst stehen die Entwicklung und Beschreibung
der Struktur des Booleschen Neuronalen Netzes im Vordergrund der Betrachtungen. Es
existieren verschiedene Methoden zur Entwicklung von BNN, 2 Hauptmethoden werden
ausführlicher dargestellt.
Die erste Methode besteht darin, dass übliche Neuronale Elemente in Strukturen von bekannten Neuronalen Netzen durch Boolesche Neuronen ersetzt werden und die entsprechenden Trainingsparadigmen für Boolesche Neuronen angepasst werden.
Die zweite Methode besteht in der Entwicklung neuer bisher unbekannten Strukturen
und Paradigmen Boolescher Neuronaler Netze. Zuerst wird ein Neuronales Netz ausgewählt und auf dessen Basis versucht, ein Boolesches Neuronales Netz zu entwickeln.
Wie es im Kapitel 2 beschrieben wurde, kann man alle Neuronalen Netze nach dem Trainingsalgorithmus in zwei Grundtypen klassifizieren. Zur ersten Gruppe gehören iterative
Trainingsalgorithmen, wie z.B. die bekannte Backpropagation-Methode. Eine andere
Gruppe von Neuronalen Netzen benutzt nichtiterative Trainingsalgorithmen, die auch
sequentielle oder konstruktive Trainingsalgorithmen genannt werden. Zweifellos besitzen
die nichtiterativen Trainingsalgorithmen einen Vorzug im Vergleich zu den iterativen Algorithmen. Besonders gilt dies bei der Modellierung mehrdimensionaler Objekte, zu denen auch die Darstellungs- und Berechnungsaufgaben komplizierter Boolescher Funktionen gehören.
Als Basis für die Entwicklung von BNN wurde sequentielle Strategie des Trainings gewählt. Netze, die einen nichtiterativen Trainingsalgorithmus benutzen, benötigen im Vergleich zu anderen Neuronalen Netzen eine kürzere Trainingszeit und erzielen eine höhere
Genauigkeit [159]. Durch den Einsatz des Booleschen Neurons anstelle des normalen
Neuronalen Elements wurde eine neue Art eines Neuronalen Netzes erarbeitet, das Boolesches Neuronales Netz (BNN) genannt wird. Ehe ein Boolesches Neuronales Netz
verwendet werden kann, muss es trainiert werden. Für das Training und die Anwendung
des Booleschen Neuronalen Netzes werden speziell entwickelte Algorithmen benutzt, die
im Weiteren beschrieben werden.
59
60
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Der Trainingsprozess eines Booleschen Neuronalen Netzes, wie aller künstlichen Neuronalen Netze, liegt in der Bestimmung von Parametern. Eine ausführliche Beschreibung
eines trainierten Booleschen Neuronalen Netzes mit einer bestimmten Architektur ist eine
Darstellung jedes Booleschen Neurons und die Bestimmung aller Parameter für jedes
Neuron. Ein Boolesches Neuronales Netz wird durch die Mengen synaptischer Funktionen und der Transferfunktionen der Neuronen beschrieben. Bei der Anwendung des trainierten Booleschen Neuronalen Netzes bekommt das Netz einen Vektor von Eingabesignalen (x1, x2, ..., xNx) und liefert einen Vektor von Ausgabesignalen (y1, y2, ..., yNy).
Die Grundidee der vorgeschlagenen Lernmethode des Booleschen Neuronalen Netzes ist
eine Darstellung jeder Booleschen Funktion durch ein endliches Polynom (4.8) der vorher
unbekannten Booleschen Funktionen g1(x), g2(x), ..., gNz(x):
Nz
Fj [ω (g (x), w )] ,
y j (x ) =
i
i
(4.8)
i
i =1
wobei gilt:
Fj – Polynom-Operator, eine Boolesche Operation,
Nz – Neuronenanzahl in der verborgenen Schicht.
Als Basis für das Lernverfahren, muss man zunächst eine Lernmenge definieren, die ein
zu modellierendes Objekt beschreibt. Im Fall eines BNN ist dieses Objekt eine Boolesche
Funktion oder Funktionsmenge. Eine Besonderheit der Darstellungsaufgabe Boolescher
Daten besteht darin, dass man Neuronale Netze nur im Wiederherstellungsregime benutzen kann. Zur Lernmenge müssen alle Eingangsvektoren gehören, für die in der Arbeitsphase des Booleschen Neuronalen Netzes die Funktionswerte reproduziert werden sollen.
Im Folgenden wird der allgemeine Fall einer Funktionsmenge betrachtet, da eine Funktionsmenge auch aus einer einzelnen Booleschen Funktion bestehen kann. Im Idealfall gehören zu der Lernmenge alle Binärvektoren der Booleschen Funktionsmenge, d.h. die gesamte Wertetabelle einer Menge Boolescher Funktionen. Die Eingabesignale des Netzes
sind Funktionsargumente, die Ausgabesignale Funktionswerte.
Tabelle 4.3 Lernmenge eines BNN
x1,1
x2,1
xi,1
x2
Nx
x1,2
x2,2
xi,2
,1
x2
Nx
,2
x1,Nx
x2,Nx
xi,Nx
y 1,1
y 2,1
y i,1
x2
y2
Nx
,Nx
Nx
y 1,2
y 2,2
y i,2
,1
y2
Nx
y 1,Ny
y 2,Ny
y i,Ny
,2
y2
Nx
,Ny
Da die Funktionsmenge aus Ny Booleschen Funktionen y1, y2, ..., yNy besteht und jede
Funktion yi von Nx Eingangsvariablen x1, x2, ..., xNx abhängt, hat die Wertetabelle 2Nx
Zeilen und Nx+Ny Spalten, wie es in Tabelle 4.3 gezeigt ist. Alle Zeilen der Wertetabelle
60
61
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
sind in steigender Reihenfolge der Dezimaläquivalente der Eingangsvektoren geordnet,
d.h. vom Eingabevektor (0, 0, …, 0) bis (1, 1, …, 1). Es besteht eine eindeutige Abhängigkeit zwischen der Werte jeder Booleschen Funktion und der Zeilennummern. Wegen
dieser Zuordnung der Eingangsvektoren zu den Zeilen in der Wertetabelle, liefern die
Werte der Eingabesignale x1, x2, ..., xNx keine zum Zeilenindex zusätzlichen Informationen für das Training des Netzes und können aus der Lernmenge ausgeschlossen werden.
Die Lernmenge des Booleschen Neuronalen Netzes wird durch die Matrix A (4.9) dargestellt [82].
A =
y 1,1
y 2,1
y 1,2
y 2,2
y i,1
y 2 ,1
y i,2
y i,Ny
y 2 ,2 y 2 ,Ny
Nx
Nx
y 1,Ny
y 2,Ny
a1,1
a2,1
=
a1,2
a2,2
a1,Ny
a2,Ny
ai,1
ai,2
ai,Ny
a2 ,1 a2 ,2 a2 ,Ny
Nx
Nx
Nx
(4.9)
Nx
Weiter wird das Trainingsverfahren des Booleschen Neuronalen Netzes beschrieben, wobei die Antivalenz als Basisoperation und somit als Polynom-Operator ausgewählt wurde.
Die Folge der Transformationen in dem Trainingsalgorithmus umfasst folgende Schritte.
Man bestimmt einen Basiszeilenvektor v=(v1, v2, ..., vNx), der für die weitere Parameterbestimmung des zu trainierenden Booleschen Neuronalen Netzes benutzt wird. Die
Bestimmungsmethode des Vektors v kann verschieden sein. Als Grundkonzept des Trainingsalgorithmus wird hier zunächst die einfachste Variante betrachtet. Der Basisvektor
v wird aus den Matrixzeilen frei gewählt, für die der durch (4.10) berechnete Koeffizient
Di=1 ist.
Di =
Ny
∨a
j=1
i,j
.
(4.10)
Wenn keine Zeile existiert, für die Di=1, wird dieses Prozess beendet, d.h., das Neuronale
Netz ist trainiert. Bei der Existenz von Di=1 werden weitere Schritte durchgeführt.
Für jede Zeile berechnet man den Wert ki:
ki =
∨ (a
Ny
j=1
i,j
∧ vj ).
(4.11)
Man fasst die Werte ki für alle Zeilen zu einem Spaltenvektor k=(k1, k2, ..., k2Nx) zusammen und erhält eine vollständige Wertetabelle der Booleschen Funktion k(1), die als
eine Transferfunktion des verborgenen Neurons dargestellt wird. Jeder Wert k(i1) dieser
Funktion entspricht einer Zeile mit der Nummer i, jede Zeile ist eindeutig einem Vektor
der Eingabesignale (x1, x2, ..., xNx) zugeordnet. Folglich ist jeder Wert k(i1) einem Vektor
der Eingabesignale (x1, x2, ..., xNx) eindeutig zugeordnet.
61
62
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Man transformiert die Werte der Trainingsmatrix A durch (4.12).
a(i2,)j = a(i1,)j ⊕ (v(j1) ∧ k(i1)),
(4.12)
wobei die in Klammern hochgestellten Indizes den Trainingszyklus angeben.
Das Lernverfahren wird iterativ mit dem ersten Schritt fortgesetzt. Die Iteration bricht ab,
wenn das angegebene Kriterium im Schritt 2 erfüllt wird.
Im allgemein gilt es für den z-ten Trainingszyklus:
a(iz,j+ 1) = a(iz,)j ⊕ (v(jz) ∧ k(iz)) ,
∨ (a
Ny
k(iz) =
j =1
Di =
(z)
i,j
∧ v(jz)) ,
Ny
∨a
j=1
(z)
i,j
,
(4.13)
(4.14)
(4.15)
wobei v(z)- ein aus dem z-ten Trainingszyklus aus der Matrix A ausgewählter Zeilenvektor ist, für den Di=1 gilt.
Die Gesamtheit aller Zeilenvektoren v(z), z=(1, 2, ..., Nz) wird als eine Matrix V bezeichnet. Diese Matrix V kann auch als eine Gesamtheit der Spaltenvektoren
vj, j=(1, 2, ..., Ny) betrachtet werden. Jeder Spaltenvektor stellt dann den Vektor der
Gewichte für das j-ten Booleschen Neuron in der Ausgabeschicht des Netzes.
Zu beachten ist, dass die Werte der als Basiszeilenvektor v(z) gewählten Zeile im Verlauf
der Berechnung (4.13) in Nullwerte gesetzt werden. Da Matrix A aus 2Nx Zeilen besteht
und wenigstens eine Zeile dieser Matrix mit jedem Trainingszyklus in Null umgewandelt
wird, terminiert der Trainingsalgorithmus nach maximal 2Nx Iterationen. Die Matrix A ist
am Ende der Trainingsprozedur eine Nullmatrix.
Nx )
a(i2,j
= 0,
∀ i, j .
(4.16)
Daraus folgt, dass die Anfangsmatrix A durch endlich viele Antivalenzoperationen (4.17)
wiederhergestellt werden kann.
(0)
i,j
a
=
⊕1 (k( ) ∧ v( ))
Nz
z=
z
i
z
j
(4.17)
Nz ist die Neuronenanzahl in der verborgenen Schicht des BNN und auch die Anzahl der
Trainingszyklen.
Die Formeln (4.13) - (4.15) definieren zusammen den Trainingsalgorithmus eines Booleschen Neuronalen Netzes. Die Spaltenvektoren vj und die Booleschen Basisfunktionen
k(z) sind das Resultat des Trainings. Aus (4.17) sieht man, dass die Elemente der Spal62
63
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
tenvektoren vj die Gewichte der Neuronen in der Ausgabeschicht des BNN sind, die
auch als wj =(w1,j, w2,j, ..., wNz,j) für j=(1, 2, ..., Ny) bezeichnet werden. Die Booleschen Basisfunktionen k(z) hängen vom Vektor der Eingabesignale x ab und werden
durch die Booleschen Neuronen der verborgenen Schicht realisiert.
4.2.2 Struktur
Für alle in dieser Arbeit betrachteten Netze werden nur die Booleschen Neuronen verwendet, deren Struktur und Arbeitsweise auf die Verwendung Boolescher Variablen für
die Eingabe-, Ausgabe- und Zwischendaten beschränkt ist. Die Informationsverarbeitung
in 3-schichtigen BNN wird hauptsächlich von den Booleschen Neuronen der verborgenen Schicht vorgenommen. Deswegen wird in diesem Abschnitt die Synthese von Booleschen Neuronen vorrangig für die verborgene Schicht behandelt.
Wie im Kapitel 2 gezeigt wurde, können Neuronale Netze mit Hilfe von Graphen (im
Sinne der Graphentheorie) beschrieben werden. Um die Struktur eines Booleschen Neuronalen Netzes zu bilden, sind die Formeln des Trainingsprozesses (4.13) - (4.15) zu beachten. Aus den mathematischen Ausdrücken (4.13) und (4.17) folgt, dass die Elemente
der Matrix A nach z Umwandlungszyklen des Trainingsalgorithmus folgendermaßen dargestellt werden können:
a(iz,)j = a(i1,)j ⊕
= a(i1,)j ⊕
wobei gilt:
⊕ (k
z −1
l =1
(l)
i
⊕ (k
z −1
l =1
(l)
i
∧ v(jl))
∧ a(vl,)j )
(4.18)
a(vl,)j - Element der Matrix A aus der v-ten Zeile, die als Basiszeilenvektor
v vor dem l-ten Umwandlungsschritt des Trainingsalgorithmus gewählt
war.
Unter Verwendung von (4.18) und (4.15), wird der Ausdruck (4.14) in (4.19) transformiert:
(z)
i
k
=
Ny
∨
j =1
=
Ny
∨
j =1
⎛ ⎛ (1)
⎜ ⎜ ai,j ⊕
⎝⎝
⊕ (k
z −1
l =1
(l)
i
⎞
∧ a(vl,)j )⎞⎟ ∧ a(vz,)j ⎟
⎠
⎠
⎛ (1)
⎛ z −1 (k(l) ∧ a(l) ∧ a(z) )⎞ ⎞
(z)
(
)
∧
⊕
a
a
⎜ i,j
⎜⊕ i
v ,j
v ,j
v,j ⎟ ⎟
⎝ l =1
⎠⎠
⎝
= f (x, k(iz −1), k(iz − 2),..., k(i1))
(4.19)
(4.20)
Zu beachten ist, dass die Boolesche Transferfunktion k(z) des z–ten verborgenen Booleschen Neurons z nicht nur vom Vektor der Eingabesignale x abhängt, wie es vorher ge63
64
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
zeigt wurde, sondern auch von den Booleschen Transferfunktionen aller vorher festgelegten verborgenen Neuronen {k(z-1), k(z-2), ..., k(1)}. Die Struktur der verborgenen
Schicht wird durch (4.19) definiert. Die Transferfunktionen von Neuronen in der verborgenen Schicht werden durch (4.14), die Ausgabesignale werden durch (4.17) angegeben.
Deswegen ist es ausreichend, in der Ausgabeschicht lineare Boolesche Neuronen zu benutzen, die eine Antivalenz der mit den ermittelten Gewichtskoeffizienten gewichteten
Ausgabesignale der verborgenen Schicht bilden.
Unter Berücksichtigung von (4.13) - (4.15) und (4.20) ergibt sich ein Graph, der die Struktur des Booleschen Neuronalen Netzes angibt.
x1
k(1)
x2
y1
w1,1
w2,1
wNz,1
w1,2
(2)
k
…
…
…
…
xNx
y2
w2,Ny
k(Nz)
w1,Ny
yNy
wNz,Ny
Abbildung 4.3 Struktur eines Booleschen Neuronalen Netzes
mit vorwärts gerichteten und lateralen Verbindungen
Das Boolesche Neuronale Netz hat eine verborgene Schicht. Die Ausgabesignale der
verborgenen Booleschen Neuronen werden durch die Transferfunktionen dieser Neuronen gebildet. Die Neuronenanzahl in der verborgenen Schicht ist gleich der Anzahl der
Trainingszyklen.
Wie in Abbildung 4.3 gezeigt, hat die allgemeine Struktur eines Booleschen Neuronalen
Netzes außer den üblichen vorwärts gerichteten Verbindungen zwischen den Neuronen
von Nachbarschichten, auch laterale Verbindungen zwischen den Neuronen in der verborgenen Schicht. Die Notwendigkeit zur Einführung solcher Verbindungen folgt aus
(4.19). Der linke Teil von (4.19) gibt die vorwärts gerichteten Verbindungen an und der
rechte Teil mit Koeffizienten beschreibt die lateralen Verbindungen in der verborgenen
Schicht.
Das Vorhandensein lateraler Verbindungen kann als Nachteil der entwickelten BNN angesehen werden, weil die Berechnungsgeschwindigkeit in der Arbeitsphase des BNN reduziert wird. Der Effekt der Parallelverarbeitung der Information in Neuronalen Netzen
kann deshalb völlig oder teilweise verloren gehen. Grundlegende Eigenschaften der Boo64
65
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
leschen Logik ermöglichen es aber, dass Boolesche Neuronale Netze in der Arbeitsphase
von lateralen Verbindungen befreit werden können. So wird dieser Mangel behoben. Zusätzlich kann die Gewichtsbestimmung der eliminierten lateralen Verbindungen entfallen.
Die in Sinne der Berechnungseffektivität verbesserte Struktur ist in Abbildung 4.4 angegeben.
x1
k(1)
y1
w1,1
w2,1
wNz,1
w1,2
x2
y2
k(2)
k(Nz)
w1,Ny
…
…
…
…
…
xNx
w2,Ny
yNy
wNz,Ny
Abbildung 4.4 Struktur Boolesches Neuronalen Netzes ohne lateralen Verbindungen
Um diese Befreiung der BNN - Struktur von lateralen Verbindungen zu erklären, wird im
folgenden Abschnitt ein Algorithmus zur Verwendung eines vorher trainierten Booleschen Neuronalen Netzes beschrieben.
4.2.3 Arbeitsweise
Bei der Verwendung von Booleschen Neuronalen Netzen für die Darstellung der Funktionsmenge werden die Eingabesignale auf die Netzeingänge gegeben. Die Ausgabesignale,
die ein BNN an seinen Ausgängen erzeugt, sollen den Werten Boolescher Funktionen aus
der zu modellierenden Funktionsmenge entsprechen. Der Nutzungsalgorithmus des
BNN besteht aus folgenden Schritten.
1. Für einen gegebenen Vektor der Eingabesignale werden die Funktionswerte aller Nz
Transferfunktionen der verborgenen Neuronen berechnet.
Da alle Funktionen {k(1), k(2), ..., k(Nz)} während des Trainingsalgorithmus durch ihre
Wertetabelle definiert wurden, und zwar nur in Abhängigkeiten von Eingabesignalen
(x1, x2, ..., xNx), können sie gleichzeitig und unabhängig von einander berechnet werden.
Die Formel (4.20) beschreibt also Restriktionen zwischen den K-Funktionen. Da die KFunktionen nur von den Eingangsvariablen abhängen, kann Struktur des BNN auf laterale Verbindungen zwischen den Neuronen in einer verborgenen Schicht verzichten.
2. Formel (4.17) berechnet die Ausgabesignale.
65
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
66
Bei Bedarf können nur die aus der zu modellierenden Funktionsmenge ausgewählten
Funktionen (und nicht alle Ny Funktionen) berechnet werden.
Da die Neuronen der verborgenen Schicht eine bedeutende Rolle bei der Informationsbearbeitung spielen, erfüllen die Booleschen Elemente der Eingans- und Ausgangsschicht
nur eine Nebenaufgabe. Durch die Booleschen Neuronen der Ausgabeschicht wird (4.17)
realisiert. Die Neuronenanzahl in der Ausgabeschicht ist gleich der Anzahl der zu modellierenden Funktionen. Die Anzahl von Booleschen Neuronen in der Eingangsschicht entspricht der Anzahl von Eingangsvariablen, von denen die zu modellierenden Booleschen
Funktionen abhängen. Die Eingangsschicht des BNN kann als „Pseudoschicht“ von
Booleschen Neuronen bezeichnet werden, da nur die Eingabesignale auf die Eingänge der
Booleschen Neuronen der verborgenen Schicht verteilt werden.
4.2.4 Eigenschaften
Boolesche Neuronale Netze gehören zur Klasse der vorwärts gerichteten Netze (feed
forward neural networks). Der Trainingsalgorithmus des BNN ist ein typischer sequentieller Trainingsalgorithmus, in dessen Verlauf verborgene Neuronen gebildet werden. In
unserem Fall wird ein 3-schichtiges Boolesches Neuronales Netz verwendet, d.h. BNN
hat eine Eingangs-, eine Ausgangs- und eine verborgene Schicht. Dabei ist die Neuronenanzahl in der Eingangsschicht gleich der Anzahl der Variablen der zu modellierenden
Booleschen Funktionen. Die Neuronenanzahl in der Ausgangsschicht des BNN ist gleich
der Anzahl von Booleschen Funktionen.
Zu beachten ist, dass es zwischen den Booleschen Neuronen der verborgenen Schicht
und den Booleschen Neuronen der Ausgangsschicht des Netzes einen Unterschied gibt.
Jedes Boolesche Neuron in der verborgenen Schicht hat eine eigene Transferfunktion, die
sich von der Transferfunktion aller anderen Booleschen Neuronen in dieser Schicht unterscheidet. Diese Transferfunktion eines Booleschen Neurons wird durch alle Eingangsvariablen oder eine Teilmenge von Eingangsvariablen definiert. Die konkrete Transferfunktion wird während des Trainingsprozesses des Netzes bestimmt. Ein z–tes Boolesches Neuron in der verborgenen Schicht eines Booleschen Neuronalen Netzes wird
durch (4.21) beschrieben.
y(z) = f(z)(x, wh(z))
(4.21)
Dabei gilt folgende Bedingung:
f(m)≠f(n) :
∀ m ≠ n; m,n∈[1, Nz]
wobei gilt:
z - Nummer des verborgenen Booleschen Neurons, z=1,…,Nz ,
66
(4.22)
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
67
Nz - Anzahl der Booleschen Neuronen in der verborgenen Schicht,
y(z) - Ausgangssignal des z–ten verborgenen Booleschen Neurons,
f(z) - Transferfunktion des z–ten Booleschen Neurons,
x ={x1, x2, …,xNx}- Vektor der Eingangssignale des BNN,
wh(z)={wh1(z),wh2(z),…,whNx(z)} – Gewichtsvektor des z–ten verborgenen Booleschen Neurons.
Die mathematische Beschreibung eines Booleschen Neurons der Ausgangsschicht bleibt
im Vergleich zu (4.21) unverändert. Nur die Bedingung (4.22) wird in (4.23) umgewandelt.
y(j) = f(j)(k(j),wo(j))
f(m)=f(n): ∀ m ≠ n; m,n∈[1, Ny]
(4.23)
wobei gilt:
j - Nummer des Booleschen Neurons in der Ausgabeschicht, j=1,…,Ny , NY - Anzahl der zu modellierenden Booleschen Funktionen, die gleich mit der
Neuronenanzahl in der Ausgabeschicht des BNN ist,
(j)
y - Ausgangssignal des j–ten Booleschen Neurons in der Ausgabeschicht,
f(j) - Transferfunktion des j–ten Booleschen Neurons in der Ausgabeschicht,
k ={k(1),k(2),…,k(Nz)}-Vektor der Eingangssignale der Ausgabeschicht des BNN,
wo(j)={wo1(j),wo2(j),…,woNz(j)} – Gewichtsvektor des j–ten Neurons in der Ausgabeschicht.
Alle Neuronen in der Ausgabeschicht haben eine festgelegte Boolesche Transferfunktion.
Diese Transferfunktion verknüpft die gewichteten Eingangssignale des Neurons mit einer
für alle Ausgangsneuronen gleichen Booleschen Operation, wie z.B. “Konjunktion” (AND), “Disjunktion” (OR), “Äquivalenz” (EXAND) oder “Antivalenz” (EXOR).
Der Trainingsprozess eines Booleschen Neuronalen Netzes übernimmt die angegebene
Boolesche Operation für Transferfunktionen aller Neuronen der Ausgangsschicht. Durch
diese Boolesche Operation, die auch Basisoperation genannt wird, wird ein Kumulationsoperator Ω der Ausgangsneuronen definiert. Wie noch gezeigt wird, bestimmt diese
Basisoperation auch den Typ einer Dekomposition der Menge Boolescher Funktionen.
4.2.5 Boolesche Neuronale Netze für AND-, OR-, EXOR- und ÄquivalenzDekomposition Boolescher Funktionsmengen
Im vorherigen Abschnitt wurde ein Beispiel des Booleschen Neuronalen Netzes beschrieben, wobei die Antivalenz von Eingangssignalen als Basisoperation für die Neuronen in der Ausgangsschicht definiert war. Jetzt werden BNN mit den Basisoperationen
„AND“, „OR“ und „EXAND“ betrachtet. Dabei werden die Transferfunktionen von
67
68
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Booleschen Neuronen der verborgenen Schicht und die Gewichte Boolescher Neuronen
in der Ausgangsschicht in anderer Weise berechnet. Die Hauptidee der Verwendung der
BNN-Technologie für die Zerlegung einer Menge Boolescher Funktionen liegt im Aufbau
des BNN, dessen Neuronen in der Ausgangsschicht für die Basisoperation eine vorher
bestimmte Boolesche Operation benutzen. Für die AND-Zerlegung einer Booleschen
Funktionsmenge wird die Operation „AND“ verwendet [79].
BNN mit AND-Dekomposition. Eine Lernmenge für das zu konstruierende BNN ist
wie im vorherigen Beispiel eine Matrix A (4.9), die durch die volle Wertetabelle der zu
modellierenden Menge Boolescher Funktionen oder durch eine Untermenge von Zeilen
dieser Wertetabelle bestimmt wird.
Hier wird der Trainingsalgorithmus für die volle Wertetabelle betrachtet. Jede Zeile der
Matrix A hat einen Koeffizienten m, und jede Spalte hat einen Koeffizienten n. Die Koeffizienten m und n werden auch Gewichte genannt und durch (4.24) und (4.25) berechnet.
mi =
nj =
Ny
Σa
j =1
2N x
Σ
i =1
i,j
.
ai, j
(4.24)
(4.25)
Gilt ∀ i, mi = Ny, so wird der Algorithmus beendet.
Andernfalls werden die weiteren Schritte des Algorithmus ausgeführt. Im folgenden
Schritt wird ein Grundzeilenvektor v aus der Matrix A des Trainingsprozesses gewählt.
Dafür sind zwei zusätzliche Funktionen zu benutzen, die zuerst beschrieben werden.
Die Funktion
min( N )
(4.26)
sucht in der Menge N alle minimalen Elemente {min1, min2, …} und gibt eine Menge
NI={Imin1, Imin2, …} der Indizes von den gefundenen minimalen Elementen zurück.
Die zweite Funktion
Imax(S)
(4.27)
bekommt als Argument eine Menge S = {(s1, Is1), (s2, Is2), …,(si, Isi) , …} der zugeordneten Paare (si,Isi). Die Funktion sucht ein maximales Element smax und gibt den
Wert Ismax zurück, der dem gefundenen smax zugeordnet ist.
Um die Grundzeile zu finden, wird (4.26) für N ={n1, n2, …, n2Nx} benutzt. Gibt es nur
ein minimales Element in der Menge N, besteht die Menge NI ={Imin1} aus einem Element Imin1, und die Nummer der Grundzeile
68
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
69
(4.28)
Iv = Imin1
Sonst ist NI={Imin1, Imin2, …}, und die Nummer der Grundzeile Iv wird durch (4.29)
bestimmt
Iv = Imax(S )
(4.29)
Is1=Imin1, Is2=Imin2, …, Isi=Imini, …
wobei
und die Werte si durch (4.30) berechnet werden.
si = ∑ (nj aIs ,j )
Ny
i
j=1
(4.30)
Die Elemente des Grundzeilenvektors v der Matrix A werden als negierte Werte der Zeile
mit der Nummer Iv durch (4.31) definiert.
v j = aIv ,j
(4.31)
Die Werte der Teilfunktion k werden durch (4.32) berechnet.
ki =
wobei gilt:
∨
j∈ N j
ai,j
(4.32)
Nj={Imax1, Imax2, …} - eine Menge von Spaltennummern der Matrix A,
die den Nummern von maximalen Elementen des Gewichtsvektors n
gleich sind. Dabei sind die entsprechenden Elemente des Grundzeilenvektors vi = 1, ∀ i∈Nj.
Wurden die Elemente der Spalte mit der Nummer i∈Nj im Verlauf vorheriger Zyklen
des Lernverfahrens geändert, darf diese Spalte in der gegenwärtigen Matrix durch die
Spalte der primären Matrix A mit der Nummer i ersetzt werden. Dieses Ersetzen hat
zum Ziel, das Gewicht des Vektors k zu minimieren, wobei das Gewicht des Vektors k
die Anzahl seiner Einswerte ist.
Anschließend wird durch (4.33) der Gewichtsvektor für die Neuronen der Ausgangsschicht des BNN berechnet.
⎛
⎞
w j = v j ∧ ⎜ ∧ ai,j ⎟
⎝ i ∈N
⎠
(4.33)
k0
wobei gilt:
Nk0 - Menge von Zeilennummern i∈Nk0, für die ki = 0.
Als nächstes werden neue Werte der Matrix A durch (4.34) berechnet.
(z + 1)
i,j
a
wj = 0
⎧a(iz,)j,
= ⎨ (z)
⎩ai,j ki, w j = 1
69
(4.34)
70
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
wobei gilt:
a(iz,j+ 1) und a(iz,)j - Elemente der Matrix A nach dem z+1–ten und dem z–
ten Trainingszyklus.
Die folgenden Trainingszyklen beginnen jeweils mit der Bestimmung der Zeilengewichte
durch (4.24).
BNN mit OR-Dekomposition. Die Lernmenge ist wieder eine volle Wertetabelle der
Menge der zu modellierenden Booleschen Funktionen. Die Gewichte für jede Zeile und
jede Spalte der Matrix A werden durch die Formel (4.24) und (4.25) berechnet. Man prüft
die Bedingung, ob ∀ i: mi = 0. Wenn ja, dann wird der Algorithmus beendet. Ansonsten wird der Algorithmus mit der Berechnung eines Grundzeilenvektor ähnlich wie
bei der AND-Dekomposition fortgesetzt.
Dafür werden wieder zwei zusätzliche Funktionen benötigt, die zuerst beschrieben werden.
Die Funktion
max( N )
(4.35)
sucht in der Menge N alle maximalen Elemente {max1, max2, …} und gibt eine Menge
NI={Imax1, Imax2, …} der Indizes von den gefundenen maximalen Elementen zurück.
Die zweite Funktion
Imin(S)
(4.36)
bekommt als Argument eine Menge S = {(s1,Is1), (s2,Is2), …,(si,Isi) , …} von Paaren (si,Isi). Die Funktion sucht ein minimales Element smin und gibt den Wert Ismin
zurück, der dem gefundenen smin zugeordnet ist. Die Nummer des Grundzeilenvektors
(4.37)
Iv = Imax1
wenn die durch (4.35) ermittelte Menge NI ={Imax1} nur aus einem Element Imax1 besteht. Sonst ist NI={Imax1, Imax2, …} und die Nummer des Grundzeilenvektors wird
durch (4.36) bestimmt.
Iv = Imin( S ),
(4.38)
Is1=Imax1, Is2=Imax2, …, Isi=Imaxi, …
wobei gilt:
und die Werte si werden durch (4.39) berechnet.
si = ∑ (nj aIs ,j )
Ny
i
j=1
(4.39)
Die Elemente des Grundzeilenvektors v sind gleich den Elementen der Zeile aIv.
v j = aIv,j
70
(4.40)
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
71
Die Elementswerte des Spaltenvektors k werden durch (4.41) berechnet.
ki =
wobei gilt:
∧
j∈ N j
ai,j
(4.41)
Nj={Imin1, Imin2, …} - eine Menge von Spaltennummern der Matrix A,
die den Nummern von minimalen Elementen des Gewichtsvektors n
gleich sind. Dabei sind die entsprechenden Elemente des Grundzeilenvektors vi = 1, ∀ i∈Nj.
Wenn die Elemente der Spalte mit Nummer i∈Nj im Verlauf vorheriger Zyklen des
Lernverfahrens geändert wurden, darf diese Spalte in der gegenwärtigen Matrix A durch
Spalte der primären Matrix A mit derselben Nummer i ersetzt werden. Dabei wird das
Gewicht des Vektors k maximiert.
Danach berechnet man durch (4.42) die Gewichte für Neuronen der Ausgangsschicht des
BNN.
⎛
⎞
w j = v j ∧ ⎜ ∧ ai,j ⎟
⎝ i∈N
⎠
(4.42)
k1
wobei gilt:
Nk1 - Menge von Zeilennummern i∈Nk1, für die ki = 1.
Als nächstes werden neue Werte der Matrix A durch (4.43) berechnet.
(z + 1)
i, j
a
wj = 0
⎧a(iz,)j,
= ⎨ (z)
⎩ai,j ⊕ ki, w j = 1
(4.43)
Die folgenden Trainingszyklen beginnen jeweils mit der Bestimmung der Zeilengewichte
durch (4.24).
BNN mit EXOR-Dekomposition. Das Training eines BNN mit EXOR als Grundoperation ist dem Trainingsalgorithmus des BNN mit OR-Grundoperation sehr ähnlich. Die
Wertetabelle einer Booleschen Funktionsmenge bildet eine Lernmenge A für das Netz.
Durch die Formeln (4.24) und (4.25) werden die Gewichte für jede Zeile und jede Spalte
der Matrix A berechnet. Man prüft die Bedingung, ob ∀ i, mi = 0. Wenn ja, dann
wird der Algorithmus beendet. Sonst werden die Berechnungen im Algorithmus weiter
fortgesetzt und ein Grundzeilenvektor v wird genau so wie bei der OR-Dekomposition
bestimmt. Elementswerte des Spaltenvektors k werden durch (4.41) berechnet. Wenn aber eine Spalte der Matrix A mit Nummer i∈Nj in vorherigen Zyklen des Lernverfahrens
geändert wurde, darf diese Spalte nicht in der aktuellen Matrix durch die Spalte der primären Matrix A mit derselben Nummer i ersetzt werden. Für das OR-Netz war es zulässig,
71
72
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
weil Disjunktion eines Eins mit einem beliebigen Signal laut Gesetz der „Verknüpfung
mit Eins“ ist immer 1. Für die EXOR-Operation ist eine Antivalenz eines Eins mit einem
beliebigen Signal a ein Komplement dieses Signals - a [130].
Die Gewichtsbestimmung für die Neuronen der Ausgangsschicht des BNN wird etwa
komplizierter als bei den vorherigen BNN durchgeführt. Dafür werden die Anzahl der
Einsen Sj(1) und die Anzahl der Nullen Sj(0) für jede Matrixspalte, für die i∈Nk1, berechnet.
Sj(1) =
Σ
i∈N k 1
ai,j ,
(4.44)
Sj(0) = N k1 − S1 .
wobei gilt:
(4.45)
|Nk1| - die Anzahl der Element der Menge Nk1.
Wenn Sj(1) ≠ Sj(0), dann wird wj durch (4.46) festgelegt.
wj
⎧1, Sj(1) > Sj(0)
= ⎨
,
(1)
(0)
⎩0, Sj < Sj
(4.46)
In Formeln (4.44) und (4.45) wird die Anzahl von Einselementen und von Nullelementen
in der Wertetabelle jeder Funktion berechnet, die bei dem entsprechenden Gewicht wj=1
negiert werden. Es folgt aus dem Gesetz der „Verknüpfung mit Eins“, weil eine Antivalenz eines Eins mit einem beliebigen Signal a ein Komplement dieses Signals - a
ist [130]. Da der Trainingsalgorithmus beendet wird, wenn ∀ i: mi =0, wird das Gewicht
durch (4.46) definiert, so dass möglichst mehr Elementen in der Wertetabelle der Funktionsmenge in 0 geändert werden und somit der Algorithmus möglichst schnell beendet
wird.
Wenn aber Sj(1) = Sj(0), ist (4.46) wenig effektiv und deshalb werden die zusätzlichen
Summen Sj(11) und Sj(00) von Produkten der Zeilengewichte der Matrix A und der Elemente in den Spalten berechnet:
Sj(11) =
Sj(00) =
Σ (m
i∈N k 1
Σ (m
i∈N k 1
i
∗ ai,j )
(4.47)
i
∗ ai,j ) .
(4.48)
Die Gewichtswerte für die Neuronen der Ausgangsschicht des EXOR-BNN werden
durch (4.49) definiert.
72
73
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
wj
⎧1, Sj(11) > Sj(00)
= ⎨
(11)
≤ Sj(00)
⎩0, Sj
(4.49)
Die Idee besteht in der Verminderung der Anzahl von Einswerten in der Matrixzeilen mit
Nummern i∈Nk1, wenn das Gesamtgewicht der Zeilen mit ai,j=1, i∈Nk1 größer als das
Gesamtgewicht der Zeilen mit ai,j=0, i∈Nk1.
Als nächstes werden neue Werte der Matrix A durch (4.43) berechnet und die folgenden
Trainingszyklen mit der Bestimmung der Zeilengewichte durch (4.24) fortgesetzt.
BNN mit Äquivalenz-Dekomposition. Eine Äquivalenz-Dekomposition kann ähnlich
zu einer EXOR-Dekomposition durchgeführt werden. Mit Anwendung der Sätze von de
Morgan wird jeder EXOR-Ausdruck in einen Äquivalenz-Ausdruck transformiert. Demnach können alle Booleschen Funktionen aus der Lernmenge A zunächst negiert werden,
dann wird der beschriebene Trainingsalgorithmus für ein EXOR-Netz durchgeführt. Die
so erhaltenen Transferfunktionen k für die Neuronen in der verborgenen Schicht werden
wieder negiert [78]-[79].
Rekonstruktion der zerlegten Booleschen Funktionen. In der Arbeitsphase des Booleschen Neuronalen Netzes werden die ursprünglichen Funktionswerte aus den Funktionswerten der Neuronen der verborgen Schicht zurück gewonnen.. Für die Arbeitsphase
des trainierten BNN kann der Nutzungsalgorithmus verwendet werden, der im Abschnitt
4.2.3 allgemein beschrieben wurde. Hier wird im zweiten Schritt des Algorithmus statt
(4.17) folgende Formel (4.50) verwendet.
a(i1,)j =
Ω (k
Nz
z =1
(z)
i
∧ w z,j ),
(4.50)
wobei gilt: Ω∈{∧, ∨, ⊕, ☼}.
Der Kumulationsoperator Ω der Ausgangsneuronen wird in Abhängigkeit von der Art der
Zerlegung gewählt.
4.2.6 Beispiel zur Dekomposition einer Funktionsmenge
In diesem Abschnitt wird ein Beispiel zur EXOR-Dekomposition einer Funktionsmenge
beschrieben. Ein Beispiel zur OR-Dekomposition einer Funktionsmenge ist im Anhang
A.1 enthalten.
Zuerst wird der Trainingsalgorithmus eines BNN durchgeführt, wofür ein BNN mit
EXOR-Dekomposition ausgewählt wurde. Im Verlauf des Trainingsalgorithmus wird eine
73
74
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Struktur des BNN synthetisiert, dessen Korrektheit durch den Nutzungsalgorithmus des
BNN in der Arbeitsphase überprüft wird.
Zu zerlegen ist eine Menge von Ny=10 Booleschen Funktionen y1, y2, ..., y10,
yi = f(x1, x2, x3). Die Wertetabelle dieser Booleschen Funktionen wird in Tabelle 4.4
angeführt.
Tabelle 4.4 Wertetabelle von 10 Booleschen Funktionen
x1 x2 x3 y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
0 0 0 0 0 1 1 0 0 1 1 1 0
0 0 1 1 1 1 0 0 1 0 1 1 0
0 1 0 0 0 1 0 1 1 0 0 1 1
0 1 1 1 1 0 1 0 1 1 0 0 0
1 0 0 0 1 0 0 1 0 1 1 1 0
1 0 1 1 1 1 1 1 0 1 0 1 1
1 1 0 1 1 0 1 0 1 1 0 0 0
1 1 1 0 0 1 0 1 1 0 0 1 1
Das Netz hat 10 Ausgänge für 10 Boolesche Funktionen und folglich besteht die Ausgabeschicht des Netzes aus 10 Booleschen Neuronen mit EXOR-Transferfunktion. Da die
gegebenen Funktionen von 3 Booleschen Variablen abhängen Nx=3, besitzt das Netz 3
Eingänge, d.h. die Eingabeschicht besteht aus 3 Neuronen. Für die weitere Bestimmung
der Netzstruktur und der anderen Parameter des Netzes wird ein Training durchgeführt.
Training. Der rechte Teil der Wertetabelle 4.4 dient als Lernmenge des Booleschen Neuronalen Netzes und wird durch die Matrix A (4.9) dargestellt. Der Algorithmus beginnt
mit der Berechnung von Gewichtskoeffizienten des Vektors m für jede Zeile der Matrix A
durch (4.24).
Tabelle 4.5 Anfangsmatrix A
y1
0
1
0
1
0
1
1
0
4
1
0
y2
0
1
0
1
1
1
1
0
5
1
0
y3
1
1
1
0
0
1
0
1
5
1
1
y4
1
0
0
1
0
1
1
0
4
1
0
y5
0
0
1
0
1
1
0
1
4
1
1
y6
0
1
1
1
0
0
1
1
5
0
1
y7
1
0
0
1
1
1
1
0
5
1
0
y8
1
1
0
0
1
0
0
0
3
0
0
y9
1
1
1
0
1
1
0
1
6
1
1
y10
0
0
1
0
0
1
0
1
3
1
1
Sj(1) 1
Sj(0) 2
1
2
3
0
1
2
3
0
2
1
1
2
0
3
3
0
3
0
0
1
2
3
4
5
6
7
n
v
w1
74
m
5
6
5
5
5
8
5
5
k(1)
0
0
1
0
0
1
0
1
75
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Solange Werte mi≠0 existieren, wird der Algorithmus weitergeführt. Das Training wird
mit der Berechnung von Gewichtskoeffizienten des Vektors n für jede Spalte der Matrix
A durch (4.25) fortgesetzt. Zur Bestimmung des Grundzeilenvektors v wird eine Menge
aller maximalen Elemente des Vektors m gesucht. Dieser Vektor m hat nur einen maximalen Elementswert 8, und Iv = Imax1= 5. Entsprechend (4.40) sind die Elementeswerte des
Grundzeilenvektors v j = a5,j . Um die Werte des Vektors k(1) zu berechen, sucht man
die Menge Nj. Dafür werden die Elemente des Gewichtsvektors n gewählt, für denen die
die entsprechenden Elemente des Grundzeilenvektors vi = 1 (unterstrichene Werte des
Zeilenvektors n). Unter dieser Werte (4, 5, 5, 4, 4, 5, 6, 3) findet man alle minimale Elemente. In diesem Fall besteht nur eins Wert, der dem minimalen Element - 3 gleich ist
und somit Menge Nj={10}, wobei 10 – die Nummer des Elementes mit dem Wert 3 im
Vektor n ist. Da die Menge Nj aus nur einem Element besteht, wird die letzte Spalte der
Matrix A als Vektor k(1) gewählt (4.41), der gleichzeitig eine Boolesche Transferfunktion
des aktuellen verborgenen Neurons ist. Der Vektor k(1) hat Einsen für die Elemente Nk1
={2, 5, 7}. Zu beachten ist, dass die Nummerierung der Zeilen der Matrix A mit 0 beginnt. Demzufolge werden die Verbindungsgewichte für die Neuronen der Ausgangsschicht des BNN durch (4.44) - (4.49) bestimmt. Dafür werden die Anzahl der Einsen
Sj(1) und die Anzahl der Nullen Sj(0) für jede Matrixspalte, für die i∈Nk1, berechnet.
Zum Beispiel für die erste Spalte S1(1)=1 und S1(0)=2, weil a2,1=0, a5,1=1, a7,1=0
und |Nk1| =3. Da Sj(1) ≠ Sj(0)(1≠2), dann w1,1=0 nach (4.46). In Tabelle 4.5 sind diese
Gewichte in einen Vektor w1 zusammengefasst.
Tabelle 4.6 Matrix A nach dem ersten Trainingszyklus.
0
1
2
3
4
5
6
7
n
v
w2
y1
0
1
0
1
0
1
1
0
4
1
0
y2
0
1
0
1
1
1
1
0
5
1
0
y3
1
1
0
0
0
0
0
0
2
1
1
y4
1
0
0
1
0
1
1
0
4
0
1
y5
0
0
0
0
1
0
0
0
1
0
0
y6
0
1
0
1
0
1
1
0
4
1
0
y7
1
0
0
1
1
1
1
0
5
0
1
y8
1
1
0
0
1
0
0
0
3
1
1
y9 y10
1 0
1 0
0 0
0 0
1 0
0 0
0 0
0 0
3 0
1 0
1 0
m
5
6
0
5
5
5
5
0
k(2)
1
1
0
0
0
0
0
0
Als nächstes werden die neuen Werte der Matrix A durch (4.43) berechnet und die folgenden Trainingszyklen mit der Bestimmung der Zeilengewichte durch (4.24) fortgesetzt
(siehe Tabelle 4.6). Am Ende des zweiten Trainingszyklussees sind die weiteren Vektoren
75
76
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
k(2) und w2 bestimmt, die in den Matrizen K und W in den Tabellen 4.10 und 4.11 aufgenommen werden. Die Resultate der Trainingsschritte 2, 3 und 4 werden in den Tabellen
4.7 – 4.9 dargestellt.
Tabelle 4.7 Matrix A nach dem zweiten Trainingszyklus.
0
1
2
3
4
5
6
7
n
v
w3
y1
0
1
0
1
0
1
1
0
4
0
0
y2
0
1
0
1
1
1
1
0
5
1
1
y3
0
0
0
0
0
0
0
0
0
0
0
y4
0
1
0
1
0
1
1
0
4
0
0
y5
0
0
0
0
1
0
0
0
1
1
1
y6
0
1
0
1
0
1
1
0
4
0
0
y7
0
1
0
1
1
1
1
0
5
1
1
y8
0
0
0
0
1
0
0
0
1
1
1
y9 y10
0 0
0 0
0 0
0 0
1 0
0 0
0 0
0 0
1 0
1 0
1 0
k(3)
0
0
0
0
1
0
0
0
m
0
5
0
5
5
5
5
0
Tabelle 4.8 Matrix A nach dem dritten Trainingszyklus.
0
1
2
3
4
5
6
7
n
v
w4
y1
0
1
0
1
0
1
1
0
4
1
1
y2
0
1
0
1
0
1
1
0
4
1
1
y3
0
0
0
0
0
0
0
0
0
0
0
y4
0
1
0
1
0
1
1
0
4
1
1
y5
0
0
0
0
0
0
0
0
0
0
0
y6
0
1
0
1
0
1
1
0
4
1
1
y7
0
1
0
1
0
1
1
0
4
1
1
y8
0
0
0
0
0
0
0
0
0
0
0
y9 y10
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
k(4)
0
1
0
1
0
1
1
0
m
0
5
0
5
0
5
5
0
Nach dem vierten Trainingszyklus sind alle Elemente des Vektors m sowie der Matrix A
gleich Null geworden (siehe Tabelle 4.9). Somit ist das Training beendet.
Tabelle 4.9 Matrix A nach dem vierten Trainingszyklus.
0
1
2
3
4
5
6
7
y1
0
0
0
0
0
0
0
0
y2
0
0
0
0
0
0
0
0
y3
0
0
0
0
0
0
0
0
y4
0
0
0
0
0
0
0
0
y5
0
0
0
0
0
0
0
0
76
y6
0
0
0
0
0
0
0
0
y7
0
0
0
0
0
0
0
0
y8
0
0
0
0
0
0
0
0
y9
0
0
0
0
0
0
0
0
y10
0
0
0
0
0
0
0
0
m
0
0
0
0
0
0
0
0
77
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Das Boolesche Neuronale Netz wurde trainiert und kann jetzt in der Arbeitsphase verwendet werden. Die erzeugte Netzstruktur wird in Abbildung 4.5 gezeigt. Die Anzahl der
verborgenen Neuronen ist gleich der Anzahl der durchgeführten Trainingszyklen Nz=4.
Jedes verborgene Neuron bildet seine Transferfunktion ab und liefert sein Ausgabesignal
an die Eingänge der Ausgabeneuronen. Jedes der 10 Neuronen in der Ausgabeschicht
gibt die Werte der modellierten Booleschen Funktionen aus.
x1
x2
k1
k2
⊕
⊕
y1
y2
…
k3
x3
k4
⊕
y10
Abbildung 4.5 Struktur des EXOR-BNN
Zu den Ergebnissen des Trainingsalgorithmus gehören auch andere Parameter des Booleschen Netzes: die Transferfunktionen der vier verborgenen Neuronen (Tabelle 4.10) und
die Verbindungsgewichte der zehn Neuronen in der Ausgangsschicht (Tabelle 4.11).
Tabelle 4.10 Transferfunktionen der verborgenen Booleschen Neuronen
x1 x2 x3 k(1) k(2) k(3) k(4)
0 0 0 0
1
0
0
0 0 1 0
1
0
1
0 1 0 1
0
0
0
0 1 1 0
0
0
1
1 0 0 0
0
1
0
1 0 1 1
0
0
1
1 1 0 0
0
0
1
1 1 1 1
0
0
0
Tabelle 4.11 Verbindungsgewichte der Ausgangsschicht
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
w1 0 0 1 0 1 1 0 0 1 1
w2 0 0 1 1 0 0 1 1 1 0
w3 0 1 0 0 1 0 1 1 1 0
w4 1 1 0 1 0 1 1 0 0 0
77
78
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Ist das Gewicht gleich 1, existiert die Verbindung zwischen den entsprechenden verborgenen und Ausgabeneuronen. Ist das Gewicht gleich 0 existiert keine Verbindung, d.h.
eine Eingabe des Ausgangsneurons fehlt. In diesem Fall kann jedes Ausgangsneuron maximal 4 Eingänge haben.
So wurden die 10 Funktionen y1, y2, ..., y10 in vier Boolesche Teilfunktionen k1, k2,…, k4 durch EXOR-Dekomposition zerlegt.
Nutzung des trainierten BNN. Um die Korrektheit des Trainings nachzuweisen, werden die Ausgaben des Netzes für konkrete Eingangsbeispiele überprüft. Dazu wird der
Nutzungsalgorithmus angewendet. Dieser besteht aus 2 Schritten. Zuerst werden die vier
Transferfunktionen der verborgenen Neuronen für die gegebenen Eingangssignale
x1, x2, x3 parallel berechnet.
Tabelle 4.12 Wiederherstellung der Menge Boolescher Funktionen
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
w1 0 0 1 0 1 1 0 0 1 1
w2 0 0 1 1 0 0 1 1 1 0
w3 0 1 0 0 1 0 1 1 1 0
w4 1 1 0 1 0 1 1 0 0 0
0
1
2
3
4
5
6
7
x1
0
0
0
0
1
1
1
1
x2
0
0
1
1
0
0
1
1
x3 k(1) k(2) k(3) k(4)
0 0
1
0
0
1 0
1
0
1
0 1
0
0
0
1 0
0
0
1
0 0
0
1
0
1 1
0
0
1
0 0
0
0
1
1 1
0
0
0
y1
0
1
0
1
0
1
1
0
y2
0
1
0
1
1
1
1
0
y3
1
1
1
0
0
1
0
1
y4
1
0
0
1
0
1
1
0
y5
0
0
1
0
1
1
0
1
y6
0
1
1
1
0
0
1
1
y7
1
0
0
1
1
1
1
0
y8
1
1
0
0
1
0
0
0
y9 y10
1 0
1 0
1 1
0 0
1 0
1 1
0 0
1 1
Danach werden die von den Neuronen auf der Ausgabeschicht erzeugten Booleschen
Funktionen durch (4.50) berechnet. Als eine Testmenge werden alle möglichen Kombinationen aus Eingangssignalen x1, x2, x3 verwendet. Die vollständige Beschreibung Arbeitsphase des Netzes wird in der Tabelle 4.12 aufgeführt.
Der Vergleich der Tabellen 4.4 und 4.12 zeigt, dass die EXOR-Dekomposition der zehn
Booleschen Funktionen korrekt durchgeführt wurde. Das Boolesche Neuronale Netz
kann zur Darstellung und EXOR-Zerlegung verwendet werden.
78
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
79
4.3 Mehrschichtige Boolesche Neuronale Netze
Die im vorangehenden Abschnitt betrachteten Varianten von Booleschen Neuronalen
Netzen hatten in ihren Strukturen nur eine Schicht aus verborgenen Neuronen. Im Gebiet der üblichen Neuronalen Netze sind die Netze mit einer verborgenen Schicht (3schichtige Neuronale Netze) in der Praxisanwendung stark eingeschränkt. Infolgedessen
wurden die mehrschichtigen Neuronalen Netze (MLNN) entwickelt. Eine der bekanntesten Arten von mehrschichtigen Neuronalen Netzen ist ein mehrschichtiges Perzeptron,
dessen zahlreiche Modifikationen sehr weit verbreitet und für verschiedene Zielsetzungen
anwendbar sind. Diese Erfahrung nutzend liegt es nahe, mehrschichtige Boolesche Neuronale Netze (Multilayer Boolean neural networks - MLBNN) zu entwickeln. Die Methoden dafür können verschieden sein. Es wird vorgeschlagen, mit einem Ansatz zu beginnen, der sich an den Prinzipien der normaler sequentieller Neuronaler Netze orientiert.
4.3.1 Erweiterung der Ausgangsschicht
Die erste Methode zum Erzeugen eines mehrschichtigen BNN liegt in einer schrittweisen
Transformation verborgener Neuronenschichten. Das Verfahren beginnt mit dem Training eines Booleschen Netzes mit einer verborgenen Schicht. Als Resultat bekommt man
die Transferfunktionen Boolescher Neuronen in der verborgenen Schicht, die tatsächlich
von den Eingabesignalen des Netzes abhängen. Dann gibt es zwei verschiedene Wege.
Wie das folgende Beispiel zeigt ist die erste mögliche Variante wenig sinnvoll.
Beispiel. Es sei eine aus der Booleschen Funktionen y1, y2,..., yNy bestehende Funktionsmenge gegeben. Beim Training eines BNN mit beliebig gewählten Grundoperationen
(z.B. wird OR gewählt) werden die Transferfunktionen der Neuronen einer verborgenen
Schicht k1, k2,..., kNk und die Gewichte von Neuronen in der Ausgabeschicht bestimmt.
Die Grundidee des nächsten Schritts liegt darin, dass die Ausgabe der Neuronen der ersten verborgenen Schicht als modifizierte Eingaben des nächsten Netzes angenommen
werden können. Das zweite Netz soll eine Abbildung dieser Eingaben in die Ausgabe
y1, y2,..., yNy realisieren. Dafür wiederholt sich das Lernverfahren genauso, wie für das
erste BNN mit einer verborgenen Schicht. Dabei darf noch eine zusätzliche Eingabe mit
einem konstanten Signal zu den modifizierten Eingaben hinzugefügt werden.
Die Anzahl verborgener Schichten ist theoretisch unbegrenzt. Nur werden die Ausgabesignale von Neuronen der verborgenen Schicht eines 3-schichtigen Netzes als die Eingaben des nächsten Netzes betrachtet. Die Eingangsanzahl vergrößert sich um Eins bei jedem Schritt, wenn ein zusätzlicher Eingang mit einem konstanten Signal verwendet wur79
80
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
de. Zurück zum Beispiel: Im 2. Schritt wird ein Netz mit der gleichen Grundoperation
(hier OR) zum Training verwendet. Im allgemeinen Fall ist die Anzahl von k–Funktionen
Nk größer als die Anzahl von Booleschen Variablen Nx, x=(x1, x2,..., xNx), weil die Abhängigkeiten yi von x beliebige Boolesche Funktionen und die Abhängigkeiten yi von k
- OR-Verknüpfungen sind. Infolgedessen besteht die Trainingsmatrix (Wertetabelle der
Funktionsmenge) für das 2. Training aus mehr Zeilen als für das 1. Training. Im allgemeinen Fall, je größer die Trainingsmatrix desto mehr verborgenen Neuronen benötigt, um
diese Matrix abzubilden. Daraus folgt, dass die Anzahl von h–Funktionen (4.51) größer
als die Anzahl von k–Funktionen ist, Nh >Nk.
hi=h(i)(k1, k2,..., kNk), i=(1, 2,..., Nh),
(4.51)
wobei h(i) – Transferfunktionen der verborgenen Neuronen des 2. Netzes ist.
x1
x2
h(1)
OR
k(2)
(2)
OR
h
h(Nh)
OR
y1
y2
…
k(Nk)
…
…
…
…
…
xNx
k(1)
yNy
Abbildung 4.6 Struktur eines BNN nach dem OR-OR-Training
Eine Auswahl der selben Grundoperation für das 1. und 2. Training führt nur zur Vergrößerung der Anzahl von Neuronen im Netz und somit zur komplizierteren Struktur des
Netzes. Eine entsprechende Struktur des BNN ist in Abbildung 4.6 dargestellt. Dabei gibt
es keine Voraussetzung dafür, dass die Anzahl von Verbindungen und somit Anzahl von
Eingängen in Neuronen vermindert wird. Ein solcher Ansatz bringt folglich für den Aufbau mehrschichtiger BNN keinen Nutzen.
Verwendet man im 2. Schritt ein Netz mit einer anderen Grundoperation (dies können im
beschriebenen Fall AND, EXOR, oder Äquivalenz sein) zum Training, so unterscheiden
sich in Resultat die Transferfunktionen der verborgenen Neuronen des 2. Netzes von denen des 1. Netzes. Die zugehörige Struktur des BNN ist in Abbildung 4.7 dargestellt.
80
81
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
x1
x2
h(1)
XOR
k(2)
h(2)
XOR
h(Z2)
“1”
“1”
XOR
y1
y2
…
…
k(Z1)
…
…
…
…
xNx
k(1)
yNy
Abbildung 4.7 Struktur eines BNN nach dem OR-XOR-Training
Die Wahl des OR-XOR-BNN kann sinnvoll sein, wenn man eine mit einer Verknüpfung
(OR) dargestellte Funktionsmenge durch eine andere Boolesche Verknüpfung (XOR)
transformieren will. Im Sinne der Kompaktheit der Darstellung der gegebenen Menge
Boolescher Funktionen bleibt aber eine solche Bildungsmethode von mehrschichtigen
BNN wenig effektiv. Weil die Anzahl von Neuronen im Netz vergrößert und keine Verminderung der Anzahl von Eingängen in Neuronen garantiert wird, führt diese Aufbaumethode von mehrschichtigen BNN auch in diesem Fall zur komplizierteren gesamten
Struktur des Netzes.
4.3.2 Erweiterung der verborgenen Schicht
In diesem Abschnitt wird eine andere Methode zur Entwicklung eines mehrschichtigen
Booleschen Neuronalen Netzes vorgestellt, die auf dem schrittweisen Aufbau von Schichten verborgener Neuronen basiert. Wie in der vorangehenden Methode wird zunächst das
Training eines BNN mit einer verborgenen Schicht durchgeführt. Dabei bilden die im
Verlauf des Trainings erzeugten Transferfunktionen der verborgenen Neuronen k1, k2,
..., kz eine Lernmenge für ein nachfolgendes Boolesches Netz, das im zweiten Schritt
trainiert werden soll. Wie in Abbildung 4.7 gezeigt wird, dient der zweite Schritt zur Zerlegung der in erstem Schritt entstandenen Schicht von verborgenen Neuronen in zwei
Schichten: Eine verborgene Schicht und eine Ausgabeschicht des zweiten BNN. Diese
Methodik kann sowohl für die Vereinfachung der Transferfunktionen von verborgenen
Neuronen als auch bei einer Beschränkung der Eingangsanzahl für die Neuronen verwendet werden. Obwohl die gesamte Zahl von Neuronen im Netz vergrößert werden
kann, es können mehr Gewichten 0 sein.
81
82
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Die Ausgabeschichten des ersten und zweiten Netzes können auch zu einer Schicht zusammengefügt werden. Dabei erhielt man wieder ein 3-schichtiges BNN. Es entsteht die
Frage, welche Boolesche Operation als Grundoperation des nächsten BNN verwendet
werden soll. Bei gleicher Grundoperation für beide Lernverfahren bekommt man nach
Verbinden der Ausgabeschichten der beiden Netze ein 3-schichtiges BNN mit einer Eingangsschicht, einer verborgenen Schicht und linearen Neuronen mit der entsprechenden
Grundoperation in der Ausgabeschicht.
(1)
Schicht mit k
x1
x2
(Zk)
, …, k
h(1)
AND
XOR
h(2)
AND
XOR
y1
y2
…
h(Zh)
…
…
…
…
…
xNx
(2)
,k
AND
“1”
“1”
XOR
yNy
Verbindung in eine Schicht
Abbildung 4.8 Struktur eines AND-XOR-BNN
Interessanter ist die Auswahl von verschiedenen Grundoperationen bei dem ersten und
zweiten Training. In diesem Fall ist eine Ausgabeschicht aus unterschiedlichen Booleschen Neuronen das Resultat einer Substitution von Ausgabeschichten des ersten und
zweiten Netzes. Die Transferfunktionen von Neuronen in dieser entstehenden Ausgangsschicht können beliebige Boolesche Funktionen sein. Es können die Transferfunktionen
der Neuronen entweder aus einer verborgenen oder aus der Ausgabeschicht als neue
Lernmenge betrachtet werden. Entsprechende Schichten werden immer wieder in eine
zweischichtige Struktur zerlegt. Diese Transformationen können prinzipiell mehrfach
wiederholt werden, da theoretisch keine Begrenzung existiert.
Als Empfehlung für die Auswahl der Grundoperationen werden folgende Operationsmengen vorgeschlagen.
82
83
KAPITEL 4. NETZE AUS BOOLESCHEN NEURONEN
Tabelle 4.13 Beispiel von Grundoperationen für ein BNN mit 2 verborgenen Schichten
Ausdrucksform
1. Operation
2. Operation
Disjunktive Form
Konjunktive Form
Antivalenzform
Äquivalenzform
OR
AND
EXOR
Äquivalenz
AND
OR
AND
OR
Diese Empfehlung basiert auf der Theorie Boolescher Normalformen. Es ist bekannt,
dass jede Boolesche in einer der vier Grundformen aus der Tabelle 4.13 dargestellt werden kann. Diese Grundformen verwenden die 1. Operation als äußere Operation und die
2. Operation als inner Operation. In diesen vier Booleschen Grundformen kann auch die
Negation benutzt werden. Eine Negation kann man mit der Antivalenz und Äquivalenz
realisieren. Deshalb ist es sinnvoll, für die Schritte des EXOR- oder Äquivalenz-Trainings
eine zusätzliche Eingabe mit einem entsprechenden konstanten Signal zu verwenden. In
Abbildung 4.8 wird eine Netzstruktur des AND-XOR-BNN mit einem konstanten “1“ Signal dargestellt.
83
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
84
Kapitel 5
Hardware-Realisierung von Booleschen Neuronalen Netzen mit
FPGA
5.1 Boolesche Neuronale Netze im FPGA
5.1.1 Abbildung eines Booleschen Neurons im FPGA
Im vorangehenden Kapitel wurden Boolesche Neuronale Netze als Modell Boolescher
Funktionen betrachtet. Die vorgeschlagene BNNs sind in der Lage, die Booleschen Funktionen kompakt darzustellen und schnell zu berechnen. Die entwickelten Trainingsalgorithmen beschreiben eine neu Dekompositionsmethode für eine gegebene Menge Boolescher Funktionen. Bei der Dekomposition Boolescher Funktionen wird die künstliche Intelligenz von Booleschen Neuronalen Netzen verwendet, um sowohl eine hohe Kompaktheit der Darstellung als auch eine kurze Berechnungszeit zu erreichen. Im Kapitel 5
wird die Intelligenz von BNN auch zur kompakten Darstellung Boolescher Funktionen
im FPGA (field-programmable gate arrays) ausgenutzt. Dabei wird eine HardwareRealisierung von Booleschen Neuronalen Netzen in FPGA entwickelt.
Die überwiegende Mehrheit von künstlichen Neuronalen Netzen wird als ein ausführbares Programm auf einem Rechner realisiert, weil Software-NN im Vergleich zu HardwareNN flexibler sind. Spezialisierte Hardware-Realisierungen von NN besitzen unter mehreren Aspekten viele Vorteile [158]. Diese basieren insbesondere aus dem Parallelismus,
der Modularität und der dynamischen Anpassungsfähigkeit von NN sowie BNN in
Hardware-Realisierungen [180]. Außerdem hat sich bei der weltweiten Nutzung von NN
gezeigt, dass die höhere Geschwindigkeit und die niedrigeren Kosten der Hardware-NN
wesentlich zu ihrem erfolgreichen Einsatz beitragen.
Wie bereits erläutert, können alle Hardware-NN in drei Kategorien eingeteilt werden:
digital, analog und hybrid [158]. Die den Hauptgegenstand dieser Arbeit bildenden Boo84
85
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
leschen Neuronalen Netze sind besonders geeignet für digitale Hardware-Realisierungen,
weil diese Netze nur mit Booleschen Daten arbeiten. Es gibt viele Technologien zur Realisierung von Neuronalen Netze in digitaler Hardware. Hardware-Realisierungen von
Neuronalen Netzen in FPGA sind besonders verbreitet, weil sie viele Vorteile im Vergleich zu anderen Hardware-Realisierungen besitzen [111]. Die allgemein bevorzugte
Hardware-Realisierung von NN als FPGA bietet eine Möglichkeit, die entwickelten
Hardware-Realisierungen von Booleschen Neuronalen Netzen mit anderen bekannten
FPGA-Realisierungen von Neuronalen Netzen zu vergleichen.
Bei der Hardware-Realisierung Neuronaler Netze in FPGA wird eine große Anzahl von
CLB (configurable logic block) für die Abbildung eines Neurons benötigt. Ein Neuron
wird folglich durch eine mehrstufige Struktur aus CLB gebildet, was zu einer Verlangsamung der Berechung führt. Es besteht also ein Abbildungsproblem für NN auf FPGA.
Dutzende oder auch Hunderte von CLB können erforderlichen, um ein übliches Neuron
eines Netzes im FPGA zu realisieren. Eine der bekannten FPGA-Realisierungen eines 3schichtigen Feed Forward-Netzes GANGLION [34] braucht 640 – 784 CLB pro ein
Neuron. Das in [63][177] [176] beschriebene Hopfield-Netz besteht aus 64 Neuronen,
von denen jedes 26 CLB einer XC4000-Xilinx-FPGA-Karte benötigt. Ein gutes Ergebnis
wurde von M. Gschwind in [64] erreicht. Dort sind nur 22 CLB zur Abbildung eines
Neurons im FPGA erforderlich.
In der Abbildung 5.1 wird dargestellt, dass es 3 Ursachen für das Abbildungsproblem
von Neuronen auf CLBs gibt. Dabei handelt es sich um:
•
den Typ der Ein- und Ausgangsdaten des Neurons,
•
die Kompliziertheit der Transferfunktion des Neurons,
•
die Anzahl von Eingängen des Neurons.
Problem der großen Anzahl von CLBs
Ein- und Ausgangdaten
Transferfunktion
Eingangsanzahl
Abbildung 5.1 Problem einer großen Anzahl von CLB zur Abbildung eines Neurons
Die Verwendung dezimaler oder reeller Ein- und Ausgangsdaten sowie nicht Boolescher
Transferfunktion von Neuronen führt zur Vergrößerung der Anzahl von CLB, die für die
Realisierung eines Neurons erforderlich sind. Für ein Boolesches Neuron treten 2 dieser
Nachteile üblicher Neuronen nicht auf, weil es nur Boolesche Daten bearbeitet und weil
85
86
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
es nur eine Boolesche Transferfunktion besitzt. Durch die beschränkte Anzahl von Eingängen eines CLB können nicht alle Booleschen Neuronen auf einen einzelnen CLB direkt abgebildet werden.
Die Trainingsalgorithmen von Booleschen Neuronalen Netzen können aber so modifiziert werden, so dass eine Einschränkung der Eingangsanzahl von Neuronen in einer verborgenen Schicht sowie einer Ausgangsschicht des Netzes berücksichtigt wird. Für die
verborgene Schicht bedeutet eine solche Einschränkung praktisch eine Dekomposition
der Booleschen Transferfunktion des BN. Eine Ausgangsschicht mit Booleschen Neuronen, die eine einheitliche Boolesche Operation als Transferfunktion haben, kann durch
eine Superposition der Booleschen Funktionen dargestellt werden. Folglich kann ein Boolesches Neuron in der Ausgangsschicht mit beliebiger Anzahl von Eingängen durch eine
Kaskadierung Boolescher Neuronen dargestellt werden (siehe Abbildung 5.2).
k0
k1
…
k10
BN
y
k0
k1
k2
k3
k4
k5
k6
k7
k8
k9
k10
BN
BN2
BN3
BN4
h0
h1
BN1
y
h2
Abbildung 5.2 Darstellung eines Booleschen Neurons
der Ausgangsschicht durch eine Kaskade
Jedes Boolesche Neuron in dieser Kaskade kann direkt in einem Logikblock eines CLB
abgebildet werden, wobei die Struktur und Logik des Booleschen Neurons eine direkte
Abbildung der Architektur des Booleschen Neurons im FPGA erlauben.
Die Formel (5.1) zeigt ein Beispiel der Superposition einer Booleschen Funktion y, die
von 10 Teilfunktionen abhängt. Es wird angenommen, dass die zulässige Anzahl der Eingänge kleiner oder gleich 4 ist.
y = k0 ⊕k1 ⊕k2 ⊕k3 ⊕k4 ⊕k5 ⊕k6 ⊕k7 ⊕k8 ⊕k9 ⊕k10
= h0 ⊕ h1 ⊕ h2
(5.1)
(5.2)
86
87
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
wobei
h0= k0 ⊕k1 ⊕k2 ⊕k3,
h1= k4 ⊕k5 ⊕k6 ⊕k7,
h2= k8 ⊕k9 ⊕k10.
Da die Anzahl von k-Funktionen größer 4 ist, werden die k-Funktionen zu drei Gruppen
aufgespaltet. Dabei hat jede Gruppe höchstens 4 k-Funktionen. Eine Verbindung der
k-Funktionen durch die Boolesche Operation EXOR in einer einzelnen Gruppe bildet
eine neue Funktion hi, die von höchstens 4 Argumenten abhängt. Eine Verbindung der 3
h-Funktionen durch die Boolesche Operation EXOR ergibt die ursprüngliche Funktion y
(5.2), die jetzt direkt nur von 3 Argumenten abhängt und folglich die Einschränkung von
maximal 4 Eingängen erfüllt. Nach (5.1) und (5.2) wird das Boolesche Neuron in eine 2schichtigen Struktur erweitert. Diese Erweiterung der Ausgangsneuronen ist unbegrenzt,
durch die Anwendung der Superposition kann eine beliebig große mehrschichtige Struktur von BNN erzeugt werden. Die Darstellung der Booleschen Funktion y durch ein
Boolesches Neuron in der Ausgangsschicht eines allgemeinen BNN und durch eine
Struktur von Neuronen wird in Abbildung 5.2 gezeigt. Die Vergrößerung der Anzahl von
Schichten kann zur Erhöhung der Berechnungszeit der Booleschen Funktion führen [80].
Wie im Kapitel 2 gezeigt wurde, besteht ein CLB aus 2 identischen Logikblöcken (Slices)
mit jeweils 2 LUT (lookup table). Jede LUT hat 4 Eingänge und einen Ausgang und kann
eine beliebige Boolesche Funktion, die von bis zu 4 Booleschen Variablen abhängt, abbilden. Entsprechend kann ein Logikblock (slice) zwei solche Boolesche Funktionen oder
eine Boolesche Funktion mit 5 Argumenten realisieren. Eine beliebige Boolesche Funktion, die durch 6 Argumente definiert ist, kann durch einen CLB dargestellt werden.
Eine Einschränkung der Eingangsanzahl jedes Neurons im Booleschen Neuronalen Netz
auf die Eingangsanzahl von LUT im verwendeten FPGA bietet die Möglichkeit, dieses
Boolesche Neuron in einer LUT darzustellen. In Abbildung 5.3 wird eine Darstellung eines Booleschen Neurons mit 4 Eingängen durch eine LUT gezeigt.
LUT
BN
Abbildung 5.3
Abbildung eines Booleschen Neurons auf eine LUT
Eine ganze Netzstruktur wird dabei eins-zu-eins in der Struktur aus LUT abgebildet. Die
Abbildung 5.4 zeigt die Realisierung eines Booleschen Neuronalen Netzes in einer Struk87
88
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
tur aus LUTs, wobei eine Einschränkung der Eingangsanzahl auf 4 Eingänge je Neuron
im dargestellten Netz verwendet wird [81].
BN2
LUT3
BN3
…
…
…
LUT4
BN4
BN5
Verbindungsnetzwerk
LUT1
BN1
LUT2
…
LUT5
LUT6
BN6
Abbildung 5.4
Abbildung eines Booleschen Neuronalen Netzes in eine Struktur aus LUTs
Bei der Einschränkung der Eingangsanzahl von Booleschen Neuronen auf die Eingangsanzahl eines Logikblocks (slice) bzw. eines CLB erhält man eine Abbildung eines Booleschen Neurons auf ein slice bzw. ein CLB (siehe Abbildung 5.5).
5
BN
6
BN
Abbildung 5.5
5
6
slice
CLB
Abbildung eines BNN in Teile eines FPGA
Eine entsprechende Netzstruktur, die aus Booleschen Neuronen mit 5 bzw. 6 Eingängen
besteht, wird in eine aus slices bzw. aus CLB bestehende Struktur abgebildet [80], [81].
Die Verwendung solcher Einschränkungen der Eingangsanzahl von Booleschen Neuronen kann zu einer Vergrößerung der erforderlichen Anzahl von Neuronen im Netz füh88
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
89
ren. Der Vorteil dieser Einschränkungen besteht darin, dass nur eine LUT (slice, CLB) für
die FPGA-Realisierung jedes Booleschen Neurons benötigt wird. Es können also 4 Boolesche Neuronen durch ein CLB abgebildet werden. Im Vergleich zu schon bekannten
NN-Realisierungen in FPGA wird ein sehr großer Gewinn erreicht.
Tabelle 5.1 Bekannte FPGA-Realisierungen von Neuronalen Netzen
Netz
GANGLION [34]
Xilinx-Netz [177]
Hopfield-Netz [63][176]
Netz von Gschwind [64]
Anzahl von CLB pro ein Neuron
640 – 784
51
26
22
Durch Verwendung des Booleschen Neurons für die Modellierung Boolescher Funktionen in FPGA wurde ein großes Problem der Hardware-Realisierung von Neuronalen
Netzen in FPGA gelöst. Die Anzahl der CLB, die zur Abbildung eines Neurons erforderliche sind, wurde auf 1 reduziert. Da in einem CLB sogar 4 Boolesche Neuronen realisiert
werden können ergibt sich als neuer Hardware-Bedarf für ein Boolesches Neuron sogar
nur ¼ CLB.
5.1.2 Adaptierter Trainingsalgorithmus
Für eine erfolgreiche Abbildung eines Booleschen Neuronalen Netzes in FPGA-Struktur
soll die Einschränkung der Eingangsanzahl von Booleschen Neuronen im Trainingsalgorithmus des BNN berücksichtigt werden. Ein angepasster Trainingsalgorithmus wird im
Folgenden beschrieben.
Die Hauptidee dieses Algorithmus liegt in der sequentiellen Dekomposition aller Booleschen Funktionen der Funktionsmenge. Zunächst wird die Eingangsschicht des Netzes
eingefügt, Alg. 5.1 - Zeile 1. Die Anzahl von Neuronen in der Eingangsschicht ist gleich
der Anzahl aller Argumente der Menge Boolescher Funktionen. Dann beginnt die Entwicklung der verborgenen Schicht und die Anzahl von verborgenen Neuronen wird
gleich 0 gesetzt. Danach wird eine Funktion nach der anderen aus der Funktionsmenge
gewählt, Alg. 5.1 - Zeile 4. In Zeile 5 wird die Bedingung geprüft, ob die gewählte Boolesche Funktion aufgespaltet werden kann. Diese Bedingung unterscheidet sich für die verschiedenen Grundoperationen des Trainingsalgorithmus (siehe Beschreibung von Trainingsmethoden in 4.2.1 und 4.2.5). Zum Beispiel, für OR und EXOR-Dekomposition
gilt:
Solange die gewählte Boolesche Funktion die Einswerte hat, wird ein neues verborgenes
Neuron eingefügt (Alg. 5.1 - Zeile 6), eine entsprechende Transferfunktion k[i] durch die
89
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
90
Funktion FINDK (bf, limit) gesucht (Alg. 5.1 - Zeile 7) und, wenn möglich, von allen
Funktionen in der Funktionsmenge abgespaltet (Alg. 5.1 - Zeile 8). Dabei erhält man einen Gewichtsvektor w[i]. Die Funktionen FINDK() und REDUCTIONOFYSET() (Alg. 5.1
– Zeilen 7 und 8) werden weiter in Algorithmen 5.2 und 5.3 ausführlich beschrieben. Jede
neu ermittelte Transferfunktion und die neuen Gewichte werden zu der entsprechenden
Menge und Matrix hinzugefügt (Alg. 5.1 - Zeilen 9 und 10). Sind alle Boolesche Funktionen zerlegt, d.h. die Menge von k-Funktionen und Gewichten erzeugt, wird die Superposition verwendet (Alg. 5.1 - Zeile 12), um die Abbildung von Neuronen der Ausgangsschicht in die FPGA-Struktur zu ermöglichen.
Algorithmus 5.1 Train – Training des BNN für Abbildung in FPGA-Struktur
Eingabe:
Yset - Menge Boolescher Funktionen
limit- Maximale Anzahl von Eingängen für Neuronen
Ausgabe:
net={Kset, W} - Netz
TRAIN(Yset, limit )
1
Füge eine Eingangsschicht ein
//Start einer verborgenen Schicht
i←0
2
3
for (func ← 0,…,Ny-1) //Ny - Anzahl der Funktionen in der Menge
bf←SELECTFROMYSET(func)
4
5
while ISNOTDECOMPOSED(bf) do
i++
// Füge ein neues Neuron ein
6
k[i] ← FINDK (bf, limit, flag)
7
w[i] ← REDUCTIONOFYSET(k[i])
8
Kset ← ADDTOSET(k[i])
9
W ← ADDTOSET (w[i])
10
//Anpassung der Ausgangsschicht
12 W ←SUPERPOS(W, limit)
13 return net
Im Algorithmus 5.1 (Zeile 7) wird die Funktion FINDK() aufgerufen, die eine Transferfunktion für das eingefügte verborgene Neuron sucht. Der Algorithmus 5.2 beschreibt die
Arbeitsweise dieser Funktion. Als Eingangsparameter bekommt die FINDK() die Boolesche Funktion bf und die gewünschte Anzahl von Eingängen des verborgenen
Neurons limit. Der Wert limit ist gleichzeitig die gewünschte Anzahl von Variablen
für zu suchende Transferfunktion dieses Neurons. Als Ausgabe liefert der Algorithmus
die Boolesche Funktion k zurück. Die zu suchende Funktion soll eine Teilfunktion der
angegebenen Funktion bf sein und wenn möglich, von höchstens limit Booleschen
90
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
91
Variablen abhängen. Hängt die gefundene Transferfunktion von limit Booleschen Variablen ab, ist der Parameter flag gleich 1, und falls die gefundene Transferfunktion von
mehr als limit Booleschen Variablen abhängt, flag =0.
Algorithmus 5.2 FindK – Suche der Transferfunktion eines verborgenen Neurons
Eingabe:
bf – Boolesche Funktion
limit- Anzahl von Eingängen des Neurons
Ausgabe:
k – Transferfunktion des verborgenen Neurons
flag = {1 falls k -Funktion gefunden; 0 sonst}
FINDK (bf, limit, flag)
diff ←Nx -limit; flag ←0; i ←0 //Nx - Variablenanzahl in bf
1
2
while (flag=0 && i<Nx) do
3
if ( min bf !=1)then
xi
4
5
6
7
8
9
10
11
k← min bf
xi
flag ←1
i++
if (flag=1 && diff >1) then
k2←FINDK(k/2,limit,flag2)//k/2 - Hälfte der Wertetabelle der k
if (flag2=1) then k←2*k2 //* -Wiederholung der Wertetabelle der k2
if (flag=1) then return res
else return bf
Der Algorithmus funktioniert folgenderweise. Zunächst wird eine Differenz diff zwischen der Variablenanzahl in der Funktion bf und der gewünschte Anzahl von Variablen
in der zu suchenden Funktion k berechnet, eine Hilfsvariable i initialisiert und flag =0,
Alg.5.2 – Zeile 1. Dann in der while-Schleife (Alg. 5.2 –Zeilen 2-7) wird eine Teilfunktion
der angegebenen Funktion bf gesucht. Diese Teilfunktion soll von Nx-1 Booleschen Variablen abhängen. Solange solche Teilfunktion nicht gefunden (flag=0) und der Hilfsparameter i<Nx, wird das partielle Minimum der Funktion bf nach der Variable xi berechnet. Falls das Minimum keine konstante Funktion 1 sind, Alg.5.2 – Zeile 3, wird die
Teilfunktion k der Funktion bf gefunden, Alg.5.2 – Zeile 4, und flag auf 1 gesetzt,
Alg.5.2 – Zeile 5. Falls in der while-Schleife eine Teilfunktion der angegebenen Funktion
bf gefunden wurde und die Differenz diff>1, Alg. 5.2 – Zeile 7, wird ein rekursiver
Aufruf der Funktion FINDK() durchgeführt, Alg. 5.2 – Zeile 8. Dafür wird eine neue
Boolesche Funktion durch eine Hälfte der Wertetabelle der gefundenen Teilfunktion k
definiert (k/2) und als Eingabeparameter der Funktion FINDK() betrachtet, Alg. 5.2 –
Zeile 8. Die Wertetabelle der Funktion k/2 besteht aus der Hälfte der Wertetabelle der
91
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
92
gefundenen Funktion k und somit hängt von Nx - 1 Booleschen Variablen ab. Die Funktion FINDK() in der Zeile 8 liefert die Funktion k2 zurück, und falls flag2=1, wird die
Funktion k durch die Wiederholung der Wertetabelle der Funktion k2 definiert
(k←2*k2), Alg. 5.2 – Zeile 9. Abhängig vom Wert des flag wird entweder die gefundene Teilfunktion der Funktion bf oder die selbst Quellfunktion bf als Rückgabeparameter zurückgeliefert, Alg. 5.2 – Zeilen 10-11.
Im Algorithmus 5.2 wurde die Funktion FINDK() für OR- bzw. EXOR-Dekomposition
beschrieben. Dies erkennt man aus den Zeilen 3-4 des Algorithmus, wo das partielle Minimum der Funktion bf berechnet wurden. Für die AND- bzw. EXANDDekomposition bleibt der Algorithmus unverändert, nur anstatt des Minimums wird das
partielle Maximum der Funktion bf berechnet.
Algorithmus 5.3 Reduction of Yset – Abspalten der k-Funktion von allen Funktionen in der Funktionsmenge Yset
Eingabe:
k – Transferfunktion des verborgenen Neurons
Ausgabe:
w – Vektor von Gewichten für Neuronen in der Ausgabeschicht des Netzes
REDUCTIONOFYSET(k)
1
for (func ← 0,…,Ny-1) //Ny - Anzahl der Funktionen in der Menge
w[i] ← 1
2
3
for (j ← 0,…,Np-1)
4
if (k[j] =1 && func[j] =0) then
w[i] ← 0
5
6
if (w[i] =1) then
7
for (j ← 0,…,Np-1)
8
if (k[j] =1) then
func[j]← 0
9
10 return w
Da der Algorithmus 5.2 der Funktion FINDK() oben für OR- bzw. EXORDekomposition erklärt wurde, wird Algorithmus 5.3 die Funktion REDUCTIONOFYSET()
auch für OR-Dekomposition angeführt.
Der Algorithmus Reduction bekommt die Boolesche Funktion k als Eingabeparameter
und prüft, ob diese Funktion von jeder Funktion der zu modellierenden Funktionsmenge
abgespaltet werden kann. Dabei wird der Vektor von Gewichten für die Neuronen der
Ausgabeschicht des Booleschen Neuronalen Netzes bestimmt.
Für jedes Neuron der Ausgabeschicht des Netzes bzw. jede Funktion der Funktionsmenge, die durch dieses BNN dargestellt werden soll, Alg. 5.3 – Zeile 1, wird das Gewicht zunächst auf 1 gesetzt, Alg. 5.3 – Zeile 2. Falls es für mindestens einen Einswert der k92
93
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
Funktion einen Nullwert der aus der Menge gewählten Funktion gibt, Alg. 5.3 – Zeile 4,
wird das entsprechende Gewicht in 0 gesetzt, Alg. 5.3 – Zeile 5. Wenn das Gewicht gleich
1 geblieben ist, Alg. 5.3 - Zeile 6, werden die Werte, die aus der Menge der gewählten
Funktionen für jeden Einswert der k-Funktion ausgewählt wurden, Alg. 5.3 – Zeile 8, auf
0 gesetzt, Alg. 5.3 – Zeile 9.
Für die AND-Dekomposition prüft man in der Zeile 4, ob es für mindestens einen Nullwert der k-Funktion einen Einwert der aus der Menge gewählten Funktion gibt. Das Abspalten jeder Funktion in der Zeilen 8-9 wird wie folgt auch geändert: Wenn das Gewicht
gleich 1 geblieben ist, wird der Wert der aus der Menge gewählten Funktion für jeden
Nullwert der k-Funktion, in 1 gesetzt. Für die EXOR bzw. EXAND-Dekomposition
wird die Funktion REDUCTIONOFYSET() hier nicht betrachtet, weil es kein Problem ist,
auch für diese Operationen ein entsprechender Algorithmus zu entwickeln. Dafür wird
vorgeschlagen, die Formeln 4.44-4.49 zu verwenden.
Zur Erhöhung der Wirksamkeit des adaptierten Algorithmus kann man eine Mischung
aus der FINDK–Funktionen für verschiedene Operationen (z.B. OR und AND) verwenden. Eine Erklärung dafür wird am Beispiel 5.1 gegeben, wo die Funktionen FINDK für
OR- und AND-Dekomposition im Algorithmus eine nach anderen aufgerufen werden.
Wenn eine k-Funktion durch die FINDK() geliefert wird, folgt danach den Aufruf einer
entsprechenden REDUCTIONOFYSET-Funktion.
Beispiel 5.1. Es werden die Boolesche Funktionen y1, y7, und y9 aus der Funktionsmenge (Anhang A.1) gewählt. Im Resultat des OR-Trainings können diese Funktionen
durch die OR-Verknüpfung der Transferfunktionen der verborgenen Neuronen k1, k2,
k3, k4 realisiert werden (A.1-A.3). y1=k4 und y7, y9 hängen jeweils von 3 k-Funktionen
ab, wobei gilt: k2 ist auf x1 und x2 definiert, und k1, k3, k4 hängen von 3 Boolesche Variablen x1, x2, x3 ab. Nehmen wir an, dass eine LUT 2 Eingänge hat. Für die direkte Realisierung der Transferfunktionen der Booleschen Neuronen wird der oben beschriebene
adaptierte Trainingsalgorithmus verwendet.
k1= x2x3
k2= x2∨x3
y1 =k1∨k2∧k3
k3 = x1⊕x3
y7 =k3∨k4
k4= x2
k5 = x1☼x3
y9 =k4∨k5
(5.3)
(5.4)
Die erzeugte Netzstruktur wird in Abbildung 5.6 gezeigt. Jedes Neuron in der verborgenen Schicht hat eine eigene Transferfunktion, die sich von den Transferfunktionen aller
anderen verborgenen Neuronen unterscheidet (5.3).
93
94
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
k1
x1
k2
x2
∧
k3
x3
y1
∨
y7
∨
k4
∨
y9
k5
Abbildung 5.6 BNN mit 2-Eingängigen Neuronen
Alle Transferfunktionen hängen von 2 Eingangssignalen ab. Das Ausgangsneuron, das die
Funktion y1 realisiert, wurde in 2 Neuronen aufgespaltet, weil jedes Neuron laut Aufgabenstellung höchstens 2 Eingänge haben darf. Die Spaltung des Ausgangsneurons wurde
durch die Verwendung der Superposition für eine Ausgangsschicht erreicht. Der Algorithmus der Superposition wird in diesem Abschnitt noch beschrieben.
Tabelle 5.2 Wertetabelle der Transferfunktionen k1, k2,…, k5
und der Ausgangsfunktionen y1, y7, und y9
0
1
2
3
4
5
6
7
x1
0
0
0
0
1
1
1
1
x2
0
0
1
1
0
0
1
1
x3 k1
0 0
1 1
0 0
1 0
0 0
1 1
0 0
1 0
k2
0
1
1
1
0
1
1
1
k3
0
1
0
1
1
0
1
0
k4
1
1
0
0
1
1
0
0
k5
1
0
1
0
0
1
0
1
y1
0
1
0
1
0
1
1
0
y7
1
1
0
1
1
1
1
0
y9
1
1
1
0
1
1
0
1
Im Vergleich zu dem Beispiel aus dem Anhang A.1, wo nur 4 k-Funktionen zur Abbildung der 10 y-Funktionen benötigt wurden, braucht man in diesem Fall zur Abbildung
der 3 y-Funktionen schon 5 k-Funktionen, die in der Tabelle 5.2 angegeben sind. Der
adaptierte Algorithmus liefert aber Boolesche Funktionen, die nur von 2 Boolesche Variable abhängen. Dies ermöglicht eine direkte Abbildung der Transferfunktionen von Booleschen Neuronen in eine FPGA-Struktur, deren LUTs nur 2 Eingänge besitzen.
94
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
95
Der Algorithmus der Superposition verwendet Prinzipien, die in den Formeln (5.1) und
(5.2) gezeigt wurden. Weiter wird eine mögliche Realisierung dieses Algorithmus beschrieben.
Algorithmus 5.4 Superpos – Verwendung der Superposition für eine Ausgangsschicht
Eingabe:
W – Gewichtsmatrix des Netzes
limit- Maximale Anzahl von Eingängen für Neuronen
Ausgabe:
W - Gewichtsmatrix, die zur Anzahl von Eingängen angepasst ist
SUPERPOS(W, limit)
1
for (i ← 0,…, Ny)
2
3
4
5
6
7
8
9
10
11
12
13
14
15
nl=0
//Anzahl der Kaskaden in der Ausgangsschicht
nnl=1
//Neuronenanzahl in der Kaskade nl
iOut←1
//Neuronenanzahl in der Ausgangsschicht für Yset[i]
n_inp←limit //Eingangsanzahl der Ausgangsschicht
g←VEKTOR-GEWICHT(W[i])
while g>n_inp do
iOut++
//Neuronenanzahlerhöhung
if nnl != POW(limit, nl)
//Neuronenanzahlerhöhung
then nnl++
//Kaskadenanzahlerhöhung
else nl++
nnl←1
n_inp←nnl*(limit -1)+ POW(limit, nl)
CHANGE(W ) //Anpassung der Gewichte
return W
Eine Alternative zum Algorithmus der Superposition ist die Verwendung der Methode
zur Entwicklung des mehrschichtigen Netzes entsprechend Abschnitt 4.3.1.b. Nachdem
eine verborgene Neuronenschicht aufgebaut ist und Gewichtskoeffizienten für alle Booleschen Neuronen gefunden sind, wird das Training eines weiteren BNN durchgeführt. Als
Eingangssignale des 2. Netzes werden die Ausgabewerte der k-Funktionen des 1. Netzes
verwendet. Dabei wird eine andere Basisoperation für das zweite Training benutzt. Als
Ergebnis erhält man eine weitere Kaskade (weitere Schicht) von Booleschen Neuronen
und eine Ausgangsschicht mit einer anderen Basisoperation. In einigen Fällen führt das
zur Verkleinerung der Anzahl von Eingängen für die Ausgangsneuronen.
In der Tabelle 5.3 werden die Ergebnisse des Trainings für die normalen und adaptierten
OR- und AND-Algorithmen dargestellt. Für das Training wurden einige Benchmarks benutzt. Aus diesen Ergebnissen erkennbar, dass die Anzahl der verborgenen Neuronen für
die adaptierten Algorithmen für LUTs mit 4 Eingängen fast überall größer als die Anzahl
der verborgenen Neuronen ohne Beschränkungen der Anzahl von Eingängen.
95
96
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
Tabelle 5.3 Ergebnisse des adaptierten Algorithmus
#kOR #kOR,4
#inputs #outputs
bench
7
10
5xp1
29
46
7
5
5xp_5
21
37
9
1
9sym1
4
20
14
8
alu4
17
731
5
5
bw_5
11
15
5
9
bw
17
25
15
8
b12
10
49
7
2
con1
4
12
15
38
alcom
38
40
#kAND #kAND,4
26
51
18
39
8
36
17
596
13
13
20
25
10
27
4
10
46
74
Die Bezeichnungen in der Tabelle haben folgende Bedeutung:
#inputs – Anzahl der Booleschen Variablen,
#outputs - Anzahl der Booleschen Funktionen,
bench - verwendeter Benchmark als Quelle der Funktionen,
#kOR, #kAND – Anzahl der verborgenen Neuronen für OR- und AND-Training ohne
Beschränkungen der Anzahl von Eingängen,
#kOR,4, #kAND,4 – Anzahl der verborgenen Neuronen für adaptierten OR- und ANDAlgorithmen für LUTs mit 4 Eingängen.
Nur in einem Fall (AND-Dekomposition bw_5) ist die Anzahl der verborgenen Neuronen für beide AND-Trainings gleich. Dieses Ergebnis wird dadurch erklärt, dass die 5
Booleschen Funktionen in diesem Benchmark nur von 5 Booleschen Variablen abhängen.
Die Beschränkung der Anzahl von Eingängen in LUTs auf 4 Eingänge ist sehr nah zu der
Anzahl von Booleschen Variablen und somit beide Trainingsalgorithmen liefern gleiche
Transferfunktionen für Booleschen Neuronen in der verborgenen Schicht des Netzes.
Das gleiche gilt auch für bw und OR-Dekomposition von bw_5. Der kleine Unterschied
zwischen der Anzahl von verborgenen Neuronen für den normalen und adaptierten Algorithmen offenbart die guten Eigenschaften des normalen Algorithmus, einfache Teilfunktionen zu erzeugen, oder auch das Vorhandensein von Funktionen in der Funktionsmenge, die durch den Algorithmus mit Beschränkung der Anzahl von Eingängen in
LUTs und der gewählten Basisoperation schlecht dekomponierbar sind. Für die Funktionen, die von weit mehr als 4 Variablen (Beschränkung von Eingängen im Algorithmus)
abhängen aber gut dekomponierbar sind, erzeugen beide Trainingsalgorithmen fast die
gleiche Anzahl der verborgenen Neuronen, z.B. Benchmark alcom.
Die Strukturen von Booleschen Neuronalen Netzen nach den ANDTrainingsalgorithmen (mit und ohne Beschränkung der Anzahl von Eingänge in Neuronen) für Benchmark alcom werden im Anhang A.3, Abb. A.2-A.3, dargestellt.
96
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
97
5.2 Hardware-Realisierung von Booleschen Neuronalen
Netzen am Beispiel von Virtex II-FPGA
5.2.1 Methodik
Zur Implementierung eingebetteter Systeme bzw. Anwendungen in FPGAs gibt es viele
Methoden. Das zu realisierende Objekt bzw. System muss dazu auf jedem Fall zunächst
spezifiziert werden. Dafür benutzt man eine Hardware-Beschreibungssprache, eine grafische Eingabe eines Schaltplans oder endlichen Automaten. Am weitesten verbreitet ist die
Verwendung von Hardware-Beschreibungssprachen, zum Beispiel VHDL oder Verilog.
Nach der Beschreibung innerhalb des Entwurfsflusses folgen weitere Schritte wie die
funktionale Simulation, die Synthese und die Implementierung. Erst danach kann man
den realen FPGA mit dem erzeugte Bit-Stream konfigurieren.
Trotz aller Fortschritte in der Synthesetechnologie auf hoher Ebene ist der Abstand zwischen dem Problem-Niveau und dem Implementierungsniveau noch sehr groß. Eine direkte Spezifikation und Beschreibung des zu realisierenden in FPGA Systems durch z.B.
VHDL ist sehr aufwändig. Im Anhang B wird die VHDL-Beschreibung eines kleinen Designs angeführt. Dafür sind mehr als ein Tausend Zeilen des VHDL-Codes erforderlich.
Eine mögliche Lösung dieses Problems wäre die Spezifikation auf der Systemebene mit
einer Sprache, die die automatisierte Transformation dieser Spezifikation in eine ausführbare Anwendung ermöglichen. Eine sehr verbreitete und oft angewendete Sprache, die
für die objektorientierte Spezifikation und für das Design auf der Systemebene benutzt
wird, ist die Unified Modeling Language (UML). Eine effiziente Methodik zur Realisierung von Systemen in FPGA wurde von Fröhlich, Steinbach und Beierlein entwickelt [145]-[146]. Diese Methodik verbindet das Paradigma des Hardware/SoftwareCoDesigns mit dem Konzept Systementwicklung in einer Modell-gesteuerten Architektur (MDA-Model Driven Architecture) [54], [55], [101] und [116]. Für die Beschreibung
des zu realisierenden Objektes wird die UML 2.0 verwendet. Die exakte UMLSystemspezifikation von Software- und Hardware-Teilen wird auf der Basis von Plattformmodellen durch ein spezielles Werkzeug, den MOCCA-Compiler (MOdel Compiler
for reConfigurable Architectures) [110], in eine ausführbare Anwendung transformiert.
Im Folgenden wird das gesamte Verfahren zur Abbildung einer Booleschen Funktion im
FPGA durch ein Boolesches Neuronales Netz mit der Verwendung der UML und
MOCCA-Compiler beschrieben. Ein allgemeines Schema dieses Verfahrens wird in der
Abbildung 5.7 gezeigt. Das gesamte Verfahren besteht aus 2 Prozessen:
•
Erzeugung der Struktur eines Booleschen Neuronalen Netzes,
•
Abbildung dieses Netzes im FPGA.
97
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
98
Die Eingangsdaten für den ersten Prozess bildet eine Boolesche Funktion bzw. eine
Menge Boolescher Funktionen. Die Erzeugung der Struktur und Bestimmung aller Parameter des Booleschen Neuronalen Netzes wird in 3 Prozeduren des 1. Prozesses durchgeführt:
•
Vorbearbeitung der Eingangsdaten,
•
Training des BNN,
•
Darstellung des trainierten BNN durch UML-Modelle.
<<source>>
Boolesche Funkt ion
Prozess 1:
•
Vorbearbeitung der Eingangsdaten
•
Training des BNN
•
Darstellung des BNN durch UML-Modelle
<<file>>
Boolesches neuronales Net z
*.xmi
Prozess 2: Abbildung des BNN in FPGA
•
MOCCA
RTR-System
<<component>>
<<component>>
MainTest Comp
HwTest Comp
<<executable>>
<<Configuration>>
*.exe
*.bit
deploy
deploy
<<Microprocessor>>
<<FPGA>>
h0
h1
Abbildung 5.7 Abbildungsverfahren einer Booleschen Funktion im FPGA
98
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
99
Zunächst wird die angegebene Boolesche Funktion in eine Trainingsmatrix umgewandelt,
die für das Training des BNN verwendet werden kann. Eine Menge Boolescher Funktionen wird in einer Projekt-Datei spezifiziert. In diesem Projekt wird der Name des Projektes, die Anzahl der Booleschen Funktionen in der zu modellierenden Funktionsmenge
und die genauen Dateinamen mit den Pfaden jeder Booleschen Funktion angegeben. Ein
Beispiel eines Projektes zeigt die Abbildung 5.8.
Abbildung 5.8 Projekt -Datei
Beispiel 5.2. Der Projekt-Name ist der Dateiname ohne Erweiterung „y179“. Jede einzelne Boolesche Funktion wird in einer eigenen Datei gespeichert, zum Beispiel „Data/y179/y1.sdt“. Das *.sdt-Format der gespeicherten Funktionen wird durch das
spezielle Werkzeug „XBOOLE-Monitor“ [25][130][144] unterstützt. Die Abbildung 5.9
zeigt das Hauptfenster des XBOOLE-Monitors mit der geöffneten TVL der Booleschen
Funktion y1.
Abbildung 5.9 TVL der Booleschen Funktion y1
im Programmfenster des XBOOLE-Monitors
99
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
100
Zum Training des Booleschen Neuronalen Netzes wird der in vorangehendem Abschnitt
beschriebene Trainingsalgorithmus benutzt. Als Resultat des Trainings werden die Mengen synaptischer Gewichte und Transferfunktionen jedes Neurons sowie eine Struktur
des Netzes erzeugt. Die Eingangsdaten für den zweiten Prozess bildet ein trainiertes Boolesches Neuronales Netz, das durch ein UML-Modell vollständig beschrieben wird. Ein
Beispiel des durch UML beschriebenen trainierten Booleschen Neuronalen Netzes wird
weiter unten angegeben. Eine Darstellung des Netzes durch ein UML-Modell ist für den
2. Prozess erforderlich. Der 2. Prozess transformiert das trainierte Netz in eine FPGAStruktur. Für diese Abbildung wird eine Methode des Hardware/Software-CoDesigns
von in der Laufzeit rekonfigurierbaren (Run-Time Reconfigurable - RTR) Architekturen
benutzt. Diese Methodik wird durch den MOCCA-Compiler [110] unterstützt. Durch den
Compiler wird die Systemprüfung, die Plattformtransformation und Anwendungssynthese
automatisch durchgeführt. Die synthetisierte Anwendung nutzt das Leistungspotenzial
der RTR-Architektur effizient aus und kann direkt ausgeführt werden. Die MOCCAUmgebung wurde nicht für eine spezielle Klasse von Anwendungen entwickelt. Jedoch
wurde MOCCA in [146] für die Beschleunigung von berechnungsaufwendigen Algorithmen im Bereich Boolescher Problemen und Neuronaler Netze als besonders gut geeignet
vorgestellt.
In der Abbildung 5.10 wird das Schema der Arbeitsweise von MOCCA dargestellt. Für
die Entwicklung des MOCCA-Systems wurden folgende Konzepte benutzt:
•
Validierung von Modellen
•
Optimierung (etwa 20 Optimierungsalgorithmen)
•
Eliminierung des Pseudo-Codes
•
Übertragung von globalen Konstanten
•
Unterstützung von Substitutionen
•
Generierung von C++ und VHDL-Code
•
Optimierung von gemeinsamen Ausdrücken etc.
Hier werden nur einige Aspekte der Anwendung von MOCCA gezeigt, da MOCCA nicht
der Bestandteil dieser Dissertation ist. Eine gründliche Diskussion zu MOCCA sowie eine
ausführliche Beschreibung der gesamten Entwicklungsmethode sowie Beispiele sind in
vielen Publikationen, z.B. [15], [81], [110] und [145]-[146] zu finden.
100
101
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
<<source>>
*.xmi
MOCCA
Validierung / Optimierung / ...
Co-Synthese:
SW / HW / Interfaces
<<Generator>>
<<Generator>>
<<Generator>>
C++ Generator
Config Report Generator
VHDL Generator
<<file>>
*.vhdl
<<file>>
*.cpp
GCC - C++ Compiler
XST: Xilinx Synthese Tool
<<component>>
<<component>>
SW
HW
<<executable>>
*.exe
<<Configuration>>
*.conf
<<Configuration>>
*.bit
Abbildung 5.10 Allgemeines Schema von MOCCA
Für die Synthese/Kompilierung der Konfiguration des Bit-Streams/exe-Datei werden
sowohl kommerzielle Tools als auch GNU-Lizenz-Tools verwendet. Für die Synthese des
Bit-Streams, Konfigurierung des FPGAs wird das „Xilinx Synthese Tool“ benutzt. Die
Kompilierung von C++-Quell-Code wird mit dem GCC-Compiler durchgeführt [58].
Nach der Synthese und Kompilierung werden Bit-Stream und exe-Datei in die Anwendung übertragen, die auf der Ziel-Architektur direkt ausgeführt werden kann.
5.2.2 UML-Modelle
Die Plattformmodelle legen Eigenschaften fest, die das Fundament des Entwicklungsprozesses bilden. Jede Plattform wird durch ein spezielles Plattformmodell angegeben. Plattformmodelle abstrahieren von Details der Plattform, aber tragen genug Information, um
101
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
102
Wiederholungen im Designfluss zu vermeiden. Sie sind Basis für die Definition der Deployment-Modelle, die die ausführbare Systeme beschreiben. Die Beziehung zwischen
Plattformmodellen und den konkreten Modellen von Anwendungen wird in Abbildung
5.11 gezeigt.
Abbildung 5.11 Beziehungen zwischen den Modellen [145]
Alle Modelle werden mit der Unified Modeling Language (UML) [117], [135] und einer
speziell entwickelten Aktionssprache - MAL (MOCCA Action Language) - beschrieben.
Die UML 2.0 und die MAL werden zur Spezifikation von Objekt-Orientierten Systemen
auf der Systemebene verwendet. Durch die MAL wird das detaillierte Verhalten von
UML-Modellen spezifiziert. Diese Sprache ist konform zur UML-Action-Semantik.
Design-Modell.
Ein Design-Modell definiert eine von der Realisierung unabhängige Beschreibung von
Use Cases des Systems. Dieses Modell definiert auch die Struktur und das Verhalten des
Systems. Die Systemstruktur wird durch UML-Elemente wie Klassen, Interfaces und Beziehungen zwischen ihnen beschrieben. Das Verhalten des Systems kann mit Operationen und Zustandsautomaten beschrieben werden. Das detaillierte Verhalten des Systems
wird durch UML-Aktionen definiert, wobei MAL als eine Aktionssprache verwendet
wird.
<<focus>>
Main
<<auxiliary>>
Bnn
-app
1
+create() : Main
+destroy() : void
+main() : int
...
calculate
-bnn
1
...
+create() : Bnn
+destroy() : void
+calculate() : boolean
...
Abbildung 5.12 Design-Modell
102
103
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
Beispiel 5.3. Als Beispiel des Hardware/Software-CoDesigns wurde das trainierte Boolesche Netz aus dem Anhang A.1 benutzt. Abbildung A.1 zeigt die Struktur des Netzes. Die
Transferfunktionen der verborgenen Booleschen Neuronen und die Verbindungsgewichte der Booleschen Neuronen der Ausgangsschicht sind in den Tabellen A.7 und A.8 dargestellt. Die 10 Boolesche Funktionen y1, y2, ..., y10 werden durch 4 Boolesche Transferfunktionen k1, k2,…, k4 abgebildet (A.1)-(A.3). Das diesem BNN entsprechende UMLDesign-Modell wird in der Abbildung 5.12 angegeben. Das System besteht aus den beiden
Klassen Main und Bnn. Durch die Methode calculate() der Klasse Bnn wird das trainierte Boolesche Neuronale Netz definiert. Das Objekt der Klasse Main erzeugt das Objekt der Klasse Bnn, definiert die Eingangssignale, ruft calculate() auf und erhält die
entsprechenden Ergebnissignale zurück.
Dieses UML-Modell des Boolesche Neuronales Netzes dient als ein Muster für den Entwurf von BNN in FPGA. In Einzelfällen können zusätzliche Attribute, Parameter und
Methode definiert werden.
Jedes Design-Modell basiert auf einer Design-Plattform, die durch ein DesignPlattformmodell beschrieben ist. Der Inhalt des Design-Plattformmodells hängt vom gewählten Anwendungsgebiet ab. Das Design-Plattformmodell definiert Typen, ihre Wertebereiche und Beziehungen, die für das System-Design verwendet werden. Für jeden Typ
werden die Beziehungen zu anderen Typen, die unterstützten Operationen und Wertebereiche definiert.
<<DesignType>>
object
<<DesignType>>
remote
All arrays created in
the model implictely
inherit from array.
<<DesignType>>
char
base type
<<DesignType>>
object[]
<<DesignType>>
boolean
+asgn( val : boolean ) : void
+cond_and( arg : boolean ) : boolean
+cond_or( arg : boolean ) : boolean
+eq( arg : boolean ) : boolean
+neq( arg : boolean ) : boolean
+not() : boolean
+xor( arg : boolean ) : boolean
<<DesignType>>
float
<<DesignType>>
bit
<<DesignType>>
double
<<DesignType>>
byte
<<DesignType>>
short
base type
<<DesignType>>
string
<<DesignType>>
boolean[]
{LowerBound=-2147483648,
UpperBound=2147483647,
DistanceVector=(int=0,
float=1, double=2, object=3)}
Abbildung 5.13 Design-Plattformmodell: Designtypen
103
<<DesignType>>
int
<<DesignType>>
long
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
104
Beispiel 5.4. In der Abbildung 5.13 wird ein Teil des Design-Plattformmodells gezeigt.
Dieses Beispiel stellt einige Designtypen dar, die in Design-Modellen verwendet werden
können, die auf diesem Modell basieren. Für den Booleschen Typ werden die definierten
Operationen angegeben. Man erkennt, dass es sich um einfache logische Operationen
handelt. In einem Kommentar wird als Beispiel der Wertebereich für den int Typ erläutert. Design-Plattformmodelle enthalten normalerweise auch zusätzliche Typen, z.B. für
die Eingabe und Ausgabe.
Das Design-Plattformmodell wurde nicht speziell für eine konkrete Aktionssprache entwickelt. Der Modell-Compiler verwendet dieses Modell zur Überprüfung und Optimierung des Design-Modells. Nutzer können neue Typen und Operationen zur DesignPlattform hinzufügen, die durch den Compiler als primitive Typen behandelt werden. Für
diese Elemente kann der Nutzer eine geeignete Implementierung in der ImplementationPlattform angeben.
Implementation-Modell.
Das Implementation-Modell beschreibt eine Realisierung des Design-Modells in Bezug
auf Klassen, Komponenten, Artefakte und Beziehungen. Dieses Modell hat die gleiche
Funktionsweise wie das Design-Modell, aber eine andere Realisierung. Das Implementation-Modell beschreibt eine mögliche Realisierung der Struktur und des Verhaltens mit
den Diensten, die durch das Implementation-Modell bereitgestellt sind. Für ein gegebenes
Design-Modell können viele Implementation-Plattformmodelle gegeben werden.
Das Implementation-Modell wird aus einem Design-Modell durch eine Reihe von Transformationen und Abbildungen erzeugt. Jedes Implementation-Modell basiert auf einer
spezifischen Implementation-Plattform (specific implementation platform). Durch die
Implementation-Plattformen wird die Realisierung der Design-Plattformen beschrieben,
wobei jede Implementation-Plattform eine Design-Plattform realisiert. Jede Implementation-Plattform wird durch ein Implementation-Plattformmodell beschrieben. Für jedes
Bearbeitungselement in der Hardware-Plattform soll ein Implementation-Plattformmodell
definiert werden.
Eine Implementation-Plattform besteht aus einer Menge von Typen, Bedingungen,
Transformationen und Tools, die zur Realisierung des Design-Modells verwendet werden
können. Wie Design-Plattformen werden Implementation-Plattformen durch eine Menge
von Klassen und ihre Eigenschaften beschrieben. Dieses Modell wird durch ModellCompiler bei der Plattformabbildung, Bewertung und Synthese verwendet.
104
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
105
Abbildung 5.14 Implementation-Plattformmodell: Typen und Abbildungen
Beispiel 5.5. Ein Design-Modell kann in Software, Hardware oder eine Mischung von
Software und Hardware implementiert werden. MOCCA führt die Transformation vom
Design-Modell des BNN aus dem Beispiel 5.3 in das Implementation-Modell automatisch
durch. Dabei werden C++ und VHDL-RTL Implementation-Plattformen verwendet. Ein
Teil des entsprechenden Implementation-Plattformmodells wird in Abbildung 5.14 gezeigt. Das Diagramm beschreibt Design- und Implementation-Typen, die für die Realisierung von Designtypen verwendet werden.
Deployment-Modell
Ein Deployment-Modell beschreibt die Realisierung des Implementation-Modells in einer
bestimmten Hardware-Architektur. Die Knoten sind Mikroprozessoren, rekonfigurierbare
logische Geräte oder abstrakte Deployment-Plattformen. Gemäß der UML-Spezifikation
kann ein Knoten aus einem Bearbeitungselement (PE-processing element), einem reservierten Speicher und einer Peripherie bestehen. Jedes Anwendungs-Modell basiert auf einer Hardware-Plattform. Eine Hardware-Plattform legt fest, welche ImplementationPlattformen realisiert werden können. Eine Implementation-Plattform kann durch verschiedene Hardware-Plattformen realisiert werden. Eine Hardware-Plattform wird durch
das Hardware-Plattformmodell beschrieben.
Durch die Hardware-Plattform werden die Knoten, Datenkommunikationspfade und
Einschränkungen einer Hardware-Architektur definiert. Hardware-Plattformen geben
keine Mikroarchitektur von Hardware-Knoten an; sie definieren Dienste, die durch die
Hardware-Mittel bereitgestellt werden. Zum Beispiel können die Anzahl der Logik- und
Speicherelemente, die Taktfrequenz und das Kommunikationsprotokolle beschrieben
werden. Das Hardware-Plattformmodell muss genug Information enthalten, um die ge105
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
106
wünschte Designqualität zu ermöglichen. Die Informationen des Hardware-Plattformmodells werden zur Parametrisierung von Implementation-Plattformen verwendet.
Abbildung 5.15 Deployment-Modell
Beispiel 5.6. Die Abbildung 5.15 zeigt ein Teil eines Hardware-Plattformmodells und ein
auf dieser Hardware-Plattform basierendes Deployment-Modell. Die Hardware-Plattform
besteht aus zwei Knoten h0 und h1, die durch einen Kommunikationspfad verbunden
sind. Artefakte, die auf den Knoten abgearbeitet werden können, werden durch die Implementation-Plattform beschrieben. Das Artefakt main.exe ist ein ausführbares Programm für h0. Es manifestiert die Komponente, die die Main-Klasse enthält. Die Struktur und Logik des BNN werden durch eine Komponente beschrieben, die den Knoten
h1 mit einem Bit-Stream bnn.bit konfiguriert.
Die verbundenen Deployment- und Implementation-Modelle ergänzen einander. Das
Deployment-Plattformmodell und das Implementation-Plattformmodell werden ZielPlattformmodelle genannt (TPM - target platform model). Beide sind Plattformspezifische Modelle (platform specific model) [15]. Ein Design-Modell kann auf einer
konkreten Plattform gemäß dem Deployment-Plattformmodell realisiert werden, wobei
das Design-Modell und Design-Plattformmodell nicht geändert werden müssen.
106
107
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
5.3 Hardware/Software-CoDesign
5.3.1 RTR-Manager
Die in der rekonfigurierbaren Hardware realisierten Objekte werden durch einen speziellen Dienst gesteuert, der RTR-Manager [131] genannt wird. Dieser Manager verkapselt die
Details der rekonfigurierbaren Hardware. Die wichtigste Aufgabe dieses Dienstes ist das
Erzeugen und Löschen von Hardware-Objekten. Auf Anforderung werden HardwareObjekte erzeugt und gelöscht. Bei der Erzeugung eines Hardware-Objekts ruft der RTRManager dieses Objekt durch seinen Typ auf. Der RTR-Manager wählt nach einem entsprechenden Objekt aus dem konfigurierten FPGA und liefert zugeordnetes ProxyObjekt an die Anwendung.
Die lokalen Proxy-Objekte dienen der Kommunikation zwischen Software- und Hardware-Objekten. Für jedes Hardware-Objekt, auf das durch ein Software-Objekt zugegriffen wird, wird ein lokales Proxy-Objekt realisiert. Das Proxy-Objekt kapselt den Kommunikationsmechanismus und wird in dem Implementation-Plattformmodell modelliert
(siehe Abbildung 5.16).
1
create/
destroy/
manage
rtr_mgr : RTRManager
1
configure
1
main : Main
h0
h1
1
access
1
1
net : IHwObjekt
1
access
1
net : Bnn
Abbildung 5.16 Software-Architektur von BNN
Beispiel 5.7. Eine grundlegende Architektur des Systems für BNN-Design wird in Abbildung 5.16 gezeigt. Die Instanz main der Klasse Main und das Proxy-Objekt
net:IHwObjekt für das Hardware-Objekt werden in der Software realisiert. Das Objekt net der Klasse Bnn wird durch die rekonfigurierbare Ressourcen eines FPGA realisiert. Jedes Hardware-Objekt wird von der Software durch das Proxy-Objekt aufgerufen.
Die Proxy-Objekte werden durch den RTR-Manager bei der Erfüllung ihrer Aufgaben
107
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
108
unterstützt. Die Proxy-Objekte werden für einen einfachen und schnellen Zugriffmechanismus von Software-Objekten zu Hardware-Objekte verwendet.
Der Lebenszyklus und die Zugriffsmechanismen von Objekten und Komponenten, die in
der rekonfigurierbaren Hardware zu Realisieren sind, werden durch ein Hardware / Software-Interface definiert. Der Lebenszyklus der Hardware-Objekte unterscheidet sich vom
Lebenszyklus der Software-Objekte. Lebenszyklen von Hardware- und SoftwareObjekten beeinflussen einander.
Da eine dynamische Erzeugung bzw. Zerstörung von Objekten in der Hardware uneffizient ist, werden diese Objekte in der Kompilierungszeit erzeugt und in die Bit-StreamKonfiguration synthetisiert. Auf Anforderung werden die Hardware-Objekte belegt. Dabei dient der RTR-Manager als Objektvermittler.
5.3.2 Softwaremodul
Entsprechend den Implementation- und Deployment-Modellen transformiert der
MOCCA-Compiler UML-Design automatisch in die Hardware- und Software-Modulen.
Die auf Mikroprozessor-Knoten zu realisierenden Klassen des Implementation-Modells
werden direkt in C++ umgewandelt. Ein Beispiel dazu wird in der Abbildung 5.17 gezeigt.
/*** Definition of the operations of Class Data.Main ***/
int Main::main( void )
{
...
smartptr<IHwObject> net;
net = RTRManager::getInstance()->createObject( 0 );
do {
... /* Initialisation of input variables */
net->execute<char>( 5, 128 ); /* execute Bnn::init_x(boolean[]) */
net->execute<char>( 5, 2 ); /* execute Bnn::calculate() */
…
if( net->read<bool>( 166 ) ) {
net->execute<char>( 4, 128 ); /* execute Bnn::build_y() */ }
…
}while( ... );
RTRManager::getInstance()->destroyObject( &net );
}
Abbildung 5.17 Software-Realisierung von Main::main
Beispiel 5.8. Die Abbildung 5.17 zeigt einen Teil der Operation Main::main des Softwareteils von eines BNN. Der vollständige Softwareteil der Realisierung von BNN ist im
Anhang B.1 zu finden. Zuerst wird ein Hardware-Objekt des Netzes net durch den
RTR-Manager bereitgestellt. In der Schleife werden die Eingangssignale initialisiert und
108
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
109
dem net-Objekt übergegeben. Dann wird die calculate-Methode ausgeführt. Wenn
die calculate()beendet wurde, werden die Ausgangssignalen aus dem net-Objekt
zurückgelesen. Am Ende der Operation wird das Hardware-Objekt gelöscht.
5.3.3 Hardwaremodul
Das Verhalten der Operationen von Klassen wird gemäß dem FSMD-Modell (Finite State
Machine with Datapath) als Moore Automat [55] modelliert. Jedes Verhalten wird als
Controller mit einem zugeordneten Datenfluss realisiert. Im Datenflussteil sind Elemente
zum Ausführen von Grundoperationen, zur Auswertung von Bedingungen, zur Eingaben, zur Ausgaben, und zur Speicherung von Zwischenergebnissen enthalten. Die Ergebnisse der Bedingungen steuern den Controller. Der Controller wird als Automat realisiert.
Jeder Operation des Datenflusses werden bestimmte Zustände des Automaten zugeordnet. Operationen, die in einem Takt ausgeführt werden, sind mit einem Automatenzustand zugeordnet. Multizyklus-Operationen werden mit mehreren aufeinander folgenden
Zuständen assoziiert. Mehrere unabhängige Operationen werden gemeinsam in einem
Takt ausgeführt. Abhängige Operationen werden in aufeinander folgenden Takten ausgeführt. Zustandsübergänge werden synchron durchgeführt [145].
Im Gegensatz zu Softwarerealisierungen wird ein Verhalten für jedes Hardware-Objekt
separat durchgeführt, d.h. für die Objekte mit dem gleichen Verhalten wird eine eigene
Realisierung des Verhaltens verwendet. Demzufolge ist keine Synchronisation von gleichzeitigen Ausführungen desselben Verhaltens in verschiedenen Objekten erforderlich. Um
Konfliktsituationen zu vermeiden, werden lokale Kopien von Attributen, Eingabe- und
Ausgabeparametern gespeichert. Alle Modifizierungen des Datenflusses werden auf den
Kopien durchgeführt. Wenn keine ausführliche Ausgabe im Modell angegeben wird,
werden diese Kopien am Ende der Berechnung zurück synchronisiert.
109
110
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
fsm : process (CS) is
begin
case CS is
when INIT =>
NS <= S1 ;
when S1 =>
NS <= S2 ;
...
when S20 =>
NS <= FINAL ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig6 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig6 <= '1' ;
else
l_DONE_sig6 <= '0' ;
end if;
end if;
end if;
end process sync;
Synchronisation
Kontroller
dp : process (GO, CLOCK) is
begin
if GO = '0' then
cse_tmp_8_sig62 <= syn_const63_0 ;
...
returnVar_308_sig88 <= syn_const63_0 ;
else
if CLOCK'event and CLOCK = '1' then
case CS is
when S1 =>
returnVar_308_sig88 <= syn_const89_1 ;
syn_tmp_chain_var90 := (Bnn_a and Bnn_b);
Bnn_k01_sig69 <= syn_tmp_chain_var99 ;
syn_tmp_chain_var107 := (Bnn_k01 or Bnn_k02);
...
when others =>
null;
end case;
end if;
end if;
end process dp;
Datenfluss
Abbildung 5.18 VHDL-Realisierung der Funktion Bnn::calculate
Beispiel 5.9. In der Abbildung 5.18 wird ein Teil der VHDL-Realisierung der Funktion
Bnn::calculate gezeigt, der die grundsätzliche Vorgehensweise erkennen lässt. Der
vollständige VHDL-Code ist im Anhang B.2 zu finden. Der Automat wird in einen Controller, einen Datenfluss, und einen Synchronisationsprozess zerlegt. Wenn der Automat
im Endzustand ist, wird der gegenwärtige Automatenzustand und das DONE Signal synchron gesetzt.
110
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
111
5.4 Bewertung experimentaler Ergebnisse
5.4.1 Experimente
Zur Bewertung der vorgeschlagenen Methode von FPGA-Realisierung Boolescher Neuronaler Netze wurden mehrere Experimente durchgeführt. Um möglichst anschauliche
Ergebnisse zu erzielen wurde das schon oben beschriebene einfache BNN aus den Beispielen 5.3-5.9 verwendet. Basierend auf dem in der Abbildung 5.12 dargestellten UMLModell wurden 5 verschieden Design-Modelle BNN1-BNN5 des gegebenen Netzes entworfen. Die genaue Beschreibung dieser Designs ist im Anhang C.1 zu finden. Die 5 gewählten BNN-Modelle dienen der Bewertung von verschiedenen Synthesekonzepten. Auf
diese Weise werden die Vor- und Nachteile der vorgeschlagenen Methode erkennbar. Für
jedes Design-Modell wurden zwei Deployment-Modelle entworfen, welche die Realisierung von BNN in h0 (Mikroprozessor) und h1 (FPGA) beschreiben. Die Ziel-Plattform
bestand aus der C/C++ Implementation-Plattform, der VHDL ImplementationPlattform und der PC-basierenden Deployment-Plattform.
Beispiel 5.10. Im ersten Experiment wurden BNN1-BNN5 zur rekonfigurierbaren Logik
manuell zugeteilt, während die Main-Klasse zum Mikroprozessor h0 zugeordnet ist. Als
rekonfigurierbare Logik h1 wurde eine Xilinx Virtex-II FPGA-Karte (Slave) mit etwa 3
Millionen Gatter verwendet. Mikroprozessor h0 war einen Pentium IV Prozessor (Master). Die Taktfrequenzen sind entsprechend 100 MHz und 2.4 GHz. Der Slave realisiert
das Bnn-Objekt, und der Master ist für die Eingabe und Übermittlung der Eingangsinformation zum Bnn-Objekt und für den Empfang der Ergebnisse von dem Bnn-Objekt
verantwortlich. Master und Slave sind durch einem PCI 33-MHz-Bus verbunden.
Für das zweite Experiment wurden BNN1-BNN5 in der C/C++ Softwareplattform implementiert. Es ist wichtig zu betonen, dass dafür keine Änderung im Design-Modell des
BNN vorgenommen wurde.
Die experimentellen Ergebnisse sind im Anhang C dargestellt. Die Tabellen C.1 und C.2
zeigen die mittlere Kompilationszeiten für die FPGA- und die Software-Realisierungen
Boolescher Neuronaler Netze. Die zeitlichen Messungen der Datenkommunikation und
der Ausführung von BNNs in dem FPGA werden in Tabellen C.3 und C.4 angegeben.
Entsprechende Kommunikations- und Ausführungslatenzen von Software-BNNs sind in
Tabellen C.5 und C.6 zu finden. Die Nullwerte in diesen Tabellen zeigen an, dass die jeweilige Operation durch das Design nicht realisiert wurde. Die Tabelle C.7 enthält die
durch MOCCA vorab geschätzten Ausführungszeiten für die Operation
111
112
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
Bnn::calculate() im FPGA. Quantitative Ergebnisse der FPGA-Realisierungen von
allen Designs werden im Anhang C.3 angegeben. Die Tabellen C.8 und C.9 zeigen die
Ressourceausnutzung für die Realisierung der Klasse Bnn und der Methode
Bnn::calculate().
5.4.2 Qualitätsbewertungen
MOCCA bittet umfassende Möglichkeiten zur Optimierung des CoDesigns. Abhängig
von dem gewählten Optimierungsgrad variiert die gesamte Zeit der Kompilation/Synthese des Design-Modells in die ausführbaren Hardware/Software-Module. Bei
dem in durchgeführten Experimenten eingestellten höchsten Optimierungsgrad wurden
akzeptable Kompilation/Synthesezeiten erreicht. Für das Netz aus unserem Beispiel beträgt die Synthesezeit abhängig von dem Optimierungsgrad 2-27 Sekunden. Ein Vergleich
der durchschnittlichen Kompilationszeiten von MOCCA für FPGA- und SoftwareImplementierungen wird in Abbildung 5.19 gezeigt. Der Parameter tsum gilt als die gesamte Kompilationszeit des Designs und ist die Summe von folgenden Werten:
topt – Optimierungszeit,
tmap – Zeit der Plattformabbildung,
tsyn – Synthese-Zeit.
Die Softwarekompilation ist ca. zweimal schneller als die Hardware-Synthese. Ausführliche Angaben zu Kompilationszeiten für FPGA- und Software-Realisierungen von BNNs
sind im Anhang C.1 (Tab. C.1, C.2 und Abb. C.1, C.2) zu finden.
FPGA
tsum, [s]
Software
30
25
20
15
10
5
0
BNN1
BNN2
BNN3
BNN4
BNN5
Abbildung 5.19 Mittlere Kompilationszeiten von Design-Modellen
zur FPGA- und Software-Implementierungen.
112
113
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
Die gesamte Kompilationszeit des Designs hängt natürlich von der Kompliziertheit des
UML-Modells ab. In zahlreichen Experimenten wurde festgestellt, dass die Kompilation
bis zu 5 Minuten benötigt.
0
2
4
6
8
10
12
14
16
18
[μs]
BNN 1
Design
BNN2
BNN 3
BNN 4
texec
tcomm
BNN 5
Abbildung 5.20 Kommunikations- und Ausführungszeiten von BNNs in FPGA.
Nach der Kompilation/Synthese aller BNN-Designs wurden die Kommunikations- und
Ausführungszeiten der implementierten BNNs gemessen. In Abbildung 5.20 werden die
gemessenen Zeitwerte für FPGA-Realisierungen von BNNs dargestellt.
Alle Zeitmessungen wurden aus der Software heraus vorgenommen. Die Ausführungszeit
texec ist die Summe von Ausführungszeiten aller angerufenen Operationen, einschließlich den Kommunikationsaufwand für das Auslösen und den Test von GO/DONE Signalen:
texec = texec,init_x + texec,calculate + texec,get_y
(5.3)
Kommunikationszeit tcomm besteht aus dem Zeitaufwand zur Datenübertragung zu und
von dem Netz (5.4):
tcomm = twrite,x + tread,y
(5.4)
Da die Kommunikationslatenz durch den PCI-Bus im Vergleich zu der Leistung von
FPGA größer ist, sind Kommunikationszeiten von BNN1, BNN3 und BNN4 größer als
ihre Ausführungszeiten. In den Designs BNN2 und BNN5 werden Eingangs- und Ausgangssignale in eine 32-Bits Integer-Variable kodiert und dementsprechend ist der Zeitaufwand für die Ausführung größer als für die Kommunikation. Zur Kodierung und Dekodierung von der Signalvektoren hat das BNN2 zwei Operationen init_x() und
get_y(). Im BNN5 wird die Kodierung und Dekodierung von Signalvektoren direkt in
113
114
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
der Methode calculate() durchgeführt. Da der Aufruf jeder Operation zu einem zusätzlichen Kommunikationsaufwand führt, ist BNN5 mehr als doppelt so schnell wie
BNN2.
Die Kommunikations- und Ausführungslatenzen von den BNNs, die als Software implementierten wurden, sind in Abbildung 5.21 dargestellt. Detaillierte Messwerte werden
im Anhang C.2 (Tab. C.5 und Tab. C.6) angeführt.
0.0
0.1
1.0
10.0
[μs]
BNN 1
Design
BNN2
BNN 3
BNN 4
texec
tcomm
BNN 5
Abbildung 5.21 Kommunikations- und Ausführungszeiten von BNNs in Software.
Wie auch bei der FPGA-Realisierung enthält texec den Teil des Kommunikationsaufwandes. Zeit tcomm zeigt den Zeitaufwand der gesamten Kommunikation, die durch alle
modellierten Variabelenzuweisungen verursacht werden. Für alle Designs bei der Software-Implementierung ist die Kommunikationszeit kleiner als die Ausführungszeit. In
BNN1, BNN2 und BNN5 ist diese Latenz unbedeutend, weil nur Zeiger oder IntegerWerte übertragen werden. Die Abbildung 5.21 enthält deshalb für diese BNN keine Zeitangaben für die Kommunikation.
Der größte Teil des Zeitaufwandes texec für Hardwareteil, die in den Softwareteil gemessen wurde, wird bei der Kommunikation benutzt. Die tatsächliche Zeit, die für die Berechnung des gesamten Netzes in FPGA benutzt wird, ist im Vergleich zu texec viel kleiner. Wenn der ganze Kommunikationsaufwand berücksichtigt wird, ist die Ausführungszeit von BNNs für Software-Plattform etwa 5-8 Mal kürzer als für die FPGA-Plattform.
Andererseits, wenn die reinen Ausführungszeiten des Mikroprozessors und der rekonfigurierbaren Logik verglichen werden, ergeben sich umgekehrte Verhältnisse.
114
115
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
In der Tabelle C.7 (Anhang C.2 Zeitmessungen) werden die tatsächlichen Ausführungszeiten für die Methode calculate() angeführt, die durch den direkt in der rekonfigurierbaren Logik integrierten Logik-Analysator gemessen wurden. Die minimale Ausführungszeit beträgt 50 ns. Da die Logiktiefe des Netzes 7 ist und die Latenz jeder LUT auf
dem verwendeten FPGA ≈ 7.14 ns beträgt, ist die Ausführungszeit in 50 ns optimal (7· 7.14ns ≈ 50ns).
texec(h1)
texec (h0)
[μs]
0.6
0.5
0.4
0.3
0.2
0.1
0
BNN 1
BNN 2
BNN 3
BNN 4
BNN 5
Abbildung 5.22 Ausführungszeiten von Bnn::calculate() in FPGA und Software.
Die gleiche Ausführungszeit der Methode calculate() für Designs BNN1-BNN4
zeigt, dass die FPGA-Realisierungen von calculate() gleichwertig ist. Die längere
Ausführungszeit für im BNN5 bestätigt die kompliziertere Realisierung calculate()
Methode in diesem Design. Dagegen sind die Ausführungszeiten der Methode
calculate() in Software-Implementierung fast gleichmäßig, was erklärt die sehr ähnliche Software-Implementierung von calculate(). Für die BNN1-BNN4 ist die Ausführung von Bnn::calculate() in FPGA ca. fünfmal schneller als in Software und für
das BNN5 benötigt der FPGA zweimal mehr Zeit als der Mikroprozessor.
5.4.3 Quantitative Bewertungen
Zur effektiven Bewertung von FPGA-Realisierungen Boolescher Neuronaler Netze werden die quantitativen Parameter von generierten Schaltungen ermittelt. Aus dem vorangehenden Abschnitt ist bekannt, dass die Designs BNN1-BNN4 eine Logiktiefe von 7 haben. Im Anhang C.3 werden die weiteren geschätzten quantitativen Parameter angegeben.
Der benötigte FPGA-Bereiche für die Realisierung der Klasse Bnn wird in der Abbildung
5.23 dargestellt, wobei gilt:
#LUT – Anzahl der belegten LUTs,
115
116
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
#FSM - Anzahl der Zustände aller Automaten,
#FF - Anzahl der verwendeten Flip-Flops.
#LUTs
#FSM States
#FF
200
150
100
50
0
BNN 1
BNN 2
BNN 3
BNN 4
BNN 5
Abbildung 5.23 Verwendung des FPGA-Bereiches durch Bnn.
Die Anzahl von LUTs, Flip-Flops sowie die Anzahl der Automatenzustände sind für alle
Realisierungen verschieden. Der Grund dafür besteht in verschieden Realisierungen der
Datenübertragung, der Kodierung und der Dekodierung von Signalvektoren und der Beschreibung Klasse Bnn in den BNN-Designs. Die Flip-Flops werden zur Speicherung
der Eingangs-, Ausgangsdaten und der Zwischenwerte benutzt. Die Verwendung von
Vektoren zur Kodierung und Dekodierung der Eingangs- und Ausgangssignale in Integer-Variablen in BNN1, BNN2 und BNN5 führt zur Vergrößerung der Anzahl erforderlicher FF.
Da die Realisierung von Designs mit weniger Automatenzuständen weniger Ressourcen
benötigt, kann die Anzahl von Zuständen als Kompliziertheitsmaß des entsprechenden
Designs verwendet werden. Aus der Sicht der Kompliziertheit sind BNN3 und BNN4 die
besten Designs aus den fünf verglichen UML-Modellen. Designs mit einer größerer Anzahl von Zuständen enthalten Schleifen oder Bedingungen, durch die eine kompliziertere
Zustandlogik entsteht (BNN1, BNN2 und BNN5).
Die meisten Ressourcen werden durch die Methode calculate() verwendet, die nach
dem Inlining aller k- und y-Funktionen die volle Struktur des BNN abbildet. Durch den
höchsten Optimierungsgrad, der für die Experimente in MOCCA eingestellt wurde, haben die meistens Designs eine gleichwertige FPGA-Realisierungen von calculate().
Nur die Realisierung des Designs BNN5 ist ca. fünfmal aufwendiger als die Anderen
(BNN1-BNN4) und dementsprechend werden mehr LUTs und Flip-Flops benötigt. Das
116
117
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
wurde dadurch verursacht, dass die Methode calculate() im BNN5 nicht nur die
Struktur des Netzes, sondern auch die Kodierung und Dekodierung von Signalvektoren
enthält. Der durch calculate() verwendete FPGA-Bereiche wird in der Abbildung 5.24
dargestellt.
90
#LUTs
#FSM States
#FF
BNN 3
BNN 4
75
60
45
30
15
0
BNN 1
BNN 2
BNN 5
Abbildung 5.24 Verwendung des FPGA-Bereiches durch Bnn::calculate()
Da nur fünfzehn LUTs mit jeweils 4 Eingängen zur Realisierung der Netzstruktur verwendet werden, ist solches BNN-Design und Realisierung in FPGA optimal. 14 Booleschen Neuronen werden durch 12 LUTs realisiert. Die zwei Neuronen in der Ausgangschicht (y10 und y1) wiederholen die Ausgangsignale von verborgenen Neuronen k1 und
k4. Deswegen wird keine zusätzliche LUT zur Abbildung dieser Ausgangneuronen benutzt. Während die 12 LUTs die Logik von Booleschen Neuronen des Netzes abbilden,
werden drei LUTs zur Realisierung der Logik des Automaten benutzt. Diese Realisierung
des Automaten ist noch nicht optimal und kann weiter verbessert werden. In mehreren
Experimenten wurde die erforderliche Anzahl von LUTs für Realisierung der Automaten
durch Optimierungseinstellungen des Modellcompilers auf 1 minimiert. Doch in einigen
Fällen genügt eine LUT nicht, um den sequentiellen Ablauf in FPGA zu realisieren. Dieser Fakt ist aber kein Nachteil von BNN, weil die Realisierung der Logik jedes Booleschen Neuron in FPGA höchstens eine LUT erfordert. Die Verbesserung der Realisierung der Steuerautomaten kann ein weiterer Entwicklungsschritt von MOCCA sein.
Die Analyse der Logik von einzelnen LUTs sowie der ganzen Schaltung, die aus dem
VHDL-Code generiert wird, ermöglicht ein spezielles Synthese-Tool. In dieser Arbeit
wurde dafür Xilinx Synthese Tool (XST) benutzt. XST erlaubt eine Visualisierung von
logischen Elementen der Schaltungen, die für jede einzelne Methode sowie das ganze Ob117
118
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
jekt generiert werden. Im Schaltplan werden alle logische Elemente des FPGA und die
Verbindungen zwischen den Elementen dargestellt, die für die Realisierung der ausgewählten Methode oder des Bnn-Objektes verwenden werden.
Abbildung 5.25 Schaltplan für k3()
Beispiel 5.11. Als Beispiel wird ein Schaltplan für die Methode k3() des Bnn-Objektes
generiert und in der Abbildung 5.25 wiedergegeben. Dieses Schema stellt eine optimale
Realisierung sowohl der Logik des Neurons, als auch der Logik des Automaten dar. Während die LUT3_02 (in rot markiert) ein Boolesches Neuron mit der Transferfunktion k2
in der verborgenen Schicht des BNN abbildet, dient die LUT2_1 der Bestimmung des
Nachfolgezustandes des Automaten. Der in der Abbildung 5.26 dargestellte KarnaughPlan (links) und der Schaltplan (rechts) der LUT3_02 beweisen die Korrektheit der Realisierung des BN k3().
a)
b)
Abbildung 5.26 Karnaugh-Plan und Schaltplan von LUT3_02 für das BN k3()
118
KAPITEL5. HARDWARE-REALISIERUNG VON BNN IM FPGA
119
Die Schaltpläne für die Funktionen y0-y9 werden im Anhang C.4 Abbildungen C.7-C.17
dargestellt.
In diesem Kapitel wurde eine neu Methode zur Realisierung Boolescher Neuronaler Netze in rekonfigurierbaren Rechenarchitekturen vorgestellt. Die Beschreibung von BNN
durch UML-Modelle gewährleistet eine einfache, schnelle und flexible Spezifikation von
verschiedenen BNN-Designs. Ein plattformunabhängiges Design-Modell kann durch den
MOCCA-Compiler in ausführbare Hardware/Software Module sehr schnell und effizient
automatisch transformiert werden. Dabei ist es von der großer Bedeutung, dass verschiedene BNN-Realisierungen schnell erzeugt werden können, ohne das Systemdesign ändern
zu müssen. Dafür wurde eine nützliche Kombination des MDA-Konzepts und des
Hardware/Software CoDesigns angewendet.
Die Ergebnisse der durchgeführten Experimente zeigen, dass die Boolesche Neuronale
Netze besonders für die Hardware-Realisierung auf FPGA-basierten rekonfigurierbaren
Rechenarchitekturen geeignet sind. FPGA-Strukturen erlauben eine hohe Parallelität bei
den Berechnungen und eine schnelle Rekonfigurierbarkeit bei der Realisierung eines anderen BNN-Designs. Durch die Verwendung von Booleschen Neuronen in Neuronalen
Netzen für die Abbildung Boolescher Funktionen in FPGA wird die Anzahl erforderlicher CLB für die Realisierung jedes Neurons deutlich vermindert. Jedes Boolesche Neuron mit seiner Logik kann direkt in eine einzige LUT abgebildet werden, was einen großen Vorteil im Vergleich zu bekannten FPGA-Realisierungen von Neuronen ist. Die
Struktur des trainierten Netzes wird eins-zu-eins in das FPGA, als ein logisches Netzwerk
von LUTs, abgebildet.
Um eine hohe Anschaulichkeit zu erreichen, wurden alle Beispiele in diesem Kapitel mit
einem kleinen und sehr einfachen Netz erläutert. Weitere Experimente komplizierteren
Logikdesigns für BNNs zeigen ähnliche Ergebnisse. Obwohl die FPGA-Realisierung von
Booleschen Neuronalen Netzen im Vergleich zu Software-BNN viel schneller sind, hat
die Kommunikation zwischen Objekten einen großen Einfluss auf die Berechnungsgeschwindigkeit. Der uneffektive Datenaustausch zwischen dem Mikroprozessor und der
rekonfigurierbaren Logik und die hohe Kommunikationslatenz ist ein Problem. Zur Vergrößerung der Systemleistung sollten die Objekte auf die verschiedenen Architekturelemente so aufgeteilt werden, so dass die Kommunikation über den PCI-Bus minimiert
wird. Das ist besonders wichtig, wenn die Kommunikationslatenzen die Ausführungslatenzen der Operation überschreiten. Im Systemdesign sollten bevorzugt alle oft angefragte Daten lokal gespeichert werden. Die Anzahl von Methoden, auf die von entfernten
Objekten zugegriffen werden, aber die keinen angemessenen Betrag zur Arbeit leisten,
sollte minimal sein.
119
KAPITEL 6. ZUSAMMENFASSUNGEN UND AUSBLICK
120
Kapitel 6
Zusammenfassungen
In der vorliegenden Arbeit wurden die Darstellungsmöglichkeiten Boolescher Funktionen
durch Neuronale Netze untersucht und eine neue Art von Neuronalen Netzen – Boolesche Neuronale Netze - entwickelt. Das Basiselement Boolescher Neuronaler Netze ist
ein neuartiges Boolesches Neuron, das direkt mit Booleschen Signalen operiert und dafür
ausschließlich Boolesche Operationen benutzt. Für das Training und die Anwendung der
BNN wurden geeignete Algorithmen und Verfahren erarbeitet. Eine neue Methode zum
Aufbau von BNN mit einem sequentiellen Training wurde vorgestellt. Es wurde eine Variante zur Architektursynthese der BNN entwickelt.
Da das BNN einen sequentiellen Trainingsalgorithmus benutzt, treten Probleme iterativer
Trainingsmethoden wie z.B. lokale Minima, lange Trainingszeit etc. nicht auf. Es wird eine schnelle Konvergenz des Trainingsalgorithmus für BNN garantiert. Das Netz findet
die optimale Netzwerkstruktur und die optimalen Netzparameter selbst. Die entwickelten
BNN besitzen bedeutende Vorteile im Vergleich zu bekannten Booleschen Neuronalen
Netzen, die sowohl iterative als auch sequentielle Trainingsalgorithmen (STA) verwenden.
Der beim Training notwendige Speicherbedarf wurde deutlich vermindert. Die Trainingszeit bleibt angemessen. Durch die Verwendung Boolescher Neuronen mit Booleschen
Transferfunktionen wird auch die Berechnungszeit für die Konvertierung des Eingangsvektors in das Ausgangssignal wesentlich reduziert.
Mit dem entwickelten Trainingsalgorithmus des BNN steht ein spezielles Dekompositionsverfahren Boolescher Funktionen bereit. Eine Menge von Booleschen Funktionen
A={y1(x), y2(x), ..., yNy(x)}, x=(x1, x2, x3,…, xn) wird beim Training in gemeinsame
einheitliche Boolesche Basisfunktionen k1(x), k2(x), ..., kNz(x) dekomponiert, die als
Transferfunktionen der verborgenen Neuronen betrachtet werden. Die Booleschen Basisfunktionen hängen vom Vektor der Eingabensignale x ab. Eine Verknüpfung der ermittelten k-Funktionen durch Basisoperation Ω∈{∧, ∨, ⊕, ☼} bildet die gegebene Boolesche Funktion oder Funktionsmenge. Aus den k-Funktionen werden alle gegebenen Booleschen Funktionen gebildet.
120
KAPITEL 6. ZUSAMMENFASSUNGEN UND AUSBLICK
121
Da das Boolesches Neuron nur die Booleschen Signale bearbeitet und nur die Boolesche
Operationen dafür benutzt, sind die Boolesche Neuronale Netze besonders geeignet für
die Hardware-Realisierung in FPGA-basierten RTR-Systemen. Durch die Verwendung
des Booleschen Neurons für die Modellierung Boolescher Funktionen in FPGA wird das
Problem der ansonsten großen Anzahl von erforderlichen CLB für die Abbildung jedes
Neurons gelöst. Die Anzahl der für die Realisierung eines Neurons notwendigen LUTs
wurde auf 1 reduziert. Folglich können in einem CLB eines Virtex2-FPGAs sogar 4 Boolesche Neuronen realisiert werden. Jedes Boolesche Neuron mit seiner eigenen Logik
kann dabei direkt in eine LUT abgebildet werden, was ein großer Vorteil im Vergleich zu
bekannten FPGA-Realisierungen von BNN ist [34], [63], [64], [80], [176] und [177].
Die entwickelten Booleschen Neuronalen Netze haben sich als effiziente Modelle Boolescher Funktionen bewährt. Sie gewährleisten die Lösung der meisten klassischen Probleme der Modellierung Boolescher Funktionen durch Neuronale Netze. Anderseits ist ein
Boolesches Neuronales Netz mit seinen Booleschen Neuronen kein „Allheilmittel“, das
alle Probleme löst. Das Spektrum der Aufgaben, die durch die aus Booleschen Neuronen
aufgebauten Neuronalen Netze gelöst werden können, beschränkt sich auf das Gebiet der
Booleschen Logik. Das heißt, die Ein- und Ausgabedaten des zu modellierenden Objektes
müssen in Boolesche Werte umgewandelt werden, um eine Anwendung von BNN zu ermöglichen.
Alle in der Arbeit vorgestellten Algorithmen und Verfahren wurden programmiert und
getestet. Basis dafür bilden die Algorithmen zum Training der BNN. Mit den klassischen
Neuronen und Booleschen Neuronalen Netzen wurden im Kapitel 3 einige neue Lösungen für das Problem der linearer Separierbarkeit formuliert. Dieses Kapitel trägt sehr zum
Verständnis der Probleme bei, die bei der Darstellung Boolescher Funktionen durch Neuronale Netze auftreten. Den Schwerpunkt dieser Arbeit bilden das Boolesche Neuron und
die Booleschen Neuronalen Netze. Dazu wurde in Kapitel 4 die Struktur des Booleschen
Neurons angegeben und eine exakte mathematische Beschreibung spezifiziert. Danach
wurde gezeigt, wie die Booleschen Neuronalen Netze aus Booleschen Neuronen aufgebaut werden. Hierzu wurden Trainings- und Anwendungsalgorithmen für BNN, ihre
Strukturen und Eigenschaften beschrieben. Ein neues Dekompositionsverfahren für eine
Menge Boolescher Funktionen wurde am Beispiel einer AND-Dekomposition gezeigt.
Eine Anwendung der Hardware-Realisierungen der entwickelten Booleschen Neuronalen
Netze in RTR-Systemen wurde im Kapitel 5 vorgestellt. Für eine äußerst kompakte Abbildung der BNN in eine FPGA-Struktur wurde der Trainingsalgorithmus des BNN angepasst und eine Darstellung des BNN durch die UML-Modelle anhand MDA-Technologie
für das Hardware/Software-Codesign verwendet.
121
KAPITEL 6. ZUSAMMENFASSUNGEN UND AUSBLICK
122
Zusammenfassend lässt sich feststellen, dass die entwickelten Booleschen Neuronalen
Netze einen Beitrag zum Entwurf komplexerer Boolescher Schaltungsnetzwerke leisten.
Durch die Verwendung Boolescher Neuronen für den Aufbau Boolescher Neuronaler
Netze wurde eine kompakte Darstellung und eine schnelle Berechnungsweise Boolescher
Funktionen geschaffen. Dadurch ist eine effiziente Hardware-Realisierung der BNN in
FPGA-Strukturen möglich. Die Fähigkeit der Künstlichen Intelligenz bzw. der Neuronalen Netze, neue Erkenntnisse zu erzeugen, wird erfolgreich bei der Modellierung Boolescher Funktionen angewendet. Durch die Verwendung Boolescher Neuronen und Neuronale Netze ergibt sich eine neue Abbildungsmöglichkeit Boolescher Funktionen in
FPGA.
In dieser Arbeit wurden Boolesche Neuronale Netze als effizientes Modell Boolescher
Funktionen vorgestellt. Für die zukünftige Entwicklung Boolescher Neuronaler Netze
und deren Anwendung zur Modellierung Boolescher Funktionen kann es darüber hinaus
von Bedeutung sein,
ƒ neue Architekturen und Paradigmen, wie z.B. FB-Netze, Kohonen-Karte [77],
Hopfield-Netze [71] etc., basierend auf dem Booleschen Neuron zu erarbeiten.
Dies kann die Anwendung von BNN zur Lösung von Aufgaben, wie z.B. der
Klassifizierung, Mustererkennung, Vorhersage oder Optimierung ermöglichen.
ƒ die Verwendung von TVL für die Darstellung innerer Daten in Trainingsalgorithmen Boolescher Neuronaler Netze. Dadurch könnte die Berechnungsleistung von
BNN noch erhöht werden.
ƒ die Trainingsalgorithmen für die Anwendung der BNN zur Dekomposition Boolescher Funktionsmenge weiter zu verbessern.
Basierend auf Ergebnisse dieser Arbeit sollten weitere Forschungen in folgenden Richtungen fortgesetzt werden:
ƒ Abbildungsmethoden beliebiger BNN-Strukturen in FPGA mit und ohne OnChip-Training.
ƒ Erhöhung der Abbildungseffizienz Boolescher Neuronaler Netze in FPGAStrukturen basierend auf dem Hardware/Software-CoDesign für RTR-Architekturen.
ƒ Optimierung der Beschreibung von Booleschen Neuronalen Netzen durch UMLModelle.
122
123
LITERATURVERZEICHNIS
LITERATURVERZEICHNIS
[1]
Aizenberg, I. Solving the Parity n Problem and other Nonlinearly Separable Problems Using a single Universal
Binary Neuron. Advances in Soft Computing. Springer Series In book "Computational Intelligence, Theory and
Application" (B. Reusch – Ed.) (Proceedings of the 9th International Conference on Computational Intelligence), Springer, Berlin, Heidelberg, New York, pp. 457-471, 2006.
[2]
Aizenberg, I., Aizenberg, N., Krivosheev, G. Multilayered and Universal Binary Neurons: Learning algorithms,
applications to image processing and recognition. In Lectures Notes in Artificial Intelligence, Berlin: SpringerVerlag, Vol.1715: Machine Learning an Data Mining in Pattern Recognition – Proc of the First International
Workshop MLDM’99, Leipzig, Germany, September 1999.
[3]
Aizenberg, I., Aizenberg, N., Vandewalle, J. Multy-Valued and Universal Binary Neurons: Theory, Learning and
Applications. Boston, MA, Kluwer, 275 pp., ISBN 0-7923-7824-5, 2000.
[4]
Aizenberg, I., Moraga, C. and Paliy, D. A Feedfoeward Neural Network based on Multi-Valued Neurons. In
Computational Intelligence, Theory and Applications. Advances in Soft Computing , XIV, (B. Reusch - Ed.),
Springer, Berlin, Heidelberg, New York, pp. 599-612, 2005.
[5]
Amaldi, E. and Kann, V. The complexity and approximability of finding maximum feasible subsystems of linear
relations. Theoret. Comput. Sci. 147, pp. 181-210, 1995.
[6]
Amaldi, E. From finding maximum feasible subsystems of linear systems to feed forward neural network design, PhD thesis No. 1282, Department of Mathematics, Swiss Federal Institute of Technology, Lausanne, 1994.
[7]
Amaldi, E. On the complexity of training perceptrons. Artificial Neural Networks, Elsevier Science Publishers
B.V., Amsterdam, pp. 55-60, 1991.
[8]
Amaldi, E., Bertrand, G. Two Constructive Methods For Designing Compact Feedforward Networks Of
Threshold Units.Int. J. of Neural Systems, Vol.8, No.5-6, pp. 629-645, 1998.
[9]
Amaldi, E., Diderich, C. and Hauser, R. On the probabilistic and thermal perceptron algorithms," manuscript,
1998.
[10]
Arora, S., Babai, L., Stern, J. and Sweedyk, Z. The hardness of approximate optima in lattices, codes, and systems of linear equations. J. Comput. Syst. Sci. 54, pp. 317-331, 1997.
[11]
Bade, S., Hutchings, R. FPGA-based stochastic neural networks-implementation. In Proceedings of the IEEE
Workshop on FPGAs for Custom Computing Machines, pp. 189-198, 1994.
[12]
Barthel, R. Grundlagen einer Booleschen Signaltheorie. Wiss. Schriftenreihe der Technischen Hochschule KarlMarx-Stadt 13/1984, Sektion Informationstechnik 112p., 1984.
[13]
Bartlett, P., Shai, B-D. Hardness results for neural network approximation problems.Theoretical Computer Science Volume 284 , Issue 1, pp. 53-66, 2002.
[14]
Bartlett,P., Maass, W. Vapnik-Chervonenkis dimension of neural nets. In The Handbook of Brain Theory and
Neural Networks. pp. 1188-1192. MIT Press, 2003.
[15]
Beierlein, T., Fröhlich, D. and Steinbach, B. UML-Based Co-Design of Reconfigurable Architectures. In Proceedings of the Forum on Specification and Design Languages (FDL’03), Frankfurt a.M., Germany, 2003.
[16]
Beierlein, T., Fröhlich, D., Steinbach, B. Object-Oriented Co-Design for Run-Time Reconfigurable Architectures with UML. in: Computer - Aided Design of Discrete Devices - CAD DD 2004, Proceedings of the Fifth
International Conference , Minsk, Belarus, Volume 1, pp. 23 – 30, 2004.
[17]
Beierlein, T., Fröhlich, D., Steinbach, B. UML-Based Co-Design for Run-Time Reconfigurable Architectures. In
Proceedings of the FORUM on Specification and Design Languages, pp. 285 - 296, Frankfurt, Germany, September 23 - 26, 2003.
[18]
Bishop, C. Neural Networks for Pattern Recognition. New York: Oxford University Press, 1995.
[19]
Biswas, N. and Kumar, R. A new algorithm for learning representations in Boolean neural networks.Current
Science Vol.59, No. 12, 25 Jun, 1990.
123
124
LITERATURVERZEICHNIS
[20]
Blake, J., Maguire, L., McGinnity, T., Roche, B., and McDaid, L. The Implementation of Fuzzy Systems, Neural
Networks and Fuzzy Neural Networks using FPGAs, Information Sciences: An International Journal, Elsevier,
pp. 151-168, No. 112, 1998.
[21]
Blumer, A., Ehrenfeucht, A., Haussler, D., and Warmuth, K., Learnability and the Vapnik-Chervonenkis Dimension", J. ACM, Vol. 36, pp. 929-965, 1989.
[22]
Bobda, Ch. Synthesis of Dataflow Graphs for Reconfigurable Systems Using Temporal Partitioning and Temporal Placement. PhD thesis, Paderborn University, Germany, April 2003.
[23]
Bochman, D. Einführung in die strukturelle Automatentheorie. Berlin: Verlag Technik, München: HanserVerlag, 1975.
[24]
Bochman, D., Posthoff, Ch. Binäre dynamische Systeme. Berlin: Akademie-Verlag, München; OldenburgVerlag, Moskau: Energoatomisdat, 1981.
[25]
Bochman, D., Steinbach, B., Logikentwurf mit XBOOLE. Verlag Technik, Berlin, 1991.
[26]
Bochmann, D., Dresig, F., Steinbach, B. A new decomposition method for multilevel circuit design. The Proceeding of "The European Conference on Design Automation", Amsterdam, The Netherlands, pp. 374 - 377,
1991.
[27]
Booch, G., Rumbaugh, J., Jacobson, I. Das UML - Benutzerhandbuch, Aus dem Amerikan. Von Kahlbrandt, B.
und Reder, D. - Bonn Addison-Wesley-Longman, 561p., 1999.
[28]
Borgelt, C., Klawonn, F., Kruse, R., Nauck, D. Neuro-Fuzzy-Systeme. 3.Auflage Vieweg Verlag, 434 p. ISBN 3528-25265-0, Wiesbaden, 2003.
[29]
Bottou, L., Vapnik, V. Local learning algorithms. Neural Computation, Vol. 4, pp. 888-900, 1992.
[30]
Brown, S., Francis, R., Rose, J. and Vranesic, Z. Field-Programmable Gate Arrays. Kluwer Academic Publishers,
228 p., 1992.
[31]
Bryant, R. Graph-Based Algorithm for Boolean Function Manipulation, IEEE Trans. Comp., vol C-35, pp. 67769, 1986.
[32]
Caianiello, E. Outline of the theory of thought processes and thinking machines. J. of Theor. Biol., 2, pp. 204235, 1961.
[33]
Campbell, C. Constructive learning techniques for designing neural network systems. In Neural Network Systems, Techniques and Applications ed. C. T. Leondes, Academic Press, San Diego, 1997.
[34]
Charles, E.C., Blanz, W.E. GANGLION – a fast field-programmable gate array implementation of a connectionist classifier. IEEE Journal of Solid-State Circuits, 27(3), pp. 288-299, March, 1992.
[35]
Chaudhari, N., Tiwari, A. Extending ETL for multi-class output. International Conference on Neural Information Processing, 2002 (ICONIP'02). In, Proc. Computational Intelligence for E-Age, Asia Pacific Neural Network Asscoication (APNNA), Singapore, pp.1777-1780, 2002.
[36]
Chu, A. A neural-based boolean function generator. Int. J. Electronics, vom. 74, no. 1, pp. 21-34, 1993.
[37]
Chuanyj, J., Demetri, P. Capacity of two-layer feedforward neural networks with binary weights. IEEE Trans.
Info. Theory, vol. IT-44, no. 1, pp. 256-268, Jan. 1998.
[38]
Cloutier J., Cosatto E., Pigeon S., Boyer F. and Simard P. VIP: an FPGA-based processor for image processing
and neural networks. In Proc. MicroNeuro, pp. 330-336, 1996.
[39]
Compton, K., Hauck, S. An Introduction to Reconfigurable Computing, Invited Paper, IEEE Computer, April,
2000.
[40]
Davis, L. Handbook of genetic algorithms, Von Nostrand Reinhold, 1991.
[41]
Deolalikar, V. Mapping Boolean functions with neural networks having binary weights and zero thresholds.
IEEE Tran. on Neural Networks 12(4), pp.1-8, 2001.
[42]
Deolalikar, V. New approaches to learning and classification in feedforward neural networks, M. Tech. Dissertation, Indian Institute of Technology, Bombay, July 1994.
[43]
Diuk, B., Samoylenko, A. Data Mining: Lehrkurs. Piter Press, 368p., 2001.
[44]
Drechsler, R. Ordered Kronecker Functional Decision Diagrams und ihre Anwendung. Reihe Informatik. Modell Verlag Karben, 1996.
124
125
LITERATURVERZEICHNIS
[45]
Drechsler, R., Becker, B. Graphenbasierte Funktionsdarstellungen, B. G. Teubner Stuttgart, 1998.
[46]
Drechsler, R., Sarabi, A., Theobald, M., Becker, B., Perkowski M. Efficient representation and manipulation of
switching functions based on Ordered Kronecker Functional Decision Diagrams, in Design Automation Conf.,
pp.415-419, 1994.
[47]
Dresig, F., Kümmling N., Steinbach, B., Wazel, J. Programmieren mit XBOOLE, Wissenschaftliche Schriftenreihe Technische Universität Chemnitz, Chemnitz, 1992.
[48]
Eldredge, J., Hutchings, B. RRANN: a hardware implementation of the backpropagation algorithm using reconfigurable FPGAs. .In Proceedings of the IEEE World Conference on Computational Intelligence, 1994.
[49]
Franco, L. A measure for the complexity of Boolean functions related to their implementation in neural networks. http://www.citebase.org/, 25 p., submitted on Nov. 9. 2001.
[50]
Forcada, M., Carrasco, R. Finite-state computation in analog neural networks: steps towards biologically plausible models? Emergent Neural Computational Architectures Based on Neuroscience, Lecture Notes in Computer Science, Springer 2036, pp.487-501, 2001.
[51]
Frean, M. A "thermal" perceptron learning rule. Neural Computation 4(6), pp. 946-957, 1992.
[52]
Frean, M. Small nets and short paths. PhD thesis, Department of Physics, University of Edinburgh, Scotland,
1990.
[53]
Frean, M. The upstart algorithm: A method for construction and training feedforward neural networks. Neural
Computation, 2(2), pp.198-209, 1990.
[54]
Gajski, D. and Vahid, F. Specification and Design of Embedded Hardware-Software Systems. IEEE Design
and Test of Computers, pages 53–66, 1995.
[55]
Gajski, D.D. Principles of Digital Design. Prentice Hall Inc., 1997.
[56]
Gallant, S. Perceptron-based learning algorithms," IEEE Trans. Neural Networks 1, pp. 179-191, 1990.
[57]
Gallant, S. Three constructive algorithms for network learning. In Proc. 8th Ann Conf of Cognitive Science
Soc. Amherst, pp. 652-660, August 1986.
[58]
GCC, the GNU Compiler Collection. http://gcc.gnu.org/
[59]
Girau, B., LORIA. Dependencies of composite connections in Field Programmable Neural Arrays, NeuroCOLT2 Technical Report Series NC-TR-99-001, June, 1999.
[60]
Golea, M., Marchand, M. A growth algorithm for neural network decision trees. Europhysics Letters, 12(3) pp.
205-210, 1990.
[61]
Gray, D., Michel, A. A training algorithm for binary feed forward neural networks. IEEE Tran. on Neural Networks 3(2), pp.176-194, 1992.
[62]
Gschwendtner A. B. DARPA Neural Network Study. AFCEA International Press, 60 p., 1988.
[63]
Gschwind, M., Salapura, V., Maischberger, O. A Generic Building Block for Hopfield Neural Networks with
On-Chip Learning. IEEE International Symposium on Circuits and Systems, Atlanta, GA, May 1996.
[64]
Gschwind, M., Salapura, V., Maischberger, O. Space efficien neural net implementation. In Proc. of the Second
International ACM/SIGDA workshop on Field-Programmable Gate Arrays, Berkeley, CA, February 1994.
[65]
Gupta, R., Micheli, G. Readings in hardware/software co-design. Giovanni de Micheli, Rolf Ernst, Wayne
Wolf, chapter Hardware-Software Cosynthesis for Digital Systems, pages 5–17. Volume of Micheli [40], 2002.
[66]
Hand, D., Mannila H. and Smyth P. Principles of Data Mining (MIT Press), 2001.
[67]
Hebb, D. The Organization of Behavior. New York City, Wiley Publications, 1949.
[68]
Henkel, J., Ernst, R., Benner, T. Readings in hardware/software co-design / Giovannide Micheli, Rolf Ernst,
Wayne Wolf, chapter Hardware-Software Cosynthesis for Microcontrollers, pages 18–29. Volume of Micheli
[40], 2002.
[69]
Hertwig, A., Brück, R. Entwurf digitaler Systeme, chapter 5.3 Field Programmable Gate Arrays, pages 112–134.
Carl Hanser Verlag München Wien, 2000.
[70]
Hertz, J., Krogh, A., Palmer, R. Introduction to the Theory of Neural Computation, Addison-Wesley, Reading,
Mass., 1991.
125
126
LITERATURVERZEICHNIS
[71]
Hopfield, J. Neural networks and physical systems with emergent collective computational abilities. In Proc.
Natl. Acad. Sci. USA, №79, pp. 2554-2558, 1982.
[72]
IBM/Rational. The Rational Unified Process, http://www-306.ibm.com/software/awdtools/rup/, January
2004.
[73]
Kebschull, U., Schubert, E., Rosenstiel, W. Multilevel Logic Synthesis Based on Functional Decision Diagrams,
Proc. EDAC, pp. 43-47, 1992.
[74]
Kim, J., Ham, B. and Park, S.-K. The learning of multi-output binary neural networks for handwriting digit recognition. Proc. of 1993 International Joint Conference on Neural Networks (IJCNN), 1, pp.605-508, 1993.
[75]
Kim, J., Park, S.-K. The geometrical learning of binary neural networks. IEEE Tran. Neural Networks 6(1),
pp.237-247, 1995.
[76]
Kim, J., Roche, J. Covering cubes by random half cubes, with applications to binary neural networks. Journal of
Computer and System Science 56(2), pp.223-252, 1998.
[77]
Kohonen, T. Self-organized formation of topologically correct feature maps. Biological Cybernethics. v.43. рр.
56-69, 1982.
[78]
Kohut, R. Modeling of Boolean Functions using Neural Networks. Proceeding of Graduiertenkolleg "Space
Statistic". Reports for DFG, Freiberg, pp. 107-120, 2003.
[79]
Kohut, R., Steinbach, B. Decomposition of Boolean Function Sets for Boolean Neural Networks. in: Steinbach,
B. (Hrsg.): Boolean Problems, Proceedings of the 5th International Workshops on Boolean Problems, Freiberg,
Germany, September, 2004.
[80]
Kohut, R., Steinbach, B. The Structure of Boolean Neuron for the Optimal Mapping to FPGAs. The Experience of Designing and Application of CAD Systems in Microelectronics - Proceedings of the VIII-th International Conference CADSM 2005. Lviv – Polyana, Ukraine, 2005.
[81]
Kohut, R., Steinbach, B., Fröhlich D. FPGA Implementation of Boolean Neural Networks using UML Boolean Problems, Proceedings of the 7h International Workshops on Boolean Problems, September 2006 Freiberg
University of Mining and Technology, Freiberg, 2006.
[82]
Kohut, R., Steinbach, B. Boolean Neural Networks. In WSEAS Transactions on Systems, Issue 2, Volume 3,
pp. 420 - 425, April 2004.
[83]
Kröse, B., v.d. Smagt, P. An introduction to Neural Networks. University of Amsterdam, 1996.
[84]
Kühnrich, M. Ternärvektorlisten und ihre Anwendung auf binäre Schaltnetzwerke. Dissertation A. Karl-MarxStadt: Tchnische Hochschule, 1979.
[85]
Lang, Ch. Bi-Decomposition of Function Sets using Multi-Valued Logic. Dissertation thesis, Freiberg University of Mining and Technology, Germany, 2003.
[86]
Lang, Ch. Mehrfachnutzung von Schaltungsteilen bei der dekompositorischen Synthese von kombinatorischen
Schaltungen. Diploma thesis, Technische Universität Chemnitz, Germany, 1995.
[87]
Lang, Ch., Steinbach, B. Decomposition of Multi-Valued Functions into Min- and Max-Gates. in: Proceedings
of the 31st IEEE International Symposium on Multiple-Valued Logic, Warsaw, Poland, pp. 173 - 178, May 2224, 2001.
[88]
Lauria, F., Sette, M., Visco, S. Adaptable Boolean neural networks - Consorzio Editoriale Fridericiana, Liguori
ed. Napoli, 212 p. ISBN 88-207-2676-9, 1997.
[89]
Le, T. A-Dekomposition und ihre Anwendung bei der Synthese mehrstufiger Schaltungen. In Workshop
Boolesche Probleme, Freiberg, Germany, pp. 81-89, Okt. 1994.
[90]
Ma, X., Yang, Y. and Zhang, Z. Constructive learning of binary neural networks and its application to nonlinear
register synthesis. Proc. of International Conference on Neural Information Processing (ICONIP)'01 1, pp.9095, 2001.
[91]
Ma, X., Yang, Y. and Zhang, Z. Research on the learning algorithm of binary neural networks. Chinese Journal
of Computers 22(9), pp.931-935, 1999.
[92]
Marchand, M., Golea, M. On learning simple neural concepts: From halfspace intersections to neural decision
lists. Network, vol. 4, pp. 67–85, 1993.
[93]
Marchand, M., Golea, M., Rujan, P. A Convergence Theorem for Sequential Learning in Two-Layer Perceptrons. Europhysics Letters, 11 1990, pp. 487–492, 1990.
126
127
LITERATURVERZEICHNIS
[94]
Martinelli, G., Mascioli, F., Bei, G. Cascade Neural Network for Binary Mapping. IEEE Trans. On neural networks, Vol. 4, No. 1, Jan. 1993.
[95]
Mascioli, F., Martinelli, G. A constructive algorithm for binary neural networks. the oil_spot algorithm. IEEE
Trans. On neural networks, Vol. 6, No. 3, May. 1995.
[96]
Mayoraz, E. Feedforward Boolean Networks with Discrete Weights: Computational Power and Training. PhD
thesis, Swiss Federal Institute of Technology, Departament of Mathematics, 1993.
[97]
Mayoraz, E., Aviolat, F. Constructive training methods for feedforward neural networks with binary weights.
Int. J. of Neural Systems, vol.7, no.2, pp. 149-66, May 1996.
[98]
Mayoraz, E.On the power of networks of majority functions. In A. Prieto, editor. Lecture Notes in Computer
Science 540, pp. 78-85. IWANN'91, Springer-Verlag, 1991.
[99]
McCulloch, W.S., Pitts, W. A logical calculus of ideas immanent in nervous activity, Bull. Mathematical Biophysics, vol. 5. pp. 115-133, 1943.
[100] Meinel, C., Theobald, T. Algorithmen und Datenstrukturen im VLSI-Design.OBDD - Grundlagen und Anwendungen. Springer-Verlag, Berlin Heidelberg NewYork, 283p., 1998.
[101] Mellor, S. and Balcer, M. Executable UML - A Foundation for Model Driven Architecture. Addison Wesley
Longman Publishers, 2002.
[102] Mertens, S., Engel, A. Vapnic-Chervonenkis dimension of neural networks with binary weights. Physical Review
E 55(4), pp.4478-4491, 1997.
[103] Mezard, M., Nadal, J.-P. Learning in Feedforward Layered Networks: the Tiling Algorithm. Journal of Physics
A, 22 (1989), pp. 2191–2204, 1989.
[104] Micheli, G., Gupta, R. Readings in hardware/software co-design. Giovanni de Micheli, Rolf Ernst, Wayne Wolf,
chapter Hardware-Software Co-Design, pages 30–44. Volume of Micheli [40], 2002.
[105] Minsky, M., Papert, S. Perceptrons. 2nd edition, MIT Press, Cambridge, MA, 1988.
[106] Minsky, M., Papert, S. Perceptrons: An Introduction to Computational Geometry. MIT Press, Cambridge, MA,
1969.
[107] Mishchenko, A., Files, C. Perkowski, M., Steinbach, B., Dorotska, Ch. Implicit Algorithms for Multi-Valued
Input Support Minimization. in: Steinbach, B. (Hrsg.): Boolean Problems, Proceedings of the 4th International
Workshops on Boolean Problems, 2000.
[108] Mishchenko, A., Steinbach, B., Perkowski, M. Bi-Decomposition of Multi-Valued Relations. The 10th International Workshop on Logic & Synthesis (IWLS'01), Granlibakken (California) USA, pp. 35 – 40, June 12-15,
2001.
[109] Mkrttschjan, S. Neurons and neural networks - Introduction in the theory of formal neurons. Energy, Moscow,
1971.
Project.
The
MOCCA-compiler
for
[110] MOCCA
http://www.htwm.de/lec/mocca, Web-Pages, Aug. 2006.
run-time
reconfigurable
architectures.
[111] Morgan, P., Ferguson, A. and Bolouri H. Cost-performance analysis of FPGA, VLSI and WSI implementations
of a RAM-based neural network. Proc. 4th IEEE Int. Conf. on Microelectronics for Neural Networks and
Fuzzy Systems (MicroNeuro'94), pp. 235-243, 1994.
[112] Müller, B., Reinhardt, J., Strickland, M. Neural Networks An Introduction. Sprigeg-Verlag Berlin Heidelberg
New York, 330 p.,1995.
[113] Muselli, M. On Sequential Construction of Binary Neural Networks. IEEE Transactions on neural networks,
Vol. 6, No. 3, May 1995.
[114] Muselli, M. Sequential constructive techniques. In Optimization Techniques, vol. 2 of Neural Network Systems,
Techniques and Applications. Ed. C. Leondes, New York: Academic Press, pp. 81–144, 1998.
[115] Nadal, J.-P. Study of a growth algorithm for a feedforward network. International J. of Neural Systems, 1(1) pp.
55-59, 1989.
[116] Object Management Group - Architecture Board ORMSC (2001). Model driven architecture - a technical perspective (MDA). http://www.omg.org, Web-Pages, 2004.
127
128
LITERATURVERZEICHNIS
[117] Object Management Group. OMG Unified Modelling Language Specification. Version 2.0, July 2006.
http://www.omg.org, Web-Pages, 2005.
[118] Osowski, S. Sieci neuronowe w vięciu algorytmicznym. Wydawnictwa Naukowo-Techniczne, Wydanie drugie,
349 p., Warszawa, 1996.
[119] Pao, Y.-H. Adaptive Pattern Recognition and Neural Networks. Massachusetts: Western Reserve University,
1989.
[120] Parberry, I. Circuit Complexity and Neural Networks. MIT Press, Cambridge, Massachusetts, 304 p., 1994.
[121] Park, S.-K., Kim, J. and Chung, H.-S. A training algorithm for discrete multilayer perceptions. Proc. of IEEE
International Symposium on Circuits and Systems, (ISCAS)'91, Singapore, pp.2140-2143, 1991.
[122] Park, S.-K., Kim, J. Geometrical learning algorithm for multiplayer neural network in a binary field. IEEE
Trans. Computers 42(8), pp.988-992, 1993.
[123] Park, S.-K., Marston, A. and Kim, J. On the structural requirements of multiplayer perceptions in binary field.
24th Southeastern Symp. on System Theory & 3rd Annual Symp. on, Comm., Signal Proc. and ASIC VLSI Design, Proc. SSST/CSA 92, pp.203-207, 1992.
[124] Parker, D. Learning Logic, Technical Report TR-87, Center for Computational Research in Economics and
Management Science, MIT, Cambridge, MA, 1985.
[125] Patterson, D. Künstliche Neuronale Netze: Das Lehrbuch Prentice Hall, 506p., 1996.
[126] Perkowski, M. A new representation of strongly unspecified switching functions and its application to multilevel AND/OR/EXOR synthesis. In Second Workshop on Applications of Reed-Muller Expansion in Circuit
Design, Chiba City, Japan, pp.143-151, 1995.
[127] Posthoff, Ch., Bochmann, D., Haubold, K. Diskrete Mathematik, BSB B. G. Teubner Verlagsgesellschaft, Leipzig, 1986.
[128] Posthoff, Ch., Steinbach, B. Binäre dynamische Systeme - Algorithmen und Programme. Wissenschaftliche
Schriftenreihe der Technischen Hochschule, Karl-Marx-Stadt, Heft 8, 1979.
[129] Posthoff, Ch., Steinbach, B. Binäre Gleichungen - Algorithmen und Programme. Wissenschaftliche Schriftenreihe der Technischen Hochschule, Karl-Marx-Stadt, Heft 1, 1979.
[130] Posthoff, Ch., Steinbach, B. Logic Functions and Equations. Binary Models for Computer Science. Springer
Dordrecht, The Netherlands, 392p., 2004.
[131] Riedel, H. Design and Implementation of a Runtime Enviroment for RTR-Systems. Diploma Thesis, January
2004. University of Applied Sciences Mittweida, Germany, 2004.
[132] Rosenblatt, R. Principles of Neurodynamics. Spartan Books, New York, 1962.
[133] Rujan, P., Marchand, M. Complex Systems 3, pp. 229-242 1989. Proceedings of IJCNN 1989, Washington D.C,
Vol II. pp. 105-110, 1989.
[134] Rumelhart D., Hinton G., Williams R. Learning representations by back-propagating errors. Nature, 1986, vol.
323., pp. 533-536, 1986.
[135] Rupp, C., Hahn, J., Queins, S., Jeckle, M., Zengler, B. UML 2 glasklar. Praxiswissen für die UML-Modellierung
und –Zertifizierung, 2. Auflage, Hanser Verlag München, 559p., 2005.
[136] Salapura, V., Gschwind, M. and Maischberger, O. A Fast FPGA Implementation of a General Purpose Neuron.
In Field-Programmable Logic: Architectures, Synthesis and Applications 4th International Workshop on Field
Programmable Logic and Applications, Lecture Notes in Computer Science 849, Springer Verlag, Berlin, 1994.
[137] Sasao, B., Butler, J. On Bi-decompositions of logic functions. International Workshop on Logic Synthesis, Lake
Tahoe, USA, pp. 18-21, May 1997.
[138] Scherer, A. Neuronale Netze: Grundlage und Anwendungen. Vieweg Verlag, 249 S. ISBN 3-528-05465-4,
Braunschweig-Wiesbaden, 1997.
[139] Shimada, M., Saito, T. A GA-Based Learning Algorithm for Binary Neural Networks. IEICE Trans. Fundamentals, Vol. E85-A, No. 11, Nov., 2002.
[140] Shimada, M., Saito, T. A simple learning of Binary Neural Networks with virtual teacher signals. Proc.
IEEE/INNS IJCNN, Vol. 3, pp. 2024-2047, 2001.
[141] Sirat, J., Nadal, J.-P. Neural trees: a new tool for classification. Network, 1, pp. 423-438, 1990.
128
129
LITERATURVERZEICHNIS
[142] Siu, K., Roychowdhury, V., Kailath, T. Discrete Neural Computation: A Theoretical Foundation, Prentice Hall
Information and System Sciences, Englewood Cliffs, New Jersey, 407 p., 1995.
[143] Starzyk, J.A., Pang, J. Evolvable binary artificial neural network for data classification. In Proc. of Int. Conf. on
Parallel and Distributed Processing Techniques and Applications (PDPTA), Las Vegas, Nevada, USA, 2000.
[144] Steinbach, B. XBOOLE - A Toolbox for Modeling, Simulation, and Analysis of Large Digital Systems. System
Analysis and Modeling Simulation, Gordon & Breach Science Publishers, 9(1992), Number 4, pp. 297-312,
1992.
[145] Steinbach, B., Beierlein, T. and Fröhlich, D. Hardware/Software Codesign of Reconfigurable Architectures Using UML. in: Grant, M.; Müller, W.: UML for SOC Design, Springer, Dordrecht, Printed in The Netherlands,
pp. 89 – 117, 2005.
[146] Steinbach, B., Beierlein, T., Fröhlich, D. UML-Based Co-Design for Run-Time Reconfigurable Architectures.
in: Grimm, Ch.: Languages for System Specification, Kluwer Academic Publishers, Boston, Dordrecht, London,
Printed in The Netherlands, pp. 5 – 19, 2004.
[147] Steinbach, B., Fröhlich, D., Beierlein, T. Hardware/Software Codesign of Reconfigurable Architectures Using
UML. in: Grant, M., Müller, W. UML for SOC Design, Springer, Dordrecht, Printed in The Netherlands, pp. 89
– 117, 2005.
[148] Steinbach, B., Kempe, G. Minimization of AND-ExOR expressions. Proceedings of "IFIP WG 10.5 - Workshop on Applications of the Reed- Muller Expansion in Circuit Design", Hamburg, pp. 20–26, 1993.
[149] Steinbach, B., Lang, Ch. A General Data Structure for EXOR - Decomposition of Sets of Switching Function.
in Proceedings of the 3 rd International Workshops on Boolean Problems, Freiberg, pp. 59 - 66, Sep. 1998.
[150] Steinbach, B., Lang, Ch. Exploiting Functional Properties of Boolean Functions for Optimal Multi-Level Design by Bi-Decomposition. in Yanushkevich, S. N.: Artificial Intelligence in Logic Design, Kluwer Academic
Publisher, Dordrecht, The Netherlands, pp. 159–200, 2004.
[151] Steinbach, B., Lang, Ch., Perkowski, M. Bi-Decomposition of Discrete Function Sets. in 4th International
Workshop on Applications of the Reed-Muller Expansion in Circuit Design 1999 (Reed-Muller 99), Victoria,
Canada, pp. 233 - 252, 1999.
[152] Steinbach, B., Perkowski, M., Lang, Ch., Bi-Decomposition of Multi-Valued Functions for Circuit Design and
Data Mining Applications. in Proceedings of the 29th IEEE International Symposium on Multiple-Valued
Logic, Freiburg, pp. 50 - 58, May, 1999.
[153] Steinbach, B., Zakrevskij, A. New Approaches for Minimization of ESOPs. Proceedings of the IEEE Design
and Diagnostics of Electronic Circuits and Systems (5th International Workshop IEEE DDECS 2002), Brno,
Czech Republic, pp. 336 - 339, 2002.
[154] Steinbach, B., Kohut, R. Neural Networks – A Model of Boolean Functions. In Proceedings of 5th International Workshop on Boolean Problems, Freiberg, Germany, pp. 191-206, September 19-20, 2002.
[155] Sung, S.-K., Jung, J., Lee, J.-T. and Choi, W.-J., Opitonal Synthedid Method for Binary Neural Network Using
NETLA. Lecture Notes in Artificial Intelligence (LNAI), Vol.2275, pp.236-244, 2002.
[156] Suyari, H., Matsuba, I. New information theoretical approach to the storage capacity of neural networks with
binary weights Proc. 9th Int. Conf. On Artificial Neural Networks: ICANN '99, vol. 1, pp. 431-436, Sept. 1999.
[157] Thayse, A. Boolean differential calculus. Heidelberg: Springer-Verlag, 1981.
[158] The Italian Managing Node of NeuroNet, http://www.dibe.unige.it/neuronet/, Web-Pages, 2004.
[159] Tkachenko, R., Kohut, R. Feed forward neural networks: the problems of synthesis and using. Bulletin of Lviv
Polytechnic National University, Computer Engineering and Information Technologies, № 433, Lviv, pp. 166171, 2001.
[160] Tkachenko, R., Kohut, R. Functional extension of inputs in feed forward neural network with non-iteration
learning. Technical news 1(12), 2(13), Lviv, pp. 91-94, 2001.
[161] Tkachenko, R. Feed forward neural networks with non-iteration learning procedure. Habilitation thesis, Lviv,
2000.
[162] Vapnik, V., Chervonenkis, A.. On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and its Applications, 16(2), pp.264--280, 1971.
129
130
LITERATURVERZEICHNIS
[163] Wang, D., Chaudhari, N. A multi-core learning algorithm for binary neural networks. In Proceedings of the
International Joint Conference on Neural Networks (IJCNN '03) (Portland, USA) 1, pp.450-455, 2003.
[164] Wang, D., Chaudhari, N. An Approach for Construction of Boolean Neural Networks Based on Geometrical
Expansion, Neurocomputing, vol. 57, no. 4, pp. 455-461, 2004.
[165] Wang, D., Chaudhari, N. Binary Neural Network Training Algorithms Based On Linear Sequential Learning,
International Journal of Neural Systems, 13(5) Oct. 2003.
[166] Wasserman, P. Neural Computing Theory and Practice. Van Nostrand Reinhold, New York, 1989.
[167] Werbos, P. The Roots of Backpropagation: From Ordered Derivatives to Neural Networks and Political Forecasting, Wiley, 1994.
[168] Wegener, I. The Complexity of Boolean Functions. Johann Wolfgang Goethe-Universität, Stuttgart: Teubner,
Chichester, New York, Brisbane, Toronto, Singapore: Wiley, 470 p., 1989.
[169] Widner, R. Single-stage logic. AIEE Fall General Meeting, 1960, in Wasserman, P. Neural Computing, Theory
and Practice, Van Nostrand Reinhold, 1989.
[170] Widrow, В. The speed of adaptation in adaptive control system, American Rocket Society Guidance Control
and Navigation Conference, pp.1933-1961, 1961.
[171] Widrow, B. A statistical theory of adaptation. Adaptive control systems. New York: Pergamon Press, 1963.
[172] Widrow, В., Hoff, M.E. Adaptive switching circuits. IRE WESCON Convention Record, part 4, pp. 96-104.
New York: Institute of Radio Engineers, 1960.
[173] Widrow B., Lehr M. A 30 years of adaptive neural networks: perceptron, madaline, and backpropagation. Proceedings of IEEE. Vol. 78., № 9., рp. 1415-1442, 1990.
[174] Windeatt, T., Ghaderi, R. Binary labeling and decision-level fusion. Information Fusion 2, pp.103-112, 2001.
[175] Windeatt, T., Tebbs, R. Spectral technique for hidden layer neural network training. Pattern Recognition Letters
18(8), pp.723-731, 1997.
[176] Xilinx. The Programmable Logic Data Book. Xilinx, Inc., San Jose, CA, 1993.
[177] Xilinx. XACT Reference Guide, Xilinx, San Jose, CA, 1992.
[178] Yamamoto, A., Saito, T. An improved Expand-and-Truncate Learning. Proc. of IEEE International Conference
on Neural Networks (ICNN) 2, pp.1111-1116, 1997.
[179] Zell, A. Simulation neuronaler Netze. Oldenburg Verlag, 624 p., 1997.
[180] Zhu, J., Sutton, P. FPGA Implementations of Neural Networks – a Survey of a Decade of Progress. In Proceedings of 13th International Conference on Field Programmable Logic and Applications (FPL 2003), Lisbon,
Sep., 2003.
130
131
ANHANG A. OR-DEKOMPOSITION
Anhang A
Boolesche Neuronale Netze
A.1 Beispiel des Netzes für die OR-Dekomposition
A.1.1 Vorbemerkungen
Für die OR-Dekomposition wurden 10 Booleschen Funktionen y1, y2, ..., y10 gewählt.
Jede Boolesche Funktion hängt von 3 Booleschen Variablen x1, x2, x3 ab. Die Wertetabelle der angegebenen Booleschen Funktionen wird in der Tabelle A.1 dargestellt.
Tabelle A.1
x1 x2 x3
0 0 0
0 0 1
0 1 0
0 1 1
1 0 0
1 0 1
1 1 0
1 1 1
Wertetabelle der angegebenen Booleschen Funktionen
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
0 0 1 1 0 0 1 1 1 0
1 1 1 1 0 1 1 1 1 0
0 0 1 0 1 1 0 0 1 1
1 1 0 1 0 1 1 0 0 0
0 1 0 0 1 0 1 1 1 0
1 1 1 1 1 1 1 0 1 1
1 1 0 1 0 1 1 0 0 0
0 0 1 0 1 1 0 0 1 1
Das Netz hat 10 Ausgänge für 10 Boolesche Funktionen und folglich besteht die Ausgabeschicht des Netzes aus 10 Booleschen Neuronen mit OR-Transferfunktion. Da die gegebenen Funktionen von 3 Booleschen Variablen abhängen Nx=3, besitzt das Netz 3
Eingänge, d.h. die Eingabeschicht besteht aus 3 Neuronen. Für die weitere Bestimmung
der Netzstruktur und der anderen Parameter des Netzes wird das Training durchgeführt.
A.1.2 Training
Der rechte Teil der Wertetabelle A.1 dient als Lernmenge des Booleschen Neuronalen
Netzes und wird durch Anfangsmatrix A dargestellt. Der Algorithmus beginnt mit der Berechnung von Gewichtskoeffizienten des Vektors m für jede Zeile der Matrix A. Solange
131
132
ANHANG A. OR-DEKOMPOSITION
mi≠0 existieren, wird der Algorithmus weitergeführt. Das Training wird mit der Berechnung von Gewichtskoeffizienten des Vektors n für jede Spalte der Matrix A durch fortgesetzt. Weiter in Tabellen sind die Umwandlungen im Verlauf des Trainings dargestellt.
Tabelle A.2 Anfangsmatrix A
y1
0
1
0
1
0
1
1
0
0
1
2
3
4
5
6
7
n 4
v 1
w1 0
y2
0
1
0
1
1
1
1
0
y3
1
1
1
0
0
1
0
1
y4
1
1
0
1
0
1
1
0
y5
0
0
1
0
1
1
0
1
y6
0
1
1
1
0
1
1
1
y7
1
1
0
1
1
1
1
0
y8
1
1
0
0
1
0
0
0
y9 y10 m
1 0 5
1 0 8
1 1 5
0 0 5
1 0 5
1 1 9
0 0 5
1 1 5
5
5
5
4
6
6
3
6
3
1
0
1
1
1
0
1
1
1
1
1
0
0
0
1
1
1
1
k1
0
0
1
0
0
1
0
1
Tabelle A.3 Matrix A nach dem ersten Trainingszyklus.
y1
0
1
0
1
0
1
1
0
0
1
2
3
4
5
6
7
n 4
v 1
w2 0
y2
0
1
0
1
1
1
1
0
y3
1
1
0
0
0
0
0
0
y4
1
1
0
1
0
1
1
0
y5
0
0
0
0
1
0
0
0
y6
0
1
0
1
0
0
1
0
y7
1
1
0
1
1
1
1
0
y8
1
1
0
0
1
0
0
0
y9 y10 m
1 0 5
1 0 8
0 0 0
0 0 5
1 0 5
0 0 4
0 0 5
0 0 0
5
2
5
1
3
6
3
3
0
1
0
1
1
1
1
0
0
1
0
1
1
1
1
1
1
0
0
k2
1
1
0
0
0
0
0
0
Tabelle A.4 Matrix A nach dem zweiten Trainingszyklus.
0
1
2
3
4
5
6
7
n
v
w3
y9 y10 m
0 0 0
0 0 3
0 0 0
0 0 5
1 0 5
0 0 4
0 0 5
0 0 0
y1
0
1
0
1
0
1
1
0
y2
0
1
0
1
1
1
1
0
y3
0
0
0
0
0
0
0
0
y4
0
0
0
1
0
1
1
0
y5
0
0
0
0
1
0
0
0
y6
0
1
0
1
0
0
1
0
y7
0
0
0
1
1
1
1
0
y8
0
0
0
0
1
0
0
0
4
5
0
3
1
3
4
1
1
0
0
0
1
1
0
0
0
0
1
1
0
0
1
1
1
1
1
1
0
0
132
k3
0
0
0
0
1
0
0
0
133
ANHANG A. OR-DEKOMPOSITION
Tabelle A.5 Matrix A nach dem dritten Trainingszyklus.
0
1
2
3
4
5
6
7
n
v
w4
y1
0
1
0
1
0
1
1
0
y2
0
1
0
1
0
1
1
0
y3
0
0
0
0
0
0
0
0
y4
0
1
0
1
0
1
1
0
y5
0
0
0
0
0
0
0
0
y6
0
1
0
1
0
1
1
0
y7
0
1
0
1
0
1
1
0
y8
0
0
0
0
0
0
0
0
y9 y10 m
0 0 0
0 0 5
0 0 0
0 0 5
0 0 0
0 0 5
0 0 5
0 0 0
4
4
0
4
0
4
4
0
0
0
1
1
1
1
0
0
1
1
0
0
1
1
1
1
0
0
0
0
0
0
k4
0
1
0
1
0
1
1
0
Tabelle A.6 Matrix A nach dem vierten Trainingszyklus.
0
1
2
3
4
5
6
7
y1
0
0
0
0
0
0
0
0
y2
0
0
0
0
0
0
0
0
y3
0
0
0
0
0
0
0
0
y4
0
0
0
0
0
0
0
0
y5
0
0
0
0
0
0
0
0
y6
0
0
0
0
0
0
0
0
y7
0
0
0
0
0
0
0
0
y8
0
0
0
0
0
0
0
0
y9
0
0
0
0
0
0
0
0
y10 m
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
Nach dem vierten Trainingszyklus sind alle Elemente des Vektors m sowie der Matrix A
gleich Null geworden (Tabelle A.6). Demzufolge ist das Training beendet.
Das Boolesche Neuronale Netz wurde trainiert. Die erzeugte Netzstruktur wird in Abbildung A.1 gezeigt.
x1
x2
k1
k2
∨
∨
y1
y2
…
k3
x3
k4
∨
y10
Abbildung A.1 Struktur des OR-BNN
133
134
ANHANG A. OR-DEKOMPOSITION
A.1.3 Ergebnisse
Im Resultat des Trainings wurden die Transferfunktionen der vier verborgenen Neuronen (Tabelle A.7) und die Verbindungsgewichte der zehn Neuronen in der Ausgangsschicht (Tabelle A.8) erhalten.
Tabelle A.7 Transferfunktionen der verborgenen Booleschen Neuronen
x1 x2 x3 k1 k2 k3 k4
0 0 0 0 1 0 0
0 0 1 0 1 0 1
0 1 0 1 0 0 0
0 1 1 0 0 0 1
1 0 0 0 0 1 0
1 0 1 1 0 0 1
1 1 0 0 0 0 1
1 1 1 1 0 0 0
Tabelle A.8 Verbindungsgewichte der Ausgangsschicht
y1 y2 y3 y4 y5 y6 y7 y8 y9 y10
w1 0 0 1 0 1 1 0 0 1 1
w2 0 0 1 1 0 0 1 1 1 0
w3 0 1 0 0 1 0 1 1 1 0
w4 1 1 0 1 0 1 1 0 0 0
Ist das Gewicht gleich 1, existiert die Verbindung zwischen den entsprechenden verborgenen und Ausgabeneuronen. Ist das Gewicht gleich 0 existiert keine Verbindung, d.h.
eine Eingabe des Ausgangsneurons fehlt.
Solcherweise wurden die 10 Funktionen y1, y2, ..., y10 in vier Boolesche Teilfunktionen k1, k2,…, k4 durch OR-Dekomposition zerlegt.
k1= x1x2x3 ∨ x1x3
k2= x1 x2
y1 =k4
y2 =k3∨k4
y6 =k1∨k4
y7 =k2∨k3∨k4
k3 = x1 x2x3
y3 =k1∨k2
y8 =k2∨k3
134
k4= x1x3 ∨ x1 ( x2 ⊕ x3 )
y4 =k2∨k4
y9 =k1∨k2∨k3
(A.1)
y5 =k1∨k3
(A.2)
y10 =k1
(A.3)
135
ANHANG A. OR-DEKOMPOSITION
A.2 BNN mit dem adaptierten Training
A.1.1 Vorbemerkungen
Es werden die Boolesche Funktionen y1, y7, und y9 aus der Funktionsmenge (Anhang
A.2 – Tabelle A.1) gewählt.
Tabelle A.9 Wertetabelle der Ausgangsfunktionen y1, y7, und y9
0
1
2
3
4
5
6
7
x1
0
0
0
0
1
1
1
1
x2
0
0
1
1
0
0
1
1
x3 y1
0 0
1 1
0 0
1 1
0 0
1 1
0 1
1 0
y7
1
1
0
1
1
1
1
0
y9
1
1
1
0
1
1
0
1
In der Ausgabeschicht des Booleschen Neuronalen Netzes gibt es 3 Boolesche Neuronen,
die Funktionswerte der 3 gegebenen Booleschen Funktionen liefern. Die gegebenen
Funktionen hängen von 3 Booleschen Variablen Nx=3 ab, deshalb besitzt das Netz 3
Eingänge. Nehmen wir an, dass eine LUT 2 Eingänge hat. Für die optimale Realisierung
der Transferfunktionen der Booleschen Neuronen wird der adaptierte Trainingsalgorithmus verwendet.
A.1.2 Training
Der rechte Teil der Wertetabelle A.9 dient als Lernmenge des Booleschen Neuronalen
Netzes. Laut dem Algorithmus 5.1 wird zunächst die Eingangsschicht des Netzes eingefügt. Die Anzahl von Neuronen in der Eingangsschicht ist gleich der Anzahl aller Argumente der Menge Boolescher Funktionen. Die Anzahl von verborgenen Neuronen wird
auf 0 gesetzt. Für die Entwicklung der verborgenen Schicht des Netzes wird die Funktion
y9 aus der Funktionsmenge gewählt. Da es in der Wertetabelle dieser Funktion noch
Einswerte gibt, Tab. A.10 – Spalte 7, wird der Algorithmus weitergeführt. In weiteren Tabellen sind die Umwandlungen im Verlauf des Trainings dargestellt. Die Wertetabelle der
Funktion y9 wird in zwei Hälften aufgeteilt und miteinander umgetauscht, Tab. A.10 –
Spalten 7-8. Jeder Wert der Funktion y9, Tab. A.10 – Spalte 7, wird dem entsprechenden
Wert der Spalte 8 zugeordnet. Danach wird eine Konjunktion der beiden einander zuge135
136
ANHANG A. OR-DEKOMPOSITION
ordneten Werte und somit das partielle Minimum der Funktion y9 nach der Variable x1
berechnet. Da nicht alle Werte in der Spalte 9 - Tab.A.10 gleich 0 sind, wird das berechnete Minimum der Funktion y9 als die Transferfunktion des ersten verborgenen Neurons
kOR betrachtet.
Tabelle A.10 Suche der k-Funktion für OR- und AND-Operation
0
1
2
y1
0
1
0
1
0
1
1
0
y7
1
1
0
1
1
1
1
0
y9
1
1
1
0
1
1
0
1
3
0
1
2
3
4
5
6
7
4
5
6
7
x1
0
0
0
0
1
1
1
1
x2
0
0
1
1
0
0
1
1
x3
0
1
0
1
0
1
0
1
y9
1
1
1
0
1
1
0
1
8
1
1
0
1
1
1
1
0
OR
→
→
→
→
→
→
→
→
9
10
kOR
1
1
0
0
1
1
0
0
y9
~
~
1
0
~
~
0
1
11
~
~
0
1
~
~
1
0
13
AND
→
→
→
→
→
→
→
→
1
1
1
1
1
1
1
1
Die in der Spalte 10 der Tabelle A.10 gezeigte Wertetabelle der Funktion ist das Resultat
des Abspaltens der kOR von der in der Spalte 7 der Tabelle A.10 dargestellten Funktion
y9. Es gilt: jeder Einswert der Funktion y9 wird auf ‚~’ gesetzt, wenn der entsprechende
Wert der Funktion kOR gleich 1 ist. Solcherweise erhält man einen Funktionsverband,
Tab. A.10 – Spalte 10. Die ‚don’t care’- Werte des Funktionsverbandes können in weiteren schritten des Algorithmus sowohl 0 als auch 1 annehmen. Da die Wertetabelle der
Funktion y9, Spalte 10, gleichzeitig die Eins- und Nullwerte enthält und somit weiter dekomponiert werden kann, wird ihre Wertetabelle wieder in zwei Hälften aufgeteilt,
Tab. A.10 – Spalte 11, und jeder Wert der Funktion y9 der Spalte 10 wird dem entsprechenden Wert der Spalte 11 zugeordnet. In diesem Fall wird aber eine k-Funktion für die
AND-Dekomposition gesucht, deshalb wird eine Disjunktion der beiden einander zugeordneten Werte und somit das partielle Maximum der Funktion y9 nach der Variable x1
berechnet. Da man kein Nullwert dabei erhalten hat, Tab. A.10 – Spalte 13, wurde keine
Teilfunktion der Funktion y9 für die AND-Dekomposition gefunden und folglich werden das partielle Minimum und Maximum der Funktion y9 nach einer anderen Variable
in weiteren Schritten des Trainings berechnet. Die Umwandlungen im Verlauf des Trainings sind in weiteren Tabellen dargestellt.
Hier wird zunächst das Abspalten der Funktionen betrachtet. Der Vektor von Gewichten
für die Neuronen in der Ausgabeschicht des Booleschen Neuronalen Netzes wird durch
die REDUCTIONOFYSET(), Alg.5.3, bestimmt und die kOR-Funktion von allen Funktionen der Funktionsmenge entsprechend abgespaltet.
136
137
ANHANG A. OR-DEKOMPOSITION
Tabelle A.11 Abspalten einer kOR–Funktion von den y1, y7 und y9
y1
0
1
0
1
0
1
1
0
w 0
y7
1
1
0
1
1
1
1
0
1
y9
1
1
1
0
1
1
0
1
1
kOR
1
1
0
0
1
1
0
0
→
→
→
→
→
→
→
→
y1
0
1
0
1
0
1
1
0
y7
~
~
0
1
~
~
1
0
y9
~
~
1
0
~
~
0
1
Da das Gewicht w für y1 gleich 0 ist, bleibt y1 unverändert. Für die y7 und y9 gilt dabei
die gleiche Regel wie schon für die in der Tabelle A.10 – Spalte 10 beschriebene Operation: Der Einswert der aus der Menge gewählten Funktion wird auf ‚~’ gesetzt, falls der
entsprechende Wert der k-Funktion gleich 1 ist.
Nach diesem Schritt hat die y9 in ihrer Wertetabelle nur entweder Nullwerte oder ‚~’ und
somit ist dekomponiert. Deshalb wählt man weiter aus der gegebenen Funktionsmenge
eine andere Funktion - y7. Im diesem Beispiel ist die Funktion y7 schon teilweise dekomponiert, weil es ‚~’-Werte in ihrer Wertetabelle gibt (Tab. A.12).
Tabelle A.12 Funktionsmenge nach dem Abspalten der zweiten k-Funktion
y1
0
1
0
1
0
1
1
0
w 0
y7
~
~
0
1
~
~
1
0
0
y9
~
~
1
0
~
~
0
1
1
kOR
1
0
1
0
0
1
0
1
→
→
→
→
→
→
→
→
y1
0
1
0
1
0
1
1
0
y7
~
~
0
1
~
~
1
0
y9
~
~
~
0
~
~
0
~
In den Tabellen A.13-A.15 werden die weitere gefundene Funktione und die Funktionsmenge nach dem Abspalten dieser k-Funktionen dargestellt.
137
138
ANHANG A. OR-DEKOMPOSITION
Tabelle A.13 Funktionsmenge nach dem Abspalten der dritten k-Funktion
y7
~
~
0
1
~
~
1
0
kOR
0
1
0
1
1
0
1
0
y1
0
1
0
1
0
1
1
0
w 0
y7
~
~
0
1
~
~
1
0
1
y9
~
~
~
0
~
~
0
~
0
→
→
→
→
→
→
→
→
y1
0
1
0
1
0
1
1
0
y7
~
~
0
~
~
~
~
0
y9
~
~
~
0
~
~
0
~
Tabelle A.14 Funktionsmenge nach dem Abspalten der vierten k-Funktion
y1
0
1
0
1
0
1
1
0
kOR
0
1
0
0
0
1
0
0
y1
0
1
0
1
0
1
1
0
w 1
y7
~
~
0
~
~
~
~
0
0
y9
~
~
~
0
~
~
0
~
0
→
→
→
→
→
→
→
→
y1
0
~
0
1
0
~
1
0
y7
~
~
0
~
~
~
~
0
y9
~
~
~
0
~
~
0
~
Tabelle A.15 Funktionsmenge nach dem Abspalten der fünften k-Funktion
0
1
2
3
4
5
6
7
y1
0
~
0
1
0
~
1
0
0
~
1
0
0
~
0
1
→
→
→
→
→
→
→
→
kAND
0
1
1
1
0
1
1
1
y1
0
~
0
1
0
~
1
0
w 1
y7
~
~
0
~
~
~
~
0
0
y9
~
~
~
0
~
~
0
~
0
→
→
→
→
→
→
→
→
y1
~
~
0
1
~
~
1
0
y7
~
~
0
~
~
~
~
0
y9
~
~
~
0
~
~
0
~
Tabelle A.15 zeigt, wie eine kAND-Funktion für die AND-Operation gefunden wurde. Das
Abspalten einer kAND –Funktion unterscheidet sich von dem Abspalten einer kOR– Funktion. Bei dem Abspalten einer kAND-Funktion gilt: jeder Nullwert der aus der Menge gewählten Funktion wird auf ‚~’ gesetzt, falls der entsprechende Wert der k-Funktion gleich
0 ist. Zu beachten ist, dass die Anzahl von Nullwerten in der Wertetabelle der y1 wurde
nicht verändert. Aber, bei der AND-Dekomposition endet der Trainingsalgorithmus,
wenn es kein Nullwert in der Wertetabelle einer Funktion gibt. Der positive Effekt einer
138
139
ANHANG A. OR-DEKOMPOSITION
Mischung von OR- und AND-Operationen im Trainingsalgorithmus des BNN wird in
der Tabelle A.16 dargestellt.
Tabelle A.16 Funktionsmenge nach dem Training
y1
kOR
y1 y7 y9
y1 y7 y9
~
0
~ ~ ~ → ~ ~ ~
~
1
~ ~ ~ → ~ ~ ~
0
0
0 0 ~ → 0 0 ~
1
1
1 ~ 0 → ~ ~ 0
~
1
~ ~ ~ → ~ ~ ~
~
0
~ ~ ~ → ~ ~ ~
1
1
1 ~ 0 → ~ ~ 0
0
0
0 0 ~ → 0 0 ~
w 1 0 0
Wie die Tabelle A.16 zeigt, wurde die letzte gefundene k–Funktion wieder für die OROperation gefunden und somit die Bedingung des Anhaltens des Trainings wird nochmals geändert. Jetzt wieder gilt: wenn es kein Einswert in der Wertetabelle einer Funktion
gibt, hält der Algorithmus an. In diesen Schritt gefundene k–Funktion wurde schon früher für die andere Funktion aus der Funktionsmenge erhalten und schon existiert im Booleschen Neuronalen Netz als Transferfunktion eines verborgenen Booleschen Neurons.
Deshalb wird die y1 durch das Ausgabesignal des schon vorhandenen Neurons berechet
und somit kein neues Neuron wird in die verborgene Schicht eingefügt.
Tabelle A.17 Transferfunktionen von verborgenen Neuronen
0
1
2
3
4
5
6
7
x1
0
0
0
0
1
1
1
1
x2
0
0
1
1
0
0
1
1
x3
0
1
0
1
0
1
0
1
k1
1
1
0
0
1
1
0
0
k2
1
0
1
0
0
1
0
1
k3
0
1
0
1
1
0
1
0
k4
0
1
0
0
0
1
0
0
k5
0
1
1
1
0
1
1
1
Nach dem, als alle Funktionen in der Funktionsmenge dekomponiert wurden, ist die verborgene Schicht des BNN gebaut. Die Transferfunktionen von verborgenen Neuronen
(Tabelle A.17) und die Verbindungsgewichte von Booleschen Neuronen in der Ausgabeschicht des Netzes (Tabelle A.18) wurden erhalten. Ein Neuron in der Ausgabeschicht
des Netzes hat 3 Eingänge, weil unter den Verbindungsgewichten dieses Neurons drei
Gewichte gleich 1 sind (siehe Gewichte für die Funktion y1 in der Tabelle A.18).
139
140
ANHANG A. OR-DEKOMPOSITION
Tabelle A.18 Verbindungsgewichte von Neuronen der Ausgabeschicht
k1
y1 0
y7 1
y9 1
k2
0
0
1
k3
1
1
0
k4
1
0
0
k5
1
0
0
Da jedes Neuron laut Aufgabenstellung höchstens 2 Eingänge haben darf, wird dieses
Neuron durch die Superposition in 2 Neuronen aufgespaltet. Jetzt ist das Training beendet und das Boolesche Neuronale Netz wurde trainiert. Die erzeugte Netzstruktur wird in
Abbildung 5.6 gezeigt.
A.3 AND-Netze für den Benchmark alcom
Die Abbildung A.2 zeigt eine Struktur des BNN mit Neuronen ohne Beschränkung der
Anzahl von Eingängen. Dieses Netz besteht aus 15 Neuronen in der Eingangsschicht, 46
Neuronen in der verborgenen Schicht und 38 Neuronen in der Ausgangsschicht. Die
Transferfunktionen verborgener Neuronen hängen von der Eingangsvariablen
x1, x2, ..., x15 ab. Die Verbindungen zwischen Neuronen der Eingangsschicht und Neuronen der verborgenen Schicht, die in den Abbildungen A.2 - A.3 dargestellt sind, entsprechen tatsächlichen Transferfunktionen verborgener Neuronen nicht. Die Verbindungen zwischen verborgenen Neuronen und Neuronen in der Ausgabeschicht wurden aber
entsprechend den Gewichtsvektoren, die während des Trainings erhalten wurden, gebaut.
Da die in der Abbildung A.3 dargestellte Netzstruktur zu groß für Darstellung auf einer
Seite ist, wurde dieses Netz in zwei Teile aufgeteilt (Seiten 143-144). Im Vergleich zu dem
Netz mit Neuronen ohne Beschränkungen (Abb. A.2), hat das Netz mit den auf 4 Eingängen beschränkten Neuronen (Abb. A.3) in der verborgenen Schicht 74 verborgene
Neuronen. Es ist fast doppelt soviel wie im Netz ohne Beschränkungen. Die Transferfunktionen dieser 74 verborgenen Neuronen hängen aber von höchstens 4 Booleschen
Variablen ab. Auch Neuronen in der Ausgabeschicht besitzen höchstens 4 Eingänge. Dafür wurde die Ausgabeschicht durch den Superpos –Algorithmus (Kapitel 5 - Alg. 5.4) in
2 Kaskaden aufgeteilt und somit die gesamte Anzahl von Neuronen in der Ausgangschicht wurde um 18 Neuronen vergrößert.
Die Beschränkung der Anzahl von Eingängen für Neuronen ermöglicht eine direkte Abbildung der Transferfunktionen von Booleschen Neuronen und somit der gesamten
Struktur des BNN in eine FPGA-Struktur mit 4-Eingingen LUTs.
140
141
ANHANG A. OR-DEKOMPOSITION
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
x13
x14
x15
AND-Schicht
∧
∧
k(1)
k(2)
k(3)
k(4)
k(5)
k(6)
k(7)
k(8)
k(9)
k(10)
k(11)
k(12)
k(13)
k(14)
k(15)
k(16)
k(17)
k(18)
k(19)
k(20)
k(21)
k(22)
k(23)
k(24)
k(25)
k(26)
k(27)
k(28)
k(29)
k(30)
k(31)
k(32)
k(33)
k(34)
k(35)
k(36)
k(37)
k(38)
k(39)
k(40)
k(41)
k(42)
k(43)
k(44)
k(45)
k(46)
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
y1
y2
y3
y4
y5
y6
y7
y8
y9
y10
y11
y12
y13
y14
y15
y16
∧
∧
y17
∧
∧
y19
∧
∧
y21
∧
∧
y23
∧
∧
y25
∧
∧
y27
∧
∧
y18
y20
y22
y24
y26
y28
y29
y30
∧
∧
y31
∧
∧
y33
∧
∧
y35
∧
∧
y37
y32
y34
y36
y38
Abbildung A.2 BNN mit Neuronen ohne Beschränkung der Anzahl von Eingängen
141
142
ANHANG A. OR-DEKOMPOSITION
x1
x2
x3
x4
x5
x6
x7
x8
x9
x10
x11
x12
x13
x14
AND-Schicht
∧
∧
k(1)
k(2)
k(3)
k(4)
k(5)
k(6)
k(7)
k(8)
k(9)
k(10)
k(11)
k(12)
k(13)
k(14)
k(15)
k(16)
k(17)
k(18)
k(19)
k(20)
k(21)
k(22)
k(23)
k(24)
k(25)
k(26)
k(27)
k(28)
k(29)
k(30)
k(31)
k(32)
k(33)
k(34)
k(35)
k(36)
k(37)
k(38)
k(39)
k(40)
k(41)
k(42)
∧
∧
∧
∧
y1
y2
y3
y4
y5
y6
∧
∧
∧
∧
∧
∧
∧
∧
∧
y7
y8
y9
y10
y11
y12
y13
y14
∧
∧
∧
∧
y15
y16
y17
y18
∧
x15
142
∧
∧
y19
∧
y21
y20
143
ANHANG A. OR-DEKOMPOSITION
x1
x2
x3
AND-Schicht
k(14)
k(22)
k(26)
y30
∧
k(65)
∧
x4
∧
x5
x6
x7
x8
x9
x10
x11
x12
x13
x14
x15
∧
∧
k(43)
∧
y22
y23
y24
y25
∧
k(44)
k(45)
k(46)
k(47)
k(48)
k(49)
k(50)
k(51)
k(52)
k(53)
k(54)
k(55)
k(56)
k(57)
k(58)
k(59)
k(60)
k(61)
k(62)
k(63)
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
∧
y26
y27
y28
y29
y32
y33
∧
∧
∧
∧
∧
y34
∧
∧
k(64)
∧
∧
∧
∧
y36
∧
∧
k(66)
k(67)
k(68)
k(69)
k(70)
k(71)
k(72)
k(73)
k(74)
y35
y37
y38
∧
∧
y31
Abbildung A.3 BNN mit auf 4 Eingänge beschränkten Neuronen
143
144
ANHANG B. FPGA-REALISIERUNG VON BNN
Anhang B
FPGA-Realisierung von BNN
B.1 C++ Implementation
B.1.1 main.cpp
P R O G R A M M L I S T I N G B.1 M A I N . C P P
1.
2.
3.
4.
5.
6.
7.
8.
#include "Main.h"
// dependencies
#include "runtime\cpp\RTRManager.h"
#include <stddef.h>
#include <string.h>
#include <iostream>
#include "datamodel\include\utility\smartptr.h"
#include "datamodel\include\IHwObject.h"
9.
10.
11.
12.
13.
/**
* Definition of the operations of Class Data.Main
*/
Main::Main( ) { }
14.
15.
16.
17.
18.
19.
20.
21.
int Main::main( void )
{
int tmp;
smartptr<IHwObject> net;
int j;
int outp;
int inp;
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
inp = 0;
std::cout << "Test of Boolean neural network...\n" << std::endl;
net = RTRManager::getInstance()->createObject( 0 );
for(inp = 0; (inp < 8); inp = inp + 1)
{
tmp = inp;
j = 0;
std::cout << "x = ";
for(j = 0; (j < 3); j = j + 1)
{
if( (( tmp & 1 ) == 1) )
{
std::cout << "1 ";
}
else
{
std::cout << "0 ";
}
tmp = tmp >> 1;
/* assignment blocked: j = j + 1; */
}
std::cout << std::endl;
net->write<int>(24, inp );
net->execute<char>( 4, 1 ); /* execute Operation Bnn::init_x(Data.Mocca Design Platform.int) :
Data.Mocca Design Platform.void */
inp = net->read<int>( 24 );
43.
44.
45.
net->execute<char>( 4, 128 ); /* execute Operation Bnn::calculate() : Data.Mocca Design
Platform.boolean */
if( net->read<bool>( 34 ) )
144
145
ANHANG B. FPGA-REALISIERUNG VON BNN
{
46.
/* assignment blocked: j = 0; */
net->execute<char>( 5, 128 ); /* execute Operation Bnn::get_y() : Data.Mocca Design Platform.int */
outp = net->read<int>( 44 );
tmp = outp;
std::cout << "y = ";
for(j = 0; (j < 10); j = j + 1)
{
if( (( tmp & 1 ) == 1) ) {
std::cout << "1 ";
}
else {
std::cout << "0 ";
}
/* assignment blocked: j = j + 1; */
tmp = tmp >> 1;
}
std::cout << std::endl;
}
/* assignment blocked: inp = inp + 1; */
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
}
std::cout << "done" << std::endl;
RTRManager::getInstance()->destroyObject( &net );
return 0;
65.
66.
67.
68.
69.
}
70.
71.
Main::~Main( )
{
}
B.1.2 Main.h
P R O G R A M M L I S T I N G B.2 M A I N . H
1.
2.
#ifndef H_DATA_MAIN_H
#define H_DATA_MAIN_H
3.
4.
// forward type declarations
5.
6.
7.
8.
9.
10.
11.
#include
#include
#include
#include
#include
#include
"runtime\cpp\RTRManager.h"
"datamodel\include\utility\smartptr.h"
<stddef.h>
<string.h>
<iostream>
"datamodel\include\IHwObject.h"
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
class Main{
/**
* Declaration of the operations of Class Data.Main
*/
public: Main( );
public: static int main( void );
public: ~Main( );
};
#endif /* H_DATA_MAIN_H */
B.1.3 Main.cpp
P R O G R A M M L I S T I N G B.3 M A I N . C P P
1.
#include "Data\Main.h"
2.
3.
4.
5.
#include "datamodel\include\Common.h"
#include "runtime\cpp\RTRManager.h"
#include "oslf\OSLF.h"
6.
7.
8.
9.
#include <stddef.h>
#include <stdio.h>
#include <string.h>
10.
11.
12.
13.
int main( int argc, char * argv[] )
{
int success = Fail;
145
146
ANHANG B. FPGA-REALISIERUNG VON BNN
14.
15.
int RESULT;
Main * main;
16.
17.
18.
19.
OSLF_Init oslf;
20.
21.
printf( "Executing %s...\n", argv[0] );
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
38.
39.
40.
41.
42.
43.
44.
45.
46.
47.
48.
49.
50.
51.
52.
53.
54.
55.
56.
57.
58.
59.
60.
61.
62.
63.
64.
65.
66.
67.
68.
/**
* Initialize RTR Manager from --rtr-configuration
*/
if(argc > 1)
{
for(int i = 1; i < argc; i++ )
{
if( argv != NULL && strcmp(argv[i], "--rtr-configuration") == 0)
{
if( argc > i + 1 ){
success = RTRManager::getInstance()>readConfigurationFromFile( argv[i+1] );
}
else
{
printf( "Missing parameter for command line option '--rtrconfiguration'. The option is ignored.\n" );
}
}
}
// everything was fine?
if( success == Fail ){
printf( "RTR Manager not initialized. Please start application with command line option
--rtr-configuration <rtr-config-file>.\n \
Example: %s --rtr-configuration %s.conf", argv[0], argv[0] );
fflush(stdout);
return -1;
}
}
else
{
char str[255];
printf( "RTR Manager not initialized. Please start application with command line option
--rtr-configuration <rtr-config-file>.\n \
Example: %s --rtr-configuration %s.conf", argv[0], argv[0] );
// try default configuration name
sprintf(str, "%s.conf", argv[0] );
printf( "Trying configuration file %s ...\n", str );
success = RTRManager::getInstance()->readConfigurationFromFile( str );
}
// everything was fine?
if( success == Fail )
{
printf( "Initialization of application failed. See log of RTR-Manager and system log for more
information." );
fflush(stdout);
return -1;
}
/**
* Call main-method here
*/
main = new Main( );
69.
70.
RESULT = main->main( );
71.
72.
73.
74.
75.
delete main;
printf( "Execution of %s done.", argv[0] );
return RESULT;
}
146
147
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2 VHDL Implementation
B.2.1 VHDL_Bnn_init_x
VHDL-L I S T I N G B.4 I N I T _ X ()
1.
2.
3.
4.
5.
6.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
50.
51.
52.
53.
54.
7.
8.
9.
10.
11.
55.
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
-- end of imports from Package work
56.
58.
59.
60.
-- Entity declaration
61.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.
25.
entity
ImplementationPlatforms_VHDL_Bnn_init_x_void_int
is
port (
CLOCK : in std_logic; -- CLOCK
GO : in std_logic; -- GO
DONE : out std_logic; -- DONE
Bnn_a : out std_logic; -- Data.Bnn.a
x : inout std_logic_vector(31 downto 0); -Data.Bnn.init_x.318.x
Bnn_c : out std_logic; -- Data.Bnn.c
Bnn_b : out std_logic-- Data.Bnn.b
);
end
ImplementationPlatforms_VHDL_Bnn_init_x_void_int;
62.
64.
30.
66.
68.
69.
33.
34.
35.
36.
71.
72.
74.
75.
41.
42.
43.
44.
45.
46.
47.
48.
49.
Bnn_b <= Bnn_b_sig10 when ( OUTPUT_ENABLE_1
= '1' ) else
'Z' ;
76.
77.
architecture mixed of
ImplementationPlatforms_VHDL_Bnn_init_x_void_int
is
type FsmState is (INIT, S1, S2, S3, S4, S5, S6, S7,
S8, S9, S10, S11, S12, S13, S14, S15, S16, S17, S18,
S19, S20, FINAL);
78.
79.
80.
81.
82.
83.
84.
CS : FsmState;
NS : FsmState;
l_DONE_sig0 : std_logic;
OUTPUT_ENABLE_1 : std_logic;
i_ren_sig0 : mINT;
85.
86.
87.
88.
89.
90.
constant syn_const1_0 : mINT :=
"00000000000000000000000000000000";
91.
92.
39.
40.
Bnn_c <= Bnn_c_sig9 when ( OUTPUT_ENABLE_1
= '1' ) else
'Z' ;
73.
37.
38.
x_sig6 <= x ;
x_sig8 <= mINT(x_sig6) ;
70.
-- Architecture definition(s) for VHDL Entity
ImplementationPlatforms_VHDL_Bnn_init_x_void_int
signal
signal
signal
signal
signal
syn_conv_sig5 <= conv_std_logic_vector(x_sig4) ;
67.
31.
32.
x <= syn_conv_sig5 when ( l_DONE_sig0 = '1' )
else
(others => 'Z') ;
65.
28.
29.
begin
DONE <= l_DONE_sig0 ;
OUTPUT_ENABLE_1 <= GO or l_DONE_sig0 ;
Bnn_a <= Bnn_a_sig2 when ( OUTPUT_ENABLE_1
= '1' ) else
'Z' ;
63.
26.
27.
signal syn_tmp_sig15 : std_logic;
constant syn_const16_1 : std_logic := '1';
signal syn_tmp_sig18 : std_logic;
signal syn_tmp_sig20 : std_logic;
57.
12.
13.
constant syn_const14_1 : mINT :=
"00000000000000000000000000000001";
93.
signal Bnn_a_sig2 : std_logic;
constant syn_const3_0 : std_logic := '0';
signal x_sig4 : mINT;
signal syn_conv_sig5 : std_logic_vector(31 downto
0);
signal x_sig6 : std_logic_vector(31 downto 0);
signal x_sig8 : mINT;
signal Bnn_c_sig9 : std_logic;
signal Bnn_b_sig10 : std_logic;
signal syn_tmp_sig11 : std_logic;
constant syn_const12_3 : mINT :=
"00000000000000000000000000000011";
94.
95.
96.
97.
98.
99.
100.
101.
102.
147
dp : process (GO, CLOCK) is
variable syn_chain_var13 : mINT;
variable syn_chain_var17 : mINT;
variable syn_chain_var19 : mINT;
variable syn_chain_var21 : mINT;
variable syn_chain_var22 : mINT;
begin
if GO = '0' then
i_ren_sig0 <= syn_const1_0 ;
Bnn_a_sig2 <= syn_const3_0 ;
x_sig4 <= syn_const1_0 ;
Bnn_c_sig9 <= syn_const3_0 ;
Bnn_b_sig10 <= syn_const3_0 ;
syn_tmp_sig11 <= syn_const3_0 ;
syn_tmp_sig15 <= syn_const3_0 ;
syn_tmp_sig18 <= syn_const3_0 ;
syn_tmp_sig20 <= syn_const3_0 ;
else
if CLOCK'event and CLOCK = '1' then
case CS is
when INIT =>
i_ren_sig0 <= syn_const1_0 ;
when S1 =>
syn_tmp_sig11 <=
conv_std_logic(i_ren_sig0 < syn_const12_3) ;
when S4 =>
syn_chain_var13 :=
mINT(std_logic_vector(x_sig8) and
std_logic_vector(syn_const14_1));
148
ANHANG B. FPGA-REALISIERUNG VON BNN
103.
104.
105.
106.
107.
108.
109.
110.
111.
112.
113.
114.
115.
116.
117.
118.
119.
120.
121.
122.
123.
124.
125.
126.
127.
128.
129.
130.
131.
132.
syn_tmp_sig15 <=
conv_std_logic(syn_chain_var13 = syn_const14_1) ;
when S7 =>
Bnn_a_sig2 <= syn_const16_1 ;
when S8 =>
Bnn_a_sig2 <= syn_const3_0 ;
when S9 =>
syn_chain_var17 :=
mINT(std_logic_vector(x_sig8) and
std_logic_vector(syn_const14_1));
syn_tmp_sig18 <=
conv_std_logic(syn_chain_var17 = syn_const14_1) ;
when S12 =>
Bnn_b_sig10 <= syn_const16_1 ;
when S13 =>
Bnn_b_sig10 <= syn_const3_0 ;
when S14 =>
syn_chain_var19 :=
mINT(std_logic_vector(x_sig8) and
std_logic_vector(syn_const14_1));
syn_tmp_sig20 <=
conv_std_logic(syn_chain_var19 = syn_const14_1) ;
when S17 =>
Bnn_c_sig9 <= syn_const16_1 ;
when S18 =>
Bnn_c_sig9 <= syn_const3_0 ;
when S19 =>
syn_chain_var21 :=
mINT(shift_right(signed(x_sig8),
conv_integer(syn_const14_1)));
x_sig4 <= syn_chain_var21 ;
syn_chain_var22 := (i_ren_sig0 +
syn_const14_1);
i_ren_sig0 <= syn_chain_var22 ;
when others =>
null;
end case;
end if;
end if;
end process dp;
158.
159.
160.
161.
162.
163.
164.
165.
166.
167.
168.
169.
170.
171.
172.
173.
174.
175.
176.
177.
178.
179.
180.
181.
182.
183.
184.
185.
186.
187.
188.
189.
190.
191.
192.
193.
194.
195.
196.
197.
133.
134.
135.
136.
137.
138.
139.
140.
141.
142.
143.
144.
145.
146.
147.
148.
149.
150.
151.
152.
153.
154.
155.
156.
157.
198.
fsm : process (syn_tmp_sig11, i_ren_sig0,
syn_tmp_sig15, syn_tmp_sig18, syn_tmp_sig20, CS)
is
begin
case CS is
when INIT =>
NS <= S1 ;
when S1 =>
NS <= S2 ;
when S2 =>
if (syn_tmp_sig11 = '1') then
NS <= S3 ;
else
NS <= FINAL ;
end if;
when S3 =>
case ( i_ren_sig0 ) is
when
"00000000000000000000000000000000" =>
NS <= S4 ;
when
"00000000000000000000000000000001" =>
NS <= S9 ;
when
"00000000000000000000000000000010" =>
NS <= S14 ;
when others =>
NS <= FINAL ;
end case;
199.
200.
201.
202.
203.
204.
205.
206.
when S4 =>
NS <= S5 ;
when S5 =>
NS <= S6 ;
when S6 =>
if (syn_tmp_sig15 = '1') then
NS <= S7 ;
else
NS <= S8 ;
end if;
when S7 =>
NS <= S19 ;
when S8 =>
NS <= S19 ;
when S9 =>
NS <= S10 ;
when S10 =>
NS <= S11 ;
when S11 =>
if (syn_tmp_sig18 = '1') then
NS <= S12 ;
else
NS <= S13 ;
end if;
when S12 =>
NS <= S19 ;
when S13 =>
NS <= S19 ;
when S14 =>
NS <= S15 ;
when S15 =>
NS <= S16 ;
when S16 =>
if (syn_tmp_sig20 = '1') then
NS <= S17 ;
else
NS <= S18 ;
end if;
when S17 =>
NS <= S19 ;
when S18 =>
NS <= S19 ;
when S19 =>
NS <= S20 ;
when S20 =>
NS <= S1 ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
207.
208.
209.
210.
211.
212.
213.
214.
215.
216.
217.
218.
219.
220.
221.
222.
223.
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig0 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig0 <= '1' ;
else
l_DONE_sig0 <= '0' ;
end if;
end if;
end if;
end process sync;
224.
end mixed;
-- End of entity declaration
225.
148
149
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2.2 VHDL_Bnn_create
VHDL-L I S T I N G B.5 C R E A T E ()
226.
227.
228.
229.
230.
231.
232.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
-- end of imports from Package IEEE
233.
234.
235.
236.
237.
242.
243.
244.
245.
246.
247.
252.
architecture mixed of
ImplementationPlatforms_VHDL_Bnn_create_Bnn
is
type FsmState is (INIT, FINAL);
263.
277.
279.
281.
282.
283.
284.
285.
286.
287.
288.
289.
290.
fsm : process (CS) is
begin
case CS is
when INIT =>
NS <= FINAL ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
292.
293.
295.
296.
297.
298.
300.
302.
304.
306.
307.
begin
DONE <= l_DONE_sig2 ;
264.
265.
276.
305.
signal OUTPUT_ENABLE_3 : std_logic;
261.
262.
275.
303.
signal l_DONE_sig2 : std_logic;
259.
260.
274.
301.
signal NS : FsmState;
257.
258.
272.
299.
signal CS : FsmState;
255.
256.
271.
294.
253.
254.
270.
291.
-- Architecture definition(s) for VHDL Entity
ImplementationPlatforms_VHDL_Bnn_create_Bnn
250.
251.
269.
dp : process (GO, CLOCK) is
begin
if GO = '0' then
else
if CLOCK'event and CLOCK = '1' then
case CS is
when INIT =>
when others =>
null;
end case;
end if;
end if;
end process dp;
280.
entity
ImplementationPlatforms_VHDL_Bnn_create_Bnn
is
port (
CLOCK : in std_logic; -- CLOCK
GO : in std_logic; -- GO
DONE : out std_logic-- DONE
);
end
ImplementationPlatforms_VHDL_Bnn_create_Bnn;
248.
249.
268.
278.
-- Entity declaration
240.
241.
267.
273.
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
-- end of imports from Package work
238.
239.
266.
308.
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig2 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig2 <= '1' ;
else
l_DONE_sig2 <= '0' ;
end if;
end if;
end if;
end process sync;
309.
310.
OUTPUT_ENABLE_3 <= GO or l_DONE_sig2 ;
149
end mixed;
150
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2.3 VHDL_Bnn_ calculate
VHDL-L I S T I N G B.6 C A L C U L A T E ()
311.
312.
313.
314.
315.
316.
317.
318.
319.
320.
321.
322.
323.
324.
325.
326.
327.
328.
329.
330.
331.
332.
333.
334.
335.
336.
337.
338.
339.
340.
341.
342.
343.
344.
345.
346.
347.
348.
349.
350.
351.
352.
353.
354.
355.
356.
357.
358.
359.
360.
361.
362.
363.
364.
365.
366.
367.
368.
369.
370.
371.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
-- end of imports from Package IEEE
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
-- end of imports from Package work
-- Entity declaration
entity
ImplementationPlatforms_VHDL_Bnn_calculate_boole
an is
port (
CLOCK : in std_logic; -- CLOCK
GO : in std_logic; -- GO
DONE : out std_logic; -- DONE
Bnn_y04 : out std_logic; -- Data.Bnn.y04
Bnn_c : in std_logic; -- Data.Bnn.c
Bnn_y03 : out std_logic; -- Data.Bnn.y03
Bnn_k02 : inout std_logic; -- Data.Bnn.k02
Bnn_y09 : out std_logic; -- Data.Bnn.y09
Bnn_k01 : inout std_logic; -- Data.Bnn.k01
Bnn_y05 : out std_logic; -- Data.Bnn.y05
Bnn_y01 : inout std_logic; -- Data.Bnn.y01
Bnn_y06 : out std_logic; -- Data.Bnn.y06
Bnn_a : in std_logic; -- Data.Bnn.a
Bnn_y07 : out std_logic; -- Data.Bnn.y07
Bnn_k03 : inout std_logic; -- Data.Bnn.k03
Bnn_y08 : out std_logic; -- Data.Bnn.y08
Bnn_b : in std_logic; -- Data.Bnn.b
Bnn_y02 : out std_logic; -- Data.Bnn.y02
Bnn_y00 : out std_logic; -- Data.Bnn.y00
Bnn_k04 : inout std_logic; -- Data.Bnn.k04
RETURN_VALUE : out std_logic-Data.Bnn.calculate.returnVar_308
);
end
ImplementationPlatforms_VHDL_Bnn_calculate_boole
an;
ImplementationPlatforms_VHDL_Bnn_calculate_boolea
n
architecture mixed of
ImplementationPlatforms_VHDL_Bnn_calculate_boole
an is
type FsmState is (INIT, S1, S2, S3, S4, FINAL);
signal CS : FsmState;
signal NS : FsmState;
signal l_DONE_sig4 : std_logic;
signal OUTPUT_ENABLE_5 : std_logic;
signal Bnn_y04_sig25 : std_logic;
constant syn_const26_0 : std_logic := '0';
signal Bnn_c_sig27 : std_logic;
signal Bnn_y03_sig28 : std_logic;
signal Bnn_k02_sig29 : std_logic;
signal Bnn_k02_sig30 : std_logic;
signal Bnn_y09_sig31 : std_logic;
signal Bnn_k01_sig32 : std_logic;
signal Bnn_k01_sig33 : std_logic;
signal Bnn_y05_sig34 : std_logic;
signal Bnn_y01_sig35 : std_logic;
signal Bnn_y01_sig36 : std_logic;
signal Bnn_y06_sig37 : std_logic;
signal Bnn_a_sig38 : std_logic;
signal Bnn_y07_sig39 : std_logic;
signal Bnn_k03_sig40 : std_logic;
signal Bnn_k03_sig41 : std_logic;
372.
373.
374.
375.
376.
377.
378.
379.
380.
381.
382.
383.
384.
385.
386.
387.
signal Bnn_y08_sig42 : std_logic;
signal Bnn_b_sig43 : std_logic;
signal Bnn_y02_sig44 : std_logic;
signal Bnn_y00_sig45 : std_logic;
signal Bnn_k04_sig46 : std_logic;
signal Bnn_k04_sig47 : std_logic;
signal returnVar_308_sig48 : std_logic;
constant syn_const49_1 : std_logic := '1';
begin
DONE <= l_DONE_sig4 ;
OUTPUT_ENABLE_5 <= GO or l_DONE_sig4 ;
Bnn_y04 <= Bnn_y04_sig25 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_c_sig27 <= Bnn_c ;
Bnn_y03 <= Bnn_y03_sig28 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_k02 <= Bnn_k02_sig29 when ( l_DONE_sig4 = '1'
) else
'Z' ;
Bnn_k02_sig30 <= Bnn_k02 ;
388.
389.
390.
391.
392.
393.
394.
395.
396.
397.
398.
399.
400.
401.
402.
403.
404.
405.
406.
407.
408.
409.
410.
411.
412.
413.
414.
415.
416.
417.
418.
419.
420.
421.
422.
423.
424.
425.
150
Bnn_y09 <= Bnn_y09_sig31 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_k01 <= Bnn_k01_sig32 when ( l_DONE_sig4
) else
'Z' ;
Bnn_k01_sig33 <= Bnn_k01 ;
Bnn_y05 <= Bnn_y05_sig34 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_y01 <= Bnn_y01_sig35 when ( l_DONE_sig4
) else
'Z' ;
Bnn_y01_sig36 <= Bnn_y01 ;
Bnn_y06 <= Bnn_y06_sig37 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_a_sig38 <= Bnn_a ;
Bnn_y07 <= Bnn_y07_sig39 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_k03 <= Bnn_k03_sig40 when ( l_DONE_sig4
) else
'Z' ;
Bnn_k03_sig41 <= Bnn_k03 ;
Bnn_y08 <= Bnn_y08_sig42 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_b_sig43 <= Bnn_b ;
Bnn_y02 <= Bnn_y02_sig44 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_y00 <= Bnn_y00_sig45 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
Bnn_k04 <= Bnn_k04_sig46 when ( l_DONE_sig4
) else
'Z' ;
Bnn_k04_sig47 <= Bnn_k04 ;
RETURN_VALUE <= returnVar_308_sig48 when (
OUTPUT_ENABLE_5 = '1' ) else
'Z' ;
dp : process (GO, CLOCK) is
variable syn_chain_var50 : std_logic;
variable syn_chain_var51 : std_logic;
variable syn_chain_var52 : std_logic;
variable syn_chain_var53 : std_logic;
variable syn_chain_var54 : std_logic;
variable syn_chain_var55 : std_logic;
variable syn_chain_var56 : std_logic;
variable syn_chain_var57 : std_logic;
variable syn_chain_var58 : std_logic;
variable syn_chain_var59 : std_logic;
variable syn_chain_var60 : std_logic;
variable syn_chain_var61 : std_logic;
variable syn_chain_var62 : std_logic;
variable syn_chain_var63 : std_logic;
variable syn_chain_var64 : std_logic;
variable syn_chain_var65 : std_logic;
variable syn_chain_var66 : std_logic;
variable syn_chain_var67 : std_logic;
= '1'
= '1'
= '1'
= '1'
151
ANHANG B. FPGA-REALISIERUNG VON BNN
426.
427.
428.
429.
430.
431.
432.
433.
434.
435.
436.
437.
438.
439.
440.
441.
442.
443.
444.
445.
446.
447.
448.
449.
450.
451.
452.
453.
454.
455.
456.
457.
458.
459.
460.
461.
462.
463.
464.
465.
466.
467.
468.
469.
470.
471.
472.
473.
474.
475.
476.
variable syn_chain_var68 : std_logic;
variable syn_chain_var69 : std_logic;
variable syn_chain_var70 : std_logic;
variable syn_chain_var71 : std_logic;
variable syn_chain_var72 : std_logic;
variable syn_chain_var73 : std_logic;
begin
if GO = '0' then
Bnn_y04_sig25 <= syn_const26_0 ;
Bnn_y03_sig28 <= syn_const26_0 ;
Bnn_k02_sig29 <= syn_const26_0 ;
Bnn_y09_sig31 <= syn_const26_0 ;
Bnn_k01_sig32 <= syn_const26_0 ;
Bnn_y05_sig34 <= syn_const26_0 ;
Bnn_y01_sig35 <= syn_const26_0 ;
Bnn_y06_sig37 <= syn_const26_0 ;
Bnn_y07_sig39 <= syn_const26_0 ;
Bnn_k03_sig40 <= syn_const26_0 ;
Bnn_y08_sig42 <= syn_const26_0 ;
Bnn_y02_sig44 <= syn_const26_0 ;
Bnn_y00_sig45 <= syn_const26_0 ;
Bnn_k04_sig46 <= syn_const26_0 ;
returnVar_308_sig48 <= syn_const26_0 ;
else
if CLOCK'event and CLOCK = '1' then
case CS is
when INIT =>
returnVar_308_sig48 <=
syn_const49_1 ;
syn_chain_var50 := (Bnn_a_sig38 and Bnn_b_sig43);
syn_chain_var51 := (Bnn_a_sig38 and Bnn_c_sig27);
syn_chain_var52 := (not Bnn_b_sig43);
syn_chain_var53 := (not Bnn_c_sig27);
syn_chain_var54 := (not Bnn_a_sig38);
syn_chain_var55 := (syn_chain_var54 and
Bnn_b_sig43);
syn_chain_var56 := (syn_chain_var50 and
syn_chain_var53);
syn_chain_var57 := (syn_chain_var54 and
syn_chain_var53);
syn_chain_var58 := (Bnn_a_sig38 and
syn_chain_var52);
syn_chain_var59 := (syn_chain_var54 and
syn_chain_var52);
Bnn_k03_sig40 <= syn_chain_var59 ;
syn_chain_var60 := (syn_chain_var55 and
syn_chain_var53);
syn_chain_var61 := (syn_chain_var58 and
syn_chain_var53);
Bnn_k02_sig29 <= syn_chain_var61 ;
syn_chain_var62 := (syn_chain_var60 or
syn_chain_var51);
Bnn_k04_sig46 <= syn_chain_var62 ;
Bnn_y09_sig31 <= syn_chain_var62 ;
syn_chain_var63 := (syn_chain_var58
and Bnn_c_sig27);
syn_chain_var64 := (syn_chain_var57 or
syn_chain_var63);
syn_chain_var65 := (syn_chain_var61 or
syn_chain_var59);
Bnn_y07_sig39 <= syn_chain_var65 ;
syn_chain_var66 := (syn_chain_var61 or
syn_chain_var62);
Bnn_y04_sig25 <= syn_chain_var66 ;
477.
478.
479.
480.
481.
482.
483.
484.
485.
486.
487.
488.
489.
490.
491.
492.
493.
494.
495.
496.
497.
498.
499.
500.
501.
502.
503.
504.
505.
506.
507.
508.
509.
510.
511.
512.
513.
514.
515.
516.
517.
518.
519.
520.
521.
522.
523.
524.
525.
526.
527.
528.
529.
530.
531.
532.
533.
151
syn_chain_var67 := (syn_chain_var59 or
syn_chain_var62);
Bnn_y02_sig44 <= syn_chain_var67 ;
syn_chain_var68 := (syn_chain_var65 or
syn_chain_var62);
Bnn_y08_sig42 <= syn_chain_var68 ;
syn_chain_var69 := (syn_chain_var64 or
syn_chain_var56);
Bnn_k01_sig32 <= syn_chain_var69 ;
syn_chain_var70 := (syn_chain_var69 or
syn_chain_var59);
Bnn_y03_sig28 <= syn_chain_var70 ;
Bnn_y00_sig45 <= syn_chain_var69 ;
syn_chain_var71 := (syn_chain_var69 or
syn_chain_var61);
Bnn_y01_sig35 <= syn_chain_var71 ;
syn_chain_var72 := (syn_chain_var69 or
syn_chain_var62);
Bnn_y05_sig34 <= syn_chain_var72 ;
syn_chain_var73 := (syn_chain_var71 or
syn_chain_var59);
Bnn_y06_sig37 <= syn_chain_var73 ;
when others =>
null;
end case;
end if;
end if;
end process dp;
fsm : process (CS) is
begin
case CS is
when INIT =>
NS <= S1 ;
when S1 =>
NS <= S2 ;
when S2 =>
NS <= S3 ;
when S3 =>
NS <= S4 ;
when S4 =>
NS <= FINAL ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig4 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig4 <= '1' ;
else
l_DONE_sig4 <= '0' ;
end if;
end if;
end if;
end process sync;
end mixed;
152
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2.4 VHDL_Bnn_get_y
VHDL-L I S T I N G B.7 G E T _ Y ()
534.
535.
536.
537.
538.
539.
540.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
-- end of imports from Package IEEE
541.
542.
543.
544.
545.
550.
551.
552.
553.
554.
555.
556.
557.
558.
559.
560.
561.
562.
563.
564.
565.
566.
571.
572.
573.
574.
575.
576.
577.
578.
579.
580.
581.
582.
583.
584.
585.
586.
587.
588.
589.
590.
591.
592.
597.
599.
600.
601.
602.
604.
606.
607.
608.
609.
611.
612.
613.
614.
615.
616.
617.
618.
619.
620.
621.
622.
623.
624.
626.
627.
628.
architecture mixed of
ImplementationPlatforms_VHDL_Bnn_get_y_int is
type FsmState is (INIT, S1, S2, S3, S4, S5, S6,
S7, S8, S9, S10, S11, S12, S13, S14, S15, S16,
S17, S18, S19, S20, S21, S22, S23, S24, S25,
S26, FINAL);
signal CS : FsmState;
signal NS : FsmState;
signal l_DONE_sig6 : std_logic;
signal OUTPUT_ENABLE_7 : std_logic;
signal y_ren_sig75 : mINT;
constant syn_const76_0 : mINT :=
"00000000000000000000000000000000";
signal i_ren_sig77 : mINT;
signal Bnn_y07_sig78 : std_logic;
signal Bnn_y04_sig79 : std_logic;
signal Bnn_y03_sig80 : std_logic;
signal Bnn_y08_sig81 : std_logic;
signal Bnn_y09_sig82 : std_logic;
signal Bnn_y02_sig83 : std_logic;
signal Bnn_y05_sig84 : std_logic;
signal Bnn_y01_sig85 : std_logic;
signal Bnn_y06_sig86 : std_logic;
signal Bnn_y00_sig87 : std_logic;
signal returnVar_310_sig88 : mINT;
signal syn_conv_sig89:std_logic_vector(31
downto 0);
signal syn_tmp_sig90 : std_logic;
constant syn_const91_0 : std_logic := '0';
constant syn_const92_10 : mINT :=
"00000000000000000000000000001010";
constant syn_const94_1 : mINT :=
"00000000000000000000000000000001";
begin
DONE <= l_DONE_sig6 ;
OUTPUT_ENABLE_7 <= GO or l_DONE_sig6 ;
Bnn_y07_sig78 <= Bnn_y07 ;
Bnn_y04_sig79 <= Bnn_y04 ;
Bnn_y03_sig80 <= Bnn_y03 ;
Bnn_y08_sig81 <= Bnn_y08 ;
Bnn_y09_sig82 <= Bnn_y09 ;
Bnn_y02_sig83 <= Bnn_y02 ;
Bnn_y05_sig84 <= Bnn_y05 ;
Bnn_y01_sig85 <= Bnn_y01 ;
Bnn_y06_sig86 <= Bnn_y06 ;
Bnn_y00_sig87 <= Bnn_y00 ;
RETURN_VALUE <= syn_conv_sig89 when (
OUTPUT_ENABLE_7 = '1' ) else
(others => 'Z') ;
610.
625.
-- Architecture definition(s) for VHDL Entity
ImplementationPlatforms_VHDL_Bnn_get_y_int
569.
570.
596.
605.
entity
ImplementationPlatforms_VHDL_Bnn_get_y_int is
port (
CLOCK : in std_logic; -- CLOCK
GO : in std_logic; -- GO
DONE : out std_logic; -- DONE
Bnn_y07 : in std_logic; -- Data.Bnn.y07
Bnn_y04 : in std_logic; -- Data.Bnn.y04
Bnn_y03 : in std_logic; -- Data.Bnn.y03
Bnn_y08 : in std_logic; -- Data.Bnn.y08
Bnn_y09 : in std_logic; -- Data.Bnn.y09
Bnn_y02 : in std_logic; -- Data.Bnn.y02
Bnn_y05 : in std_logic; -- Data.Bnn.y05
Bnn_y01 : in std_logic; -- Data.Bnn.y01
Bnn_y06 : in std_logic; -- Data.Bnn.y06
Bnn_y00 : in std_logic; -- Data.Bnn.y00
RETURN_VALUE : out std_logic_vector(31
downto 0)-- Data.Bnn.get_y.returnVar_310
);
end
ImplementationPlatforms_VHDL_Bnn_get_y_int;
567.
568.
595.
603.
-- Entity declaration
548.
549.
594.
598.
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
-- end of imports from Package work
546.
547.
593.
629.
630.
631.
632.
633.
634.
635.
636.
637.
638.
639.
640.
641.
642.
643.
644.
645.
646.
647.
648.
152
syn_conv_sig89 <=
conv_std_logic_vector(returnVar_310_sig88) ;
dp : process (GO, CLOCK) is
variable syn_chain_var93 : mINT;
variable syn_chain_var95 : mINT;
variable syn_chain_var96 : mINT;
variable syn_chain_var97 : mINT;
variable syn_chain_var98 : mINT;
variable syn_chain_var99 : mINT;
variable syn_chain_var100 : mINT;
variable syn_chain_var101 : mINT;
variable syn_chain_var102 : mINT;
variable syn_chain_var103 : mINT;
variable syn_chain_var104 : mINT;
variable syn_chain_var105 : mINT;
begin
if GO = '0' then
y_ren_sig75 <= syn_const76_0 ;
i_ren_sig77 <= syn_const76_0 ;
returnVar_310_sig88 <= syn_const76_0 ;
syn_tmp_sig90 <= syn_const91_0 ;
else
if CLOCK'event and CLOCK = '1' then
case CS is
when INIT =>
i_ren_sig77 <= syn_const76_0 ;
y_ren_sig75 <= syn_const76_0 ;
when S1 =>
syn_tmp_sig90 <=
conv_std_logic(i_ren_sig77 < syn_const92_10) ;
when S5 =>
syn_chain_var93 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var93 ;
when S7 =>
syn_chain_var95 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var95 ;
when S9 =>
syn_chain_var96 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var96 ;
when S11 =>
153
ANHANG B. FPGA-REALISIERUNG VON BNN
649.
650.
651.
652.
653.
654.
655.
656.
657.
658.
659.
660.
661.
662.
663.
664.
665.
666.
667.
668.
669.
670.
671.
672.
673.
674.
675.
676.
677.
678.
679.
680.
681.
syn_chain_var97 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var97
;
when S13 =>
syn_chain_var98 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var98
;
when S15 =>
syn_chain_var99 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var99
;
when S17 =>
syn_chain_var100 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var100
;
when S19 =>
syn_chain_var101 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var101
;
when S21 =>
syn_chain_var102 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var102
;
when S23 =>
syn_chain_var103 :=
mINT(std_logic_vector(y_ren_sig75) or
std_logic_vector(syn_const94_1));
y_ren_sig75 <= syn_chain_var103
;
when S24 =>
syn_chain_var104 :=
mINT(shift_left(signed(y_ren_sig75),
conv_integer(syn_const94_1)));
y_ren_sig75 <= syn_chain_var104
;
syn_chain_var105 := (i_ren_sig77
+ syn_const94_1);
i_ren_sig77 <= syn_chain_var105
;
when S26 =>
returnVar_310_sig88 <=
y_ren_sig75 ;
when others =>
null;
end case;
end if;
end if;
end process dp;
682.
683.
684.
685.
686.
687.
688.
689.
690.
691.
692.
693.
694.
695.
696.
697.
698.
699.
700.
701.
702.
703.
704.
705.
706.
707.
708.
709.
710.
711.
712.
713.
714.
715.
716.
717.
718.
719.
720.
721.
722.
723.
724.
725.
726.
727.
728.
729.
730.
731.
732.
733.
734.
735.
736.
737.
738.
739.
740.
741.
fsm : process (syn_tmp_sig90, i_ren_sig77,
Bnn_y00_sig87, Bnn_y01_sig85, Bnn_y02_sig83,
Bnn_y03_sig80, Bnn_y04_sig79, Bnn_y05_sig84,
Bnn_y06_sig86, Bnn_y07_sig78, Bnn_y08_sig81,
Bnn_y09_sig82, CS) is
begin
case CS is
when INIT =>
NS <= S1 ;
when S1 =>
NS <= S2 ;
when S2 =>
742.
743.
744.
745.
746.
747.
748.
749.
750.
751.
752.
753.
153
if (syn_tmp_sig90 = '1') then
NS <= S3 ;
else
NS <= S26 ;
end if;
when S3 =>
case ( i_ren_sig77 ) is
when
"00000000000000000000000000000000"
NS <= S4 ;
when
"00000000000000000000000000000001"
NS <= S6 ;
when
"00000000000000000000000000000010"
NS <= S8 ;
when
"00000000000000000000000000000011"
NS <= S10 ;
when
"00000000000000000000000000000100"
NS <= S12 ;
when
"00000000000000000000000000000101"
NS <= S14 ;
when
"00000000000000000000000000000110"
NS <= S16 ;
when
"00000000000000000000000000000111"
NS <= S18 ;
when
"00000000000000000000000000001000"
NS <= S20 ;
when
"00000000000000000000000000001001"
NS <= S22 ;
when others =>
NS <= FINAL ;
end case;
when S4 =>
if (Bnn_y00_sig87 = '1') then
NS <= S5 ;
else
NS <= S24 ;
end if;
when S5 =>
NS <= S24 ;
when S6 =>
if (Bnn_y01_sig85 = '1') then
NS <= S7 ;
else
NS <= S24 ;
end if;
when S7 =>
NS <= S24 ;
when S8 =>
if (Bnn_y02_sig83 = '1') then
NS <= S9 ;
else
NS <= S24 ;
end if;
when S9 =>
NS <= S24 ;
when S10 =>
if (Bnn_y03_sig80 = '1') then
NS <= S11 ;
else
NS <= S24 ;
end if;
when S11 =>
NS <= S24 ;
when S12 =>
=>
=>
=>
=>
=>
=>
=>
=>
=>
=>
154
ANHANG B. FPGA-REALISIERUNG VON BNN
754.
755.
756.
757.
758.
759.
760.
761.
762.
763.
764.
765.
766.
767.
768.
769.
770.
771.
772.
773.
774.
775.
776.
777.
778.
779.
780.
781.
782.
783.
784.
785.
786.
787.
788.
789.
790.
791.
792.
793.
if (Bnn_y04_sig79
NS <= S13 ;
else
NS <= S24 ;
end if;
when S13 =>
NS <= S24 ;
when S14 =>
if (Bnn_y05_sig84
NS <= S15 ;
else
NS <= S24 ;
end if;
when S15 =>
NS <= S24 ;
when S16 =>
if (Bnn_y06_sig86
NS <= S17 ;
else
NS <= S24 ;
end if;
when S17 =>
NS <= S24 ;
when S18 =>
if (Bnn_y07_sig78
NS <= S19 ;
else
NS <= S24 ;
end if;
when S19 =>
NS <= S24 ;
when S20 =>
if (Bnn_y08_sig81
NS <= S21 ;
else
NS <= S24 ;
end if;
when S21 =>
NS <= S24 ;
when S22 =>
= '1') then
794.
795.
796.
797.
798.
799.
800.
801.
= '1') then
802.
803.
804.
805.
806.
807.
808.
809.
= '1') then
810.
811.
812.
if (Bnn_y09_sig82 = '1') then
NS <= S23 ;
else
NS <= S24 ;
end if;
when S23 =>
NS <= S24 ;
when S24 =>
NS <= S25 ;
when S25 =>
NS <= S1 ;
when S26 =>
NS <= FINAL ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
813.
814.
815.
816.
817.
= '1') then
818.
819.
820.
821.
822.
823.
824.
825.
= '1') then
826.
827.
828.
829.
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig6 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig6 <= '1' ;
else
l_DONE_sig6 <= '0' ;
end if;
end if;
end if;
end process sync;
830.
831.
154
end mixed;
155
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2.5 VHDL_Bnn_destroy
VHDL-L I S T I N G B.8 D E S T R O Y ()
832.
833.
834.
835.
836.
837.
838.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
-- end of imports from Package IEEE
839.
840.
841.
842.
843.
848.
849.
850.
851.
852.
853.
858.
869.
882.
883.
885.
887.
888.
889.
890.
891.
892.
893.
894.
895.
896.
897.
899.
900.
901.
903.
904.
905.
906.
908.
910.
912.
913.
signal OUTPUT_ENABLE_9 : std_logic;
867.
868.
881.
911.
signal l_DONE_sig8 : std_logic;
865.
866.
880.
909.
signal NS : FsmState;
863.
864.
878.
907.
signal CS : FsmState;
861.
862.
877.
902.
architecture mixed of
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d is
type FsmState is (INIT, FINAL);
859.
860.
876.
914.
sync : process (GO, CLOCK) is
begin
if GO = '0' then
CS <= INIT ;
l_DONE_sig8 <= '0' ;
else
if CLOCK'event and CLOCK = '1' then
CS <= NS ;
if NS = FINAL then
l_DONE_sig8 <= '1' ;
else
l_DONE_sig8 <= '0' ;
end if;
end if;
end if;
end process sync;
915.
begin
DONE <= l_DONE_sig8 ;
916.
870.
871.
fsm : process (CS) is
begin
case CS is
when INIT =>
NS <= FINAL ;
when FINAL =>
NS <= FINAL ;
when others =>
NS <= FINAL ;
end case;
end process fsm;
898.
-- Architecture definition(s) for VHDL Entity
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d
856.
857.
875.
dp : process (GO, CLOCK) is
begin
if GO = '0' then
else
if CLOCK'event and CLOCK = '1' then
case CS is
when INIT =>
when others =>
null;
end case;
end if;
end if;
end process dp;
886.
entity
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d is
port (
CLOCK : in std_logic; -- CLOCK
GO : in std_logic; -- GO
DONE : out std_logic-- DONE
);
end
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d;
854.
855.
874.
884.
-- Entity declaration
846.
847.
873.
879.
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
-- end of imports from Package work
844.
845.
872.
OUTPUT_ENABLE_9 <= GO or l_DONE_sig8 ;
155
end mixed;
156
ANHANG B. FPGA-REALISIERUNG VON BNN
B.2.6 VHDL_Architecture_Bnn
VHDL-L I S T I N G B.9 A R C H I T E C T U R E _B N N
917.
918.
919.
920.
921.
922.
923.
924.
925.
926.
927.
928.
929.
930.
931.
932.
933.
934.
935.
936.
937.
938.
939.
940.
941.
942.
943.
944.
945.
946.
947.
948.
949.
950.
951.
952.
953.
954.
955.
956.
957.
958.
959.
library IEEE;
use IEEE.numeric_std.all;
use IEEE.std_logic_1164.all;
use IEEE.std_logic_arith.all;
use IEEE.std_logic_1164.std_logic;
use IEEE.std_logic_1164.std_logic_vector;
library work;
use work.mocca_pkg.all;
use work.mocca_pkg.mINT;
entity Bnn is
port (
CLOCK : in std_logic; -- CLOCK
RESET : in std_logic; -- Data.Bnn
GO_ImplementationPlatforms_VHDL_Bnn_init_x_vo
id_int : in std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.init_x
DONE_ImplementationPlatforms_VHDL_Bnn_init_x
_void_int : out std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.init_x
Bnn_c : inout std_logic; -- Data.Bnn.c
Bnn_a : inout std_logic; -- Data.Bnn.a
Bnn_b : inout std_logic; -- Data.Bnn.b
Bnn_init_x_318_x : inout std_logic_vector(31
downto 0); -- Data.Bnn.init_x.318.x
GO_ImplementationPlatforms_VHDL_Bnn_create_B
nn : in std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.create
DONE_ImplementationPlatforms_VHDL_Bnn_create
_Bnn : out std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.create
GO_ImplementationPlatforms_VHDL_Bnn_calculate
_boolean : in std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.calculat
e
DONE_ImplementationPlatforms_VHDL_Bnn_calcul
ate_boolean : out std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.calculat
e
Bnn_y04 : inout std_logic; -- Data.Bnn.y04
Bnn_y03 : inout std_logic; -- Data.Bnn.y03
Bnn_k02 : inout std_logic; -- Data.Bnn.k02
Bnn_y09 : inout std_logic; -- Data.Bnn.y09
Bnn_k01 : inout std_logic; -- Data.Bnn.k01
Bnn_y05 : inout std_logic; -- Data.Bnn.y05
Bnn_y01 : inout std_logic; -- Data.Bnn.y01
Bnn_y06 : inout std_logic; -- Data.Bnn.y06
Bnn_y07 : inout std_logic; -- Data.Bnn.y07
Bnn_k03 : inout std_logic; -- Data.Bnn.k03
Bnn_y08 : inout std_logic; -- Data.Bnn.y08
Bnn_y02 : inout std_logic; -- Data.Bnn.y02
Bnn_y00 : inout std_logic; -- Data.Bnn.y00
Bnn_k04 : inout std_logic; -- Data.Bnn.k04
RETURN_VALUE_ImplementationPlatforms_VHDL_
Bnn_calculate_boolean : out std_logic; -Data.Bnn.calculate.returnVar_308
GO_ImplementationPlatforms_VHDL_Bnn_get_y_int
: in std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.get_y
DONE_ImplementationPlatforms_VHDL_Bnn_get_y
_int : out std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.get_y
RETURN_VALUE_ImplementationPlatforms_VHDL_
Bnn_get_y_int : out std_logic_vector(31 downto
0); -- Data.Bnn.get_y.returnVar_310
GO_ImplementationPlatforms_VHDL_Bnn_destroy_
void : in std_logic; -Data.ImplementationPlatforms.VHDL.Bnn.destroy
DONE_ImplementationPlatforms_VHDL_Bnn_destro
y_void : out std_logic--
960.
961.
962.
963.
964.
965.
966.
967.
968.
969.
970.
971.
972.
973.
974.
975.
976.
977.
978.
979.
980.
981.
982.
983.
984.
985.
986.
987.
988.
989.
990.
991.
992.
993.
994.
995.
996.
997.
998.
999.
1000.
1001.
1002.
1003.
1004.
1005.
1006.
1007.
156
Data.ImplementationPlatforms.VHDL.Bnn.destroy);
end Bnn;
-- Architecture definition(s) for VHDL Entity Bnn
architecture rtl of Bnn is
component
ImplementationPlatforms_VHDL_Bnn_init_x_void_int
port (
CLOCK : in std_logic;
GO : in std_logic;
DONE : out std_logic;
Bnn_a : out std_logic;
x : inout std_logic_vector(31 downto 0);
Bnn_c : out std_logic;
Bnn_b : out std_logic );
end component
ImplementationPlatforms_VHDL_Bnn_init_x_void_int;
for
I_ImplementationPlatforms_VHDL_Bnn_init_x_void_int_I
: ImplementationPlatforms_VHDL_Bnn_init_x_void_int
use entity
ImplementationPlatforms_VHDL_Bnn_init_x_void_int(mixe
d);
signal l_done_DONE_sig23 : std_logic;
component
ImplementationPlatforms_VHDL_Bnn_create_Bnn
port (
CLOCK : in std_logic;
GO : in std_logic;
DONE : out std_logic );
end component
ImplementationPlatforms_VHDL_Bnn_create_Bnn;
for
I_ImplementationPlatforms_VHDL_Bnn_create_Bnn_I :
ImplementationPlatforms_VHDL_Bnn_create_Bnn use
entity
ImplementationPlatforms_VHDL_Bnn_create_Bnn(mixed);
signal l_done_DONE_sig24 : std_logic;
component
ImplementationPlatforms_VHDL_Bnn_calculate_boolean
port (
CLOCK : in std_logic;
GO : in std_logic;
DONE : out std_logic;
Bnn_y04 : out std_logic;
Bnn_c : in std_logic;
Bnn_y03 : out std_logic;
Bnn_k02 : inout std_logic;
Bnn_y09 : out std_logic;
Bnn_k01 : inout std_logic;
Bnn_y05 : out std_logic;
Bnn_y01 : inout std_logic;
Bnn_y06 : out std_logic;
Bnn_a : in std_logic;
Bnn_y07 : out std_logic;
Bnn_k03 : inout std_logic;
Bnn_y08 : out std_logic;
Bnn_b : in std_logic;
Bnn_y02 : out std_logic;
Bnn_y00 : out std_logic;
Bnn_k04 : inout std_logic;
RETURN_VALUE : out std_logic );
end component
ImplementationPlatforms_VHDL_Bnn_calculate_boolean;
for
I_ImplementationPlatforms_VHDL_Bnn_calculate_boolean
_I :
ImplementationPlatforms_VHDL_Bnn_calculate_boolean
use entity
157
ANHANG B. FPGA-REALISIERUNG VON BNN
1008.
1009.
1010.
1011.
1012.
1013.
1014.
1015.
1016.
1017.
1018.
1019.
1020.
1021.
1022.
1023.
1024.
1025.
1026.
1027.
1028.
1029.
1030.
1031.
1032.
1033.
1034.
1035.
1036.
1037.
1038.
1039.
1040.
1041.
1042.
1043.
1044.
1045.
1046.
ImplementationPlatforms_VHDL_Bnn_calculate_b
oolean(mixed);
signal l_done_DONE_sig74 : std_logic;
component
ImplementationPlatforms_VHDL_Bnn_get_y_int
port (
CLOCK : in std_logic;
GO : in std_logic;
DONE : out std_logic;
Bnn_y07 : in std_logic;
Bnn_y04 : in std_logic;
Bnn_y03 : in std_logic;
Bnn_y08 : in std_logic;
Bnn_y09 : in std_logic;
Bnn_y02 : in std_logic;
Bnn_y05 : in std_logic;
Bnn_y01 : in std_logic;
Bnn_y06 : in std_logic;
Bnn_y00 : in std_logic;
RETURN_VALUE : out std_logic_vector(31
downto 0) );
end component
ImplementationPlatforms_VHDL_Bnn_get_y_int;
for
I_ImplementationPlatforms_VHDL_Bnn_get_y_int
_I :
ImplementationPlatforms_VHDL_Bnn_get_y_int
use entity
ImplementationPlatforms_VHDL_Bnn_get_y_int(m
ixed);
signal l_done_DONE_sig106 : std_logic;
component
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d
port (
CLOCK : in std_logic;
GO : in std_logic;
DONE : out std_logic );
end component
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d;
for
I_ImplementationPlatforms_VHDL_Bnn_destroy_v
oid_I :
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d use entity
ImplementationPlatforms_VHDL_Bnn_destroy_voi
d(mixed);
signal l_done_DONE_sig107 : std_logic;
begin
I_ImplementationPlatforms_VHDL_Bnn_init_x_void
_int_I :
ImplementationPlatforms_VHDL_Bnn_init_x_void_
int
port map ( GO =>
GO_ImplementationPlatforms_VHDL_Bnn_init_x_v
oid_int,
DONE => l_done_DONE_sig23,
Bnn_c => Bnn_c,
Bnn_a => Bnn_a,
Bnn_b => Bnn_b,
x => Bnn_init_x_318_x,
CLOCK => CLOCK );
DONE_ImplementationPlatforms_VHDL_Bnn_init_x
_void_int <= l_done_DONE_sig23 ;
I_ImplementationPlatforms_VHDL_Bnn_create_Bnn
_I :
ImplementationPlatforms_VHDL_Bnn_create_Bnn
1047.
1048.
1049.
1050.
1051.
1052.
1053.
1054.
1055.
1056.
1057.
1058.
1059.
1060.
1061.
1062.
1063.
1064.
1065.
1066.
1067.
1068.
1069.
1070.
1071.
1072.
1073.
1074.
1075.
1076.
1077.
1078.
1079.
1080.
1081.
1082.
1083.
1084.
1085.
1086.
1087.
1088.
1089.
1090.
1091.
1092.
1093.
1094.
1095.
157
port map ( GO =>
GO_ImplementationPlatforms_VHDL_Bnn_create_Bnn
DONE => l_done_DONE_sig24,
CLOCK => CLOCK );
DONE_ImplementationPlatforms_VHDL_Bnn_create_Bnn
<= l_done_DONE_sig24 ;
I_ImplementationPlatforms_VHDL_Bnn_calculate_boolean_
I:
ImplementationPlatforms_VHDL_Bnn_calculate_boolean
port map ( GO =>
GO_ImplementationPlatforms_VHDL_Bnn_calculate_boole
an,
DONE => l_done_DONE_sig74,
Bnn_y04 => Bnn_y04,
Bnn_c => Bnn_c,
Bnn_y03 => Bnn_y03,
Bnn_k02 => Bnn_k02,
Bnn_y09 => Bnn_y09,
Bnn_k01 => Bnn_k01,
Bnn_y05 => Bnn_y05,
Bnn_y01 => Bnn_y01,
Bnn_y06 => Bnn_y06,
Bnn_a => Bnn_a,
Bnn_y07 => Bnn_y07,
Bnn_k03 => Bnn_k03,
Bnn_y08 => Bnn_y08,
Bnn_b => Bnn_b,
Bnn_y02 => Bnn_y02,
Bnn_y00 => Bnn_y00,
Bnn_k04 => Bnn_k04,
RETURN_VALUE =>
RETURN_VALUE_ImplementationPlatforms_VHDL_Bnn_ca
lculate_boolean,
CLOCK => CLOCK );
DONE_ImplementationPlatforms_VHDL_Bnn_calculate_bool
ean <= l_done_DONE_sig74 ;
I_ImplementationPlatforms_VHDL_Bnn_get_y_int_I :
ImplementationPlatforms_VHDL_Bnn_get_y_int
port map ( GO =>
GO_ImplementationPlatforms_VHDL_Bnn_get_y_int,
DONE => l_done_DONE_sig106,
Bnn_y04 => Bnn_y04,
Bnn_y03 => Bnn_y03,
Bnn_y09 => Bnn_y09,
Bnn_y05 => Bnn_y05,
Bnn_y06 => Bnn_y06,
Bnn_y01 => Bnn_y01,
Bnn_y07 => Bnn_y07,
Bnn_y08 => Bnn_y08,
Bnn_y02 => Bnn_y02,
Bnn_y00 => Bnn_y00,
RETURN_VALUE =>
RETURN_VALUE_ImplementationPlatforms_VHDL_Bnn_ge
t_y_int,
CLOCK => CLOCK );
DONE_ImplementationPlatforms_VHDL_Bnn_get_y_int <=
l_done_DONE_sig106 ;
I_ImplementationPlatforms_VHDL_Bnn_destroy_void_I :
ImplementationPlatforms_VHDL_Bnn_destroy_void
port map ( GO =>
GO_ImplementationPlatform_VHDL_Bnn_destroy_void
DONE => l_done_DONE_sig107,
CLOCK => CLOCK );
DONE_ImplementationPlatforms_VHDL_Bnn_destroy_void
<= l_done_DONE_sig107 ;
end rtl;
158
ANHANG C EXPERIMENTALE ERGEBNISSE
Anhang C
Experimentale Ergebnisse
C.1 Vorbemerkungen
C.1.1 BNN1
Im diesen Design werden die Eingangssignale x0, x1, x2, die Ausgangssignale der
Transferfunktionen k01,...,k04 und der Ausgangsschicht y00,...,y09 durch Skalarattributen dargestellt. Der Vektor von Eingangssignalen wird durch den Array dem Netz übertragen. Die Methode init_x() ermittelt aus diesem Array die einzelne Skalarattribute
(Programmlisting C.2). Nach Berechnungen werden die erhaltene Skalarwerte im einen
Array in get_y() zusammengesammelt (Programmlisting C.3) und aus dem Netz bekommen. Bei der Modellierung der Kommunikation der Ausgangs- und der verborgenen
Schicht wird eine Methode pro Neuron k1(),..., k4(), y0(),..., y9() verwendet. Diese Methoden werden synchron durch calculate() aufgerufen. Die Methode calculate()
bildet das gesamte Netz ab.
P R O G R A M M L I S T I N G C.1 CALCULATE ()
1096.
1097.
1098.
1099.
k01=k1();
y01=y1();
y06=y6();
return true
k02=k2(); k03=k3(); k04=k4(); y00=y0();
y02=y2(); y03=y3(); y04=y4(); y05=y5();
y07=y7(); y08=y8(); y09=y9();
;
P R O G R A M M L I S T I N G C.2 I N I T _ X ()
1.
x0= inputs[0]; x1=inputs[1]; x2=inputs[2];
P R O G R A M M L I S T I N G C.3: G E T _ Y ()
1.
2.
y[0]=y00; y[1]=y01; y[2]=y02; y[3]=y03; y[4]=y04;
y[5]=y05; y[6]=y06; y[7]=y07; y[8]=y08; y[9]=y09;
158
159
ANHANG C EXPERIMENTALE ERGEBNISSE
C.1.2 BNN2
Die Implementierung von BNN2 ist gleich wie BNN1. Nur, die Eingangs- und Ausgangssignale werden in eine 32-Bits Integer-Variable kodiert, die zu und aus dem Netz
übertragen wird. Dabei stellen die einzelnen Bits Werte von Eingangs- und Ausgangssignalen dar. Ko- und Dekodierung werden durch die Methode get_y() und init_x()
entsprechend erfühlt (Programmlisting C.5, C.4).
P R O G R A M M L I S T I N G C.4 I N I T _ X () V O N BNN2
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
for( int i=0; i<3; i++) {
switch (i) {
case 0 :
if ((x&1)==1) x0=true;
else x0= false; break;
case 1 :
if ((x&1)==1) x1=true;
else x1= false; break;
case 2 :
if ( ( x&1) == 1) x2=true ;
else x2= false; break;
}
x = x>>1;
}
P R O G R A M M L I S T I N G C.5 G E T _ Y () V O N BNN2
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
int y=0;
for (int i=0; i <10; i++) {
switch (i) {
case 0 : if (y00) y|=1;
case 1 : if (y01) y|=1;
case 2 : if (y02) y|=1;
case 3 : if (y03) y|=1;
case 4 : if (y04) y|=1;
case 5 : if (y05) y|=1;
case 6 : if (y06) y|=1;
case 7 : if (y07) y|=1;
case 8 : if (y08) y|=1;
case 9 : if (y09) y|=1;
}
y = y<<1;
}
return y;
break;
break;
break;
break;
break;
break;
break;
break;
break;
break;
C.1.3 BNN3
Das BNN3 stimmt mit dem BNN1 überein, nur, beim dem BNN3 wurden die Kodierung und Dekodierung von Werten in und aus dem Array weggelassen. Jeder Eingangsund Ausgangswert wird einzeln in und aus dem Netz übertragen.
159
160
ANHANG C EXPERIMENTALE ERGEBNISSE
C.1.4 BNN4
Das BNN4 stellt eine Variante von BNN3 dar, wobei die Realisierung von Transferfunktionen der Neuronen durch die einzelnen Methoden nicht vorgenommen wurde. Stattdessen wurde die Berechnung des gesamten Netzes in der Methode calculate() durchgaführt (Programmlisting C.6). Dieses Design hilft einige mögliche bei der Dekompositionsmodellierung entstandene negative Effekte zu entdecken. Auch, die quantitativen
Werte der FPGA-Realisierungen können analysiert werden, so dass die beim Training erzeugte Netzstruktur mit der durch MOCCA erzeugten Schaltung aus LUTs verglichen
werden kann.
P R O G R A M M L I S T I N G C.6 C A L C U L A T E () V O N BNN4
1.
2.
3.
4.
5.
6.
7.
8.
k01=!x0&&!x2 || x0&&!x1&&x2 || x0&&x1&&!x2;
k02=x0&&!x1&&!x2;
k03=!x0&&!x1;
k04=!x0&&x1&&!x2 || x0&&x2;
y00=k01;
y01=k01 || k02; y02=k03 || k04;
y03=k01 || k03; y04=k02 || k04; y05=k01 || k04;
y06=k01 || k02 || k03; y07=k02 || k03;
y08=k02 || k03 || k04; y09=k04;
return true ;
C.1.5 BNN5
Im BNN5 wurden anstelle von Attributen Parameter verwendet. Ansonsten ist das
BNN5 gleich BNN2. Im diesem Design wird der Aufwand von Methoden init_x()
und get_y() durch calculate() übernommen. Dieses Design macht Netz einfacher
in Anwendung, weil die Datenkommunikation in calculate() realisiert wird.
160
161
ANHANG C EXPERIMENTALE ERGEBNISSE
C.2 Zeitmessungen
Tabelle C.1 Mittlere Kompilationszeiten für
FPGA-Implementationen von BNNs
Design topt, [ms] tmap, [ms] tsyn, [ms] tsum, [ms]
BNN1
7756
3178
2731
13666
BNN2
10186
3672
3364
17222
BNN3
8680
3092
2508
14280
BNN4
4028
2447
1789
8264
BNN5
17124
5098
4458
26680
[s]
30.00
topt
tmap
tsyn
tsum
25.00
20.00
15.00
10.00
5.00
0.00
BNN1
BNN2
BNN3
BNN4
BNN5
Abbildung C.1 Mittlere Kompilationszeiten für FPGA-Implementationen von BNNs
161
162
ANHANG C EXPERIMENTALE ERGEBNISSE
Tabelle C.2 Mittlere Kompilationszeiten für
Software-Implementationen von BNNs
Design topt, [ms] tmap, [ms] tsyn, [ms] tsum, [ms]
BNN1
3931
2281
366
6578
BNN2
4797
3835
396
9027
BNN3
4066
2420
356
6842
BNN4
2772
1305
309
4386
BNN5
7616
4675
519
12809
14.00
[s]
topt
tmap
tsyn
tsum
12.00
10.00
8.00
6.00
4.00
2.00
0.00
BNN1
BNN2
BNN3
BNN4
BNN5
Abbildung C.2 Mittlere Kompilationszeiten für Software-Implementationen von BNNs
162
163
ANHANG C EXPERIMENTALE ERGEBNISSE
Tabelle C.3 Ausführungszeiten von FPGA-BNNs
Design texec,init_x,[ns] texec,calculate,[ns] texec,get_y,[ns] texec,[ns]
BNN1
2233,75
2261,71
2131,25
6626,71
BNN2
2810,50
2244,40
3718,71
8773,61
BNN3
0,00
2278,35
0,00
2278,35
BNN4
0,00
2318,28
0,00
2318,28
BNN5
0,00
3758,98
0,00
3758,98
Tabelle C.4 Kommunikationszeiten von FPGA-BNNs
Design twrite,x,[ns]
tread,y,[ns]
tcomm,[ns]
BNN1
200,01
7019,42
7219,43
BNN2
146,43
1600,44
1746,87
BNN3
293,53
15663,90
15957,43
BNN4
315,16
15691,85
16007,01
BNN5
96,84
1597,77
1694,62
Tabelle C.5 Ausführungszeiten von Software-BNNs
Design texec,init_x,[ns] texec,calculate,[ns] texec,get_y,[ns] texec,[ns]
BNN1
82,20
393,04
70,22
545,46
BNN2
216,99
325,81
511,85
1054,64
BNN3
0,00
327,14
0,00
327,14
BNN4
0,00
271,90
0,00
271,9
BNN5
0,00
270,23
0,00
270,23
Tabelle C.6 Kommunikationszeiten von Software-BNNs
Design twrite,x,[ns]
tread,y,[ns]
tcomm,[ns]
BNN1
0,00
0,00
0,00
BNN2
0,00
0,00
0,00
BNN3
47,26
52,25
99,51
BNN4
46,92
51,58
98,51
BNN5
0,00
0,00
0,00
163
164
ANHANG C EXPERIMENTALE ERGEBNISSE
Tabelle C.7 Ausführungszeiten von Bnn::calculate() in FPGA-BNNs
Design th1exec,calculate,[ns] t^h1exec,calculate,[ns] terr, [ns] terr, [%]
BNN1
60
50
-10
16,67
BNN2
50
50
0
0
BNN3
60
50
-10
16,67
BNN4
50
50
0
0
BNN5
570
510
-60
10,53
texec(h1)
texec (h0)
[μs]
0.6
0.5
0.4
0.3
0.2
0.1
0
BNN 1
BNN 2
BNN 3
BNN 4
BNN 5
Abbildung C.3 Ausführungszeiten von Bnn::calculate() in FPGA und Software
164
165
ANHANG C EXPERIMENTALE ERGEBNISSE
C.3 Quantitative Ergebnisse
Tabelle C.8 Ressourceausnutzung für die Realisierung der Klasse Bnn
Design #FSM States #FF #LUT fmax [MHz]
BNN1
51
60
83
238
BNN2
60
178
218
171
BNN3
10
4
15
354
BNN4
10
4
15
354
BNN5
66
75
81
253
#LUTs
#FF
1000
#FSM States
fmax [MHz]
100
10
1
BNN 1
BNN 2
BNN 3
BNN 4
BNN 5
Abbildung C.4 Ressourceausnutzung für die Realisierung der Klasse Bnn
165
166
ANHANG C EXPERIMENTALE ERGEBNISSE
Tabelle C.9 Ressourceausnutzung für die Realisierung der
Methode Bnn::calculate()
Design #FSM States #FF #LUT fmax [MHz]
BNN1
6
4
15
354
BNN2
6
4
15
354
BNN3
6
4
15
354
BNN4
6
4
15
354
BNN5
62
77
82
256
#LUTs
#FF
1000
#FSM States
fmax [MHz]
100
10
1
BNN 1
BNN 2
BNN 3
BNN 4
BNN 5
Abbildung C.5 Ressourceausnutzung für die Realisierung der Methode Bnn::calculate()
166
167
ANHANG C EXPERIMENTALE ERGEBNISSE
10
100
1000
[#LUTs]
BNN 1
BNN 2
BNN 3
BNN 4
calculate()
BNN 5
Class Bnn
Abbildung C.6 LUTs-Ausnutzung für die Realisierung Bnn und calculate()
167
168
ANHANG C EXPERIMENTALE ERGEBNISSE
C.4 Technologische Schaltpläne
Abbildung C.7 Schaltplan für y0()
168
169
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.8 Schaltplan für y1()
169
170
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.9 Schaltplan für y2()
170
171
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.10 Schaltplan für y3()
171
172
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.11 Schaltplan für y4()
172
173
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.12 Schaltplan für y5()
173
174
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.13 Schaltplan für y6()
174
175
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.14 Schaltplan für y7()
175
176
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.15 Schaltplan für y8()
176
177
ANHANG C EXPERIMENTALE ERGEBNISSE
Abbildung C.16 Schaltplan für y9()
177
178
INDEX
INDEX
64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77,
78, 79, 80, 86, 87, 90, 92, 95, 96, 99, 100, 101, 102,
103, 104, 105, 109, 110, 112, 113, 114, 115, 116, 118,
122, 137, 139, 140
A
Ableitung, 11
partielle, 11
Action Language, 26, 121
Adaptierbares BNN, ABNN, 37
Aktivierungsfunktion, 14, 15, 30, 34, 35, 46, 50, 56, 57,
61, 64, 65, 68
AND-Dekomposition, 80, 82, 110, 114
Antivalenz, EXOR, 6, 7, 8, 75, 79, 80, 84, 85, 98
Antivalenzform, AF, 8, 9, 97
Äquivalenz, 6, 7, 8, 79, 80, 86, 94, 97, 98
Äquivalenz-Dekomposition, 80, 86
Äquivalenzform, EF, 8, 9, 97
Ausdrucksform, 8, 9, 32, 97
Antivalenzform, AF, 8, 9, 97
Äquivalenzform, EF, 8, 9, 97
Disjunktive Form, DF, 8, 97
Konjunktive Form, KF, 8, 97
Ausgabefunktion, 14, 15, 37, 63, 64, 68
Ausgabesignal, 46, 58, 63, 64, 90
Ausgang, 7, 14, 21, 24, 25, 40, 41, 42, 49, 87, 103
Ausgangsdaten, 100, 101, 136
Ausgangsschicht, 19, 20, 45, 49, 51, 56, 74, 77- 80, 8285, 88, 90-93, 96, 101-103, 106, 109, 111-113, 122
Ausgangssignal, 17, 50, 61, 64, 67-69, 78, 79, 134, 136
Ausgangsvariable, 40
C
CLB, 23, 24, 25, 100, 101, 102, 103, 104, 105, 140
CoDesign, 139
D
Datenstruktur, 2, 10, 16
Dekomposition, 12, 13, 80, 86, 99, 101, 105, 109, 110
Äquivalenz-, 80, 86
Bi-, 13
Curtis-, 13
Davio-, 13
EXOR-, 84, 86, 91, 92, 106, 109
OR-, 82, 84, 86, 109, 114
Shannon-, 13
Disjunktion, OR, 6, 7, 8, 79, 84
Disjunktive Form, DF, 8, 97
E
Eingang, 21, 24, 40, 41, 44, 50, 67, 93
Eingangssignal, 24, 33, 34, 37, 67, 80, 92, 111
Eingangsvariable, 55, 63
elementare BF, 7
euklidische Abstand, 12
B
F
Back Propagation, BP, 2, 37, 41, 49
Basisoperation, 79, 80, 113, 114
BDD, 9, 10
funktionale BDD, FDD, 10
geordnete BDD, OBDD, 10
Kronecker Funktionale BDD, KFDD, 10
Binäre Entscheidungsbäume, 10
binäre Entscheidungsdiagramme, 9
binäre Zahlendarstellung, 60
binäres Perzeptron, 43
Binärvektor, BV, 5, 7, 9, 12, 20, 21, 40, 71
Binärvektorliste, BVL, 9, 10, 20
BNN, 4, 19, 20, 21, 40, 42, 44, 45, 47, 51, 52, 55, 57, 59,
60, 61, 69, 70, 71, 74, 76, 77, 78, 79, 80, 82, 83, 84,
85, 86, 88, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99, 100,
103, 104, 105, 106, 109, 111, 116, 117, 122, 124, 125,
127, 128, 131, 133, 134, 136, 137, 139, 140
Boolesche Funktion, 5, 6, 7, 8, 9, 10, 11, 12, 13, 24, 29,
30, 31, 32, 33, 34, 36, 40, 42, 43, 46, 48, 49, 52, 53,
56, 59, 60, 61, 63, 66, 68, 70, 71, 77, 80, 87, 93, 95,
96, 99, 103, 105, 106, 107, 108, 109, 110, 112, 114,
116, 117, 122, 140
elementare, 7
linear, 11
Boolesche Operation, 5, 61
Boolesche Variable, 5, 6, 7, 9, 10, 63, 87, 93, 103, 107,
108, 110, 112, 113, 114
Boolescher Raum, 5
Boolesches Neuron, BN, 4, 18, 19, 21, 22, 29, 36, 37, 38,
39, 40, 41, 43, 44, 45, 54, 56, 57, 59, 60, 61, 62, 63,
Flip-Flop, 24, 45, 136, 137
FPGA, i, 4, 21, 22, 23, 24, 25, 26, 37, 99, 100, 102, 103,
104, 105, 106, 112, 114, 115, 117, 118, 122, 126, 127,
131, 132, 133, 134, 135, 136, 137, 138, 139, 140
FSM, 128, 136
Funktion
Aktivierungs-, 14, 15, 30, 34, 35, 46, 50, 56, 57, 61,
64, 65, 68
Ausgabe-, 14, 15, 37, 63, 64, 68
Boolesche, 1, 2, 3, 5, 6, 7, 8, 10, 11, 12, 13, 24, 29, 30,
31, 32, 33, 34, 36, 43, 46, 48, 49, 52, 56, 63, 66, 68,
71, 87, 93, 96, 103, 106, 107, 108, 109, 110, 112,
114, 116, 117, 122
funktionell erweitertes Neuron, 39
funktionell verbundene Eingänge, 32, 34, 38
Funktionsmenge, 7, 29, 71, 77, 80, 84, 85, 86, 91, 93, 95,
99, 105, 106, 109, 110, 114, 116, 117
G
Graph, 10, 16, 74, 75
Grundoperation, 84, 93, 94, 96, 97, 106, 128
Boolesche, 5, 6, 67
H
Hamming-Abstand, 12, 55, 56, 57, 58
178
179
INDEX
Hamming-Clustering, HC, 57
Hamming-Hypersphäre, 55, 56
Hardware-Netz, 18, 21, 22, 99, 100
Neuron, 4, 13, 14, 30, 100
Boolesches, 18, 29, 36, 61, 62, 63, 64, 65, 67, 68, 69,
70, 76, 78, 101, 103, 105, 115, 118, 139
fensterartiges, 57
funktionell erweitertes, 39
hemmendes, 48
künstliches, 4, 13
lineares, 15, 96
verborgenes (verstecktes), 16, 20, 21, 41, 42, 46, 48,
50, 51, 52, 55, 56, 58, 59, 72, 75, 77, 78, 88, 90, 91,
92, 93, 94, 95, 106, 107, 109, 110, 111, 113, 114,
137
Neuronales Netz, 3, 15, 16, 17, 18, 29, 48, 49, 53, 56, 63,
70
nichtlineares BN, 65
I
I/O Block, 23, 25
iterativer Trainingsalgorithmus, 2, 3, 18, 19, 42, 59, 70
K
Karnaugh-Plan, KP, 9
Kaskadennetz, 53, 54
Knoten, 10, 16, 124, 125, 127
komplexe Gewichte, 35, 36
Konjunktion, AND, 6, 7, 8, 79
Kumulationsoperator, 66, 67, 68, 79, 86
O
Operation
Verknüpfung-, 5
operator
Kumulations-, 66, 67, 68, 79, 86
OR-Dekomposition, 82, 84, 86, 109, 114
L
laterale Verbindung, 17, 75, 76, 77
Lernmenge, 2, 20, 41, 46, 49, 56, 59, 71, 72, 80, 82, 84,
86, 87, 95, 97
linear separierbare Funktion, 31, 36
lineare BF, 10, 11
lineare Boolesche Schwellwertfunktion, 43
lineare Separierbarkeit, 4, 29, 30, 31, 32, 36, 44
lineare Unabhängigkeit, 38, 39
lineares Boolesches Neuron, 65, 68, 96
lineares Neuron, 15, 96
LUT, i, 24, 25, 103, 104, 105, 110, 112, 113, 114, 135,
136, 137, 138, 140
P
Perzeptron, 29, 30, 32, 35, 36, 39, 42, 44, 54, 57, 92
Plattformmodell, 26, 27, 115, 120, 122, 123, 124, 125,
126
Prozess, 26, 50, 51, 72, 116, 118
R
Raum, 5, 6, 7, 9, 33, 41, 53, 57
Raumdimension, 5, 6, 33
rekonfigurierbare Hardware, 22, 126, 127
RTR, 1, 4, 22, 25, 118, 126, 127, 128
RTR-Manager, 126, 127, 128
M
MDA, i, 26, 27, 115, 139
mehrschichtiges BNN, 92
MOCCA, 26, 27, 115, 118, 119, 120, 121, 124, 127, 132,
137, 138, 139
Modell
PIM, 27
PSM, 27
TPM, 27, 126
monotone BF, 10, 32
Multiplexer, 24
Multiplexers, 24
S
Schwellwertelement, 15, 30, 32, 34, 35, 50
Schwellwertfunktion, 30, 34, 35, 38, 57
Separierbarkeit, 31, 36
sequentieller Trainingsalgorithmus, 2, 3, 18, 19, 20, 21,
41, 42, 56, 57, 59, 60, 70
Signal, 21, 34, 47, 67, 84, 85, 93, 98, 130, 133
Ausgangs-, 17, 50, 61, 64, 67, 68, 69, 78, 79, 134, 136
Boolesches, i, 61
Eingangs-, 24, 32, 34, 37, 67, 80, 92, 111
N
Negation, NOT, 6, 7, 63, 64, 65, 98
Netz
Adaptierbares BNN, 37
Feed-Back, FBNN, 17, 21
Feed-Forward, FFNN, 17, 21, 36, 78
FTF-, 42
Hardware NN, HwNN, 21, 22
höherer Ordnung, 34
künstliches NN, 1, 2, 16
mehrschichtiges, 18, 58, 92, 112
Multilayer BNN, MLBNN, 92
Neuronales, 3, 4, 15, 16, 17, 18, 29, 48, 49, 53, 56, 63,
70, 99, 100, 105
Netzdesign, 3, 60
Netzeingabe, 14, 15, 65, 66, 68
Netzeingabefunktion, 15, 65, 66, 67, 68
Netzstruktur, 2, 3, 42, 43, 54, 58, 60, 87, 90, 98, 103,
104, 111, 137
T
Teilfunktion, 81, 107, 108
Ternärvektor, TV, 9, 57
Ternärvektorliste, TVL, 9, 10, 117, 118
Testmenge, 92
Trainig
sequentiell, 2, 18, 19, 20, 21, 59, 60
Training, 20-22, 38, 41, 43, 45, 46, 49, 52-54, 57-60, 69,
70, 72, 74, 84, 87-89, 91, 93-98, 106, 110, 114, 118
iterativ, 2, 3, 18, 59
iteratives, 2, 3, 18, 19, 42, 59, 70
sequentielles, 18, 19, 20, 21, 41, 42, 56, 57, 59, 60, 70
179
180
INDEX
U
AND, 6
Antivalenz, 6, 7, 8, 75, 79, 80, 84, 85, 98
Äquivalenz, 6
EXOR, 6
OR, 6, 93, 110
-soperation, 5
VHDL, 115, 119, 124, 130, 131, 138
VLSI, 21, 37
Vorzeichenfunktion, 40, 44
UML, i, 25, 26, 27, 115, 116, 118, 120, 121, 122, 124,
127, 131, 133, 136, 139
UML-Modell, i, 116, 118, 120, 121, 122, 131, 133, 136,
139
V
Variable
Ausgangs-, 40
Boolesche, 5, 6, 7, 9, 10, 63, 87, 93, 103, 107, 108,
110, 112, 113, 114
Eingangs-, 24, 31, 40, 55, 63, 71, 77, 78
Verknüpfung
W
Wertetabelle, 7, 8, 10, 30, 63, 71, 72, 77, 80, 82, 84, 85,
87, 93, 108, 111
180
181
ABBILDUNGSVERZEICHNIS
ABBILDUNGSVERZEICHNIS
Abbildung 2.1
Abbildung 2.2
Abbildung 2.3
Abbildung 2.4
Abbildung 2.5
Abbildung 2.6
Abbildung 2.7
Abbildung 2.8
Abbildung 3.1
Abbildung 3.2
Abbildung 3.3
Abbildung 3.4
Abbildung 3.5
Abbildung 3.6
Abbildung 3.7
Abbildung 3.8
Abbildung 3.9
Abbildung 3.10
Abbildung 3.11
Abbildung 4.1
Abbildung 4.2
Abbildung 4.3
Abbildung 4.4
Abbildung 4.5
Abbildung 4.6
Abbildung 4.7
Abbildung 4.8
Abbildung 5.1
Abbildung 5.2
Abbildung 5.3
Abbildung 5.4
Abbildung 5.5
Abbildung 5.6
Abbildung 5.7
Abbildung 5.8
Abbildung 5.9
Abbildung 5.10
Abbildung 5.11
Abbildung 5.12
Abbildung 5.13
Abbildung 5.14
Abbildung 5.15
Abbildung 5.16
Abbildung 5.17
Abbildung 5.18
Abbildung 5.19
Darstellung einer Booleschen Funktion: a) Karnaugh-Plan; b) BVL; c) TVL; d) BDD............7
Ein einfaches Neuron ........................................................................................................................ 10
Aufbau eines Neurons [28] ............................................................................................................... 11
Allgemeine Struktur des neuronalen Netzes .................................................................................. 13
Struktogramm des verallgemeinerten STA von BNN.................................................................. 15
Allgemeine FPGA-Struktur [111] und [132] .................................................................................. 18
Allgemeine CLB-Struktur [81].......................................................................................................... 19
UML- basierendes CoDesign – Aktivitäten und Artefakten [147] ............................................. 21
Perzeptron für eine Boolesche Funktion mit 2 Eingänge............................................................ 25
Lineare Separierbarkeit am Beispiel der OR-, AND- und EXOR-Funktionen ....................... 25
Netz für die Berechnung der EXOR-Funktion............................................................................. 27
Darstellung der EXOR-Funktion: a) Trennebene, b) Schnittprojektion in 2dimensionalem Raum ......................................................................................................................... 28
Darstellung der EXOR-Funktion mit zwei Neuronen................................................................. 28
Geometrie des Neurons mit einem Polynom als Aktivierungsfunktion.................................... 29
a) Allgemeine Struktur des Perzeptrons mit einem funktionell erweiterten Neuron; b)
Allgemeine Struktur des funktionell erweiterten Neurons........................................................... 32
Operationen nach Gray-Michel für den Aufbau einer verborgenen Schicht von BNN:
a) „ausführliche Darstellung“, b) „Generalisierung“, c) „Modifizierung“ [61]........................ 39
Visualisierung des ETL-Trainings.................................................................................................... 42
Visualisierung der Paritätsentscheidungsbereiche für N=3 [95].................................................. 46
Kaskaden-Perzeptron [95]................................................................................................................. 46
Allgemeine Struktur des Booleschen Neurons .............................................................................. 53
Schematische Darstellung eines einzelnen Booleschen Neurons ............................................... 55
Struktur eines Booleschen Neuronalen Netzes mit vorwärts gerichteten und lateralen
Verbindungen ...................................................................................................................................... 64
Struktur Boolesches Neuronalen Netzes ohne lateralen Verbindungen ................................... 65
Struktur des EXOR-BNN................................................................................................................. 77
Struktur eines BNN nach dem OR-OR-Training ......................................................................... 80
Struktur eines BNN nach dem OR-XOR-Training ...................................................................... 81
Struktur eines AND-XOR-BNN..................................................................................................... 82
Problem einer großen Anzahl von CLB zur Abbildung eines Neurons.................................... 85
Darstellung eines Booleschen Neurons der Ausgangsschicht durch eine Kaskade ............... 86
Abbildung eines Booleschen Neurons auf eine LUT ................................................................... 87
Abbildung eines Booleschen Neuronalen Netzes in eine Struktur aus LUTs .......................... 88
Abbildung eines BNN in Teile eines FPGA .................................................................................. 88
BNN mit 2-Eingängigen Neuronen ................................................................................................ 94
Abbildungsverfahren einer Booleschen Funktion im FPGA...................................................... 98
Projekt -Datei ...................................................................................................................................... 99
TVL der Booleschen Funktion y1 im Programmfenster des XBOOLE-Monitors ............... 99
Allgemeines Schema von MOCCA ............................................................................................... 101
Beziehungen zwischen den Modellen [146].................................................................................. 102
Design-Modell................................................................................................................................... 102
Design-Plattformmodell: Designtypen.......................................................................................... 103
Implementation-Plattformmodell: Typen und Abbildungen..................................................... 105
Deployment-Modell ......................................................................................................................... 106
Software-Architektur von BNN..................................................................................................... 107
Software-Realisierung von Main::main .................................................................................. 108
VHDL-Realisierung der Funktion Bnn::calculate ....................................................................... 110
Mittlere Kompilationszeiten von Design-Modellen zur FPGA- und SoftwareImplementierungen........................................................................................................................... 112
181
182
ABBILDUNGSVERZEICHNIS
Abbildung 5.20 Kommunikations- und Ausführungszeiten von BNNs in FPGA. ........................................... 113
Abbildung 5.21 Kommunikations- und Ausführungszeiten von BNNs in Software. ....................................... 114
Abbildung 5.22 Ausführungszeiten von Bnn::calculate() in FPGA und Software................................... 115
Abbildung 5.23 Verwendung des FPGA-Bereiches durch Bnn. .......................................................................... 116
Abbildung 5.24 Verwendung des FPGA-Bereiches durch Bnn::calculate().............................................. 117
Abbildung 5.25 Schaltplan für k3() ........................................................................................................................... 118
Abbildung 5.26 Karnaugh-Plan und Schaltplan von LUT3_02 für das BN k3() ........................................... 118
Abbildung A.1 Struktur des OR-BNN..................................................................................................................... 133
Abbildung A.2 BNN mit Neuronen ohne Beschränkung der Anzahl von Eingängen .................................... 141
Abbildung A.3 BNN mit auf 4 Eingänge beschränkten Neuronen..................................................................... 143
Abbildung C.1 Mittlere Kompilationszeiten für FPGA-Implementationen von BNNs.................................. 161
Abbildung C.2 Mittlere Kompilationszeiten für Software-Implementationen von BNNs.............................. 162
Abbildung C.3 Ausführungszeiten von Bnn::calculate() in FPGA und Software................................ 164
Abbildung C.4 Ressourceausnutzung für die Realisierung der Klasse Bnn....................................................... 165
Abbildung C.5 Ressourceausnutzung für die Realisierung der Methode Bnn::calculate().................. 166
Abbildung C.6 LUTs-Ausnutzung für die Realisierung Bnn und calculate()........................................... 167
Abbildung C.7 Schaltplan für y0() ............................................................................................................................. 168
Abbildung C.8 Schaltplan für y1() ............................................................................................................................. 169
Abbildung C.9 Schaltplan für y2() ............................................................................................................................. 170
Abbildung C.10 Schaltplan für y3() ............................................................................................................................. 171
Abbildung C.11 Schaltplan für y4() ............................................................................................................................. 172
Abbildung C.12 Schaltplan für y5() ............................................................................................................................. 173
Abbildung C.13 Schaltplan für y6() ............................................................................................................................. 174
Abbildung C.14 Schaltplan für y7() ............................................................................................................................. 175
Abbildung C.15 Schaltplan für y8() ............................................................................................................................. 176
Abbildung C.16 Schaltplan für y9() ............................................................................................................................. 177
182
183
TABELLENVERZEICHNIS
TABELLENVERZEICHNIS
Tabelle 2.1 Boolesche Grundoperationen.........................................................................................................................4
Tabelle 2.2 Elementare Boolesche Funktionen ................................................................................................................5
Tabelle 3.1 Linear separierbare Boolesche Funktionen [168], [171] und [181] .........................................................26
Tabelle 4.1 Wertetabelle der für eine Variable definierten Booleschen Funktionen ................................................54
Tabelle 4.2 Beispiele von Gewichtsfunktionen für ausgewählte Kumulationsoperatoren.....................................57
Tabelle 4.3 Lernmenge eines BNN ..................................................................................................................................60
Tabelle 4.4 Wertetabelle von 10 Booleschen Funktionen ............................................................................................74
Tabelle 4.5 Anfangsmatrix A .............................................................................................................................................74
Tabelle 4.6 Matrix A nach dem ersten Trainingszyklus.................................................................................................75
Tabelle 4.7 Matrix A nach dem zweiten Trainingszyklus. .............................................................................................76
Tabelle 4.8 Matrix A nach dem dritten Trainingszyklus................................................................................................76
Tabelle 4.9 Matrix A nach dem vierten Trainingszyklus. ..............................................................................................76
Tabelle 4.10 Transferfunktionen der verborgenen Booleschen Neuronen..................................................................77
Tabelle 4.11 Verbindungsgewichte der Ausgangsschicht................................................................................................77
Tabelle 4.12 Wiederherstellung der Menge Boolescher Funktionen.............................................................................78
Tabelle 4.13 Beispiel von Grundoperationen für ein BNN mit 2 verborgenen Schichten .......................................83
Tabelle 5.1 Bekannte FPGA-Realisierungen von Neuronalen Netzen.......................................................................89
Tabelle 5.2 Wertetabelle der Transferfunktionen k1, k2,…, k5 und der Ausgangsfunktionen y1, y7, und
y9 ....................................................................................................................................................................94
Tabelle 5.3 Ergebnisse des adaptierten Algorithmus.....................................................................................................96
Tabelle A.1 Wertetabelle der angegebenen Booleschen Funktionen .........................................................................131
Tabelle A.2 Anfangsmatrix A............................................................................................................................................132
Tabelle A.3 Matrix A nach dem ersten Trainingszyklus. ..............................................................................................132
Tabelle A.4 Matrix A nach dem zweiten Trainingszyklus. ...........................................................................................132
Tabelle A.5 Matrix A nach dem dritten Trainingszyklus. .............................................................................................133
Tabelle A.6 Matrix A nach dem vierten Trainingszyklus..............................................................................................133
Tabelle A.7 Transferfunktionen der verborgenen Booleschen Neuronen................................................................134
Tabelle A.8 Verbindungsgewichte der Ausgangsschicht..............................................................................................134
Tabelle A.9 Wertetabelle der Ausgangsfunktionen y1, y7, und y9 ............................................................................135
Tabelle A.10 Suche der k-Funktion für OR- und AND-Operation ...........................................................................136
Tabelle A.11 Abspalten einer kOR–Funktion von den y1, y7 und y9 .........................................................................137
Tabelle A.12 Funktionsmenge nach dem Abspalten der zweiten k-Funktion ..........................................................137
Tabelle A.13 Funktionsmenge nach dem Abspalten der dritten k-Funktion............................................................138
Tabelle A.14 Funktionsmenge nach dem Abspalten der vierten k-Funktion............................................................138
Tabelle A.15 Funktionsmenge nach dem Abspalten der fünften k-Funktion...........................................................138
Tabelle A.16 Funktionsmenge nach dem Training ........................................................................................................139
Tabelle A.17 Transferfunktionen von verborgenen Neuronen ...................................................................................139
Tabelle A.18 Verbindungsgewichte von Neuronen der Ausgabeschicht ...................................................................140
Tabelle C.1 Mittlere Kompilationszeiten für FPGA-Implementationen von BNNs.............................................161
Tabelle C.2 Mittlere Kompilationszeiten für Software-Implementationen von BNNs.........................................162
Tabelle C.3 Ausführungszeiten von FPGA-BNNs......................................................................................................163
Tabelle C.4 Kommunikationszeiten von FPGA-BNNs .............................................................................................163
Tabelle C.5 Ausführungszeiten von Software-BNNs..................................................................................................163
Tabelle C.6 Kommunikationszeiten von Software-BNNs .........................................................................................163
Tabelle C.7 Ausführungszeiten von Bnn::calculate() in FPGA-BNNs.......................................................164
Tabelle C.8 Ressourceausnutzung für die Realisierung der Klasse Bnn ..................................................................165
Tabelle C.9 Ressourceausnutzung für die Realisierung der Methode Bnn::calculate().............................166
183
184
GLOSSAR
GLOSSAR
A
Aktivierungsfunktion
Aktivierungsfunktion gibt an, wie sich ein neuer Aktivierungszustand des Neurons aus dem alten Aktivierungszustand und der
Netzeingabe des Neurons ergibt.
B
Boolesche Variable
Element einer Booleschen Algebra, das immer einen von
zwei Werten annimmt. Dieses Wertepaar wird je nach Anwendung u. a. als
„wahr/falsch“, „true/false“ oder „1/0“ bezeichnet.
Binary Decision Diagram (BDD)
Datenstruktur zur Repräsentation Boolescher
Funktionen. Binary Decision Diagrams werden vor allem im Bereich der
Hardwaresynthese und -verifikation eingesetzt.
Binärvektor (BV) Binärvektor der Länge n ist ein n–Tupel aus Booleschen Variablen
x=(x1, x2,…, xn): xi ∈ {0,1}
Binärvektorliste (BVL)
Tabelle, in der die Variablen des Raumes und die Werte des
einzelnen BV spaltengerecht untereinander geschrieben werden.
Boolesches Neuronales Netz
Neuronales Netz, das für die Bearbeitung Boolescher
Daten vorgesehen ist. Die Ein- sowie Ausgabesignale des Netzes sind Boolesche Werte.
Boolesche Funktion (logische Funktion)
Mathematische Funktion der Form
n
n
f: B →B (auch allgemeiner f: B →Bm). B ist dabei ein Boolescher Raum.
Boolescher Operator (Operation)
bol zugeordnet ist.
Boolesche Funktion, der ein Operationssym-
Boolescher Raum Menge Bn={0,1}n aller möglichen Binärvektoren der Länge n ist der
n-dimensionale Boolesche Raum.
C
Codesign
Prozess des Modellierens, der Analyse, der Synthese und der Simulation
von Systemen, die aus zusammenwirkenden Hardware- und Softwaremodulen bestehen.
184
185
GLOSSAR
D
Datenstruktur
Bestimmte Art, Daten zu verwalten und miteinander zu verknüpfen,
um in geeigneter Weise auf diese zugreifen und diese manipulieren zu können. Datenstrukturen sind immer mit bestimmten Operationen verknüpft,
um eben diesen Zugriff und diese Manipulation zu ermöglichen.
don’t care
Minterm, der undefinierte Werte bezeichnet (z.B. ’-’, ’*’).
E
Euklidischer Abstand
Mathematische Distanzfunktion für zwei Punkte oder Vektoren, die sich als euklidische Norm des Differenzvektors zwischen den beiden Punkten berechnet.
F
Funktionsdekomposition Zerlegung einer Funktion in Teilfunktionen.
G
Graph
Mathematische Struktur, ein Paar G = (V, E) aus Knoten (auch Ecken oder
Punkte), die durch Kanten verbunden sein können.
H
Hamming-Abstand Anzahl der Stellen, in dem sich zwei Binärvektoren gleicher Länge
unterscheiden.
K
Künstliches Neuron (KN)
Mathematisches Modell einer Nervenzelle des
menschlichen zentralen Nervensystems. Das Neuron kann als ein einfacher
Prozessor gesehen werden.
Karnaugh-Plan
Karnaugh-Veitch-Diagramm (KV-Diagramm) dient der übersichtlichen Darstellung und Vereinfachung Boolescher Funktionen.
L
Laterale Verbindung
Verbindung zwischen Neuronen einer Schicht.
185
186
GLOSSAR
Lerndatenmenge (Trainingsdatenmenge) Datenmenge, die zum Training des neuronalen
Netzes verwendet wird.
M
Minterm (Elementarkonjunktion)
Konjunktionsterm, d.h. eine Anzahl von Literalen, die alle durch ein logisches AND verknüpft sind. Dabei müssen alle n
Variablen der betrachteten n-stelligen Booleschen Funktion im Konjunktionsterm vorkommen.
N
Neuronales Netz (NN) Gerichteter Graph G = (U, C), dessen Knoten u ∈ U Neuronen (units) und dessen Kanten c ∈ C Verbindungen (connections) heißen.
NN ist ein System zur Informationsverarbeitung, das aus einer großen Anzahl einfacher parallel arbeitender Neuronen (Zellen, Einheiten) besteht.
P
Perzeptron Vereinfachtes Neuronenmodell, das zuerst von Frank Rosenblatt 1958 vorgestellt wurde.
Prozess
Definierter Ablauf von Zuständen eines Systems.
S
Schwellwert Wert, der als Grenze für die Verarbeitung eines Signales verwendet wird.
Schwellwertfunktion
Funktion mit einem Schwellwertparameter, die in Abhängigkeit vom Eingabewert und einer Schwellwert einen Booleschen Ausgabewert erzeugt.
T
Ternärvektor (TV) Dreiwertiger Vektor, in dem eine Variable durch „0“ beschrieben
wird, wenn sie negiert auftritt; durch „1“, wenn sie nicht negiert auftritt; oder durch „-“, wenn sie nicht vorhanden ist.
Ternärvektorliste Datenstruktur zur Darstellung Boolescher Funktionen im Computer
durch Tabellen. TVL besteht aus Ternärvektoren, die die Konjunktionen
von Variablen einer Funktion in der disjunktiven Form oder Antivalenzform bzw. Disjunktionen von Variablen einer Funktion in der konjunktiven
Form oder Äquivalenzform abbilden.
186
187
GLOSSAR
Training eines Neurons
Ermitteln der Transferfunktion und der Gewichten wih für
ein Neuron.
Trainingsmatrix
Lerndatenmenge, die im Form eine Matrix dargestellt ist.
Transferfunktion Mathematische Beschreibung des Verhaltens eines Systems, das genau einen Eingang und einen Ausgang besitzt.
W
Wertetabelle Tabelle mit Spalten oder Zeilen, in die Argumente und die zugehörigen
Funktionswerte einer Funktion eingetragen sind.
187
188
THESEN
THESEN
ZUR DISSERTATION
„Neuronale Netze als Modell Boolescher Funktionen“
1. Die gewaltigen technologischen Fortschritte in der Mikroelektronik erfordern den Entwurf
immer komplexerer Boolescher Schaltnetzwerke. Dabei müssen ständig neue leistungsfähigere
Designmethoden entwickelt werden. Für diese werden kompaktere Datenstrukturen für Boolesche Funktionen und deren schnelle Verarbeitung benötigt.
2. In der vorliegenden Arbeit wurden Künstliche Neuronale Netze in ihrer ursprünglichen Intention betrachtet und zur Modellierung Boolescher Funktionen verwendet.
3. Die neu entwickelte Art von Booleschen Neuronalen Netzen eignet sich für die Darstellung
und schnelle Verarbeitung Boolescher Funktionen.
4. Das Basiselement Boolescher Neuronaler Netze ist ein neuartiges Boolesches Neuron (BN),
das im Gegensatz zum klassischen Neuron direkt mit Booleschen Signalen operiert und dafür
ausschließlich Boolesche Operationen benutzt.
5. Der erarbeitete sequentielle Algorithmus für das Training der BNN garantiert eine schnelle
Konvergenz und benötigt somit nur eine kurze Trainingzeit.
6. Dieser Trainingsalgorithmus bildet die Grundlage eines neuen geschaffen Verfahrens zur Architektursynthese der BNN.
7. Da das BNN einen sequentiellen Trainingsalgorithmus benutzt, treten die bekannten Probleme iterativer Trainingsmethoden wie z.B. lokale Minima oder lange Trainingszeit nicht auf.
Das Verfahren zur Architektursynthese findet sowohl die optimale Netzwerkstruktur als auch
die optimalen Netzparameter.
8. Die entwickelten BNN besitzen bedeutende Vorteile im Vergleich zu bekannten Booleschen
Neuronalen Netzen. Das bisher für das Training notwendige Speichervolumen wurde deutlich
vermindert. Durch die Verwendung Boolescher Neuronen mit Booleschen Transferfunktionen wird auch die Trainingsgeschwindigkeit sowohl des einzelnes Neurons auch des gesamtes
Netzes erhöht.
9. Die entwickelte Trainingsmethode stellt darüber hinaus ein spezielles Dekompositionsverfahren Boolescher Funktionen dar. Eine Menge von Booleschen Funktionen
A={y1(x), y2(x), ..., yNy(x)}, x=(x1, x2, x3,…, xn) wird beim Training in gemeinsame einheitliche Boolesche Basisfunktionen k1(x), k2(x), ..., kNz(x) dekomponiert, die als Transferfunktionen der verborgenen Neuronen betrachtet werden. Die Booleschen Basisfunktionen
hängen vom Vektor der Eingabensignale x ab. Eine Verknüpfung der bestimmten k188
189
THESEN
Funktionen durch Basisoperation Ω∈{∧, ∨, ⊕, ☼} bildet die gegebene Boolesche Funktion
oder Funktionsmenge. Aus den k-Funktionen werden alle gegebenen Booleschen Funktionen
gebildet.
10. Die Flexibilität und die in den letzten Jahren stark gestiegene Leistungsfähigkeit von „RunTime Reconfigurable“ (RTR)-Systemen haben die Vorteile von Hardware-Realisierungen
Künstlicher Neuronaler Netze und insbesondere Boolescher Neuronaler Netze verstärkt.
11. Da das Boolesches Neuron nur Booleschen Signale bearbeitet und nur Boolesche Operationen dafür benutzt, sind Boolesche Neuronale Netze besonders für die Hardware-Realisierung
in FPGA-basierenden RTR-Systemen geeignet.
12. Der sehr hohe Aufwand der Hardware-Realisierung üblicher Neuronaler Netzen wurde durch
die Verwendung von BN und BNN wesentlich vereinfacht.
13. Durch die Verwendung des Booleschen Neurons für die Modellierung Boolescher Funktionen
in FPGA wird das Problem der ansonsten großen Anzahl von erforderlichen CLB für die Abbildung jedes Neurons gelöst.
14. Die Anzahl erforderlicher CLBs (configurable logic blocks) zur Realisierung eines Neurons
wurde um 2 Größenordnungen verringert.
15. Es wurde sogar erreicht, dass 4 Boolesche Neuronen in einem CLB eines Virtex II-FPGAs
Boolesche Neuronen realisiert werden können.
16. Jedes Boolesche Neuron mit seiner eigenen Logik kann dabei direkt in eine einzige
LUT (lookup table) abgebildet werden, was ein großer Vorteil im Vergleich zu bekannten
FPGA-Realisierungen von BNN ist.
17. Um diese äußerst kompakte Abbildung der BNN in eine FPGA-Struktur zu erreichen, wurde
der Trainingsalgorithmus des BNN an die technologischen Randbedingungen der FPGA angepasst.
18. Um automatisierten Hardware/Software-Codesign der BNN unter Verwendung der MDATechnologie zu ermöglichen wurden zur Darstellung der BNN UML-Modelle verwendet.
19. Die entwickelten Booleschen Neuronalen Netze leisten einen großen Beitrag zum Entwurf
komplexerer Boolescher Schaltungsnetzwerke.
20. Die entwickelten Booleschen Neuronalen Netze haben sich als effiziente Modelle Boolescher
Funktionen bewährt. Sie gewährleisten die effiziente Modellierung Boolescher Funktionen
durch Neuronale Netze.
21. Die Fähigkeit der Künstlichen Intelligenz bzw. der Neuronalen Netze, neue Erkenntnisse zu erzeugen, wurde erfolgreich bei der Modellierung Boolescher Funktionen angewendet.
189
Was this manual useful for you? yes no
Thank you for your participation!

* Your assessment is very important for improving the work of artificial intelligence, which forms the content of this project

Download PDF

advertisement