Computational Intelligence 1 / 31 Gliederung 1 K¨ unstliche Neuronale Netze Geschichte Nat¨ urliches Neuron K¨ unstliches Neuron Typen von Neuronen Dr. Stefan Berlik (Praktische Informatik) Computational Intelligence K¨ unstliche Neuronale Netze Geschichte 3 / 31 Geschichte 1943 Warren McCulloch (Neurologe), Walter Pitts (Mathematiker) A logical calculus of the ideas immanent in nervous activity, Bulletin of Mathematical Biophysics, 5:115-133. Beschreibung neurologischer Netzwerke auf Basis einfacher Neuronen (‘McCulloch-Pitts-Neuron’) Idee Ein einzelnes Neuron kann ausschließlich die Zust¨ ande aktiv oder inaktiv annehmen Komplexere F¨ ahigkeiten (Berechnung komplizierter Funktionen, Kreativit¨ at, Bewusstsein) entstehen nur durch hochgradige Vernetzung der Neuronen Betrachtung statischer Netzwerke: Kein Konzept zur Anpassung des Netzwerks (insbesondere der Gewichte) Warren McCulloch (1898 - 1972) Walter Pitts (1924 - 1969) Dr. Stefan Berlik (Praktische Informatik)
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
Computational Intelligence
1 / 31
Gliederung
1 Kunstliche Neuronale NetzeGeschichteNaturliches NeuronKunstliches NeuronTypen von Neuronen
A logical calculus of the ideas immanent in nervous activity, Bulletin ofMathematical Biophysics, 5:115-133.
Beschreibung neurologischer Netzwerke auf Basiseinfacher Neuronen (‘McCulloch-Pitts-Neuron’)
Idee
Ein einzelnes Neuron kann ausschließlich dieZustande aktiv oder inaktiv annehmenKomplexere Fahigkeiten (Berechnungkomplizierter Funktionen, Kreativitat,Bewusstsein) entstehen nur durch hochgradigeVernetzung der Neuronen
Betrachtung statischer Netzwerke: Kein Konzeptzur Anpassung des Netzwerks (insbesondere derGewichte)
Warren McCulloch(1898 - 1972)
Walter Pitts(1924 - 1969)
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 4 / 31
Geschichte
1949 Donald Olding Hebb (Psychologe)
Organization of Behaviour, Wiley, 1949.
Entwickelt das erste Konzept zur Lernfahigkeitkunstlicher Neuronen (Hebb’sche Lernregel)
Hebb’sche Lernregel bildet die Grundlage fur vielenachfolgende Lernregeln
Hebb’sche Lernregel (vereinfacht)
Aktiviert ein Neuronen wiederholt ein anderesNeuronen durch seine Ausgabe, verstarkt sichderen Verbindung
“Neurons that fire together, wire together”
→ Hebb’sches Lernen ist durch die Neurobiologiebestatigt worden
Donald Olding Hebb(1904 - 1985)
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 5 / 31
1951 Marvin Minsky (Mathematiker)
Theory of neural-analog reinforcement systems and its application to thebrain-model problem, Dissertation, Princeton University, Princeton, USA,1954.
’Vater der kunstlichen Intelligenz‘
Entwickelt 1951 den ersten NeurocomputerSNARK
Elektromechanische Realisierung40 Neuronen aus elektrischen RohrenGewichte aus Motoren und PotentiometernAutomatische Adaption der GewichteModelliert die Suche einer Ratte in einemLabyrinth nach FutterNie praktisch eingesetzt
Marvin Minsky(1927 - )
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 6 / 31
1957 Frank Rosenblatt (Psychologe und Informatiker, 1928 - 1969)
Principles of Neurodynamics, Spartan Books, New York, 1959.A comparison of several perceptron models, Self-Organizing Systems,Spartan Books, New York, 1962.
Entwickelt mit Charles Wightman den Mark I Perceptron
Perzeptron als GrundmodellRealisierung variabler Gewichte512 durch Motoren gesteuerte PotentiometerOptische Erkennung von Mustern (Buchstaben)20 x 20 Zellen großer Bildsensor
Formuliert und beweist das Perzeptron Konvergenz Theorem
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 7 / 31
1957 Bernard Widrow (Elektrotechniker)Marcian E. Hoff (Elektrotechniker)
Adaptive switching circuits, in 1960 IRE Western Electric Show andConvention Record, Part 4, pages 96-104, August 23, 1960.
Entwicklung des Adaline (Adaptive Linear Element)
kunstliches Neuron, ahnlich dem Perzeptronerkennt geometrische Muster4 x 4 Eingabeeinheiten4 x 4 Potentiometer fur die GewichteSchalter um die Soll-Ausgabe auf -1 oder 1 zu setzenAdaptation als GrundideeWidrow-Hoff Lernregel (auch: LMS-Regel)
Widrow entwickelt daraus den Memistor
Memistor-Corporation wird die ersteNeuro-Computing Firma
Hoff wechselt zu Intel und gilt als’Vater der
Mikroprozessoren‘
Bernard Widrow(1929 - )
Marcian E. Hoff(1937 - )
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 8 / 31
1969 Seymour A. Papert (Mathematiker)
Perceptrons, Seymour A. Papert und Marvin Minsky, MIT Press, 1969.
In der Arbeit Perceptrons analysieren sie dasPerzeptron mathematisch und zeigen, dass dasModell des Perzeptrons viele wichtige Problemenicht reprasentieren kann (XOR-Problem)
Fuhrt dazu, dass in dem Gebiet in den nachsten15 Jahren fast keine Forschungsgelder mehr bereitgestellt werden, insbesondere keine Gelder derDARPA (Defense Advanced Research ProjectsAgency)
Basierend auf dem Multiple AdalineLineare Aktivierungs- und SchwellwertfunktionAusgaben aus dem Intervall [-1,1]
Modell wird durch James A. Anderson ausneurophysiologischer Sicht bestatigt
Teuvo Kohonen(1934 - )
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 10 / 31
1973 Christoph von der Malsburg (Neurowissenschaftler)
Self-organization of orientation sensitive cells in the striate cortex,Kybernetik 14, 85-100, 1973.
Erste, grundlegende Arbeiten uberSelbstorganisation im Zusammenhang mitkunstlichen neuronalen Netzen
Ubertragung der Forschung uber topologischgeordnete Gehirnbereiche auf selbst-organisierendeKarten
D. J. Willshaw und C. von der Malsburg, Howpatterned neural connections can be set up byself-organization, Proc. Roy. Soc. London B, vol.194, pp. 431–445, 1976.
Christoph von der Malsburg(1942 - )
David J. Willshaw
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 11 / 31
1974 Paul Werbos (Mathematiker, Okonom, Politologe)
Beyond Regression: New Tools for Prediction and Analysis in theBehavioral Sciences, Dissertation, Committee on Applied Mathematics,Harvard University, Cambridge, MA, 1974.
Dissertation enthalt die Herleitung desBackpropagation-Verfahrens
Anpassung von GewichtenRichtung: Von den Ausgangen uber versteckteSchichten zu den EingangenEines der bedeutensten Lernverfahren im Bereichder kunstlichen neuronalen Netze
Spatere Verfeinerung durch Rumelhart undMcClelland fuhrte zum Durchbruch desBackpropagation-Verfahrens
Paul Werbos
Dr. Stefan Berlik (Praktische Informatik)
Computational Intelligence
. Kunstliche Neuronale Netze . Geschichte 12 / 31
1974 Stephen Grossberg (Kognitionswissenschaftler & Mathematiker)
Der Neurologe Warren McCulloch und derMathematiker Walter Pitts entwickeln ab 1943Modelle einer biologischen Nervenzelle, dasMcCulloch-Pitts Neuron (MCPN)
Charakteristika
n Eingange
Keine expliziten Gewichte (alle Eingange sindkonstant mit 1 bzw. -1 oder 1 gewichtet)
Reeller Schwellwert θ
Nichtlineare Aktivierungsfunktion: H(·)Ausgabefunktion: Identitat id(·)Binare Ausgabe (0 oder 1)
EingangsverhaltenGemaß ihres Eingangsverhaltens werden drei Typen von MCPNsunterschieden
Typ 1: Unipolares Eingangsverhalten (0 oder 1)Eingange sind konstant mit 1 gewichtetRealisierbar: Konstanten (0 oder 1), OR, AND, Schwellwerte
Typ 2: Bipolares Eingangsverhalten (-1 oder 1)Eingange sind konstant mit -1 oder 1 gewichtetRealisierbar: Wie Typ 1, zusatzlich NOT→ D.h. Typ 2 stellt vollstandigen Bausteinsatz dar
Typ 3: In- bzw. exhibitorisches Eingangsverhalten (-1 oder 1)Eingange sind konstant mit -1 oder 1 gewichtetRealisierbar: Wie Typ 2→ entspricht biologischem Vorbild des Neurons
Funktionsweise des (Typ 3) McCulloch-Pitts Neurons
Ein McCulloch-Pitts Neuron mit n erregenden und m hemmendenLeitungen fuhrt folgende Berechnung durch
Ist m ≥ 0 und eines der hemmenden Signale 1, ist das Neurongehemmt und gibt 0 aus.
Andernfalls summiert das Neuron die Eingangssignale x1, . . . , xn undvergleicht sie mit dem Schwellwert θ. Ist die Erregung großer als derSchwellwert, wird 1 ausgegeben, ansonsten 0.