Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

Das Gehirn,

No description
by

Max Moenikes

on 16 April 2015

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of Das Gehirn,

Vergleich der Arbeitsweise eines Computers mit der unseres
Gehirns

von Jonathan Berkhan und Maximilian Mönikes
Einleitung
Grundbausteine
Input-Output
Leistungsfähigkeit
Speicherung
Lernfähigkeit
Leistungsgrenzen
Bewusstsein
Fazit
Gliederung
Quellen
http://www.ias.informatik.tu-darmstadt.de/uploads/Theses/Distler_BScThesis_2012.pdf 19.11.2013
http://www.lunaticpride.de/NEURONEN.HTM 19.11.2013
Bogeskov u.a.; Das menschliche Gehirn, 1999, Verlag Brandstätter
Lämmel, Cleve; Lehr- und Übungsbuch Künstlliche Intelligenz; 2001, Leipzig
http://www.dkriesel.com/_media/science/neuronalenetze-de-zeta2-2col-dkrieselcom.pdf 18.11.13
http://www.google.de/imgres?safe=off&biw=1280&bih=907&tbm=isch&tbnid=e3eh6k6LIM-12M:&imgrefurl=http://home.arcor.de/eberhard.liss/erkenntnis%2Bthesen/synapt-verbdg.htm&docid=Lkp4wsDFRNjTlM&imgurl=http://home.arcor.de/eberhard.liss/erkenntnis%252Bthesen/synapt-verbdg.jpg&w=353&h=194&ei=k0jFUuywKcHRtQbFzIFY&zoom=1&iact=rc&dur=616&page=1&tbnh=153&tbnw=271&start=0&ndsp=36&ved=1t:429,r:10,s:0,i:111&tx=103&ty=68 (29.11.13 12:19 Uhr)
http://de.wikipedia.org/wiki/Gehirn (29.11.13 15:00Uhr)
http://de.wikipedia.org/wiki/Neokortex (29.11.13 15:00 Uhr)
Das biologische Neuron
1
Eingang
2
n
Grenzwert
Aktivität
Ausgang
Ausgabe
Das Neuronenmodel
i
http://de.wikipedia.org/wiki/Blue_Brain (29.11.13 15:10Uhr)
http://de.wikipedia.org/wiki/Kortikale_S%C3%A4ule#Laminierung (29.11.13 15:41Uhr)
die letzten 5 punkte sind am3..01.2014
http://www.informatics4kids.de/index.php/2013-03-08-18-56-17/2013-03-10-07-59-27/was-sind-neuronale-netze/28-von-der-nervenzelle-zum-modell (29.11.13 16:14Uhr)
http://bluebrain.epfl.ch/page-89583-en.html(29.11.13 17:17 Uhr)
https://www.humanbrainproject.eu/-/nature-article-on-the-hbp?redirect=https%3A%2F%2Fwww.humanbrainproject.eu%2Fnews-events%3Fp_p_id%3D101_INSTANCE_qvWAPKvcO4xA%26p_p_lifecycle%3D0%26p_p_state%3Dnormal%26p_p_mode%3Dview%26p_p_col_id%3Dcolumn-1%26p_p_col_count%3D1 (29.11.13 17:17 Uhr)
http://bluebrain.epfl.ch/page-52741-en.html (29.11.13 17:17 Uhr)
https://www.lehrportal.de/get/image/4716 (3.1.14 19:47)
http://upload.wikimedia.org/wikipedia/commons/b/be/Deep_Blue.jpg (19.01.14 23:51)
http://www.tomshardware.de/AMD-APU-Llano-CPU-Prozessor,news-247575.html(20.01.14 20:56)
http://www.wissenschaft.de/home/-/journal_content/56/12054/1012469/(21.01.14 15:14)
Johler, Olaf-Axel: Gottes Gehirn, 2010, Ullstein
Blue Brain Project
Seit 2005 versucht man durch Simulation im Computer das Gehirn einer Ratte nachzubilden: 10.000 Neuronen mit 100 Millionen Synapsen.
Der Computer benötigt dafür ca. 1,2 Megawatt Strom - das menschliche Gehirn für höhere Leistungen mit mehr Neuronen nur 20 Watt.
Da sich nach dem "Mooreschen Gesetz" die Leistungsfähigkeit von Prozessoren alle zwei Jahre verdoppeln, ist dennoch eine Simulation des menschlichen Gehirns absehbar.
Neurone sind die Grundbausteine des Gehirns
Über 100 Milliarden Neurone im Gehirn, die miteinander vernetzt sind.
ca 1.000-10.000 Verbindungen pro Neuron
Vernetzen sich veränderlich aufgrund biochemischer Prozesse und tauschen Informationen mit Hilfe chemischer Botenstoffe sowie elektrischer Impulse aus.
Der Transistor
Speicher im Computer
Speicher im Gehirn
Im Computer: Trennung von Prozessor zu Arbeits- und Langzeitspeicher.
Arbeitsspeicher von normalen PCs heute durchschnittlich 4-32 GB und Langzeitspeicher 500 GB - 2 TB groß.
Der Speicher in Computern ist kein Teil des Prozessors sondern ein eigenes Bauteil, das vom Prozessor getrennt ist.
Der Speicher in Computern kann selbst keine Daten verarbeiten, dafür aber auch von selbst keine Daten "vergessen", so lange er nicht defekt ist.
Die Speicherkapazität von Computern ist also exakt bestimmbar, da er im Gegensatz zu Neuronen fest verdrahtet ist.
Parallelisierung im Computer
Daten werden im Computer meist sequenziell verarbeitet
nur geringe Parallelisierung möglich insbesondere wegen Synchronisierungsproblemen bei mehreren Prozessoren in einem Computer
durch hohe Taktraten wird versucht, diesen Nachteil durch Geschwindigkeit auszugleichen
Parallelisierung im Gehirn
Neuronen brauchen 1 Millisekunde um ihren Zustand zu ändern.
Transistoren brauchen nur ein Tausenstel dieser Zeit.
Trotzdem kann das Gehirn schnell viele Informationen verarbeiten:
Die Leistungsfähigkeit des Gehirns muß sich aus seiner Fähigkeit zu paralleler Informationsverarbeitung ergeben.
Das wird an der 100-Schritt-Regel deutlich.
Eingang
Eingang
Lernfähigkeit von Computern
Die Transistoren eines Prozessors sind im Gegensatz zu den Neuronen unseres Gehirns fest miteinander verschaltet.
Dies macht ein Lernen auf Hardwareebene durch Veränderung seiner drei Verbindungen unmöglich. "Lernen" kann der Computer aber auf Softwareebene und dort auch die menschliche Art des Lernens nachbilden.
Beim Ausfall einzelner Transistoren kann der Computer - anders als das Gehirn - aber keine neuen Schaltungen bilden oder Defekte ersetzen.
Lernfähigkeit des Gehirns
Neuronen bilden beim Lernen neue Verbindungen oder verstärken bereits vorhandene.
Die Lernfähigkeit des Gehirns ist personen- und altersabhängig und funktioniert völlig unterschiedlich zum Computer:
Das Gehirn arbeitet mit den Synapsen der Neuronen. Selbst wenn sie nur 7 Verbindungen hätten und nicht in der Art des Computers logisch und fest 'verdrahtet' sind, gibt es unzählige Möglichkeiten der Verschaltung.
Die Art und Weise der 'Verdrahtung' im Gehirn ist eine Folge von Erfahrungen und Erlerntem und kann bei jedem Gehirn sehr unterschiedlich erfolgen. Verbindungen können sich lösen und neu bilden.
100-Schritt-Regel
Das Gehirn erkennt ein ihm bekanntes Objekt in ca. 100 Millisekungen (ms)

Bei einer Schaltzeit von 1ms pro Neuron können von einem einzelnen Neuron maximal 100 Schritte hintereinander ausgeführt werden.
Da das zur Informationsverarbeitung zu wenig ist, müssen also viele Neuronen gleichzeitig an der Bildverarbeitung beteiligt sein.
Input-Output im Computer
Input-Output im Gehirn
Fazit
Grundbausteine
i
Input-Output
i
Leistungsfähigkeit
Speicherung
Lernfähigkeit
Die Ein-und Ausgabe wird über eine Zentrale Verbindung, den sog. "Bus", verwaltet und nicht wie im Gehirn über eine direkte Verbindung zur jeweiligen Peripherie.
Die Informationen der Peripheriegeräte können daher vom "Computergehirn" nicht parallel verarbeitet werden.
"Multi-Tasking" im Computer ist strukturell nur begrenzt realisierbar - aber durch eine sehr viel höhere Verarbeitungs-geschwindigkeit kann zumindest im Ergebnis die gleiche Leistung erreicht werden.
Grundbausteine eines Prozessors, des "Computergehirns", sind die Transistoren.
ca 1 - 2 Mrd. Transistoren in einem einzelnen modernen Prozessor
Im Unterschied zum Gehirn: Informationsverarbeitung erfolgen durch Transistoren auf rein elektrischer Basis in einer unveränderlichen Struktur.
Beim einzelnen Transistor lediglich zwei Schaltzustände möglich (0 oder 1). Einzelne Neuronen haben dagegen mehrere mögliche "Schaltzustände" und können daher parallel Informationen verarbeiten.
Bereits der einzelne Grundbaustein des Gehirns ist leistungsfähiger als Transistoren in Computern.
Computer sind zwar schneller, jedoch nur begrenzt zur parallelen Informationsverarbeitung geeignet.
Da die Informationsverarbeitung im Gehirn so unterschiedlich von der des Computers abläuft, sind sie nur begrenzt vergleichbar.
Computer aber können die Funktionen des Gehirns simulieren und vernetzt die Leistungsfähigkeit zumindest eines einzelnen Gehirns heute schon übersteigen.
Ob aber ab einer gewissen Leistungsfähigkeit der Computer auch ein dem Gehirn vergleichbares "Bewusstsein" erreicht wird, ist offen.
Bewusstsein
Leistungsgrenzen
Der Philosoph Descartes hat mit dem Satz "cogito ergo sum" die Fähigkeit zu eigenständigem Denken zum Beleg der eigenen Existenz erhoben.
Bewusstsein wird als Konzept in Religion und Philosopie, Psychologie und Soziologie, Geistes- und Naturwissenschaft aber unterschiedlich definiert und alles ist dabei umstritten.
Naturwissenschaftlich steht lediglich fest, dass mentalen Zustände eng mit neuronalen Zuständen verknüpft sind.
Die Funktionalität mentaler Zustände und neuronaler Prozesse lässt sich dabei so weit formalisieren, dass sie auf einem Computer simulierbar sind.
Daraus entsteht die Idee der Möglichkeit "Künstlicher Intelligenz" und damit auch einem "Bewusstsein" des Computers.
Computer können z.B. durch sog. "Neuronale Netze" die Strukturen und Funktionen von Neuronen des Gehirns simulieren, lernen und "künstliche Intelligenz" entwickeln.
Ob und wann aus der gestiegenen Leistungsfähigkeit heraus aber auch ein "Bewusstsein" entsteht, ist fraglich.
Denn: Genauso wenig, wie man beim Menschen sein Bewusstsein "messen" kann, lässt es sich auch beim Computer nur durch äußerlich wahrnehmbares Verhalten oder Kommunikation erschließen.
Ein Vorschlag, der darauf beruht, ist der sog. Turing-Test.
Beim Turing-Tests versucht Mensch C zu entscheiden, ob es sich bei A oder B jeweils um einen Computer oder einen Menschen handelt. A und B versuchen C davon zu überzeugen, dass sie selbst Menschen sind.
Wenn die Mehrheit der Fragesteller nach intensiver Befragung nicht klar sagen können, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden, und es wird ihr ein dem Menschen ebenbürtiges Denkvermögen unterstellt und damit zumindest die Möglichkeit eines "Bewusstseins".
Turing-Test
"Ich denke, also bin ich"
Wenn das Entstehen eines Bewusstseins jedoch wirklich nur von der Leistungsfähigkeit eines Denkapparates abhängen sollte: Wird dann der Computer bald schon nicht mehr nur eine "seelenlose Maschine" sein, sondern ein autonomes, seiner selbst bewusstes Wesen? Und was würde das dann für uns Menschen und unsere Gesellschaft für Auswirkungen haben?
Informationen werden in den Synapsen gespeichert
der Speicher ist also direkt mit den Neuronen verbunden
das Gehirn hat ca. 1.000 Billionen synaptische Verbindungen
Man nimmt an, dass Synapsen wenigstens 7-8 Bit speichern
Nach Schätzungen könnte das Gehirn also ca. 11.000 TB oder mehr speichern
Mein i7 Quadcore PC
Leistungsgrenzen des Gehirns
Signale eines Körperteils gehen direkt zum jeweiligen Teil des peripheren Nervensystems
Die Verarbeitung der Befehle im Gehirn verläuft parallel zum peripheren Nervensystem
In bestimmten Ausmaß ist der Mensch dadurch "multitaskingfähig" (bsp. gleichzeitig den Fuß und den Arm heben)
Einleitung
Sind moderne Computer leistungsfähiger als unser Gehirn?
Die Grenzen der Leistung eines Gehirns sind biologisch bedingt und die Leistung daher nur über viele Generationen verbesserbar:
Für das Gehirn sind z.B. maximal 25 Bilder pro Sekunde wahrnehmbar
Maximal 8 bewegte Objekte sind gleichzeitig verfolgbar
Die langsamen Reaktionszeiten können nur durch Parallelisierung im Ergebnis verbessert, aber nicht die Geschwindigkeit verändert werden.
Leistungsgrenzen moderner Computer
1996: Deep Blue vs Kasparov
Taktrate liegt seit Jahren zwischen 1 - 5 GHz da bei höherem Takt die entstehende Abwärme nicht abgeleitet werden kann.
Grenzen sind physikalischer Natur
Bei Problemen die sich nicht auf mehrere Prozesse aufteilen lassen, kann es zu schweren Performanceeinbußen kommen.
Grenzen werden dennoch stetig ausgeweitet: Bislang gilt das "Mooresche Gesetz".
Turing-Test bestanden?
Bisher hat noch kein einzelner Computer den Turing-Test bestanden.
Im September 2011 erreichte die KI-Internet-Applikation "Cleverbot" immerhin ein Ergebnis von nur noch 4% Abstand zum Mensch.
Aber selbst wenn der Test mit Hilfe der im Internet vernetzten Computer bald bestanden wird: Der Turing-Test prüft nur auf Funktionalität von Intelligenz, nicht auf das Vorhandensein von Intentionalität oder gar eines eigenen Bewusstseins.
Gehirn
Computer
Grundbausteine
Neuronen sind mit vielen anderen Neuronen variabel vernetzt und kommunizieren chemisch und elektrisch miteinander.
Input-Output
Direkte und parallele Verbindung der für Verarbeitung zuständigen Gehirnteile mit ihrer jeweiligen Peripherie.
Jegliche Informationen aus Peripherie werden über einen zentralen Bus angesprochen.
Leistungsfähigkeit
Langsame Neuronen, die dafür hochgradig parallel arbeiten und stark vernetzt sind.
Sehr schnelle Transistoren. Daten werden allerdings nur sequentiell verarbeitet. Geschwindigkeit nicht unendlich steigerbar.
Speicher
Speicher liegt in den Synapsen der Neuronen. Speicherung und Verarbeitung von Informationen erfolgt in nahen Vorgängen und ist genauso variabel wie die Neuronen selbst.
Transistoren sind fest und logisch miteinander "verdrahtet". Informationen können nur elektrisch und in eine Richtung verarbeitet werden.
Speicher und Prozessor klar voneinander getrennt und statisch. Dafür theoretisch unbegrenzt erweiterbar.
Lernfähigkeit
Beim Lernen bilden Neuronen neue Verbindungen oder verstärken bereits vorhandene.
Da Computer ihre Transistoren nicht neu verschalten können ist Lernen nur über die Veränderung des laufenden Programms möglich.
Bewusstsein
Ein Bewusstsein ist vorhanden.
Ein Bewusstsein ist durch die Simulation des menschlichen Gehirns zumindest theoretisch möglich.
Leistungsgrenzen
Leistungsgrenzen sind biologisch und damit auf einen kurzen Zeitraum nicht veränderbar.
Leistungsgrenzen sind physikalisch bedingt und von den Fertigungstechniken
abhängig. Die Leistungsfähigkeit von Prozessoren verdoppelt sich dennoch ungefähr alle zwei Jahre
Full transcript