fredag 12. juni 2015

Arbeitsstrukturierung

Mit einem hohen Maß an Arbeitsteilung geht für gewöhnlich auch ein hohes Maß an Unzufriedenheit einher. Um diesen negativen Auswirkungen entgegenzuwirken, zielt die Arbeitsstrukturierung auf eine hohe Generalisierung der Arbeit ab. Das kann durch Job-Rotation, Job-Enrichment oder Job-Enlargement geschehen.

Job-Rotation → Arbeitsplatzwechsel, ist der regelmäßige und systematische Wechsel von Arbeitsaufgabe und Arbeitsplatz. Es handelt sich dabei lediglich um eine Rotation auf gleicher Hierarchieebene, es kommen also keine hierarchisch höher geordneten Aufgaben hinzu.
Job-Enlargement → Aufgabenerweiterung, der Grad der Arbeitsteilung wird reduziert. Strukturell ähnliche Aufgaben mehrerer Stellen werden in einer Stelle zusammen gefasst. Die Arbeitsinhalte werden also horizontal erweitert. Auch hier kommen keine hierarchisch höher geordneten Aufgaben hinzu, aber auf gleicher Ausführungsebene kommen zusätzliche Aufgaben hinzu, Planung und Kontrolle bleiben jedoch in „fremder“ Hand.
Job-Enrichment → Aufgabenbereicherung, ist die Erweiterung des Entscheidungs- und Kontrollspielraums in vertikaler Richtung. 

Job-Rotation → Ziel ist die Verringerung der Monotonie der Arbeit und der damit häufig verbundenen einseitigen Belastung und eine Erhöhung der Flexibilität der Mitarbeiter. Zusätzlich wird auch eine Steigerung des Verantwortungsgefühls für die Gruppenaufgabe erwartet.
Job-Enlargement → Auch hier ist eine Flexibilisierung der Mitarbeiter das Ziel. Außerdem bekommen Mitarbeiter das Gefühl mehr zu machen, was wiederum in der Regel die Arbeitszufriedenheit erhöht.
Job-Enrichment → Hier kommen Planung und Kontrolle sukzessiv zu den bereits auszuführenden Aufgaben hinzu, so dass die Eigenverantwortung des Mitarbeiters wächst. Die Anforderungen an den Mitarbeiter steigen hier besonders, was wiederum zur Qualifizierung von Mitarbeitern eingesetzt werden kann.

Notwendigkeit der Differenzierung des Personalbedarfs nach qualitativen, quantitativen, zeitlichen und örtlichen Aspekten

Die Ermittlung des Personalbedarfs geschieht nach qualitativen (Welche Qualifikationen müssen die Mitarbeiter erfüllen?), quantitativen (Wie viele Mitarbeiter werden benötigt?), zeitlichen (Zu welchem Zeitpunkt werden die Mitarbeiter benötigt?) und örtlichen (Wo werden die Mitarbeiter benötigt?) Aspekten. Ziel ist es die Mitarbeiter im benötigten Umfang mit der passenden Qualifikation am richtigen Ort einzusetzen.

Inwieweit eignet sich eine Stellenbeschreibung als Grundlage für die Ermittlung des qualitativen Personalbedarfs?

Kennzeichen einer Stellenbeschreibung

  • Stellenbezeichnung
  • Stelleneinordnung im Unternehmen
  • Stellenaufgaben und -ziele
  • Stellenbefugnisse und -verantwortung
  • Stellenanforderungen

     
    Die aufgeführten Kennzeichen einer Stellenbeschreibung bilden die Grundlage für die Ermittlung des qualitativen Personalbedarfs. In einfachen Fällen reicht der Abgleich von Stellenanforderungen in der Stellenbeschreibung mit den Qualifikationen des Bewerbers. Meist wird aber die Stellenbeschreibung als Ausgangspunkt benutzt um ein Anforderungsprofil für die entsprechenden Stellen aufzusetzen, mit dem dann wiederum die Qualifikationsprofile eines Bewerbers oder eines Mitarbeiters abgeglichen wird.

torsdag 11. juni 2015

warum lösen Experten Probleme schneller als Novizen?

Dass Experten schneller und genauer sind beim Lösen eines Problems lässt sich dadurch erklären, dass sie mehr und andere bedeutungshaltige Muster wahrnehmen als ein Novize. Experten verfügen über eine wohlorganisierte Wissensbasis, die die Informationsaufnahme, die Informationsverarbeitung sowie das Lösungsverhalten von Experten in einzigartiger Weise prägt. Experten erkennen und selektieren problemrelevante Informationen effizienter, investieren aber im Vergleich zu Novizen mehr Zeit für die Problemanalyse und gelangen so zu einer besseren Problemrepräsentation. Experten können also die Schwierigkeit des Problems genauer abschätzen und ihre Ressourcen besser einteilen und klassifizieren die Probleme sinnvoller anhand der Problemstruktur. Bei der Informationsverarbeitung zeigen Experten eine überragende Gedächtnisleistung, welche sich sowohl auf das Langzeitgedächtnis wie auch auf das Kurzzeitgedächtnis bezieht. So kann ein Experte im Schach die Figurenaufstellung auf einem Schachbrett innerhalb weniger Sekunden erfassen und sehr genau wiedergeben. Das Wissen von Experten ist prinzipienbasiert in Gedächtniseinheiten abgespeichert in sogenannten Chunks. Experten verfügen über ein reiches Repertoire an Lösungsstrategien, auf die sie, zumindest teilweise, zurückgreifen können. Dadurch erkennen Experten leichter Zusammenhänge zu anderen Problemen, wobei oberflächliche Ähnlichkeiten für sie bei der Lösung des Problems keine Rolle spielen. Anfänger hingegen kategorisieren stark nach oberflächlichen Ähnlichkeiten und können kaum Lösungsansätze formulieren. Sie müssen stattdessen mühsam für sie neue Lösungswege finden. Die überragenden Fähigkeiten von Experten gehen im Allgemeinen nicht auf außerordentliche kognitive Fähigkeiten zurück sondern beruhen stattdessen eher auf deren umfangreichen bereichsspezifischem Wissen und einer daran angepassten Verarbeitung der Informationen. Das enorme Bereichswissen von Experten hat Einfluss auf alle Aspekte des Problemlösungsprozesses, von der Problemerkennung bis zur Lösungsfindung. Außerdem verfügen Experten über Routine beim Angehen von Problemen auf ihrem Wissensgebiet, die durch ihre intensive Ausbildung entstanden ist. Lösungsmuster von Experten sind durch Geschwindigkeit und eine geringe Fehlerrate gekennzeichnet.

Methoden zur Lösung eines Problems (Psychologie)

Um ein Problem lösen zu können, muss dieses Problem zuerst einmal erkannt und verstanden werden. Danach muss ein Plan zur Lösung des Problems bereitgestellt und ausgeführt werden, bevor das Ergebnis schließlich auf Richtigkeit überprüft werden kann.
Die Lösung des Problems kann auf unterschiedliche Art und Weise vonstatten gehen. Es gibt zwei allgemeine Suchverfahren, die auf jedes beliebige Problem angewandt werden können.
Bei der Breitensuche werden vom Anfangszustand aus alle möglichen direkten Nachfolgezustände betrachtet. Von allen direkten Nachfolgezuständen werden wiederum alle direkten Nachfolgezustände ermittelt und so weiter. Man geht also bei der Suche nach der Lösung des Problems immer weiter in die Breite, während man sich Ebene für Ebene der Lösung des Problems nähert. Das Ziel, die Lösung des Problems, wird so in der Mindestzahl von Ebenen erreicht.
Bei der Tiefensuche hingegen wird von allen möglichen Nachfolgezuständen einer ausgewählt. Erst wenn man in eine Sackgasse gerät oder in einen bereits erreichten Zustand, wird der letzte Schritt rückgängig gemacht (backtracking) und vom Vorgängerzustand aus ein alternativer Schritt ausgeführt. Man geht also dementsprechend bei der Lösungssuche immer weiter in die Tiefe und nur im Falle einer Sackgasse in die Breite. Das Problem bei dieser Art der Problemlösung ist allerdings, dass man schon sehr weit in einem Zweig ist, der die Lösung nicht enthält und im schlimmsten Fall alle Schritte bis zum ersten Schritt rückgängig machen und wieder von vorn beginnen muss.
Sowohl die Breiten- als auch die Tiefensuche können per Vorwärts- und per Rückwärtssuche ausgeführt werden. Bei der Vorwärtssuche startet man am Anfang und sucht nach Schritten, die einen näher an den Zielzustand führen. Bei der Rückwärtssuche startet man mit Lösung und versucht Schritte zu finden, die einen letztendlich zum Anfangszustand führen. Dabei wird das Ziel schrittweise in Teilziele zerlegt, bis man die Teilziele erfüllen kann.
Zusätzlich zu diesen allgemeinen Suchverfahren gibt es heuristische Suchverfahren, die bei der Suche im Problemraum problemspezifische Heuristiken nutzen. Dabei soll die Auswahl von Problemlöseschritten optimiert werden, indem problemspezifische Informationen ausgenutzt werden. Im Folgenden werde ich auf zwei dieser Heuristiken eingehen.
Bei der Hill-climbing-strategie handelt es sich um eine Strategie, die sich der Vorwärtssuche bedient. Dabei wird aus einer Menge aller möglichen Schritte derjenige ausgewählt, der einen dem Ziel am schnellsten näher zu bringen scheint. Um das zu erreichen müssen die einzelnen Problemzustände, die sich aus den einzelnen Schritten ergeben, dahingehend bewertet werden wie ähnlich sie dem Zielzustand sind. Bei dieser Vorgehensweise kann sich das Problem ergeben, dass man sein angestrebtes Ziel nicht erreicht, sondern nur ein lokales Maximum, einen vorgelagerten Gipfel.
Bei der Mittel-Ziel-Analyse wird dieses Problem vermieden, indem eine heuristische Vorwärtssuche mit Teilzielbildung verknüpft wird. Der aktuelle Zustand wird hierbei zunächst mit dem Zielzustand verglichen. Entspricht er dem Zielzustand, gilt das Problem als gelöst. Entspricht er dem Ziel nicht, wird der größte Unterschied zwischen den beiden Zuständen anhand einer problemspezifischen Heuristik ermittelt. Gibt es keinen Schritt, der den Unterschied zwischen den beiden Zuständen beseitigen kann, gilt das Problem als nicht lösbar. Gibt es einen möglichen Schritt wird versucht ihn auszuführen, sofern alle Voraussetzungen dafür erfüllt sind. Sind nicht alle Voraussetzungen für die Ausführung des Schrittes erfüllt, wird die Schaffung der Voraussetzungen als neues Teilziel aufgestellt. Durch dieses Aufstellen von Teilzielen, bekommt die Suche nach der Lösung des Problems eine Richtung zugewiesen und der Suchraum wird auf die für das Lösen des Problems relevanten Schritte eingeschränkt. Das Problem dieses Verfahrens ist seine Komplexität, da unter Umständen sehr viele Teilschritte in Erinnerung behalten werden müssen.

Urteilsheuristiken

Urteilsheuristiken sind intuitive Wahrscheinlichkeitsurteile, also Strategien zur Urteilsfällung. Sie dienen dazu Urteile nicht anhand von tatsächlichen, errechneten Wahrscheinlichkeiten zu fällen, sondern anhand von Erfahrungswerten. Sie gehören zu den automatischen Denkprozessen und werden oft gar nicht bewusst wahrgenommen. Verfügbarkeit, Repräsentativität, Verankerung und Anpassung von Informationen spielen beim Fällen von Urteilen eine entscheidende Rolle. Auch Gefühle und Stimmungen können als Urteilsheuristik genutzt werden (Affektheuristik).
Biases, also Fehler bei der Urteilsfällung, treten dabei vor allem bei starker Repräsentation und Verfügbarkeit auf. Wenn zum Beispiel die Häufigkeit von Todesursachen geschätzt werden soll und Verkehrsunfälle in der Presse stärker vertreten sind als die Opfer von Herzinfarkten, ist es sehr wahrscheinlich, dass die Häufigkeit von Verkehrsunfällen mit Todesfolge höher eingeschätzt wird als sie tatsächlich ist, die Anzahl von tödlich endenden Herzinfarkten hingegen für niedriger angenommen wird als sie in Wirklichkeit ist. Untersuchungen zeigen, dass die Urteilsfällung anhand von Urteilsheuristiken den mathematisch errechneten Wahrscheinlichkeiten durchaus ebenbürtig ist. Dabei zeigt sich oft der less-is-more Effekt, das heißt dass Personen oft bessere Urteile fällen wenn ihnen weniger Informationen zur Verfügung stehen, die gegeneinander abgewogen werden müssen.
Gigerenzer und Brighton schlagen folgende Urteilsheuristiken vor:
  • Recognition
Wird eine von zwei Alternativen erkannt, wird sich für die bekannte Alternative entschieden. Sollen Personen zum Beispiel entscheiden welche von zwei Städten die größere ist, wird sich für die Stadt entschieden, die der Person bekannt vorkommt. Das ist eine sinnvolle Herangehensweise, da größere Städte auch für gewöhnlich einen höheren Bekanntheitsgrad besitzen und in der Presse öfter vertreten sind. Um eine Entscheidung zu treffen, reicht also ein einziger Grund aus.
  • Fluency
Werden beide Alternativen erkannt, wird sich für die schneller erkannte Alternative entschieden.
  • Take-the-best
Diese Heuristik ist vor allem bei nur wenigen zugänglichen Informationen den komplexen statistischen Entscheidungsverfahren ebenbürtig oder sogar überlegen. Auch hier reicht, wie bei der Recognition-Heuristik, ein einziger Grund aus um eine Entscheidung zu treffen. Sind beide Alternativen bekannt, werden weitere Hinweise (cues) gesammelt und absteigend nach Validität (Vorhersagekraft) durchgegangen. Entschieden wird dann nach dem ersten Hinweis, der die beiden Alternativen voneinander unterscheidet.
  • Tallying
Auch hier werden, wie bei der take-the-best Heuristik, cues gesammelt. Entschieden wird sich dann für die Alternative, die die meisten positiven Hinweise hat.
  • Satisficing
Hierbei werden alle Alternativen durchgegangen. Entschieden wird sich dann für die Alternative die als erste ein vorher festgelegtes Zielkriterium erfüllt.

Bei der Entscheidung zwischen „Heiraten“ und „Nicht Heiraten“ könnte Darwin die Tallying Heuristik verwendet haben. Er könnte dabei die Suchregel, Abbruchregel und Entscheidungsregel folgendermaßen angewandt haben.
Die Suchregel beschreibt eindeutig in welcher Reihenfolge die Informationen betrachtet werden. Die Cues werden dabei absteigend nach ihrer Validität sortiert und nacheinander durchgegangen und miteinander verglichen. Darwin stellte dabei positive und negative Aspekte des Heiratens und des nicht Heiratens einander gegenüber. Die Abbruchregel stellt das Ende der Informationssuche dar. Darwin hatte alle ihm wichtig erscheinenden Aspekte anhand von zwei Listen einander gegenüber gestellt und konnte somit vergleichen welche der beiden Alternativen die größere Anzahl von positiven Aspekten mit sich bringen könnte, und entschied sich demnach für das Heiraten (Entscheidungsregel).

tirsdag 9. juni 2015

das linguistische Relativitätsprinzip

Das linguistische Relativitätsprinzip, von einigen Forschern auch Sapir-Whorf-Hypothese genannt, nach ihren beiden bekanntesten Vertretern, besagt, dass die Art und Weise wie ein Mensch denkt, durch die Grammatik und den Wortschatz seiner Muttersprache beeinflusst wird. Die Formulierung von Gedanken stellt demnach also keinen unabhängigen Prozess dar, sondern wird von unterschiedlicher Grammatik der Sprachen beeinflusst. Verschiedene Sprachgemeinschaften, haben also demnach auch eine unterschiedliche eine Wahrnehmung und Sichtweise auf die, sie umgebende, Welt. Die Gedanken einer Person können von einer anderen Person, die eine andere Sprache als Muttersprache hat, dementsprechend nicht vollkommen nachvollzogen werden.
Außer des linguistischen Relativitätsprinzips wurden noch weitere Beziehungen zwischen Denken und Sprache vorgeschlagen, die hier im Folgenden jeweils anhand eines Beispiels erläutert werden sollen. Als prominentester Vertreter der Hypothese dass Denken innere Sprache ist, gilt John B. Watson. Er war der Auffassung, dass Denken mit Sprache (und umgekehrt) gleichzusetzen ist. Als Beispiel dafür kann man innere Monologe mit sich selbst, bzw. das „in Worten denken“ anführen. Sätze wie „ich darf heute nicht vergessen die Blumen zu gießen, und danach muss ich noch die Wäsche zusammenlegen, bevor ich das Abendessen mache“ zeigen diese inneren Selbstgespräche sehr gut. Jean Piaget ein Psychologe, vertrat die Meinung, dass die kognitive Entwicklung, die sprachliche Entwicklung determiniert. Also erst mit fortschreitender geistiger Entwicklung im Kleinkind-, Schulkind und Jugendalter eine komplexe Sprache möglich ist, sich ein Kind also erst mit fortschreitendem Alter komplex artikulieren kann. Am Anfang seiner sprachlichen Entwicklung zeigt ein Kind nur auf z.B. Schokolade, wenn es diese haben will und sagt „da“, kann also noch nicht in Worte fassen was es wirklich will, nämlich die Schokolade. Mit fortschreitender Entwicklung sind dann aber schon komplexe Sätze möglich wie z.B. „Mama, wenn ich fertig bin mit Aufräumen, will ich Schokolade haben.“. Noam Chomsky vertrat die Theorie, dass Kognition und Sprache vollkommen unabhängig voneinander sind, sozusagen nebeneinander her existieren, ohne sich gegenseitig zu beeinflussen. Laut dieser Theorie bringen Kinder von Geburt an eine Art Bauplan zum Erwerb einer Sprache mit (language acquisition device), die es ihnen ermöglicht alle Sprachen quasi nebenbei zu lernen. Das Kind muss also nur noch lernen, die sprachlichen Inputs richtig zu sortieren und einzuordnen. Demnach soll ein Kind also seine (Mutter)Sprache ohne jegliche Einwirkung der Kognition erlernen, nur anhand des mitgebrachten Bauplans. Als Beleg für diese Theorie wird angeführt, dass Kinder weltweit sprachliche Fehler machen, die aber trotzdem den eigentlichen grammatischen Regeln ihrer Sprache folgen, in diesen Fällen aber „Ausnahmen zur Regel“ darstellen. Ein Beispiel hierfür wäre ein Satz wie „Der Mann hat eine andere Sprache gesprecht“ oder „Ja Mama, ich sei vorsichtig“ . Zusätzlich kann als Beweis für diese Theorie auch das „Verstehen eines Sachverhaltes ohne ihn erklären zu können“ gesehen werden. Ein Sachverhalt wird also verstanden, kann aber nicht in die richtigen Worte gefasst werden. Es fehlen einem die Worte oder die Worte scheinen nicht ausreichend oder nicht vollkommen zutreffend zu sein. Dieses Gefühl der Unzulänglichkeit von Worten hat sicherlich jeder von uns schon erlebt.
Eine weitere Theorie stammt von Lew Semjonowitsch Wygotski. Diese Theorie besagt, dass sich Kognition und Sprache zwar zuerst unabhängig voneinander entwickeln, sich später aber immer mehr ineinander verschränken. Der Denkprozess bekommt also mit zunehmender Entwicklung immer mehr soziale Züge, die einen Austausch über Denkprozesse und Ideen ermöglicht. Ein Kind fängt zum Beispiel aus reiner Nachahmung an zu zählen, sagt also gewissermaßen die Zahlwörter auswendig auf ohne wirklich zu verstehen, dass diese Zahlwörter einen Bezug zur ihn umgebenden Welt haben. Später setzt es dann diese Zahlwörter in Bezug zu seiner Umwelt und rechnet beispielsweise mit seinen Fingern. Diese Hilfsmittel werden dann so verinnerlicht, dass es dann schließlich komplexe Rechenaufgaben lösen und eventuell auch den genutzten Rechenweg erklären kann oder sich mit seinen Mitschülern, Lehrern und anderen Personen seines Umfeldes darüber unterhalten kann. Die Sprache hat ich also mit dem Denkprozess verschränkt, obwohl sich beide anfangs unabhängig voneinander entwickelt haben.
Schlussendlich noch eine letzte Theorie mit ihren bekanntesten Vertretern Edward Sapir und Benjamin Lee Whorf, welche besagt, dass Sprache das Denken determiniert. Diese Theorie ist dem linguistischen Relativitätsprinzip (in seiner starken Variante) sehr ähnlich. Als Beispiel hierfür möchte ich das im Fernlehrbrief dargestellte Beispiel der Farben heranziehen. Im Deutschen unterscheiden wir die Farben „blau“ und „grün“, während im Walisischen diese Farben zu „glas“ zusammengefasst werden. Im Russischen wiederum wird nochmals zwischen hellblau „goluboj“ und dunkelblau „sinji“ unterschieden. Die Farbwahrnehmung an sich unterscheidet sich nicht, jedoch die Einteilung und Zuordnung der einzelnen Farbtöne in die unterschiedlichen Kategorien ist bei Angehörigen der unterschiedlichen Sprachgruppen anders und für „Außenstehende“ mit unterschiedlicher Muttersprache vielleicht nicht immer verständlich oder nachvollziehbar.

Verfügen Tiere über Sprache?

Um die Frage beantworten zu können, ob Tiere auch über Sprache verfügen, sollte zunächst einmal geklärt werden, was genau unter Sprache verstanden wird. Sieht man Sprache lediglich als Kommunikation an, so kann man diese Frage ganz eindeutig mit „Ja“ beantworten, denn Tiere kommunizieren miteinander. Oft durchaus bewusst wenn beispielsweise Warnrufe ausgestoßen werden, um Artgenossen vor Fressfeinden zu warnen, oft aber auch rein instinktiv. Wenn man Sprache nur als Kommunikation definieren würde, könnte man auch behaupten, dass Pflanzen ebenfalls über eine Sprache verfügen, denn auch sie kommunizieren (chemisch) untereinander und mit ihrer Umwelt. Sie duften zum Beispiel um Bestäuber anzulocken.
Ich möchte für meine Argumentation hier Charles Hocketts Designkriterien der Sprache und Beispiele, aus dem Fernlehrbrief verwenden. Sprache ist definiert als ein System aus Symbolen und Regeln, wobei die Regeln generativ sind.
Es gibt viele Hinweise dafür dass auch viele Tiere sprachbegabt sein können. Ein Beispiel dafür ist der Border Collie Rico, der auf Zuruf über 200 verschiedene Objekte voneinander unterscheiden konnte. Bei weiteren Studien am Max-Planck-Institut fand man heraus, dass er auch neue Objekte mittels Ausschlussverfahren den ihm neuen Begriffen zuordnen konnte, sogenanntes fast-mapping. Diese Fähigkeit wurde bis dahin nur bei Kindern beobachtet und immer mit Sprachkompetenz in Verbindung gebracht worden. Allerdings scheint sich es sich nach neuesten Erkenntnissen bei letzterer Fähigkeit um einen generellen kognitiven Prozess zu handeln.
Ein weiteres Beispiel dafür dass Tiere über Sprachkompetenz verfügen ist der Graupapagei Alex. Er konnte, nachdem er einen begrenzten Wortschatz gelernt hatte, einfache Fragen beantworten und Objekte kategorisieren. Alex scheint seine Äußerungen zu verstehen, was Hocketts Designkriterium Nr. 5 (total feedback) entspricht und verleiht dem was er sagt eine Bedeutung (Designkriterium Nr. 7, sematicity). Die Fähigkeit Lauten eine Bedeutung zu verleihen ist auch bei großen Tümmlern beobachtet worden. Jedes Individuum einer Gruppe großer Tümmler verfügt über einen ihm eigenen Identitätspfiff, der sozusagen der Name des Individuums ist. Diese Identitätspfiffe werden auch gezielt eingesetzt um den Zusammenhalt der Gruppe zu fördern. Sie stoßen diese Identitätspfiffe also nicht wahllos aus, sondern sehr gezielt.
Eine Frage, die viele Forscher beschäftigt ist die, ob Tiere eine Form menschlicher Sprache lernen können. Dazu fanden mehrere Versuche statt, Primaten die ASL (American Sign Language) oder Yerkisch, eine Kunstsprache, die aus Symbolen, den sogenannten Lexigrammen, besteht, beizubringen. Die Schimpansin Washoe (Allen und Beatrice Gardner, 1969, 1975) hat ASL gelernt, die Bedeutungen der einzelnen Handzeichen differenziert und auf neue Zusammenhänge übertragen. Die Schimpansin Lana (Bettoni 2007, von Glaserfeld 1975) äußerte sich spontan und grammatisch korrekt in Yerkisch. Diese Erfolge konnten allerdings nicht mit dem Schimpansen Nim Chimpsky (Herbert Terrace, 1979) repliziert werden. Man ging daher davon aus, dass sämtliche scheinbare Sprache auf sehr effizienter operanter Konditionierung beruhte. Der Bonobo Kanzi, aus dem Team um Sue Savage-Rumbaugh, könnte allerdings wiederum Beweis dafür sein, dass Primaten doch sprachbegabt sind. Er lernte die Verwendung von Lexigrammen eher nebenbei, weil er beim Training seiner Adoptivmutter, für die das Programm bestimmt war, immer anwesend war. Er lernte dabei nicht nur ein Grundvokabular, sondern lernte auch diese Vokabeln neu miteinander zu kombinieren und benutzte Yerkisch schließlich sogar spontan auf seinen Streifzügen um Selbstgespräche zu führen (Savage-Rumbaugh & Lewin, 1994, Savage-Rumbaugh et al., 1998). Diese Fähigkeiten entsprechen Hocketts Designkriterien Nr. 4 (interchangeability) und Nr. 5 (total feedback). Kanzi verstand offenbar was er sprachlich produzierte und produzierte was er verstand. Bei Primaten ist inzwischen referentieller Gebrauch von Sprache nachgewiesen. Geteilte Meinungen gibt es noch beim intentionalen Gebrauch von Sprache, also der willkürlichen Kontrolle über Äußerungen und dem Vorsatz ein Ziel mit diesen Äußerungen zu erreichen. Viele Forscher bezweifeln das. Cheney, Seyfarth (1994) und Hauser (2001) sehen allerdings in Täuschungsmanövern von verschiedenen Tieren einen Beleg dafür. Ein Beispiel für den intentionalen Gebrauch von Kommunikation sind Meerkatzen, die Warnrufe nur dann ausstoßen wenn Artgenossen in der Nähe sind, die von einer Warnung vor Gefahr auch profitieren können (Hauser, 2001, S. 247). Die Laute werden offenbar auch nach bestimmten Regeln neu miteinander kombiniert, allerdings deutet bisher nichts darauf hin, dass damit auch eine neue Bedeutung der Äußerungen erlangt wird, oder neue Begriffe geschöpft werden.
Viele Wissenschaftler gehen davon aus, dass unsere Sprachkompetenz das ist, was uns am meisten von den Tieren unterscheidet. Hockett nannte die letzten vier seiner Designkriterien speziell menschlich, und diese 4 letzten Designkriterien werden deshalb auch häufiger zur Definition der Sprache herangezogen. Dazu zählt auch das 10. Kriterium, displacement, das besagt, dass sich Sprache auch auf etwas Entferntes beziehen kann. Menschen machen sich Gedanken über vergangenes, zukünftiges oder auch rein fiktives. Die meisten Äußerungen von Primaten beziehen sich auf Objekte und Aktionen, die unmittelbar bevor stehen oder bereits sichtbar sind. Es finden keine Spekulationen über die Zukunft, die Wirtschaftskrise oder fiktives statt. Das muss allerdings nicht unbedingt an mangelnder Sprachbegabung liegen, sondern solche Themen liegen offensichtlich jenseits des Horizontes. Deswegen ist ein direkter Vergleich eventuell unangebracht. Es gibt aber auch für das 10. Designkriterum von Hockett ein Beispiel im Tierreich. Studienergebnisse deuten darauf hin, dass der Honigtanz der Bienen eine situationsunabhängige Kommunikationsform darstellt.
Das 11. Designkriterium (productivity) scheint dagegen spezifisch menschlicher Natur zu sein. Die menschliche Sprache ist extrem produktiv. Uns gelingt es aus nur 26 Buchstaben (ausgehend vom Deutschen) bis zu 115.000 Wörter zu bilden, mit jederzeit möglichen Neuschöpfungen. Diese Fähigkeit scheint für Tiere unmöglich zu sein. Das letzte Designkriterium (duality of patterning) liefert noch einen Hinweis dafür, dass Tiere nicht über Sprache verfügen. Es besagt, dass bedeutungslose Elemente (Phoneme) zu bedeutungshaltigen Elementen (Morphemen) kombiniert werden. Tiere sind zwar dazu in der Lage Wörtern einen Sinn zu verleihen, sie können jedoch nicht aus Phonemen neue Wörter und Morpheme bilden.
Vieles deutet darauf hin, dass der Unterschied zwischen den tierischen Kommunikationsformen und menschlicher Sprache eher gradueller als prinzipieller Natur sind. Tiere kommunizieren aus eigenem Antrieb. Es gibt den Walgesang, Vogelgesang, Wölfe heulen, Tintenfische wechseln die Farbe und viele weitere Kommunikationsformen. Viele Tiere verwenden ihre eigenen Kommunikationsform instinktiv, manche intentional. Die Symbole der tierischen Kommunikation werden auch nach bestimmten Regeln miteinander kombiniert, aber es gibt bisher keine Hinweise darauf, dass ein offenes System von Ausdrucksmöglichkeiten, wie es bei der menschlichen Sprache der Fall ist, existiert. Dass produktiv neue Inhalte geschaffen wurden, konnte bisher nur bei Tieren beobachtet werden, denen eine menschliche Sprache beigebracht wurde, was aber auch an mangelnder Kenntnis der Tiersprachen liegen könnte. Allerdings übertreffen schon die sprachlichen Leistungen kleiner Kinder bei weitem die Möglichkeiten selbst der intelligentesten Tiere um ein Vielfaches Das schließt aber nicht aus, dass manche Tierarten eine Art Vorform der Sprache besitzen. Dass sie also über ein bestimmtes, durchaus vielfältiges Vokabular verfügen, aber nicht über eine komplexe Syntax, wie die menschliche Sprache.

Bestandteile der Sprache

Sprache im Allgemeinen besteht aus gesprochener, geschriebener Sprache und Gebärdensprache. Dabei besteht jede Sprache aus Symbolen und Regeln, nach denen die Symbole kombiniert werden. Die bedeutungshaltigen Symbole, wie Wörter und Morpheme, setzen sich aus kleineren Einheiten, den Phonemen und Phonen zusammen. Wörter und Morpheme lassen sich wiederum zu Satzteilen und Sätzen zusammensetzen. Die grammatischen Regeln für Syntax und Morphologie spezifizieren dabei wie Morpheme und Wörter miteinander kombiniert werden dürfen, um einen grammatikalisch korrekten Satz bilden zu können.
Phoneme und Phone bilden die kleinsten bedeutungsunterscheidenden Einheiten einer Sprache. Wie viele phonemische Unterscheidungen gemacht werden variiert spezifisch von Sprache zu Sprache.
Morpheme sind die kleinsten bedeutungstragenden Einheiten einer Sprache. Morpheme können selbst bereits vollständige Wörter sein oder Wortteile bilden. Morpheme sind dabei aber nicht das gleiche wie Silben, sondern vielmehr Sinneinheiten, die inhaltliche und grammatische Bedeutungen tragen. Das Wort „Pferd“ besteht zum Beispiel aus einem Morphem. Die Mehrzahl „Pferde“ besteht wiederum aus zwei Morphemen, dem Morphem „Pferd“ und dem Morphem „e“, das die Mehrzahl anzeigt.
Silben bilden die kleinste Lautgruppe, die in einem Atemzug ausgesprochen werden kann. Das Kernstück der Silbe wird Silbengipfel genannt und besteht meist aus einem Vokal oder Doppelvokal. In einigen Sprachen kommen dafür aber auch Konsonanten in Frage. Dem Silbengipfel kann ein Silbenansatz voraus gehen und ein Silbenende folgen. Silbengipfel und Silbenende bilden den Reim, wohingegen Silbenansatz und Silbenende die Silbenschale bilden.
Wörter sind die kleinste Einheit der Grammatik, die für sich allein stehen kann. Im Deutschen und auch anderen ihr verwandten Sprachen werden Wörter (in der geschriebenen Sprache) am leichtesten dadurch erkannt, dass sich zwischen den einzelnen Wörtern ein Leerzeichen bzw. eine Pause befindet, die die einzelnen Wörter voneinander trennt. Jedes einzelne Wort kann aus mehreren bedeutungstragenden Einheiten, den Morphemen, bestehen. Wörter werden in verschiedene Wortklassen unterteilt. Inhaltswörter überwiegen den Wortschatz. Sie geben inhaltliche Bedeutung und sind offen für Neuschöpfungen. Dazu gehören Substantive, Verben, Adjektive und Adverbien. Funktionswörter sind der mengenmäßig geringere Teil des Wortschatzes, werden aber sehr häufig gebraucht. Sie sind wichtig für den Satzbau und die grammatische Funktion. Zu den Funktionswörtern gehören Artikel, Konjunktionen, Präpositionen und Pronomen.
Ein Satz besteht aus einer Gruppe von Wörtern, die einen vollständigen Gedanken ausdrücken. Im Idealfall besteht ein Satz mindestens aus einem Subjekt und einem Prädikat. Wörter können nicht beliebig aneinander gereiht werden, sondern folgen bestimmten Regeln, der Grammatik einer Sprache.
Die Regeln bilden die Grammatik einer Sprache. Was ein Satz bedeutet, ergibt sich nicht allein aus der Bedeutung der Wörter, sondern auch aus der Position, die die einzelnen Wörter in einem Satz einnehmen. So hat der Satz „Die Kuh frisst das Gras“ eine vollkommen andere Bedeutung, als der Satz „Das Gras frisst die Kuh“ obwohl beide Sätze aus genau den selben Wörtern besteht. Um Die Bedeutung eines Satzes zu bestimmen, muss herausgefunden werden, wer Subjekt und wer Objekt ist. Um das herauszufinden gibt es zwei Möglichkeiten. Die erste Möglichkeit ist, die Wortstellung (Syntax) zu betrachten. In vielen Sprachen gibt es ausgeprägte Präferenzen, wo in einem Satz Subjekt und wo Objekt zu finden sind. Aber nicht immer ist es möglich Subjekt und Objekt durch ihre Position im Satz zu bestimmen. Die zweite Möglichkeit ist es Subjekt und Objekt durch Flexionen, also über die äußere Veränderung der Gestalt der Wörter, die Veränderung des bestimmten Artikels, der das Objekt des Satzes kennzeichnet (z.B. der → den), zu bestimmen (Morphologie). Syntax und Morphologie ergänzen einander. Je freier die Syntax in einer Sprache ist, um so wichtiger sind die Flexionen und je weniger Flexionen eine Sprache beinhaltet, um so wichtiger ist die Syntax. Wie Wörter dann schließlich zu Phrasen und Phrasen zu Sätzen kombiniert werden, wird durch die Phrasenstrukturregeln definiert, die einen essentiellen Teil der Grammatik bilden. Die Zahl der grammatischen Regeln ist begrenzt, aber es gibt trotzdem unbegrenzte Möglichkeiten grammatisch korrekte Sätze zu bilden. Grammatik ist also generativ. In vielen Sprachen wird die Generativität der Grammatik durch Rekursion und Iteration gewährleistet. Rekursive Regeln sind Regeln, die in ihrer Definition eine Version ihrer selbst beinhalten. Damit können, in sich verschachtelte, Relativsätze gebildet werden. Iterative Regeln sind Regeln, die Wiederholungen beinhalten.
Propositionen wiederum sind die Bausteine der kognitiven Repräsentation, also inhaltlich bedeutsame Kernaussagen mit einem Prädikat als Kern. Für dieses Prädikat spezifiziert die Proposition wer Subjekt und wer Objekt ist oder unter welchen Umständen dieses Ereignis stattfindet. Im einfachsten Fall entspricht ein Satz genau einer Proposition. Um unterschieden zu können wer Subjekt und wer Objekt ist, werden verschiedene Formen des Wissens benötigt. Unterschieden werden lexikalisches Wissen, also der Wortschatz, grammatikalisches Wissen, welches prozedural gespeichert wird, pragmatisches Wissen, welches benötigt wird um zu entscheiden in welchem Zusammenhang man sich wie ausdrückt und auch Weltwissen und andere Arten deklarativen Wissens, die benötigt werden um Begriffen des Wortschatzes eine Bedeutung zuordnen zu können.

mandag 8. juni 2015

Syllogismen

Ein Syllogismus ist eine Form des deduktiven Schließens (logisches Schließen), ist also ein logisches Argument. Ein Syllogismus besteht aus einer Kombination von drei quantifizierten Aussagen, die drei Mengen zueinander in Beziehung setzen. Genauer besteht ein Syllogismus immer aus zwei Prämissen, wobei die erste Prämisse auch als Obersatz bezeichnet wird und die zweite Prämisse als Untersatz, die zu einer Konklusion, also einer Schlussfolgerung führen. In jeder Aussage wird einem Subjekt ein Prädikat zugeordnet, wobei Subjekt und Prädikat nicht im grammatikalischen Sinn gemeint sind, sondern jedem Begriff (Subjekt) eine Eigenschaft (Prädikat) zu- oder abgesprochen wird. Prämissen und Konklusion können inhaltlich wahr oder falsch sein. Syllogismen arbeiten oft mit den Quantoren: alle, einige und keine (Quantorenlogik).
Es gibt unterschiedliche Strategien zur Lösung von Syllogismen.
Die Atmosphärenheuristik besteht aus zwei Teilen. Der erste Teil betrifft die Universalität der Antwort, der zweite Teil betrifft ihr Vorzeichen. Wenn mindestens eine Prämisse partikulär ist, wird eine ebenfalls partikuläre Antwort gewählt, ansonsten eine universelle. Ist mindestens eine Prämisse negiert, wird eine negative Antwort gewählt, ansonsten eine positive. Partikuläre (einige) und negierte (keine) erzeugen also dementsprechend eine „Atmosphäre“, die eine entsprechende Konklusion erfordert. Die Kombination beider Teile ergibt für jeden Syllogismus dann eine spezifische Lösung. Das Beispiel des Syllogismus AA2 zeigt aber, dass die Atmosphärenheuristik nicht alle Fehler im Schlussfolgern erklären kann. Die Prämissen des Syllogismus AA2 (alle X sind Y und alle Z sind Y) sind beide positiv und universell. Folglich wäre die Schlussfolgerung nach der Atmosphärenheuristik ebenfalls positiv und universell (alle X sind Z). Das wird auch von 58% der Personen so gelöst, ist aber nicht korrekt. Korrekt wäre die Antwort „kein Schluss möglich“, was aber nur von 28% der Personen so erkannt wird. Die Atmosphärenheuristik sagt nur quantifizierte Antworten vorher, aber keine unbestimmte Antwort wie „kein Schluss möglich“, welche in der Atmosphärenheuristik nicht vorgesehen ist. Das kann zu Fehlern (Biases) in Schlussfolgerungen führen.
Die sprachliche Lösungsstrategie nutzt die Monotonie-Eigenschaften von Mengen. Was zum Beispiel für alle Katzen gilt, gilt auch für einige Katzen. Was für alle Katzen nicht gilt, gilt auch für einzelne Katzen nicht. Die Monotonie-Eigenschaften von Quantoren, die Existenzannahme, die Regeln zur Umwandlung von „keine“ in „alle“ und zur Konversion von „einige“ und „keine“ genügen grundsätzlich um alle Schlüsse logisch valide abzuleiten. Allerdings kommen auch hier Fehlschlüsse vor. Der größte Teil der Fehlschlüsse resultiert daraus, dass gültige Umformungen nicht vorgenommen werden oder unzulässige Konversionen des All-Quantors durchgeführt werden. So wird beispielsweise ein Syllogismus des Typs AA3, mit valider Konklusion des Typs I, oft in einen Syllogismus des Typs AA1, mit valider Konklusion des Typs A, umgewandelt. Eine mögliche Ursache hierfür scheint die Bevorzugung von universellen Antworten gegenüber partikulären Antworten zu sein. Mit einer partikulären Antwort geht nämlich auch ein gewisser Informationsverlust einher. Eine partikuläre Antwort wird eben nur gewählt, wenn eine universelle Antwort definitiv ausgeschlossen werden kann.
Bei der graphischen Lösungsstrategie zeichnen Personen oft Diagramme auf, die den Eulerschen Kreisen entsprechen. Dafür wird ein Diagramm mit den zwei Mengen der ersten Prämisse aufgezeichnet, wo dann wiederum die dritte Variable der zweiten Prämisse so eingefügt wird, dass eine Folgerung ablesbar ist. Fehler entstehen dabei oftmals dadurch, dass nicht alle logisch möglichen Kombinationen aufgezeichnet werden, das geschieht vor allem bei Negationen.
Mentale Modelle bauen wiederum auf der sprachlichen Lösungsstrategie auf, wobei das mentale Model eine Repräsentation einer konkreten Situation darstellt. Das Schließen mit mentalen Modellen erfolgt in drei Schritten. Der erste Schritt besteht in der Modellbildung. Da Syllogismen immer aus zwei Prämissen bestehen, müssen beide bei der Interpretation zu einem Gesamtmodell integriert werden. Nach der Modellbildung erfolgt die Generierung einer ersten vorläufigen Antwort, die dann im dritten Schritt validiert, also auf ihre Gesamtgültigkeit überprüft werden muss. Dabei werden Gegenbeispiele gesucht. Werden keine Gegenbeispiele gefunden ist die vorläufige Antwort logisch zwingend. Werden diese drei Schritte korrekt durchgeführt, ist es möglich, alle logisch validen Schlüsse mithilfe dieser mentalen Modelle korrekt abzuleiten. Fehler entstehen dadurch, dass eben nicht alle möglichen Modelle gebildet werden, sondern die Person mit der ersten schlüssigen Interpretation der Prämissen zufrieden ist.


Induktives Denken - Deduktives Denken

Induktives und Deduktives Denken gehören beide zum Bereich des logischen Denkens. Sowohl durch induktives wie auch durch deduktives Denken erschließt man eine Schlussfolgerung aus einer oder mehreren Voraussetzungen, allerdings geschieht das bei beiden Denkweisen jeweils auf unterschiedliche Art und Weise.
Induktives Denken (Induktion lat. für Herbeiführung oder Veranlassung) kann man auch als verallgemeinerndes Denken bezeichnen. Es erfolgt eine Schlussfolgerung auf eine Verallgemeinerung durch einen oder mehrere Einzelfälle bzw. Beispiele.
Ein Beispiel für eine induktive Schlussfolgerung ist:
Prämisse 1 Julian spielt gern mit Lego (Beispiel 1)
Prämisse 2 Luisa spielt gern mit Lego (Beispiel 2)
Konklusion Alle Kinder spielen gern mit Lego (Verallgemeinerung)
Anhand von zwei Beispielen für Kinder, die gern mit Lego spielen, schließt man hier darauf, dass alle Kinder gern mit Lego spielen und verallgemeinert anhand dessen die Aussage.
Dementsprechend sind induktive Schlüsse nicht immer vollkommen sicher, da anhand von wenigen Beispielen (oder im Extremfall von nur einem einzigen Beispiel) auf eine verallgemeinernde Schlussfolgerung geschlossen wird. Die vorgegeben Beispiele können aber auch sehr spezifische und somit untypische Vertreter sein, die damit eigentlich keine Verallgemeinerung zulassen.

Deduktives Denken (Deduktion lat. für Ableitung oder Herleitung) wird oft auch als logisches Schließen oder logisches Denken bezeichnet. Anders als beim induktiven Denken wird bei der deduktiven Denkweise von einer Verallgemeinerung auf einen spezifischen Fall geschlossen.
Dadurch werden anders als bei der induktiven Denkweise allerdings keine neuen Informationen gewonnen, da in den Schlussfolgerungen nie mehr Informationen enthalten sind, als in den Voraussetzungen.
Ein Beispiel für eine deduktive Schlussfolgerung ist:
Prämisse 1 Alle Kinder spielen gern mit Lego.
Prämisse 2 Julian und Luisa sind Kinder.
Konklusion Julian und Luisa spielen gern mit Lego.
Die Konklusion enthält in diesem Fall eine Kombination aus beiden (vorgegebenen) Prämissen und somit keine neuen Informationen. Allerdings gelten die aus deduktivem Denken resultierenden Schlussfolgerungen als sicher.

søndag 7. juni 2015

positive Beeinflussung von Lernvorgängen

Lernvorgänge können auf vielfältige Art und Weise positiv und bewusst beeinflusst werden.
Zuallererst sollte man darauf achten ein angenehmes möglichst ablenkungsfreies Lernumfeld zu schaffen. Dazu gehört unter Anderem, den Arbeitsplatz zu optimieren. Man sollte auch die eigene Lernbereitschaft fördern durch gesunden und genügend Schlaf, eine gesunde, ausgewogene Ernährung, ausreichende Flüssigkeitszufuhr und ausreichend Bewegung. Bei mangelnder oder abnehmender Lernmotivation kann man sich auch immer wieder das Ziel des Lernens visualisieren indem man sich vorstellt, wie man sich fühlt nach Erreichen des Ziels. Ebenso kann man Lernfortschritte visualisieren, indem man zum Beispiel eine Liste, auf der man bereits Erledigtes abkreuzen kann, gut sichtbar, zum Beispiel im Wohnzimmer oder im Arbeitsbereich, aufhängt. Die so sichtbar gemachten Fortschritte sollten unbedingt genossen und belohnt werden. Das führt zu einer positiven Einstellung dem Lernen gegenüber und schafft eine gute Grundstimmung. Lernen erzeugt somit positive Gefühle und positive Gefühle beeinflussen den Lernprozess wiederum positiv. Weiterhin sollte man auf ausreichende, regelmäßige Lernpausen achten, indem man die Lernzeit limitiert und aufteilt, in kleinere Abschnitte, die zum Beispiel eine Stunde umfassen. Das lässt die gesamte Lernzeit eines Tages nicht überwältigend erscheinen. Weiterhin kann man gut für greifbare Resultate sorgen, indem man zum Beispiel auf dem PC geschriebenes am Ende des Tages oder am Ende einer Woche ausdruckt und abheftet. Das sorgt für sichtbare Erfolgserlebnisse. Des weiteren sollte man sich auch belohnen nach Erreichen eines Lernziels, nach Beendigung eines Lernabschnittes oder Erfüllen eines Tages- oder Wochenpensums. Zu diesen Belohnungen kann zum Beispiel ein Spaziergang an der frischen Luft gehören oder auch ein Besuch im Kino.

optimales Lernen

Um sich optimal auf eine Prüfungssituation wie zum Beispiel eine Klausur vorzubereiten, nutzt es wenig bis gar nichts kurz vorher nächtelang und bis zur Erschöpfung zu lernen. Am wichtigsten zur optimalen Vorbereitung ist wohl das rechtzeitige Anfangen. Dabei sollte man die Lernumgebung optimal gestalten und einen Lernplan erstellen.
Zur Lernumgebung gehört vor allem der Arbeitsplatz. Der Arbeitsplatz sollte möglichst frei von Störungen und Ablenkungen sein. Weiterhin sollte geprüft werden ob Tisch und Stuhl die optimale Höhe haben, um Fehlhaltungen zu vermeiden, und daraus resultierende Rücken- und Kopfschmerzen, die das Lernen wieder erschweren und hemmen können. Es sollte ebenfalls auf gutes Licht, eine optimale Raumtemperatur und eine gute Belüftung des Raumes geachtet werden. Außerdem ist es wichtig den Arbeitstisch frei von Ablenkungen, aber auch angenehm zu gestalten und darauf zu achten schon bei Verlassen des Arbeitsplatzes alles griffbereit zu legen für die nächste Lerneinheit. Damit wird die Hemmschwelle, die zum Lernen überwunden werden muss gesenkt und man vermeidet ein Aufschieben. Ebenso sollten Lernmaterialien wie Laptop, Bücher, Fernlehrbriefe und auch Verbrauchsmaterialien wie Papier, Stifte, Marker griffbereit und vorrätig vorhanden sein. Ein regelmäßiges Überprüfen der benötigten Geräte auf ihre Funktionalität ist ebenfalls von Nutzen um sie bei Bedarf einsatzbereit zu haben. Während des Lernens sollten Getränke und kleinere Snacks in Griffweite sein, um unnötige, außerplanmäßige Pausen zu vermeiden. Wobei aber regelmäßige Pausen genauso wichtig sind, wie das regelmäßige Lernen und dementsprechend eingeplant werden sollten.
Zur Vorbereitung auf eine Klausur ist es außerdem sehr von Vorteil sich einen Lernplan zu erstellen. Dabei sollte zuerst einmal der gesamte Lernstoff gesichtet werden um einen Überblick über den Umfang zu bekommen. Nachdem der Umfang definiert ist, sollte man überlegen wie viel Zeit man zur Verfügung hat und danach das zu lernende in einzelne Portionen aufteilen. Jede Portion oder Lerneinheit enthält drei Abschnitte: Gelerntes wiederholen, neues Wissen aufnehmen und neues Wissen durcharbeiten. Ein Lernplan sollte des weiteren schriftlich fixiert sein, gerne auch mit Kästchen versehen, die man nach Bewältigung des Abschnittes abhaken kann. Das visualisiert Fortschritte und schafft somit Erfolgserlebnisse. Nach dem Aufteilen des Stoffes in einzelne Portionen, muss ein Wochenpensum und ein Tagespensum festgelegt werden. An Tages- und Wochenpensum sollte sich dringend gehalten werden um nicht mit dem gesamten Lernstoff ins Hintertreffen zu geraten und das Pensum dadurch zeitlich nicht zu bewältigen. Dafür ist eine gute Selbstkontrolle und Selbstdisziplin erforderlich, außerdem sollte bei der Erstellung des Lernplanes ein „Puffer“ für unvorhergesehene Ereignisse eingeplant werden. In den letzten 24h vor der Klausur sollten keine neuen Inhalte mehr gelernt werden, sondern das Gelernte noch einmal wiederholt werden um es zu festigen, gerne auch direkt vor dem schlafen gehen, da anschließendes Schlafen die Überführung des Gelernten aus dem Arbeitsgedächtnis ins Langzeitgedächtnis postiv beeinflusst.
Wichtige Schritte des Lernprozesses sind das Sichten und Überfliegen des gesamten zu lernenden Stoffes, das Lesen und Rekapitulieren des Gelernten und ein Rückblick. Das Sichten und Überfliegen des Stoffes schafft eine Erwartungshaltung, die das zu lernende in ein Wissensnetz einbettet und es somit leichter zu merken wird. Das Lesen vertieft und schafft neues Wissen. Zum Schluss sollte rekapituliert werden, was man eben gelesen hat, um zu überprüfen ob man das Gelesene verstanden hat und bei Bedarf sollte noch einmal wiederholt werden. Im Rückblick versucht man das Gelernte wiederzugeben indem man sich entweder selbst abfragt, sich von jemand anders abfragen lässt oder Reflexionsaufgaben beantwortet (Selbstkontrolle). Der Rückblick dient somit als Endkontrolle und kann eventuelle Wissens- oder Verständnislücken aufzeigen.

die am Lernprozess beteiligten Hirnareale

Die am Lernprozess hauptsächlich beteiligten Areale des Gehirns sind die Formatio Reticularis, Hypothalamus und Hypophyse, das limbische System mit dem Hippocampus und der Neocortex (Großhirnrinde).

Die Formatio reticularis ist ein , wie der Name schon andeutet (lat. reticularis - netzartig, formatio-Gebilde), das Stammhirn durchziehendes netzartiges Gebilde. Die zu den höheren Regionen aufsteigenden Neuronen der Formatio reticularis haben eine sensorische Funktion, während die zum Rückenmark absteigenden Neuronen motorische Funktionen ausüben. Es werden Zuströme von Sinneseindrücken empfangen, die zu einer unspezifischen Erregung der Nerven führt. Die Formatio reticularis ist eng mit dem Thalamus, dem limbischen System und dem Cortex verbunden. Dieses Nervennetz koordiniert die Zusammenarbeit des gesamten Systems und ist hauptsächlich zuständig für die Vigilanz, d.h. für den allgemeinen Wachzustand (Schlaf-Wach-Rhytmus) und die Aufmerksamkeitssteuerung (selektive Wahrnehmung der Umwelt). Außerdem spielt die Formatio reticularis eine wichtige Rolle bei der Steuerung der Atmung, des Herz-Kreislauf-Systems und des Temperatur-Haushalts des Körpers.

Der Hypothalamus ist Teil des Zwischenhirns und verbindet das Nervensystem mit dem endokrinen System, steuert also die Synthese (Bildung) und Sekretion (Ausscheidung) von Neurotransmittern. Im Hypothalamus werden die eintreffenden Informationen aus den Sinnesorganen miteinander verknüpft und eine erste Bewertung vorgenommen. Diese Vorentscheidungen werden getroffen ohne Bewusstseinsprozesse zu beteiligen und eine eventuelle (reflexartige) Reaktion veranlasst, wie z.B. Flucht- und Panikreaktionen und andere Verhaltensprogramme, die dem Bewusstsein nicht zugänglich sind. Aufgrund dieser Eigenschaft wird der Hypothalamus auch oft als „Autopilot des Körpers“ bezeichnet.
Der Hypothalamus steht in enger Verbindung zur Hypophyse, einer Hormondrüse, die eine übergeordnete Rolle bei der Regulierung des Hormonsystems inne hat. Die Hypophyse spielt vor allem bei Alarm- und Stressreaktionen eine zentrale Rolle. In einer stressigen Situation aktiviert der Hypothalamus das sympathische Nervensystem, wodurch eine Stressreaktion eingeleitet wird, bei der Hormone ausgeschüttet werden, die wiederum in der Hypophyse die Freisetzung entsprechender Hormone, sogenannter Tropine, veranlassen. Diese Tropine wirken auf die Zielorgane ein und hemmen gleichzeitig die Hypophyse und den Hypothalamus, so dass zwar eine entsprechende, unter Umständen lebenswichtige, Reaktion erfolgen kann, bei fehlendem Stressreiz aber die Stressreaktion auch wieder gestoppt werden kann. Stress führt zu einem erhöhten kardiovaskulären Tonus (beschleunigter Herzschlag und Atmung) und erhöhter kognitiver Leistungsfähigkeit (erhöhte Wahrnehmung), wohingegen Verdauung, Wachstum, Reproduktion und das Immunsystem gehemmt werden. Kurzzeitig wirkt sich Stress also leistungssteigernd aus, da er Denk- und Lernprozesse kurzzeitig verbessert. Langfristig überwiegen allerdings die negativen Auswirkungen. So kann ein langzeitiges hohes Stressniveau zu Schäden und Fehlfunktionen im Körper führen, bis hin zum Nerventod im Gehirn und dadurch auch ein verschlechtertes Lernvermögen.

Im limbischen System werden eintreffende Informationen gefühlsmäßig bewertet. Dazu werden die eintreffenden Informationen mit früheren Erfahrungen verglichen und unterteilt in wichtig und unwichtig, angenehm und unangenehm, bekannt und unbekannt, und anhand dessen eine Bewertung vorgenommen, bevor das Bewusstsein Einfluss nehmen kann. Anhand dieser Bewertung werden dann die entsprechenden Hormone ausgeschüttet, unter anderem Endorphine und körpereigene Opioide, die zum Belohnungssystem des Körpers gehören, das uns bei angenehm beurteilten Informationen (z.B. Erfolgserlebnissen) als positive Emotionen bewusst wird. Das limbische System vermittelt also zwischen den äußeren Reizen und dem Innenleben und ermöglicht ein breites Spektrum an Emotionen wie Wut, Trauer, Angst, Unlust, Glück und Lust. Die positiven Emotionen können das Lernen fördern, negative Emotionen können das Lernen aber auch hemmen.

Der Hippocampus ist Teil des limbischen Systems und gilt als zentrale Schaltstation des Limbischen Systems. Er zählt zum evolutionär ältesten Teil des Gehirns. Der Hippocampus spielt eine entscheidende Rolle bei der langzeitigen Abspeicherung von Informationen und ist somit beim Erlernen von Neuem unabdingbar. Schäden am Hippocampus führen dazu dass neue Ereignisse aus dem Kurzzeitgedächtnis nicht mehr ins Langzeitgedächtnis überführt und dort als Erinnerungen abgespeichert werden können, es werden also keine neuen Erinnerungen mehr generiert, wobei allerdings bereits Erlerntes erhalten bleibt. Außerdem ist der Hippocampus auch für die Koordination der verschiedenen Gedächtnisinhalte verantwortlich, wobei er neue Ereignisse schnell lernt und unvollständige Informationen anhand bereits gespeicherter Informationen ergänzt. Er ist also in der Lage neue Informationen in ein bereits vorhandenes „Wissensnetz“ einzubetten. Gelingt dies werden Dopamin und Acetylcholin ausgeschüttet was ein Glücksgefühl auslöst. Der Hippocampus selbst wird ebenfalls stark durch Emotionen beeinflusst. Es konnte zum Beispiel festgestellt werden, dass Depressionen, also langfristig negative Emotionen, eine sichtbare strukturelle Veränderung am Hippocampus hervorrufen können. Grundsätzlich lässt sich sagen, dass positive Emotionen das Lernen fördern und Lernen positive Emotionen fördert.

Der Neocortex macht den Großteil (ca 90%) der Oberfläche des Gehirns aus. Die Oberfläche des Gehirns ist stark gefaltet, wodurch eine Vergrößerung der Gesamtoberfläche erreicht wird. Der Neocortex wird umgangssprachlich auch oft gern als „die grauen Zellen“ bezeichnet und macht die graue Schicht aus, die die weiße Substanz umgibt. Die graue Substanz besteht aus einzelnen Neuronen, die miteinander durch Synapsen verbunden sind. Über diese Synapsen verläuft die Kommunikation der Neuronen untereinander. Die Zellen des Neocortex sind stärker untereinander (intern) verbunden als nach außen hin. Das Gehirnwachstum von Geburt bis Pubertät besteht vor allem in der Veränderung der Dicke der Fasern bzw. der Verbindungen, wobei die Anzahl der Zellen weitgehend gleich bleibt. Dickere Fasern bedeuten bessere Verbindungen der Zellen untereinander und somit eine schnellere Reiz- und Informationsübertragung und somit eine daraus resultierende bessere Einbeziehung der einzelnen Gehirnareale. Die Synapsen werden bis ins hohe Alter durch neue Reize, Erfahrungen, Erlebnisse, Gedanken und Tätigkeiten gestärkt oder geschwächt, was lebenslanges Lernen ermöglicht. Der Neocortex unterteilt sich durch eine tiefe Furche in zwei Hälften, sogenannte Hemisphären, die wiederum durch ein dickes Nervenbündel, den Balken miteinander verbunden sind. Die Hemisphären steuern die jeweils entgegengesetzte Körperhälfte. Die linke Hemisphäre steuert also die rechte Körperhälfte, wohingegen die rechte Hemisphäre die linke Körperhälfte steuert. Zusätzlich lassen sich verschiedene Hirnfunktionen hauptsächlich in jeweils einer Hemisphäre lokalisieren. Die rechte Hemisphäre ist überwiegend zuständig für ganzheitliches Denken, analog assoziierendes und intuitives Denken, bildhafte Wahrnehmung, musikalisches Empfinden, Bewegung, intuitives Erfassen von Stimmungen und Gefühlen und das Verstehen einfacher Wörter. Die linke Hemisphäre übernimmt dagegen überwiegend das logisch analytische Denken, abstraktes wissenschaftliches Denken und genauere Analysen von Komplexen Inhalten, Sprechen, Schreiben, Sprachverständnis, komplexe Willküroperationen, verbale Reaktionen und das sprachgebundene Bewusstsein.
Ein effektives Arbeiten des Gehirns, wie das Lernen neuer komplexer Sachverhalte, lässt sich dementsprechend nur erreichen wenn beide Hemisphären effektiv zusammen arbeiten.

lørdag 6. juni 2015

Beurteilung der Organisationskonzeptionen nach Effektivitätsgesichtspunkten

funktionale Organisation
Stabile und routinierte Abläufe zeichnen diese Organisationskonzeption aus. Das trägt zu einem Abbau an Konfusion und Unsicherheit bei, was wiederum die Stabilität innerhalb des Unternehmens positiv beeinflusst. Es liegt eine Spezialisierung in den einzelnen Verrichtungen vor, welche Vorteile durch Lern- und Übungseffekte mit sich bringt. Die effektive Nutzung von Ressourcen und die Nutzung von Synergieeffekten sowie die Berücksichtigung von Interpendenzen tragen weiterhin zu einer positiven Beeinflussung der Motivation und der Stabilität innerhalb des Unternehmens bei. Die relativ hohe Zahl an Schnittstellen kann allerdings auch zu Abstimmungs- und Koordinationsproblemen führen. Es besteht ein hoher qualitativer und quantitative Anspruch an die funktionsübergreifende Koordination, was wiederum eine zeitraubende Kommunikation zur Folge haben kann und die Flexibilität des Unternehmens insgesamt einschränken kann. Besonders ein hoher Grad an Arbeitsteilung kann sich negativ auswirken, da dadurch eine geringe Ergebniszurechenbarkeit und eine Tendenz zur Suboptimierung sowie Zuordnungsprobleme bei unerwarteten Problemen auftreten können. Ein besonders hoher Grad der Spezialisierung kann sich ebenfalls in einer geringeren Motivation der Mitarbeiter niederschlagen.

Divisionale Organisation
Im Rahmen der divisionalen Organisation werden die wesentlichen Entscheidungen in den betreffenden Sparten getroffen. Das hat eine Entlastung der Leitungsspitze und eine Entlastung der Kommunikation zur Folge. Außerdem kommen so nur wenige Interpendenzen innerhalb der Subsysteme. Klar getrennte Verantwortungsbereiche und eine transparente Struktur innerhalb des Unternehmens herrschen vor. Dadurch dass die Entscheidungen in den betreffenden Sparten getroffen werden, sind diese Entscheidungen angepasst an die jeweiligen Problemstellungen und die einzelnen Subsysteme können sich spezifisch an die jeweiligen sie betreffenden Umweltbedingungen anpassen. Das bewirkt eine schnelle und flexible Anpassung des gesamten Systems Unternehmen an (Markt) Veränderungen. Die Mitarbeiter haben einen direkten Bezug zum eigenen Leistungsbeitrag und können sich besser entfalten da eine gewisse personelle Autonomie in den Subsystemen vorherrscht. Dadurch besteht allerdings auch die Gefahr, dass der einzelne Mitarbeiter den Blick für das Ganze aus den Augen verliert, sich also auch weniger mit dem Gesamtsystem und den Gesamtziele identifiziert. Es besteht weiterhin ein erhöhter Bedarf an qualifizierten Leitungskräften und die Gesamtkoordination ist aufwändiger, was wiederum zu einer Suboptimierung der Subsysteme führen kann.

Matrixorganisation
Die Matrixorganisation weist grundsätzlich ein hohes Maß an Slack auf, da die funktional gegliederten Aufgabenbereiche Problemstellungen lösen müssen, die unter Umständen sehr stark voneinander abweichen können. Synergieeffekte sind nur sehr begrenzt möglich aufgrund der strukturellen Konzeption der Matrixorganisation. Es herrscht weiterhin ein hohes Maß an Konfliktpotential. Persönliche Konflikte können auftreten aufgrund von strukturbedingten Kompetenzüberschneidungen. Weiterhin können Konflikte aufgrund des Zugriffs auf Ressourcen innerhalb der funktionalen Linie und Konflikte hinsichtlich unterschiedlicher Interessen auftreten. Dieses hohe Konfliktpotential macht eine permanente Teamarbeit notwendig. Die Anforderungen an die Führungskräfte in den Schnittstellenpositionen sind besonders hoch. Gelingt es den Führungskräften diesen Ansprüchen gerecht zu werden, sind Kommunikation und Teamorientierung besonders stark ausgeprägt, was in einer höheren Entscheidungsqualität resultieren kann.Aufgrund des hohen Maßes an Slack kann eine umfassende Ressourcennutzung gefährdet sein, bis hin zu einer regelrechten Verschwendung von Ressourcen. Dies kann auch durch doppelte Berichtswege, eine Vielzahl von Schnittstellen und zusätzliche Matrixstellen hervorgerufen werden.

Lean Organisation
Im Rahmen der Lean Organisation werden Mitarbeiter verstärkt quantitativ und qualitativ in die Aufgabenstellungen des Unternehmens involviert. Dadurch steigt die Problemlösekapazität des Unternehmens an, die Mitarbeiter haben ein größeres Verantwortlichkeitsgefühl und die Eigenständigkeit des einzelnen Mitarbeiters nimmt zu. Die Identifikation des einzelnen Mitarbeiters mit dem Unternehmen größer was wiederum eine erhöhte Motivation und Zufriedenheit mit sich bringt. Da Entscheidungen im direkten Zusammenhang vor Ort getroffen werden reduzieren sich die Informationsliegezeiten beträchtlich.
Die Lean Organisation zeichnet sich unter anderem durch eine Reduzierung der Arbeitsteilung aus. Dadurch leiden Mitarbeiter weniger unter monotoner Arbeit. Sie müssen weiterhin nicht mehr auf die Behebung von Störungen warten, sondern können diese selbständig beheben. Der Ausfall eines Teammitglieds bedeutet auch nicht eine Störung im Arbeitsablauf, da die Tätigkeit von einem anderen Mitglied des Teams übernommen werden kann. Die Gefahr von Engpässen wird somit abgebaut, was sich wiederum positiv auf Stabilität und Flexibilität auswirkt. Die Trennung von Entscheidung und Ausführung wird weitestgehend aufgehoben. Durch diesen Abbau der Hierarchie wird die Qualität der Entscheidungen gefördert, da Probleme rechtzeitig erkannt und sofort vor Ort behoben werden können. Da viele Entscheidungen von den Mitarbeitern selbst getroffen werden, sind diese Entscheidungen auch leichter durchzusetzen, da sich die Mitarbeiter mit den Entscheidungen leichter indentifizieren können. Mit der Verflachung geht allerdings auch einher, dass ein einzelner Vorgesetzter mehr Mitarbeiter führen und koordinieren muss, wenn ihm das nicht gelingt, kann die Lean Organisation leicht in Anarchie ausarten und die Erreichung der organisatorischen und unternehmerischen Ziele gefährdet sein. Weiterhin kann es zu einer Überforderung der Mitarbeiter kommen, was wiederum negativ auf die Motivation, Qualität der Entscheidungen, die Zufriedenheit der Mitarbeiter und die Harmonie im Unternehmen auswirken kann. Die Mitarbeiter müssen also nicht nur willig sondern auch der Lage sein mehr Verantwortung, Initiative und Selbständigkeit zu übernehmen. Der steigende Qualifikationsbedarf kann durch Weiterbildungen gedeckt werden.
Die Vermeidung von Slack unterbindet auch Freiräume und einen gewissen internen Wettbewerb. Besonders der ein Verlust an wichtigem Personalslack durch den Abbau besonders von älterem Personal führt zu weniger Erfahrung, Routine und Kenntnissen hinsichtlich der Konkurrenten, betrieblicher Abläufe, Verhaltensweisen und unüberschaubaren Situationen, was einen geringeren Puffer bei Störungen zur Folge haben kann.

Geschäftsprozessorganisation
Die Geschäftsprozessorganisation zeichnet sich durch eine intensive Zusammenfassung von zusammenhängenden Arbeitsschritten entlang der Prozesskette aus. Das hat zur Folge, dass Aufgaben ganzheitlich bearbeitet werden, also eine Zusammenführung von Arbeit und Verantwortung stattfindet. Es geschieht eine Fokussierung auf die einzelnen Prozesse indem die Schnittstellen zwischen den einzelnen Bereichen abgebaut werden. Somit nimmt die Abhängigkeit von anderen Unternehmensbereichen ab. Die Schnittstellen werden minimiert, da durch eine Vielzahl an Schnittstellen die fachliche Zusammenarbeit erschwert, der Informationsfluss im Unternehmen behindert und Entscheidungsprozesse gehemmt werden. Ein Nachteil dieser Vorgehensweise ist, dass Spezialistenwissen nicht konzentriert zur Verfügung steht. Das wird allerdings durch einen sehr viel geringeren Koordinationsaufwand wieder wett gemacht. Informationsübertragungs- und Wartezeiten und damit die gesamte Durchlaufzeit von Bearbeitungsvorgängen werden erheblich reduziert. Es herrscht aber auch ein erhebliches Konfliktpotential, wenn unteilbare Ressourcen von unterschiedlichen Prozessen zugleich genutzt werden, was zu zeitverzögernden Konflikten führen kann. Die konsequente Verantwortungsdezentralisation führt zu einer hohen Orientierung nach außen (Kunden) und innen (interne Abnehmer) . Das macht wiederum ein flexibles Handeln im Unternehmen möglich.

Instrumente der Organisation und die jeweiligen Vor- und Nachteile unter Effizienzgesichtspunkten

Instrumente der Organisation sind:
  • Arbeitsteilung
    • die Gesamtaufgabe des Unternehmens wird aufgeteilt und nach den Kriterien Verrichtung und Objekt gegliedert
    • bei der Gliederung nach dem Kriterium Verrichtung werden Teilaufgaben, die die gleichen Handlungsabläufe erfordern, zusammengefasst
    • bei der Gliederung nach dem Kriterium Objekt versteht man eine Bündelung der Teilaufgaben entsprechend einem Arbeitsgegenstand
    • weiterhin können Aufgaben innerhalb des Unternehmens horizontal (Arbeitsgänge werden aufgesplittet und auf unterschiedliche Funktionsbereiche verteilt) und vertikal (Trennung von geistiger und körperlicher Arbeit auf unterschiedliche Personen)
    • Vorteile:
      • Übungseffekte und damit einhergehende Verbesserung der Produktivität
      • Einsatz von Mitarbeitern, deren niedrigere Qualifikation und Berufsausbildung zu geringeren Lohnkosten führt
      • Verringerung der Durchlaufzeiten
      • Gefahr des „Facelifting“ wird eingeschränkt durch klar abgegrenzte Verantwortungsbereiche
    • Nachteile:
      • Mitarbeiter können die Übersicht über das gesamte Unternehmen verlieren
      • es kann an qualifizierter Entscheidungskompetenz vor Ort mangeln (besonders bei horizontaler Arbeitsteilung)
      • erhöhte Fluktuation an Mitarbeitern wegen monotoner Tätigkeit
  • Koordination
    • die Notwendigkeit zur Koordination ergibt sich aus der Arbeitsteilung
    • ist ein zielbezogenes aufeinander abstimmen und somit die Herbeiführung von Zusammenarbeit innerhalb des Unternehmens
    • Vorteile:
      • Verbesserte Kooperation und Kommunikation
      • verbesserter Informationsaustausch innerhalb des Unternehmens
    • Nachteile
      • eventuell übermäßige Bürokratisierung und daraus resultierend eine Einschränkung der Flexibilität des Unternehmens und Demotivation der Mitarbeiter
  • Konfiguration
    • Festlegung des Stellengefüges
    • ist bestimmt durch Leitungstiefe und Leitungsbreite
    • Grundformen der Konfiguration sind Einliniensystem (der Mitarbeiter nimmt nur von einem Vorgesetzten Weisungen entgegen) und Mehrliniensystem (Mehrfachunterstellung, Spezialisierung eines Vorgesetzten auf bestimmt Funktionen)
    • Vorteile:
      • besonders beim Einliniensystem eindeutige Dienstwege, klare Verhältnisse, Höchstmaß an Transparenz
      • klare Kompetenzabgrenzungen, Kommunikationswege, vereinfachte Kontrollmöglichkeiten
      • besonders beim Mehrliniensystem eine verstärkte Spezialisierung und somit mögliche Zeit- und Kostenersparnismöglichkeiten, kurze Kommunikationswege, schnellere Entscheidungsfindung
    • Nachteile:
      • das Einliniensystem ist relativ schwerfällig durch eine eventuelle Überlastung der Führungsspitze, ein unterdimensioniertes Kommunikationssystem, lange Kommunikationswege und damit einhergehende Zeitverluste
      • das Mehrliniensystem kann eine Verunsicherung der Mitarbeiter mit sich bringen durch eine Vielfachunterstellung ebenso wie einen hohen Koordinationsaufwand bei den Vorgesetzten
      • außerdem können Kompetenzkonflikte auftreten
      • bei großen Unternehmen kann die Koordination bei einem realisierten Mehrliniensystem aufgrund hoher Komplexität kaum zu bewältigen sein
  • Entscheidungsdelegation
    • umfasst den Umfang der Entscheidungsbefugnisse
    • Zentralisation → Entscheidungskompetenz liegt bei nur einer Person
    • Dezentralisation → Verantwortlichkeit ist gleichmäßig auf alle verteilt
    • Vorteile:
      • Entlastung der übergeordneten Stellen → Verbesserung der Flexibilität des Unternehmens
      • Entscheidungen werden dort getroffen wo sie unmittelbare Auswirkungen haben → kann die Qualität der Entscheidungen positiv beeinflussen
      • größere Handlungsfreiheit der einzelnen Mitarbeiter → positive Beeinflussung der Mitarbeitermotivation, was wiederum zu einer besseren Produktivität führen kann
    • Nachteile:
      • ein eventuell erhöhter Kontrollaufwand beeinträchtigt die Wirtschaftlichkeit des Unternehmens und erhöht ggf. ein vorhandenes Konfliktpotential
      • Stress durch Verantwortung und Misserfolg durch Überforderung von Mitarbeitern können zu Einschränkungen der Risikobereitschaft führen.