Information

1.1.2: Der Wissenschaftsprozess - Biologie

1.1.2: Der Wissenschaftsprozess - Biologie


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Wie Geologie, Physik und Chemie ist die Biologie eine Wissenschaft, die Wissen über die Natur sammelt. Biologie ist insbesondere das Studium des Lebens. Die Entdeckungen der Biologie werden von einer Gemeinschaft von Forschern gemacht, die einzeln und gemeinsam nach abgestimmten Methoden arbeiten. In diesem Sinne ist die Biologie wie alle Wissenschaften ein soziales Unternehmen wie die Politik oder die Künste.

Zu den Methoden der Wissenschaft gehören sorgfältige Beobachtung, Aufzeichnungen, logisches und mathematisches Denken, Experimentieren und das Unterziehen von Schlussfolgerungen der Prüfung durch andere. Wissenschaft erfordert auch beträchtliche Vorstellungskraft und Kreativität; ein gut geplantes Experiment wird gemeinhin als elegant oder schön beschrieben. Wie die Politik hat auch die Wissenschaft erhebliche praktische Implikationen, und einige Wissenschaften widmen sich praktischen Anwendungen, wie der Prävention von Krankheiten (Abbildung (PageIndex{2})). Andere Wissenschaften gehen weitgehend von Neugierde motiviert vor. Was auch immer ihr Ziel ist, es besteht kein Zweifel, dass die Wissenschaft, einschließlich der Biologie, die menschliche Existenz verändert hat und dies auch weiterhin tun wird.

Das Wesen der Wissenschaft

Biologie ist eine Wissenschaft, aber was genau ist Wissenschaft? Was hat das Biologiestudium mit anderen wissenschaftlichen Disziplinen gemeinsam? Wissenschaft (aus dem Lateinischen) Wissenschaft, was "Wissen" bedeutet) kann als Wissen über die natürliche Welt definiert werden.

Wissenschaft ist eine sehr spezifische Art, über die Welt zu lernen oder zu wissen. Die Geschichte der letzten 500 Jahre zeigt, dass die Wissenschaft ein sehr mächtiges Mittel ist, um die Welt zu kennen; es ist weitgehend verantwortlich für die technologischen Revolutionen, die in dieser Zeit stattgefunden haben. Es gibt jedoch Bereiche des Wissens und der menschlichen Erfahrung, auf die die Methoden der Wissenschaft nicht angewendet werden können. Dazu gehören etwa die Beantwortung rein moralischer Fragen, ästhetischer Fragen oder allgemein als spirituelle Fragen einzuordnen. Die Wissenschaft kann diese Bereiche nicht untersuchen, weil sie außerhalb des Bereichs der materiellen Phänomene, der Phänomene von Materie und Energie, liegen und nicht beobachtet und gemessen werden können.

Die wissenschaftliche Methode ist eine Forschungsmethode mit definierten Schritten, die Experimente und sorgfältige Beobachtung umfasst. Die Schritte der wissenschaftlichen Methode werden später im Detail untersucht, aber einer der wichtigsten Aspekte dieser Methode ist das Testen von Hypothesen. Eine Hypothese ist eine vorgeschlagene Erklärung für ein Ereignis, die getestet werden kann. Hypothesen oder vorläufige Erklärungen werden im Allgemeinen im Kontext einer wissenschaftlichen Theorie erstellt. Eine wissenschaftliche Theorie ist eine allgemein anerkannte, gründlich getestete und bestätigte Erklärung für eine Reihe von Beobachtungen oder Phänomenen. Wissenschaftliche Theorie ist die Grundlage wissenschaftlichen Wissens. Darüber hinaus gibt es in vielen wissenschaftlichen Disziplinen (weniger in der Biologie) wissenschaftliche Gesetze, oft in mathematischen Formeln ausgedrückt, die beschreiben, wie sich Naturelemente unter bestimmten Bedingungen verhalten. Es gibt keine Evolution von Hypothesen über Theorien zu Gesetzen, als ob sie eine Zunahme der Gewissheit über die Welt darstellten. Hypothesen sind das alltägliche Material, mit dem Wissenschaftler arbeiten, und sie werden im Kontext von Theorien entwickelt. Gesetze sind prägnante Beschreibungen von Teilen der Welt, die einer formelhaften oder mathematischen Beschreibung zugänglich sind.

Naturwissenschaften

Was würden Sie von einem Museum für Naturwissenschaften erwarten? Frösche? Pflanzen? Dinosaurierskelette? Ausstellungen über die Funktionsweise des Gehirns? Ein Planetarium? Edelsteine ​​und Mineralien? Oder vielleicht alle oben genannten? Die Wissenschaft umfasst so unterschiedliche Bereiche wie Astronomie, Biologie, Informatik, Geologie, Logik, Physik, Chemie und Mathematik (Abbildung (PageIndex{3})). Als Naturwissenschaften gelten jedoch jene Wissenschaftsgebiete, die sich auf die physikalische Welt und ihre Phänomene und Prozesse beziehen. So kann ein Museum für Naturwissenschaften jeden der oben aufgeführten Gegenstände enthalten.

Es besteht keine völlige Übereinstimmung darüber, was die Naturwissenschaften umfassen. Für einige Experten sind die Naturwissenschaften Astronomie, Biologie, Chemie, Geowissenschaften und Physik. Andere Wissenschaftler entscheiden sich dafür, Naturwissenschaften in Lebenswissenschaften zu unterteilen, die Lebewesen untersuchen und Biologie einschließen, und Naturwissenschaften, die nicht lebende Materie untersuchen und Astronomie, Physik und Chemie umfassen. Einige Disziplinen wie Biophysik und Biochemie bauen auf zwei Wissenschaften auf und sind interdisziplinär.

Wissenschaftliche Untersuchung

Allen Wissenschaftsformen ist eines gemeinsam: ein Endziel „zu wissen“. Neugier und Forschen sind die treibenden Kräfte für die Entwicklung der Wissenschaft. Wissenschaftler versuchen, die Welt und ihre Funktionsweise zu verstehen. Zwei Methoden des logischen Denkens werden verwendet: induktives Denken und deduktives Denken.

Induktives Denken ist eine Form des logischen Denkens, die verwandte Beobachtungen verwendet, um zu einer allgemeinen Schlussfolgerung zu gelangen. Diese Art der Argumentation ist in der beschreibenden Wissenschaft üblich. Ein Biowissenschaftler wie ein Biologe macht Beobachtungen und zeichnet sie auf. Diese Daten können qualitativ (beschreibend) oder quantitativ (bestehend aus Zahlen) sein und die Rohdaten können durch Zeichnungen, Bilder, Fotos oder Videos ergänzt werden. Aus vielen Beobachtungen kann der Wissenschaftler auf der Grundlage von Beweisen Schlussfolgerungen (Induktionen) ableiten. Induktives Denken beinhaltet die Formulierung von Verallgemeinerungen, die aus sorgfältiger Beobachtung und der Analyse einer großen Datenmenge abgeleitet werden. Gehirnstudien funktionieren oft auf diese Weise. Viele Gehirne werden beobachtet, während Menschen eine Aufgabe erledigen. Der Teil des Gehirns, der aufleuchtet und Aktivität anzeigt, wird dann als der Teil gezeigt, der die Reaktion auf diese Aufgabe steuert.

Deduktives Denken oder Deduktion ist die Art von Logik, die in der hypothesenbasierten Wissenschaft verwendet wird. Beim deduktiven Denken bewegt sich das Denkmuster im Vergleich zum induktiven Denken in die entgegengesetzte Richtung. Deduktives Denken ist eine Form des logischen Denkens, die ein allgemeines Prinzip oder Gesetz verwendet, um spezifische Ergebnisse vorherzusagen. Aus diesen allgemeinen Prinzipien kann ein Wissenschaftler die spezifischen Ergebnisse extrapolieren und vorhersagen, die gültig wären, solange die allgemeinen Prinzipien gültig sind. Eine Vorhersage wäre zum Beispiel, dass sich die Verteilung von Pflanzen und Tieren ändern sollte, wenn das Klima in einer Region wärmer wird. Es wurden Vergleiche zwischen den Verteilungen in der Vergangenheit und der Gegenwart angestellt, und die vielen gefundenen Veränderungen stimmen mit einem sich erwärmenden Klima überein. Das Auffinden der Verteilungsänderung ist ein Beweis dafür, dass die Schlussfolgerung zum Klimawandel gültig ist.

Beide Arten des logischen Denkens beziehen sich auf die beiden Hauptpfade des wissenschaftlichen Studiums: deskriptive Wissenschaft und hypothesenbasierte Wissenschaft. Deskriptive (oder Entdeckungs-) Wissenschaft zielt darauf ab, zu beobachten, zu erforschen und zu entdecken, während hypothesenbasierte Wissenschaft mit einer bestimmten Frage oder einem bestimmten Problem und einer möglichen Antwort oder Lösung beginnt, die getestet werden kann. Die Grenze zwischen diesen beiden Studienformen ist oft verwischt, weil die meisten wissenschaftlichen Bestrebungen beide Ansätze kombinieren. Beobachtungen führen zu Fragen, Fragen führen zur Bildung einer Hypothese als mögliche Antwort auf diese Fragen, und dann wird die Hypothese getestet. Somit stehen deskriptive Wissenschaft und hypothesenbasierte Wissenschaft in ständigem Dialog.

Hypothesentest

Biologen untersuchen die lebende Welt, indem sie Fragen dazu stellen und wissenschaftlich fundierte Antworten suchen. Dieser Ansatz ist auch in anderen Wissenschaften üblich und wird oft als wissenschaftliche Methode bezeichnet. Die wissenschaftliche Methode wurde bereits in der Antike verwendet, wurde jedoch erstmals von dem Engländer Sir Francis Bacon (1561–1626) dokumentiert (Abbildung (PageIndex{4}) ), der induktive Methoden für wissenschaftliche Untersuchungen aufstellte. Die wissenschaftliche Methode wird nicht ausschließlich von Biologen verwendet, sondern kann als logische Problemlösungsmethode auf fast alles angewendet werden.

Der wissenschaftliche Prozess beginnt typischerweise mit einer Beobachtung (oft ein zu lösendes Problem), die zu einer Frage führt. Lassen Sie uns über ein einfaches Problem nachdenken, das mit einer Beobachtung beginnt, und die wissenschaftliche Methode anwenden, um das Problem zu lösen. Eines Montagmorgens kommt ein Schüler in die Klasse und stellt schnell fest, dass es im Klassenzimmer zu warm ist. Das ist eine Beobachtung, die auch ein Problem beschreibt: Der Klassenraum ist zu warm. Der Schüler stellt dann eine Frage: „Warum ist es im Klassenzimmer so warm?“

Denken Sie daran, dass eine Hypothese eine vorgeschlagene Erklärung ist, die getestet werden kann. Um ein Problem zu lösen, können mehrere Hypothesen aufgestellt werden. Eine Hypothese könnte beispielsweise lauten: „Das Klassenzimmer ist warm, weil niemand die Klimaanlage eingeschaltet hat.“ Es könnte jedoch andere Antworten auf die Frage geben, und daher können andere Hypothesen vorgeschlagen werden. Eine zweite Hypothese könnte lauten: „Das Klassenzimmer ist warm, weil der Strom ausfällt und die Klimaanlage nicht funktioniert.“

Sobald eine Hypothese ausgewählt wurde, kann eine Vorhersage gemacht werden. Eine Vorhersage ähnelt einer Hypothese, hat jedoch normalerweise das Format „Wenn . dann . .“ Die Vorhersage für die erste Hypothese könnte beispielsweise lauten: „Wenn der Student schaltet die Klimaanlage ein, dann im Klassenzimmer wird es nicht mehr zu warm.“

Eine Hypothese muss überprüfbar sein, um sicherzustellen, dass sie gültig ist. Zum Beispiel ist eine Hypothese, die davon abhängt, was ein Bär denkt, nicht überprüfbar, weil man nie wissen kann, was ein Bär denkt. Sie sollte auch falsifizierbar sein, dh durch experimentelle Ergebnisse widerlegbar sein. Ein Beispiel für eine nicht falsifizierbare Hypothese ist „Botticellis Geburt der Venus ist schön." Es gibt kein Experiment, das zeigen könnte, dass diese Aussage falsch ist. Um eine Hypothese zu testen, führt ein Forscher ein oder mehrere Experimente durch, die darauf ausgelegt sind, eine oder mehrere der Hypothesen zu eliminieren. Das ist wichtig. Eine Hypothese kann widerlegt oder eliminiert werden, aber sie kann nie bewiesen werden. Die Wissenschaft beschäftigt sich nicht mit Beweisen wie die Mathematik. Wenn ein Experiment eine Hypothese nicht widerlegt, finden wir Unterstützung für diese Erklärung, aber das heißt nicht, dass in der Zukunft keine bessere Erklärung oder ein sorgfältiger konzipiertes Experiment gefunden wird, um die Hypothese zu falsifizieren.

Jedes Experiment hat eine oder mehrere Variablen und eine oder mehrere Kontrollen. Eine Variable ist jeder Teil des Experiments, der während des Experiments variieren oder sich ändern kann. Eine Kontrolle ist ein Teil des Experiments, der sich nicht ändert. Suchen Sie im folgenden Beispiel nach den Variablen und Steuerelementen. Als einfaches Beispiel könnte ein Experiment durchgeführt werden, um die Hypothese zu testen, dass Phosphat das Algenwachstum in Süßwasserteichen einschränkt. Eine Reihe von künstlichen Teichen wird mit Wasser gefüllt, und die Hälfte von ihnen wird wöchentlich mit Phosphat behandelt, während die andere Hälfte mit einem Salz behandelt wird, von dem bekannt ist, dass es von Algen nicht verwendet wird. Die Variable ist hier das Phosphat (oder der Mangel an Phosphat), die Versuchs- oder Behandlungsfälle sind die Teiche mit zugesetztem Phosphat und die Kontrollteiche sind solche mit etwas inertem Zusatz wie dem Salz. Das bloße Hinzufügen von etwas ist auch eine Kontrolle gegen die Möglichkeit, dass das Hinzufügen zusätzlicher Stoffe zum Teich einen Effekt hat. Wenn die behandelten Teiche ein geringeres Algenwachstum aufweisen, haben wir eine Unterstützung für unsere Hypothese gefunden. Ist dies nicht der Fall, lehnen wir unsere Hypothese ab. Beachten Sie, dass die Ablehnung einer Hypothese nicht bestimmt, ob die anderen Hypothesen akzeptiert werden können oder nicht. es eliminiert einfach eine Hypothese, die nicht gültig ist (Abbildung). Mit der wissenschaftlichen Methode werden Hypothesen, die mit experimentellen Daten nicht übereinstimmen, verworfen.

Beispiel (PageIndex{1})

Im folgenden Beispiel wird die wissenschaftliche Methode verwendet, um ein alltägliches Problem zu lösen. Welcher Teil im Beispiel unten ist die Hypothese? Wie lautet die Vorhersage? Wird die Hypothese basierend auf den Ergebnissen des Experiments gestützt? Wenn es nicht unterstützt wird, schlagen Sie einige alternative Hypothesen vor.

  1. Mein Toaster toastet mein Brot nicht.
  2. Warum funktioniert mein Toaster nicht?
  3. Mit der Steckdose stimmt etwas nicht.
  4. Wenn etwas mit der Steckdose nicht stimmt, funktioniert meine Kaffeemaschine auch nicht, wenn sie eingesteckt ist.
  5. Ich stecke meine Kaffeemaschine in die Steckdose.
  6. Meine Kaffeemaschine funktioniert.

Lösung

Die Hypothese lautet #3 (mit der Steckdose stimmt etwas nicht) und die Vorhersage lautet #4 (wenn mit der Steckdose etwas nicht stimmt, funktioniert die Kaffeemaschine auch nicht, wenn sie an die Steckdose angeschlossen ist). Die ursprüngliche Hypothese wird nicht unterstützt, da die Kaffeemaschine funktioniert, wenn sie an die Steckdose angeschlossen ist. Alternative Hypothesen können sein, dass (1) der Toaster möglicherweise kaputt ist oder (2) der Toaster nicht eingeschaltet war.

In der Praxis ist die wissenschaftliche Methode nicht so starr und strukturiert, wie es auf den ersten Blick erscheinen mag. Manchmal führt ein Experiment zu Schlussfolgerungen, die eine Änderung des Ansatzes begünstigen; Oft bringt ein Experiment ganz neue wissenschaftliche Fragen ins Puzzle. Wissenschaft funktioniert oft nicht linear; Stattdessen ziehen Wissenschaftler ständig Schlussfolgerungen und machen Verallgemeinerungen und finden Muster im Laufe ihrer Forschung. Wissenschaftliches Denken ist komplexer, als die wissenschaftliche Methode allein vermuten lässt.

Grundlagen- und Angewandte Wissenschaft

Die wissenschaftliche Gemeinschaft hat in den letzten Jahrzehnten über den Wert verschiedener Wissenschaftstypen debattiert. Ist es wertvoll, Wissenschaft zu betreiben, um einfach Wissen zu erlangen, oder hat wissenschaftliches Wissen nur dann einen Wert, wenn wir es zur Lösung eines bestimmten Problems oder zur Verbesserung unseres Lebens anwenden können? Diese Frage konzentriert sich auf die Unterschiede zwischen zwei Arten von Wissenschaft: Grundlagenwissenschaft und angewandte Wissenschaft.

Grundlagenwissenschaft oder „reine“ Wissenschaft versucht Wissen zu erweitern, unabhängig von der kurzfristigen Anwendung dieses Wissens. Es konzentriert sich nicht auf die Entwicklung eines Produkts oder einer Dienstleistung von unmittelbarem öffentlichem oder kommerziellem Wert. Das unmittelbare Ziel der Grundlagenwissenschaft ist Wissen um des Wissens willen, was aber nicht bedeutet, dass es am Ende nicht zu einer Anwendung führen kann.

Im Gegensatz dazu zielt die angewandte Wissenschaft oder „Technologie“ darauf ab, mithilfe von Wissenschaft reale Probleme zu lösen, um beispielsweise einen Ernteertrag zu verbessern, ein Heilmittel für eine bestimmte Krankheit zu finden oder von einer Naturkatastrophe bedrohte Tiere zu retten . In der angewandten Wissenschaft wird das Problem in der Regel für den Forscher definiert.

Manche Personen empfinden angewandte Wissenschaft als „nützlich“ und Grundlagenwissenschaft als „nutzlos“. Eine Frage, die diese Leute einem Wissenschaftler stellen könnten, der sich für den Wissenserwerb einsetzt, wäre: "Wozu?" Ein genauer Blick auf die Geschichte der Wissenschaften zeigt jedoch, dass das Basiswissen zu vielen bemerkenswerten Anwendungen von großem Wert geführt hat. Viele Wissenschaftler sind der Meinung, dass ein grundlegendes wissenschaftliches Verständnis notwendig ist, bevor eine Anwendung entwickelt wird; Daher stützt sich die angewandte Wissenschaft auf die Ergebnisse der Grundlagenwissenschaften. Andere Wissenschaftler meinen, dass es an der Zeit ist, von der Grundlagenforschung wegzukommen und stattdessen Lösungen für aktuelle Probleme zu finden. Beide Ansätze sind gültig. Es stimmt, dass es Probleme gibt, die sofortige Aufmerksamkeit erfordern; ohne die grundlagenwissenschaftlichen Erkenntnisse würden jedoch nur wenige Lösungen gefunden.

Ein Beispiel dafür, wie Grundlagen- und angewandte Wissenschaft zusammenarbeiten können, um praktische Probleme zu lösen, entstand nach der Entdeckung der DNA-Struktur und führte zu einem Verständnis der molekularen Mechanismen, die die DNA-Replikation steuern. DNA-Stränge, die bei jedem Menschen einzigartig sind, finden sich in unseren Zellen und geben dort die für das Leben notwendigen Anweisungen. Bei der DNA-Replikation werden neue DNA-Kopien erstellt, kurz bevor sich eine Zelle zu neuen Zellen teilt. Das Verständnis der Mechanismen der DNA-Replikation ermöglichte es Wissenschaftlern, Labortechniken zu entwickeln, die heute verwendet werden, um genetische Krankheiten zu identifizieren, Personen, die sich an einem Tatort befanden, zu lokalisieren und die Vaterschaft zu bestimmen. Ohne Grundlagenwissenschaft ist es unwahrscheinlich, dass es angewandte Wissenschaften geben würde.

Ein weiteres Beispiel für die Verbindung zwischen Grundlagen- und angewandter Forschung ist das Human Genome Project, eine Studie, bei der jedes menschliche Chromosom analysiert und kartiert wurde, um die genaue Sequenz der DNA-Untereinheiten und die genaue Lage jedes Gens zu bestimmen. (Das Gen ist die Grundeinheit der Vererbung; die gesamte Gensammlung eines Individuums ist sein Genom.) Im Rahmen dieses Projekts wurden auch andere Organismen untersucht, um ein besseres Verständnis der menschlichen Chromosomen zu erlangen. Das Human Genome Project (Abbildung (PageIndex{6})) stützte sich auf Grundlagenforschung mit nicht-menschlichen Organismen und später mit dem menschlichen Genom. Ein wichtiges Endziel wurde schließlich, die Daten für die angewandte Forschung zu nutzen, um Heilmittel für genetisch bedingte Krankheiten zu finden.

Während Forschungsbemühungen sowohl in der Grundlagenforschung als auch in der angewandten Wissenschaft normalerweise sorgfältig geplant werden, ist es wichtig zu beachten, dass einige Entdeckungen durch Zufall gemacht werden, dh durch einen glücklichen Zufall oder eine glückliche Überraschung. Penicillin wurde entdeckt, als der Biologe Alexander Fleming versehentlich eine Petrischale mit Staphylokokken Bakterien geöffnet. Ein unerwünschter Schimmel wuchs und tötete die Bakterien. Es stellte sich heraus, dass der Schimmel Penicillium, und ein neues Antibiotikum wurde entdeckt. Selbst in der hochorganisierten Welt der Wissenschaft kann Glück – in Kombination mit einem aufmerksamen, neugierigen Geist – zu unerwarteten Durchbrüchen führen.

Berichterstattung über wissenschaftliche Arbeiten

Unabhängig davon, ob es sich bei der wissenschaftlichen Forschung um Grundlagenforschung oder angewandte Wissenschaft handelt, müssen Wissenschaftler ihre Erkenntnisse mit anderen Forschern teilen, um sie zu erweitern und auf ihren Entdeckungen aufzubauen. Kommunikation und Zusammenarbeit innerhalb und zwischen Teildisziplinen der Wissenschaft sind der Schlüssel zum Fortschritt des Wissens in der Wissenschaft. Aus diesem Grund ist die Verbreitung von Ergebnissen und die Kommunikation mit Gleichgesinnten ein wichtiger Aspekt der Arbeit eines Wissenschaftlers. Wissenschaftler können Ergebnisse austauschen, indem sie sie auf einer wissenschaftlichen Tagung oder Konferenz präsentieren, aber dieser Ansatz kann nur wenige Anwesende erreichen. Stattdessen präsentieren die meisten Wissenschaftler ihre Ergebnisse in Peer-Review-Artikeln, die in wissenschaftlichen Zeitschriften veröffentlicht werden. Peer-Review-Artikel sind wissenschaftliche Arbeiten, die in der Regel anonym von Kollegen oder Peers eines Wissenschaftlers begutachtet werden. Bei diesen Kollegen handelt es sich um qualifizierte Personen, oft Experten auf demselben Forschungsgebiet, die beurteilen, ob die Arbeit des Wissenschaftlers für eine Veröffentlichung geeignet ist oder nicht. Das Peer-Review-Verfahren trägt dazu bei, sicherzustellen, dass die in einer wissenschaftlichen Arbeit oder einem Förderantrag beschriebene Forschung originell, aussagekräftig, logisch und gründlich ist. Auch Förderanträge, also Anträge auf Forschungsförderung, unterliegen der Begutachtung durch Fachkollegen. Wissenschaftler veröffentlichen ihre Arbeit, damit andere Wissenschaftler ihre Experimente unter ähnlichen oder anderen Bedingungen reproduzieren können, um die Ergebnisse zu erweitern. Die experimentellen Ergebnisse müssen mit den Erkenntnissen anderer Wissenschaftler übereinstimmen.

Es gibt viele Zeitschriften und die populäre Presse, die kein Peer-Review-System verwenden. Eine große Anzahl von Open-Access-Online-Zeitschriften, Zeitschriften mit kostenlosen Artikeln, sind jetzt verfügbar, von denen viele strenge Peer-Review-Systeme verwenden, einige jedoch nicht. Ergebnisse von Studien, die in diesen Foren ohne Peer Review veröffentlicht wurden, sind nicht zuverlässig und sollten nicht die Grundlage für andere wissenschaftliche Arbeiten bilden. In einer Ausnahme können Zeitschriften einem Forscher gestatten, mit Zustimmung des zitierten Autors eine persönliche Mitteilung eines anderen Forschers über unveröffentlichte Ergebnisse zu zitieren.

Zusammenfassung

Biologie ist die Wissenschaft, die lebende Organismen und ihre Wechselwirkungen untereinander und mit ihrer Umwelt untersucht. Die Wissenschaft versucht, die Natur des Universums ganz oder teilweise zu beschreiben und zu verstehen. Wissenschaft hat viele Felder; die mit der physikalischen Welt und ihren Phänomenen verbundenen Felder werden als Naturwissenschaften betrachtet.

Eine Hypothese ist eine vorläufige Erklärung für eine Beobachtung. Eine wissenschaftliche Theorie ist eine gut getestete und durchweg verifizierte Erklärung für eine Reihe von Beobachtungen oder Phänomenen. Ein wissenschaftliches Gesetz ist eine Beschreibung, oft in Form einer mathematischen Formel, des Verhaltens eines Naturaspekts unter bestimmten Umständen. In der Wissenschaft werden zwei Arten des logischen Denkens verwendet. Induktives Denken verwendet Ergebnisse, um allgemeine wissenschaftliche Prinzipien zu erzeugen. Deduktives Denken ist eine Form des logischen Denkens, die Ergebnisse durch Anwendung allgemeiner Prinzipien vorhersagt. Der rote Faden der wissenschaftlichen Forschung ist die Anwendung der wissenschaftlichen Methode. Wissenschaftler präsentieren ihre Ergebnisse in von Experten begutachteten wissenschaftlichen Artikeln, die in wissenschaftlichen Zeitschriften veröffentlicht werden.

Wissenschaft kann grundlegend oder angewandt sein. Das Hauptziel der Grundlagenwissenschaften ist es, Wissen zu erweitern, ohne eine kurzfristige praktische Anwendung dieses Wissens zu erwarten. Das primäre Ziel der angewandten Forschung ist jedoch die Lösung praktischer Probleme.

Glossar

Angewandte Wissenschaft
eine Form der Wissenschaft, die reale Probleme löst
Grundlagenwissenschaft
Wissenschaft, die versucht, Wissen zu erweitern, unabhängig von der kurzfristigen Anwendung dieses Wissens
Steuerung
ein Teil eines Experiments, der sich während des Experiments nicht ändert
deduktive Argumentation
eine Form des logischen Denkens, die eine allgemeine Aussage verwendet, um spezifische Ergebnisse vorherzusagen
beschreibende Wissenschaft
eine Form der Wissenschaft, die darauf abzielt, Dinge zu beobachten, zu erforschen und herauszufinden
falsifizierbar
durch experimentelle Ergebnisse widerlegbar
Hypothese
ein Erklärungsvorschlag für ein Ereignis, der getestet werden kann
hypothesenbasierte Wissenschaft
eine Form der Wissenschaft, die mit einer spezifischen Erklärung beginnt, die dann getestet wird
induktives Denken
eine Form des logischen Denkens, die verwandte Beobachtungen verwendet, um zu einer allgemeinen Schlussfolgerung zu gelangen
Biowissenschaften
ein Wissenschaftsgebiet wie die Biologie, das Lebewesen untersucht
Naturwissenschaft
ein Wissenschaftsgebiet, das die physikalische Welt, ihre Phänomene und Prozesse untersucht
Peer-Review-Artikel
ein wissenschaftlicher Bericht, der vor der Veröffentlichung von den Kollegen eines Wissenschaftlers begutachtet wird
Physikalische Wissenschaft
ein Wissenschaftsgebiet wie Astronomie, Physik und Chemie, das unbelebte Materie untersucht
Wissenschaft
Wissen, das allgemeine Wahrheiten oder die Wirkung allgemeiner Gesetze umfasst, insbesondere wenn es durch die wissenschaftliche Methode erworben und geprüft wird
wissenschaftliches Recht
eine Beschreibung, oft in Form einer mathematischen Formel, für das Verhalten eines Aspekts der Natur unter bestimmten spezifischen Bedingungen
wissenschaftliche Methode
eine Forschungsmethode mit definierten Schritten, die Experimente und sorgfältige Beobachtung einschließt
wissenschaftliche Theorie
eine gründlich getestete und bestätigte Erklärung für Beobachtungen oder Phänomene
Variable
ein Teil eines Experiments, das variieren oder sich ändern kann

Inhalt

Selbstmontage im klassischen Sinne kann definiert werden als die spontane und reversible Organisation molekularer Einheiten in geordnete Strukturen durch nicht-kovalente Wechselwirkungen. Die erste Eigenschaft eines selbstorganisierten Systems, die diese Definition nahelegt, ist die Spontaneität des Selbstorganisationsprozesses: Die Wechselwirkungen, die für die Bildung des selbstorganisierten Systems verantwortlich sind, wirken auf einer streng lokalen Ebene – mit anderen Worten: die Nanostruktur baut sich selbst auf.

Obwohl die Selbstorganisation typischerweise zwischen schwach wechselwirkenden Spezies stattfindet, kann diese Organisation auf stark gebundene kovalente Systeme übertragen werden. Ein Beispiel hierfür ist die Selbstorganisation von Polyoxometallaten. Es gibt Hinweise darauf, dass sich solche Moleküle über einen Dichtphasenmechanismus zusammenbauen, bei dem sich kleine Oxometallationen zunächst nicht-kovalent in Lösung zusammensetzen, gefolgt von einer Kondensationsreaktion, die die zusammengebauten Einheiten kovalent bindet. [4] Dieser Prozess kann durch die Einführung von Templaten zur Kontrolle der gebildeten Spezies unterstützt werden. [5] Auf diese Weise können auf spezifische Weise hoch organisierte kovalente Moleküle gebildet werden.

Eine selbstorganisierte Nanostruktur ist ein Objekt, das als Ergebnis der Anordnung und Aggregation einzelner nanoskaliger Objekte, die von einem physikalischen Prinzip geleitet werden, entsteht.

Ein besonders kontraintuitives Beispiel für ein physikalisches Prinzip, das die Selbstorganisation antreiben kann, ist die Entropiemaximierung. Obwohl Entropie konventionell mit Unordnung in Verbindung gebracht wird, kann Entropie unter geeigneten Bedingungen [6] dazu führen, dass sich nanoskalige Objekte in kontrollierbarer Weise zu Zielstrukturen zusammenlagern. [7]

Eine weitere wichtige Klasse der Selbstmontage ist die feldgerichtete Montage. Ein Beispiel hierfür ist das Phänomen des elektrostatischen Einfangens. Dabei wird zwischen zwei metallischen Nanoelektroden ein elektrisches Feld angelegt. Die in der Umgebung vorhandenen Partikel werden durch das angelegte elektrische Feld polarisiert. Aufgrund der Dipolwechselwirkung mit dem elektrischen Feldgradienten werden die Partikel von der Lücke zwischen den Elektroden angezogen. [8] Verallgemeinerungen dieses Ansatzes unter Einbeziehung verschiedener Feldtypen, z. B. Verwendung von Magnetfeldern, Verwendung von Kapillarwechselwirkungen für an Grenzflächen gefangene Partikel, elastische Wechselwirkungen für in Flüssigkristallen suspendierte Partikel wurden ebenfalls beschrieben.

Unabhängig von dem Mechanismus, der die Selbstorganisation antreibt, verfolgen Menschen bei der Materialsynthese Ansätze zur Selbstorganisation, um das Problem zu vermeiden, Materialien einen Baustein nach dem anderen konstruieren zu müssen. Das Vermeiden von Einzelansätzen ist wichtig, da die zum Platzieren von Bausteinen in einer Zielstruktur erforderliche Zeit für Strukturen mit makroskopischer Größe unerschwinglich ist.

Sobald Materialien von makroskopischer Größe selbstorganisiert werden können, können diese Materialien in vielen Anwendungen Verwendung finden. Beispielsweise werden Nanostrukturen wie Nano-Vakuum-Lücken zur Energiespeicherung [9] und zur Kernenergieumwandlung verwendet. [10] Selbstorganisierte abstimmbare Materialien sind vielversprechende Kandidaten für Elektroden mit großer Oberfläche in Batterien und organischen Photovoltaikzellen sowie für mikrofluidische Sensoren und Filter. [11]

Besonderheiten Bearbeiten

An dieser Stelle könnte man argumentieren, dass jede chemische Reaktion, die Atome und Moleküle dazu bringt, sich zu größeren Strukturen zusammenzufügen, wie etwa Ausfällungen, in die Kategorie der Selbstorganisation fallen könnte. Es gibt jedoch mindestens drei charakteristische Merkmale, die die Selbstmontage zu einem eigenständigen Konzept machen.

Bestellung bearbeiten

Erstens muss die selbstorganisierte Struktur eine höhere Ordnung aufweisen als die isolierten Komponenten, sei es eine Form oder eine bestimmte Aufgabe, die die selbstorganisierte Einheit ausführen kann. Dies gilt im Allgemeinen nicht für chemische Reaktionen, bei denen ein geordneter Zustand abhängig von thermodynamischen Parametern in einen ungeordneten Zustand übergehen kann.

Interaktionen Bearbeiten

Der zweite wichtige Aspekt der Selbstorganisation ist die vorherrschende Rolle schwacher Wechselwirkungen (z. B. Van-der-Waals-, Kapillar-, π − π , Wasserstoffbrücken oder entropische Kräfte) im Vergleich zu eher "traditionellen" kovalenten, ionischen oder metallischen Bindungen. Diese schwachen Wechselwirkungen sind in der Materialsynthese aus zwei Gründen wichtig.

Erstens nehmen schwache Wechselwirkungen in Materialien, insbesondere in biologischen Systemen, einen herausragenden Platz ein. Sie bestimmen beispielsweise die physikalischen Eigenschaften von Flüssigkeiten, die Löslichkeit von Feststoffen und die Organisation von Molekülen in biologischen Membranen. [12]

Zweitens können neben der Stärke der Wechselwirkungen auch Wechselwirkungen mit unterschiedlichem Spezifitätsgrad die Selbstorganisation steuern. Die Selbstorganisation, die durch DNA-Paarungsinteraktionen vermittelt wird, stellt die Interaktionen mit der höchsten Spezifität dar, die verwendet wurden, um die Selbstorganisation voranzutreiben. [13] Im anderen Extrem sind die am wenigsten spezifischen Wechselwirkungen möglicherweise diejenigen, die von emergenten Kräften bereitgestellt werden, die aus Entropiemaximierung resultieren. [14]

Bausteine ​​Bearbeiten

Die dritte Besonderheit der Selbstorganisation besteht darin, dass die Bausteine ​​nicht nur Atome und Moleküle sind, sondern eine breite Palette von nano- und mesoskopischen Strukturen mit unterschiedlicher chemischer Zusammensetzung, Funktionalität [15] und Form umfassen. [16] Die Erforschung möglicher dreidimensionaler Formen von selbstorganisierenden Mikriten untersucht platonische Festkörper (regulär polyedrisch). Der Begriff „Mikrit“ wurde von DARPA geschaffen, um sich auf Mikroroboter im Submillimeterbereich zu beziehen, deren Selbstorganisationsfähigkeiten mit denen von Schleimpilzen verglichen werden können. [17] [18] Jüngste Beispiele für neuartige Bausteine ​​sind Polyeder und Patchy-Partikel. [19] Beispiele umfassten auch Mikropartikel mit komplexen Geometrien, wie halbkugelförmige, [20] Dimere, [21] Scheiben, [22] Stäbchen, Moleküle [23] sowie Multimere. Diese nanoskaligen Bausteine ​​können wiederum auf konventionellem chemischem Wege oder durch andere Selbstorganisationsstrategien wie gerichtete entropische Kräfte synthetisiert werden. In jüngerer Zeit sind inverse Designansätze aufgetaucht, bei denen es möglich ist, ein selbstorganisiertes Zielverhalten zu fixieren und einen geeigneten Baustein zu bestimmen, der dieses Verhalten realisiert. [24]

Thermodynamik und Kinetik Bearbeiten

Die Selbstorganisation in mikroskopischen Systemen beginnt normalerweise mit der Diffusion, gefolgt von der Keimbildung der Samen, dem anschließenden Wachstum der Samen und endet mit der Ostwald-Reifung. Die freie thermodynamische Antriebsenergie kann entweder enthalpisch oder entropisch oder beides sein. [25] Sowohl im enthalpischen als auch im entropischen Fall erfolgt die Selbstorganisation durch die Bildung und das Aufbrechen von Bindungen, [26] möglicherweise mit nicht-traditionellen Formen der Vermittlung. Die Kinetik des Selbstorganisationsprozesses hängt normalerweise mit der Diffusion zusammen, für die die Absorptions-/Adsorptionsrate oft einem Langmuir-Adsorptionsmodell folgt, das in der diffusionskontrollierten Konzentration (relativ verdünnte Lösung) durch die Fick-Diffusionsgesetze geschätzt werden kann. Die Desorptionsrate wird durch die Bindungsstärke der Oberflächenmoleküle/-atome mit einer thermischen Aktivierungsenergiebarriere bestimmt. Die Wachstumsrate ist die Konkurrenz zwischen diesen beiden Prozessen.

Beispiele Bearbeiten

Wichtige Beispiele für die Selbstorganisation in der Materialwissenschaft sind die Bildung von Molekülkristallen, Kolloiden, Lipiddoppelschichten, phasengetrennten Polymeren und selbstorganisierten Monoschichten. [27] [28] Die Faltung von Polypeptidketten zu Proteinen und die Faltung von Nukleinsäuren in ihre funktionelle Form sind Beispiele für selbstorganisierte biologische Strukturen. Kürzlich wurde die dreidimensionale makroporöse Struktur durch Selbstorganisation von Diphenylalanin-Derivaten unter Kryobedingungen hergestellt, das erhaltene Material kann Anwendung im Bereich der regenerativen Medizin oder des Wirkstoffabgabesystems finden. [29] P. Chen et al. demonstrierten eine Selbstorganisationsmethode im Mikromaßstab unter Verwendung der durch die Faraday-Welle etablierten Luft-Flüssigkeits-Grenzfläche als Templat. Diese Selbstorganisationsmethode kann zur Erzeugung verschiedener Sätze symmetrischer und periodischer Muster aus mikroskaligen Materialien wie Hydrogelen, Zellen und Zellsphäroiden verwendet werden. [30] Yasuga et al. demonstrierten, wie Fluidgrenzflächenenergie die Entstehung dreidimensionaler periodischer Strukturen in Mikrosäulengerüsten antreibt. [31] Myllymäki et al. demonstrierten die Bildung von Micellen, deren Morphologie zu Fasern und schließlich zu Kugeln verändert wird, die alle durch Lösungsmittelwechsel gesteuert werden. [32]

Eigenschaften Bearbeiten

Die Selbstorganisation erweitert den Anwendungsbereich der Chemie mit dem Ziel, Produkte mit Ordnungs- und Funktionalitätseigenschaften zu synthetisieren, chemische Bindungen auf schwache Wechselwirkungen auszudehnen und umfasst die Selbstorganisation nanoskaliger Bausteine ​​auf allen Längenskalen. [33] Bei der kovalenten Synthese und Polymerisation verknüpft der Wissenschaftler Atome in jeder gewünschten Konformation, was nicht unbedingt die energetisch günstigste Position sein muss, selbstorganisierende Moleküle nehmen dagegen eine Struktur am thermodynamischen Minimum an und finden die beste Kombination von Wechselwirkungen zwischen Untereinheiten, aber keine kovalenten Bindungen zwischen ihnen bilden. Bei selbstorganisierenden Strukturen muss der Wissenschaftler dieses Minimum vorhersagen, nicht nur die Atome an der gewünschten Stelle platzieren.

Ein weiteres gemeinsames Merkmal fast aller selbstorganisierten Systeme ist ihre thermodynamische Stabilität. Damit die Selbstorganisation ohne Einwirkung äußerer Kräfte erfolgen kann, muss der Prozess zu einer geringeren Gibbs-Energie führen, daher sind selbstassemblierte Strukturen thermodynamisch stabiler als die einzelnen, unassemblierten Komponenten. Eine direkte Folge ist die allgemeine Tendenz selbstorganisierter Strukturen, relativ fehlerfrei zu sein. Ein Beispiel ist die Bildung von zweidimensionalen Übergittern, die aus einer geordneten Anordnung von mikrometergroßen Polymethylmethacrylat (PMMA)-Kugeln bestehen, ausgehend von einer die Mikrokugeln enthaltenden Lösung, in der das Lösungsmittel unter geeigneten Bedingungen langsam verdampfen gelassen wird. In diesem Fall ist die treibende Kraft die Kapillarwechselwirkung, die aus der Verformung der Oberfläche einer Flüssigkeit entsteht, die durch das Vorhandensein von schwimmenden oder eingetauchten Partikeln verursacht wird. [34]

Diese beiden Eigenschaften – schwache Wechselwirkungen und thermodynamische Stabilität – können in Erinnerung gerufen werden, um eine andere Eigenschaft zu erklären, die häufig in selbstorganisierten Systemen zu finden ist: die Empfindlichkeit gegenüber Störungen von der äußeren Umgebung ausgeübt wird. Dabei handelt es sich um kleine Fluktuationen, die thermodynamische Variablen verändern, die zu deutlichen Veränderungen in der Struktur führen oder sie sogar beeinträchtigen können, entweder während oder nach der Selbstorganisation. Die schwache Natur der Wechselwirkungen ist für die Flexibilität der Architektur verantwortlich und ermöglicht Umordnungen der Struktur in die durch die Thermodynamik bestimmte Richtung. Bringen Fluktuationen die thermodynamischen Variablen wieder in den Ausgangszustand zurück, geht die Struktur wahrscheinlich in ihre Ausgangskonfiguration zurück. Dies führt uns dazu, eine weitere Eigenschaft der Selbstorganisation zu identifizieren, die bei Materialien, die mit anderen Techniken synthetisiert wurden, im Allgemeinen nicht beobachtet wird: Reversibilität.

Die Selbstmontage ist ein Prozess, der leicht durch äußere Parameter beeinflusst wird. Diese Funktion kann die Synthese ziemlich komplex machen, da viele freie Parameter gesteuert werden müssen. Die Selbstmontage hat jedoch den Vorteil, dass eine große Vielfalt an Formen und Funktionen auf vielen Längenskalen erreicht werden kann. [35]

Die grundlegende Bedingung für die Selbstorganisation nanoskaliger Bausteine ​​zu einer geordneten Struktur ist das gleichzeitige Vorhandensein weitreichender abstoßender und kurzreichweitiger anziehender Kräfte. [36]

Durch die Wahl von Vorstufen mit geeigneten physikalisch-chemischen Eigenschaften ist es möglich, die Bildungsprozesse, die komplexe Strukturen erzeugen, fein zu steuern. Clearly, the most important tool when it comes to designing a synthesis strategy for a material, is the knowledge of the chemistry of the building units. For example, it was demonstrated that it was possible to use diblock copolymers with different block reactivities in order to selectively embed maghemite nanoparticles and generate periodic materials with potential use as waveguides. [37]

In 2008 it was proposed that every self-assembly process presents a co-assembly, which makes the former term a misnomer. This thesis is built on the concept of mutual ordering of the self-assembling system and its environment. [38]

The most common examples of self-assembly at the macroscopic scale can be seen at interfaces between gases and liquids, where molecules can be confined at the nanoscale in the vertical direction and spread over long distances laterally. Examples of self-assembly at gas-liquid interfaces include breath-figures, self-assembled monolayers and Langmuir–Blodgett films, while crystallization of fullerene whiskers is an example of macroscopic self-assembly in between two liquids. [39] [40] Another remarkable example of macroscopic self-assembly is the formation of thin quasicrystals at an air-liquid interface, which can be built up not only by inorganic, but also by organic molecular units. [41] [42]

Self-assembly processes can also be observed in systems of macroscopic building blocks. These building blocks can be externally propelled [43] or self-propelled. [44] Since the 1950s, scientists have built self-assembly systems exhibiting centimeter-sized components ranging from passive mechanical parts to mobile robots. [45] For systems at this scale, the component design can be precisely controlled. For some systems, the components' interaction preferences are programmable. The self-assembly processes can be easily monitored and analyzed by the components themselves or by external observers. [46]

In April 2014, a 3D printed plastic was combined with a "smart material" that self-assembles in water, [47] resulting in "4D printing". [48]

People regularly use the terms "self-organization" and "self-assembly" interchangeably. As complex system science becomes more popular though, there is a higher need to clearly distinguish the differences between the two mechanisms to understand their significance in physical and biological systems. Both processes explain how collective order develops from "dynamic small-scale interactions". [49] Self-organization is a non-equilibrium process where self-assembly is a spontaneous process that leads toward equilibrium. Self-assembly requires components to remain essentially unchanged throughout the process. Besides the thermodynamic difference between the two, there is also a difference in formation. The first difference is what "encodes the global order of the whole" in self-assembly whereas in self-organization this initial encoding is not necessary. Another slight contrast refers to the minimum number of units needed to make an order. Self-organization appears to have a minimum number of units whereas self-assembly does not. The concepts may have particular application in connection with natural selection. [50] Eventually, these patterns may form one theory of pattern formation in nature. [51]


Imaginary meaning

But what exactly is the significance of the Fibonacci sequence? Other than being a neat teaching tool, it shows up in a few places in nature. However, it's not some secret code that governs the architecture of the universe, Devlin said.

It's true that the Fibonacci sequence is tightly connected to what's now known as the golden ratio (which is not even a true ratio because it's an irrational number). Simply put, the ratio of the numbers in the sequence, as the sequence goes to infinity, approaches the golden ratio, which is 1.6180339887498948482. From there, mathematicians can calculate what's called the golden spiral, or a logarithmic spiral whose growth factor equals the golden ratio. [The 9 Most Massive Numbers in Existence]

The golden ratio does seem to capture some types of plant growth, Devlin said. For instance, the spiral arrangement of leaves or petals on some plants follows the golden ratio. Pinecones exhibit a golden spiral, as do the seeds in a sunflower, according to "Phyllotaxis: A Systemic Study in Plant Morphogenesis" (Cambridge University Press, 1994). But there are just as many plants that do not follow this rule.

"It's not 'God's only rule' for growing things, let's put it that way," Devlin said.

And perhaps the most famous example of all, the seashell known as the nautilus, does not in fact grow new cells according to the Fibonacci sequence, he said.

When people start to draw connections to the human body, art and architecture, links to the Fibonacci sequence go from tenuous to downright fictional.

"It would take a large book to document all the misinformation about the golden ratio, much of which is simply the repetition of the same errors by different authors," George Markowsky, a mathematician who was then at the University of Maine, wrote in a 1992 paper in the College Mathematics Journal.

Much of this misinformation can be attributed to an 1855 book by the German psychologist Adolf Zeising. Zeising claimed the proportions of the human body were based on the golden ratio. The golden ratio sprouted "golden rectangles," "golden triangles" and all sorts of theories about where these iconic dimensions crop up. Since then, people have said the golden ratio can be found in the dimensions of the Pyramid at Giza, the Parthenon, Leonardo da Vinci's "Vitruvian Man" and a bevy of Renaissance buildings. Overarching claims about the ratio being "uniquely pleasing" to the human eye have been stated uncritically, Devlin said.

All these claims, when they're tested, are measurably false, Devlin said.

"We're good pattern recognizers. We can see a pattern regardless of whether it's there or not," Devlin said. "It's all just wishful thinking."


Content Preview

The null hypothesis can be thought of as the opposite of the "guess" the research made (in this example the biologist thinks the plant height will be different for the fertilizers). So the null would be that there will be no difference among the groups of plants. Specifically in more statistical language the null for an ANOVA is that the means are the same. We state the Null hypothesis as:

(H_0 colon mu_1 = mu_2 = ⋯ = mu_k)

zum k levels of an experimental treatment.

The reason we state the alternative hypothesis this way is that if the Null is rejected, there are many possibilities.

For example, (mu_1 e mu_2 = ⋯ = mu_k) is one possibility, as is (mu_1=mu_2 emu_3= ⋯ =mu_k). Many people make the mistake of stating the Alternative Hypothesis as: (mu_1 emu_2 e⋯ emu_k) which says that every mean differs from every other mean. This is a possibility, but only one of many possibilities. To cover all alternative outcomes, we resort to a verbal statement of ‘not all equal’ and then follow up with mean comparisons to find out where differences among means exist. In our example, this means that fertilizer 1 may result in plants that are really tall, but fertilizers 2, 3 and the plants with no fertilizers don't differ from one another. A simpler way of thinking about this is that at least one mean is different from all others.

If we look at what can happen in a hypothesis test, we can construct the following contingency table:

Type I Error
(alpha) = probability of Type I Error

You should be familiar with type I and type II errors from your introductory course. It is important to note that we want to set (alpha) before the experiment (a-priori) because the Type I error is the more ‘grevious’ error to make. The typical value of (alpha) is 0.05, establishing a 95% confidence level. For this course we will assume (alpha) =0.05.

Remember the importance of recognizing whether data is collected through experimental design or observational.

For categorical treatment level means, we use an F statistic, named after R.A. Fischer. We will explore the mechanics of computing the F statistic beginning in Lesson 2. The F value we get from the data is labeled (F_< ext>).

As with all other test statistics, a threshold (critical) value of F is established. Dies F value can be obtained from statistical tables and is referred to as (F_< ext>) or (F_alpha). As a reminder, this critical value is the minimum value for the test statistic (in this case the F test) for us to be able to reject the null.

Die F distribution, (F_alpha), and the location of Acceptance / Rejection regions are shown in the graph below:


Schau das Video: Das menschliche Gehirn: Möglichkeiten und Grenzen (Kann 2022).