Überwachtes Lernen

Beim überwachten Lernen (links) enthalten die Trainingsdaten die erwarteten Antworten. Das unterscheidet es vom unüberwachten Lernen (rechts), bei dem das Modell selbst ohne Vorgaben Muster oder Strukturen identifiziert.

Überwachtes Lernen (englisch supervised learning) ist eine wichtige Kategorie des Maschinellen Lernens. Dabei wird ein Lernalgorithmus mit Datensätzen trainiert und validiert, die für jede Eingabe einen passenden Ausgabewert enthalten. Man bezeichnet solche Datensätze als markiert oder gelabelt. Ein Beispiel wäre ein Datensatz mit Bildern von Katzen und Hunden, dem jemand (in der Regel ein Mensch) zu jedem Bild ein Label hinzugefügt hat, das die Information enthält, ob auf dem Bild eine Katze oder ein Hund abgebildet ist. Mit dem Datensatz wird dann ein Algorithmus trainiert, der mit Hilfe der Information der Label eine Funktion erzeugt, die idealerweise auch bei neuen Bildern korrekt erkennt, ob sie einen Hund oder eine Katze zeigen. Häufige Anwendungen für das überwachte Lernen sind Klassifikation und Regression.[1]

Die Methode richtet sich also nach vorgegebenen Antworten für die Ausgabe. Die Ergebnisse des Lernprozesses können mit den bekannten, richtigen Antworten verglichen, also „überwacht“, werden.[2] Liegen die Ergebnisse der Ausgabe in einer stetigen Verteilung vor, deren Ergebnisse beliebige quantitative Werte eines vorgegebenen Wertebereiches annehmen kann, spricht man meistens von einem Regressionsproblem.[3] Ein Beispiel für ein solches Regressionsproblem ist die Vorhersage der Preisentwicklung von Häusern auf Basis von bestimmten Variablen oder das Bestimmen des Alters einer Person aus anderen Informationen über die Person. Es geht demnach meistens um Vorhersagen.[3] Liegen die Ergebnisse hingegen in diskreter Form vor bzw. sind die Werte qualitativ, spricht man von einem Klassifikationsproblem. Ein Beispiel hierfür ist, zu bestimmen, ob es sich bei einer E-Mail um Spam oder keinen Spam handelt.[4] Der folgende Artikel beschreibt das Vorgehen beim überwachten Lernen und stellt einige Methoden zur Lösung von Regressionsproblemen respektive zur Lösung von Klassifikationsproblemen vor.

Vorgehen

Um ein bestimmtes Problem mit überwachtem Lernen zu lösen, werden folgende Schritte durchgeführt:[5]

  1. Qualitätskriterien für das Zielsystem definieren.
  2. Die Art der Trainingsbeispiele bestimmen. Das heißt, es muss zunächst bestimmt werden, mit welchen Daten das System trainiert werden soll. Bei einer Handschriftanalyse kann es sich z. B. um einzelne handschriftliche Zeichen, ganze handschriftliche Wörter oder ganze handschriftliche Zeilen handeln.
  3. Prüfen, ob bereits legal auf geeignete Daten zugegriffen werden kann. Wenn es noch keine geeigneten Daten gibt, führt man eine Datenerhebung entsprechend der vorangegangenen Auswahl durch. Man benötigt sowohl die erklärenden Variablen als auch die erklärten Variablen (Labels). Die erhobenen Daten müssen neue Daten so gut repräsentieren, dass eine Verallgemeinerung von den erhobenen Daten auf neue Daten mit der geforderten Genauigkeit möglich ist. Die Erhebung kann von menschlichen Experten, durch Messungen und andere Methoden vollzogen werden.
  4. Die erhobenen Daten werden aufbereitet. Die Genauigkeit der gelernten Funktion hängt stark davon ab, wie gut ein Algorithmus die korrekte Ausgabe aus den erhobenen Daten vorhersagen kann. Deshalb sollten Ausreißer und unvollständige Daten korrigiert oder entfernt werden. Danach werden die Merkmale in einen Vektor transformiert, der die Merkmale enthält, die ein Objekt beschreiben. Merkmale mit einem kontinuierlichen Wertebereich werden in der Regel auf den Wertebereich zwischen 0 und 1 normalisiert, damit der Lernalgorithmus Merkmale mit großen absoluten Werten und Merkmale mit kleinen absoluten Werten beim Lernen gleich stark gewichtet.
  5. Auswahl der Lernalgorithmen bzw. der Modelle, die trainiert werden. Viele Modelle unterstützen die Festlegung von Hyperparametern, mit denen der Lernvorgang optimal an die gegebene Aufgabenstellung anpasst werden kann. Bei der Auswahl der Lernalgorithmen wird deshalb auch geklärt, ob eine Hyperparameteroptimierung erforderlich ist.
  6. Festlegen des Kreuzvalidierungsverfahrens und Aufteilen des Datensatzes. Ein einfaches Verfahren, das oft eingesetzt wird, ist die Holdout-Methode. Bei der Holdout-Methode wird der Datensatz aufgeteilt in:
    1. einen Trainingsdatensatz, mit dem das System trainiert wird
    2. einen Testdatensatz, mit dem nach dem Training die Vorhersagequalität des Systems für unbekannte Daten überprüft wird
    3. ein oder mehrere Validierungsdatensätze, falls eine Hyperparameteroptimierung geplant ist
  7. Anschließend wird der Lernalgorithmus auf dem Trainingsdatensatz ausgeführt. Gegebenenfalls werden danach mit Hilfe der Validierungsdatensätze die Hyperparameter optimiert und anschließend der Lernalgorithmus mit den optimalen Hyperparametern und allen Trainings- und Validierungsdaten erneut trainiert.
  8. Danach wird die Genauigkeit der gelernten Funktion überprüft, beispielsweise mit dem vorher abgetrennten Testdatensatz.
  9. Wenn das trainierte Modell die vorab definierten Qualitätskriterien erfüllt, wird es im Zielsystem integriert.

Herausforderungen

Zu wenige Daten für die Komplexität der „wahren Funktion“

Eine Herausforderung ist die Menge der verfügbaren Trainingsdaten in Relation zur Komplexität der „wahren Funktion“ (Klassifikator- oder Regressionsfunktion). Wenn die wahre Funktion einfach ist, dann kann ein „unflexibler“ Lernalgorithmus mit hoher Verzerrung und geringer Varianz aus einer kleinen Datenmenge lernen. Wenn die wahre Funktion jedoch sehr komplex ist (z. B. weil sie komplexe Interaktionen zwischen vielen verschiedenen Eingabemerkmalen beinhaltet und sich in verschiedenen Teilen des Eingaberaums unterschiedlich verhält), dann wird die Funktion nur aus einer sehr großen Menge von Trainingsdaten und unter Verwendung eines „flexiblen“ Lernalgorithmus mit geringer Vorspannung und hoher Varianz erlernbar sein.[3]

Nicht repräsentative Daten

Das Modell kann nur dann gut verallgemeinern, wenn die Trainingsdaten alle zu verallgemeinernden Fälle gut repräsentieren. Auch ein großer Datensatz kann für einzelne Fälle zu wenige Daten enthalten. Eine solche Stichprobenverzerrung hat zur Folge, dass das trainierte Modell für diese Fälle nicht gut verallgemeinern kann.[5]:57

Fehlerhafte Zielwerte

Ein weiteres mögliches Problem sind sogenannte „Ausreißer“ in den Zielwerten. Wenn einige vorgegebene Zielwerte falsch sind (aufgrund von menschlichen Fehlern oder Sensorfehlern) und der Lernalgorithmus versucht, eine Funktion zu finden, die genau zu allen Zielwerten passt, dann kommt es zu einer Überanpassung.

In der Praxis gibt es mehrere Ansätze um Probleme mit den Ausgabewerten zu verhindern, wie z. B. frühzeitiges Anhalten des Algorithmus zur Vermeidung von Überanpassung sowie das Erkennen und Entfernen der Ausreißer vor dem Training des überwachten Lernalgorithmus. Es gibt mehrere Algorithmen, die Ausreißer identifizieren und deren Entfernen ermöglichen.[3]

Viele nicht relevante Merkmale

Das Modell kann nur dann gut verallgemeinern, wenn die Trainingsdaten alle relevanten Merkmale enthalten und nur wenige nicht relevante Merkmale. Deshalb sollte man analysieren, welche Merkmale wirklich ausgewertet werden müssen, um das Problem zu lösen, und das Modell nur mit diesen Merkmalen trainieren.[5]:59

Auswahl eines Modells

Es steht eine breite Palette von Lernalgorithmen zur Verfügung, von denen jeder seine Stärken und Schwächen hat. Man wählt ein bestimmtes Modell aus, indem man implizit Annahmen über die Daten macht. Beispielsweise wählt man ein lineares Modell, wenn man davon ausgeht, dass die Daten linear sind und Abweichungen der Datenpunkte von einer berechneten Geraden ignoriert werden können. Für andere Daten ist vielleicht ein Binärbaum oder ein künstliches neuronales Netz besser geeignet.

Die No-free-Lunch-Theoreme besagen, dass eine bestimmte Strategie, die in einem Teilbereich besser ist als eine andere, in einem anderen Teilbereich schlechter sein muss. Um das beste Modell zu finden, ohne Annahmen über die Daten zu treffen, müsste man alle bekannten Modelle evaluieren. In der Praxis trifft man Annahmen über die Verteilung der Daten, wählt wenige Modelle aus, die dafür gut geeignet sind und evaluiert nur diese.[5]:66

Verzerrung-Varianz-Dilemma

Beim überwachten Lernen muss oft ein Kompromiss zwischen Verzerrung und Varianz gefunden werden.[6]

Die Varianz bezieht sich auf den Betrag, um den sich die Vorhersage ändern würde, wenn das Modell sie auf der Basis eines anderen Trainingsdatensatzes treffen würde. Im Idealfall sollte die Vorhersage bei unterschiedlichen Trainingsdatensätzen nur wenig variieren. Dann kann das trainierte Modell gut verallgemeinern. Bei hoher Varianz führen jedoch unterschiedliche Trainingsdatensätze, also kleine Änderungen an den Trainingsdaten, zu sehr unterschiedlichen Vorhersagen. Dann kann das trainierte Modell nicht gut verallgemeinern. Grundsätzlich haben flexiblere statistische Methoden eine höhere Varianz, weil sie den Trainingsdatensatz sehr genau abbilden können und dadurch bei verrauschten oder wenig repräsentativen Daten das Risiko dafür steigt, dass das Modell viele Fehler macht, wenn es Vorhersagen für völlig neue Daten macht.[3] Dieses Problem bezeichnet man als Überanpassung. Man kann eine Überanpassung dadurch reduzieren, dass man das Modell vereinfacht, indem man beispielsweise vor dem Training die erlaubten Wertebereiche für die Modellparameter einschränkt. Dieses Vorgehen nennt man Regularisierung.[5]:60

Wenn das Modell andererseits zu einfach ist, dann gibt die Verzerrung den Fehler an, der dadurch entsteht, dass man das reale Problem, das sehr kompliziert sein kann, durch ein einfacheres Modell angenähert hat. Zum Beispiel geht eine lineare Regression davon aus, dass ein lineares Problem vorliegt. In der Realität liegen jedoch selten einfache lineare Probleme vor, und so führt die Durchführung einer linearen Regression oft zu einer gewissen Verzerrung zwischen der Vorhersage und dem erwarteten Ausgabewert.[3]

Definitionen

Um im Folgenden mathematische Zusammenhänge besser darstellen zu können, werden folgende Definitionen verwendet[7]:

= Input-Variablen (auch „erklärende Variablen“ genannt)
= Output/Ziel-Variablen (auch „erklärte Variablen“ genannt)
= Trainingspaar/Trainingsbeispiel
= Datensatz der zum Lernen verwendet wird (auch Lerndatensatz genannt)
= Die Hypothesenfunktion, die vom Algorithmus gelernt werden soll, um möglichst genau zu approximieren

Regressionsprobleme

Das Ziel von überwachtem Lernen im Falle von Regressionsproblemen ist meist, auf Basis von bestimmten erklärenden Variablen wie Größe oder Farbe eines Hauses etwas über diesen Sachverhalt vorauszusagen. Der Sachverhalt kann dabei grundlegend verschieden sein, beispielsweise der Preis von Häusern in bestimmter Umgebung oder die Entwicklung des Preises einer Aktie am nächsten Tag. Das Ziel ist es dementsprechend den Zusammenhang zwischen der erklärenden und der erklärten Variable anhand eines Trainingsdatensatzes zu erlernen und mit Hilfe dieses Zusammenhangs zukünftige Ereignisse, die noch nicht bekannt sind, vorherzusagen. Ein Beispiel für einen solchen Lernalgorithmus, der Vorhersagen treffen kann, ist die lineare Regression.

Lineare Regression

Einfache lineare Regression auf einem Datensatz

Die lineare Regression ist sehr einfaches Verfahren zur Durchführung einer Regression.[3] Das dazu verwendete Modell ist linear in den Parametern, wobei die abhängige Variable eine Funktion der unabhängigen Variablen ist.[3] Bei der Regression sind die Ausgaben der unbekannten Funktion verrauscht (fehlerbehaftet).

,

wobei die unbekannte Funktion darstellt und für zufälliges Rauschen steht. Die Erklärung für das Rauschen liegt darin, dass es zusätzliche verborgene Variablen gibt, die unbeobachtbar sind.[8] Hierzu wird die folgende Regressionsfunktion verwendet:

bzw. in Vektorschreibweise:

Die sind dabei die Parameter der Funktion und ist der Vektor, welcher die erklärenden Variablen enthält. Dementsprechend gewichten die Parameter die einzelnen erklärenden Variablen und werden deshalb auch oft als Regressionsgewichte bezeichnet.

Um nun aus den erklärenden Variablen eine möglichst genaue Annäherung an den Output zu erhalten, wird eine Kostenfunktion aufgestellt.

Diese Funktion beschreibt die mittlere quadratische Abweichung, die dadurch entsteht, dass die Hypothesenfunktion die zu erklärende Variable nur approximiert und nicht genau darstellt. Die Kostenfunktion wird beispielsweise durch die folgende Gleichung beschrieben:

Das Ziel ist es nun, diese Abweichung zu minimieren. Dazu müssen die Modellparameter so gewählt werden, dass sie die jeweiligen x-Werte richtig gewichten, um dem gewünschten y-Wert möglichst nahe zu kommen.

Die optimalen Modellparameter können auf zwei verschiedene Weisen ermittelt werden.

Eine Methode ist das sogenannte Gradientenverfahren.

Diese Methode umfasst folgende Schritte[9]:

  1. Es werden beliebige Werte für die Parameter gewählt.
  2. An diesem Punkt wird die Ableitung der Kostenfunktion gebildet und die steilste Steigung ermittelt
  3. Man geht diese Steigung in die negative Richtung entlang. Dabei wird die Größe der Schritte durch eine Lernrate bestimmt.
  4. Dieser Prozess wird so lange wiederholt bis man am Minimum der Kostenfunktion angekommen ist.

Dies ist in der folgenden Gleichung für ein einzelnes Beispiel dargestellt (Alpha steht hierbei für die Lernrate):

Diese Gleichung wird so oft wiederholt bis bzw. bis diese Differenz minimiert wurde und der Parameter somit seinen optimalen Wert gefunden hat.

Eine weitere Methode, die verwendet werden kann, sind die sogenannten Normalgleichungen (siehe Multiple lineare Regression). Mit dieser kann die Minimierung der Kostenfunktion explizit und ohne Rückgriff auf einen iterativen Algorithmus durchgeführt werden, indem die folgende Formel implementiert wird:

Diese Formel liefert uns die optimalen Werte der Parameter.

In der folgenden Tabelle[9] sind die Vor- und Nachteile von Gradientenverfahren und der Normalgleichung dargestellt.

Gradientenverfahren Normalgleichung
Die Lernrate Alpha muss festgelegt werden Es wird kein Alpha benötigt
Benötigt viele Schritte und Wiederholungen Kommt ohne Wiederholungen aus
Funktioniert gut auch bei vielen Daten Ab 10000 Beobachtungen wird die Berechnung langsam und die erforderte Rechenleistung sehr groß, da die Inverse gebildet werden muss.

Weitere Beispiele für Modelle zur Lösung von Regressionsproblemen

Klassifikationsprobleme

Anders als bei Regressionsproblemen kann der Output bei Klassifikationsproblemen nur diskrete Werte annehmen, die meistens in Form von qualitativen Daten vorliegen. Beispielsweise kann die Aufgabe darin bestehen, zu bestimmen, ob es sich bei einer neuen E-Mail um Spam handelt oder nicht. Dazu wird jedem Trainingsbeispiel eine der beiden Klassen „Spam“ oder „Kein Spam“ zugeordnet. Die Trainingsdaten dann bestehen aus den erklärenden Variablen und dem Output , bei dem der Wert der Klasse „Spam“ entspricht und der Wert der Klasse „Kein Spam“.

Man unterscheidet zudem zwischen Binären Klassifikationsproblemen und Klassifikationsproblemen, bei denen multiple Klassen vorliegen. Ein Beispiel hierfür wäre zu klassifizieren von welcher von drei Marken ein gekauftes Produkt ist (Die Klassen sind in diesem Fall Marke A, B oder C).

Logistische Regression

Beispiel einer logistischen Regression. Die Kurve zeigt die geschätzte Wahrscheinlichkeit dafür, ein Examen zu bestehen (ja/nein), in Abhängigkeit von der Lernzeit.

Die logistische Regression ist eine oft eingesetzte Methode zum Lösen von binären Klassifikationsproblemen. Sie schätzt zunächst, mit welcher Wahrscheinlichkeit ein gegebener Datenpunkt zu einer bestimmten Klasse gehört. Danach entscheidet sie, ob die berechnete Wahrscheinlichkeit größer ist als 50 %. In diesem Fall gibt sie diese Klasse als Ergebnis aus. Andernfalls gibt sie die andere Klasse als Ergebnis aus.[9]

Die Funktion zur Schätzung der Wahrscheinlichkeiten muss Werte zwischen 0 und 1 annehmen. Die logistische Regression verwendet dazu die Sigmoidfunktion, gegeben durch folgende Gleichung:

.

Sie lässt sich auf die Hypothesenfunktion folgendermaßen anwenden:

Da g(z) immer Werte zwischen 0 und 1 liefert, liegen auch die Werte von zwischen 0 und 1. Dies lässt sich im folgenden Graphen erkennen:

Die Werte der Sigmoid Funktion liegen immer zwischen 0 und 1 und werden im Kontext der logistischen Regression als Wahrscheinlichkeit für die Zugehörigkeit zu einer bestimmten Klasse interpretiert.

Die Einteilung einer Beobachtung in eine bestimmte Klasse erfolgt folgendermaßen:

Um eine möglichst akkurate Zuordnung der Datenpunkte zu den Zielklassen zu erreichen, werden die Parameter, ähnlich wie bei der linearen Regression, mit Hilfe einer geeigneten Funktion optimiert.

Wir nehmen dazu den folgenden Zusammenhang an:

Diese Gleichungen bedeuten, dass die Wahrscheinlichkeit, dass ein gegebener Datenpunkt der Klasse 1 angehört, durch das Ergebnis der Hypothesenfunktion gegeben ist.

Daraus folgt, dass die allgemeine bedingte Wahrscheinlichkeit für einen bestimmten Output y für einen gegebenen Datenpunkt x durch die folgende Funktion gegeben ist:

Multipliziert man diese Wahrscheinlichkeit nun für alle Trainingsdatenpunkte, erhält man die Formel für die sogenannte „Likelihood“ eines bestimmten Parameters.

Hat man bei der linearen Regression die mittlere quadratische Abweichung minimiert, um die optimalen Werte für die Parameter zu erhalten, maximiert man bei der logistischen Regression die Likelihood-Funktion, um die optimalen Werte der Parameter zu erhalten. Dieses Verfahren wird als Maximum-Likelihood-Methode bezeichnet.

Um die Maximierung zu erleichtern, wird oft auch die Log-Likelihood-Funktion gebildet:

Von dieser Funktion muss nun die Steigung berechnet werden, wozu der sogenannte gradient ascent verwendet wird. Er funktioniert ähnlich wie das bei der linearen Regression angewendete Gradientenverfahren, außer dass er eine Addition anstatt einer Subtraktion durchführt, da die Log-Likelihood-Funktion maximiert und nicht minimiert werden soll. Durch die folgende Gleichung erhält man somit den optimierten Wert des Parameters:

Perzeptron-Algorithmus

In den 1960er Jahren wurde der sogenannte Perzeptron-Algorithmus entwickelt. Er wurde entsprechend den Vorstellungen der damaligen Zeit über die Funktionsweise des Gehirns aufgebaut.[7]

Der wesentliche Unterschied zwischen dem Perzepton Algorithmus und der logistischen Regression ist, dass die Funktion entweder den Wert 0 oder den Wert 1 annimmt, aber nicht wie bei der logistischen Regression einen beliebigen Wert zwischen 0 und 1.[7] Dies wird sichergestellt, indem die Funktion nicht wie bei der logistischen Regression mit Hilfe einer Sigmoid Funktion einen Wert zwischen 0 und 1 annimmt, sondern entsprechend der Formeln:

wenn
wenn

entweder genau 0 oder genau 1 entspricht.

Es gilt weiterhin:

Und die Updating Regel ist ebenfalls beschrieben durch:

Diese Gleichung sieht sehr ähnlich aus zu den Lernprozessen der vorherigen Algorithmen. Es muss jedoch beachtet werden, dass durch die Definition von Perzeptron einen nicht sonderlich fließenden Lernprozess hat, da der Fehler, der entsteht, wenn ein Input durch den Algorithmus falsch klassifiziert wird, entweder wesentlich überschätzt oder unterschätzt werden kann, in dem nur 1 oder 0 annehmen kann. So wird beispielsweise, wenn beträgt sowie wenn beträgt in beiden Fällen die Klasse 0 vorhergesagt. Gehören die Beobachtungen allerdings in Wahrheit Klasse 1 an, so werden die Parameter in beiden Fällen, um den gleichen Wert angepasst.[7]

Weitere Beispiele für überwachte Lernalgorithmen zur Klassifikation

Siehe auch

Einzelnachweise

  1. Jörg Frochte: Maschinelles Lernen - Grundlagen und Algorithmen in Python. 3. Auflage. Carl Hanser, München 2021, ISBN 978-3-446-46144-4, S. 21–22.
  2. Guido, Sarah, Rother, Kristian: Einführung in Machine Learning mit Python Praxiswissen Data Science. Heidelberg, ISBN 978-3-96009-049-6.
  3. a b c d e f g h James, Gareth (Gareth Michael): An introduction to statistical learning : with applications in R. New York, NY, ISBN 978-1-4614-7137-0.
  4. Alex Smola: Introduction to Machine Learning. Hrsg.: Cambridge University Press. Cambridge 2008, ISBN 0-521-82583-0.
  5. a b c d e Aurélien Géron: Praxiseinstieg Machine Learning. 3. Auflage. dpunkt Verlag, Heidelberg 2023, ISBN 978-3-96009-212-4, S. 71–127.
  6. S. Geman, E. Bienenstock, and R. Doursat: Neural networks and the bias/variance dilemma. In: Neural Computation. Band 4, S. 1–58.
  7. a b c d Andrew Ng: CS229 Lecture notes. (PDF) 2012, archiviert vom Original (nicht mehr online verfügbar) am 23. Juli 2013; abgerufen am 12. November 2017.  Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.@1@2Vorlage:Webachiv/IABot/cs229.stanford.edu
  8. Ethem Alpaydin: Maschinelles Lernen., 2., erweiterte Auflage, De Gruyter, Berlin 2019, ISBN 978-3-11-061789-4 (abgerufen über De Gruyter Online). S. 37
  9. a b c Andrew Ng: Introduction to Machine Learning. Abgerufen am 12. November 2017.

Read other articles:

الثيروكسين ثلاثي يود الثيرونين هرمونات الغدة الدرقية هي الهرمونات التي تنتجها الغدة الدرقية وتحررها في الدم، وتشمل ثلاثي يود الثيرونين (تي3) والثيروكسين (تي4). هي هرمونات مشتقة من التيروزين، مسؤولة بشكل أساسي عن تنظيم عملية الأيض (التمثيل الغذائي). يتكون كل من تي3 وتي4 جزئيً�...

 

U.S. House district for Ohio Ohio's 8th congressional districtInteractive map of district boundaries since January 3, 2023Representative  Warren DavidsonR–TroyDistribution77.95% urban22.05% ruralPopulation (2022)781,678[1]Median householdincome$72,748[2]Ethnicity74.5% White12.6% Black5.0% Hispanic4.3% Two or more races3.0% Asian0.7% otherCook PVIR+14[3] Ohio's 8th congressional district sits on the west side of Ohio, bordering Indiana. The cities of Hamilton, Fa...

 

Principati Uniti (1859–62)Principati Uniti Rumeni (1862–66)Principato di Romania (1866–81) (dettagli) (dettagli) Motto: Nihil Sine Deo Principati Uniti (1859–62)Principati Uniti Rumeni (1862–66)Principato di Romania (1866–81) - Localizzazione Dati amministrativiNome ufficialePrincipatele Unite (1859–62)Principatele Unite Române (1862–66)Principatele România (1866–81) Lingue ufficialirumeno Lingue parlaterumeno InnoMăriei-Sale Prinţul Domnitor CapitaleIași e Bucarest (18...

هذه المقالة بحاجة لصندوق معلومات. فضلًا ساعد في تحسين هذه المقالة بإضافة صندوق معلومات مخصص إليها. يستخدم التقويم الأرمني نظام ترقيم الأعوام منذ عام 552 والذي يشير إلى انفصال كنيسة الأرمن الأرثوذكس عن الكنيسة الرومانية الكاثوليكية خلال شقاق المونوفيزية. ينقس�...

 

Синелобый амазон Научная классификация Домен:ЭукариотыЦарство:ЖивотныеПодцарство:ЭуметазоиБез ранга:Двусторонне-симметричныеБез ранга:ВторичноротыеТип:ХордовыеПодтип:ПозвоночныеИнфратип:ЧелюстноротыеНадкласс:ЧетвероногиеКлада:АмниотыКлада:ЗавропсидыКласс:Пт�...

 

BalanipaKecamatanNegara IndonesiaProvinsiSulawesi BaratKabupatenPolewali MandarPemerintahan • CamatMuhammad Sukri, SHPopulasi • Total- jiwaKode Kemendagri76.04.12 Kode BPS7602011 Luas- km²Desa/kelurahan- Raja Balanipa berangkat menuju kediaman assistent-resident Mamuju (tahun 1938) Balanipa adalah sebuah Kecamatan di Kabupaten Polewali Mandar, Sulawesi Barat, Indonesia. Kecamatan ini akan diwacanakan menjadi pusat pemerintahan (ibu kota) Kabupaten Balanipa jika t...

Brazilian poet, pharmacist and professor Alberto de OliveiraBornAntônio Mariano de Oliveira(1857-04-28)April 28, 1857Saquarema, Rio de Janeiro, BrazilDiedJanuary 19, 1937(1937-01-19) (aged 79)Niterói, Rio de Janeiro, BrazilOccupationPoet, professor, pharmacistNationality BrazilianLiterary movementParnassianismNotable worksPoesias A caricature of Alberto de Oliveira, by Belmiro de Almeida. Antônio Mariano de Oliveira (April 28, 1857 – January 19, 1937) was a Brazilian poet, pharmacis...

 

Kadmi Cohen (ca. 1930) (Isaac) Kadmi Cohen (1892–1944) was a French writer. Born in 1892 in Łódź (Poland), he emigrated to Palestine, where he studied at Lyceum Herzliah in Tel Aviv. In 1914 he joined as a volunteer in the French Foreign Legion. In 1920 he was naturalized French due to his participation in the war. He was a lawyer and the founder of the Paris Union of young lawyers. In 1922 he discussed a dissertation in philosophy entitled Introduction à l'histoire des institutions so...

 

この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方)出典検索?: コルク – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2017年4月) コルクを打ち抜いて作った瓶の栓 コルク(木栓、�...

Artikel ini perlu diwikifikasi agar memenuhi standar kualitas Wikipedia. Anda dapat memberikan bantuan berupa penambahan pranala dalam, atau dengan merapikan tata letak dari artikel ini. Untuk keterangan lebih lanjut, klik [tampil] di bagian kanan. Mengganti markah HTML dengan markah wiki bila dimungkinkan. Tambahkan pranala wiki. Bila dirasa perlu, buatlah pautan ke artikel wiki lainnya dengan cara menambahkan [[ dan ]] pada kata yang bersangkutan (lihat WP:LINK untuk keterangan lebih lanjut...

 

You can help expand this article with text translated from the corresponding article in French. Click [show] for important translation instructions. Machine translation, like DeepL or Google Translate, is a useful starting point for translations, but translators must revise errors as necessary and confirm that the translation is accurate, rather than simply copy-pasting machine-translated text into the English Wikipedia. Do not translate text that appears unreliable or low-quality. If possibl...

 

Category of substances Heavy metal poisoning redirects here. For the 1983 Styx song, see Heavy Metal Poisoning. A 25-foot (7.6 m) wall of coal fly ash contaminated with toxic heavy metals, resulting from the release of 5.4 million cubic yards of coal fly ash slurry into the Emory River, Tennessee, and nearby land and water features, in December 2008.[1] Testing showed significantly elevated levels of arsenic, copper, barium, cadmium, chromium, lead, mercury, nickel, and thallium ...

Part of a series onEarly Buddhism Scriptures Early Buddhist Texts (EBT) Tripiṭaka Nikayas Āgamas Gandhāran EBTs Prātimokṣa Abhidharma Jatakas Avadanas Mahāvastu Śālistamba Sūtra Tibetan EBTs in the Kangyur Early sangha Gautama Buddha Sāriputta Mahāmoggallāna Mahāpajāpatī Gotamī Mahakasyapa Ānanda Upāli Mahākātyāyana Devadatta Anāthapiṇḍika Pre-sectarian Buddhism Kingdom of Magadha Ashoka Moggaliputtatissa Buddhist councils Early Buddhist schools Pre-sectarian Buddh...

 

American business magnate (1902–1984) Ray KrocKroc in 1976BornRaymond Albert Kroc(1902-10-05)October 5, 1902Oak Park, Illinois, United StatesDiedJanuary 14, 1984(1984-01-14) (aged 81)San Diego, California, United StatesPolitical partyRepublicanSpouses Ethel Fleming ​ ​(m. 1922; div. 1961)​ Jane Dobbins Green ​ ​(m. 1963; div. 1968)​ Joan Kroc ​(m. 1969)​ Children...

 

السرعة المدارية لأي جرم فلكي سواء كان كوكبا أوقمرا طبيعيا أوقمرا اصطناعيا أومتعددا هي سرعة حركته أثناء سيره في المدار.وتزداد السرعة المدارية كلما قرب الساتل من الجسم الذي يدور حوله.وتنخفض بابتعاده عن مركز الدوران.[1] فالقمر الاصطناعي الذي يدور في المدار الأرضي المنخف�...

NASA satellite of the Explorer program Explorer 26Explorer 26 satelliteNamesEPE-DNASA S-3CMission typeSpace physicsOperatorNASACOSPAR ID1964-086A SATCAT no.00963Mission duration12 months (planned) 56 years, 8 months and 1 day (achieved) Spacecraft propertiesSpacecraftExplorer XXVIBusS3ManufacturerGoddard Space Flight CenterLaunch mass45.8 kg (101 lb) [1]Power4 deployable solar arrays and batteries Start of missionLaunch date21 December 1964,09:00:03 GMTRocketT...

 

Main article: Administrative divisions of China Map comparing administrative divisions as drawn by current PRC and the ROC before 1946.Claimed divisions of the PRC in 1949.Claimed divisions of the PRC in 1950.Claimed divisions of the PRC in 1966.Claimed divisions of the PRC in 1979. The history of the administrative divisions of China after 1949 refers to the administrative divisions under the People's Republic of China. In 1949, the communist forces initially held scattered fragments of Chi...

 

Hydrodynamic and hydrostatic effects on marine organisms Sea water is 827 times denser than air. Due to the higher density of sea water (1,030 kg m−3) than air (1.2 kg m−3), the force exerted by the same velocity on an organism is 827 times stronger in the ocean. When waves crash on the shore, the force exerted on littoral organisms can be equivalent to several tons. Roles of water Water forms the ocean, produces the high density fluid environment and greatly affects the oceanic...

Tea Party NationFormation2009HeadquartersFranklin, TennesseeLeaderJudson PhillipsKey peopleTom TrentoWebsiteTeaPartyNation.com Tea Party Nation is a conservative American group considered part of the Tea Party movement. Their official website describes them as group of like-minded people who desire our God given Individual Freedoms which were written out by the Founding Fathers. We believe in Limited Government, Free Speech, the 2nd Amendment, our Military, Secure Borders and our Country![...

 

Serbian footballer This article has multiple issues. Please help improve it or discuss these issues on the talk page. (Learn how and when to remove these template messages) This article needs to be updated. Please help update this article to reflect recent events or newly available information. (May 2023) This article is missing information about the player's career. Please expand the article to include this information. Further details may exist on the talk page. (May 2023) (Learn how and wh...