Cadena de Márkov

En la teoría de la probabilidad, se conoce como cadena de Márkov o modelo de Márkov a un tipo especial de proceso estocástico discreto en el que la probabilidad de que ocurra un evento depende solamente del evento inmediatamente anterior. Esta característica de incluir una memoria reciente recibe el nombre de propiedad de Markov en contraste con los eventos independientes que no tienen memoria de ningún evento anterior. En un primer artículo de 1906 A. A. Markov definió la "cadena simple" como "una secuencia infinita de variables conectadas de tal modo que para cualquier es independiente de , en el caso de que sea conocida”. Markov llamó a la cadena "homogénea" si la distribución condicional de dado fuese independiente de . También consideró cadenas "complejas (complex en inglés)" en las que "cada número está conectado directamente no sólo con uno, sino con varios números anteriores".[1]

Cadena simple biestable de Markov

Recibe su nombre del matemático ruso Andréi Márkov (1856-1922), que lo introdujo en 1906.[1]

Estos modelos estadísticos cuentan con un gran número de aplicaciones reales.

Definición

En matemáticas, una Cadena de Markov es un proceso estocástico a tiempo discreto con espacio de estados discreto que para cualquier entero y para cualesquiera satisface

a esta propiedad se le conoce como propiedad de Markov.

Características

Cadenas homogéneas y no homogéneas

Se dice que una Cadena de Markov es homogénea si la probabilidad de ir del estado al estado en un paso no depende del tiempo en el que se encuentra la cadena, esto es:

para todo y para cualquier .

Si para alguna pareja de estados y para algún tiempo la propiedad antes mencionada no se cumple entonces diremos que la Cadena de Markov es no homogénea.

Probabilidades de Transición

Sean y dos estados de una Cadena de Markov. La probabilidad de ir del estado en el tiempo al estado en el tiempo se denota por

.

Cuando la cadena es homogénea, esta probabilidad se denota por

,

que representa la probabilidad de pasar del estado al estado en una unidad de tiempo.

Las probabilidades de transición suelen venir dadas mediante números reales. Si estas probabilidades no se conocen de forma precisa, es necesario estimarlas de alguna manera con la incertidumbre que implica cualquier procedimiento de estimación.[2][3]​ Así, por ejemplo, se pueden estimar mediante intervalos modales[4]​ o por números borrosos.[5]

Matriz de Probabilidades de Transición

Teniendo las probabilidades de transición en un paso ,, si variamos los índices sobre el espacio de estados obtenemos la matriz llamada matriz de probabilidades de transición en un paso, es decir:

donde la entrada representa la probabilidad de pasar del estado al estado en un paso.

La matriz es una matriz estocástica pues satisface

Similarmente se define la matriz de probabilidades de transición en pasos, esta se denota por y está dada por

donde la entrada representa la probabilidad de pasar del estado al estado en pasos.

Ecuación de Chapman-Kolmogorov

Para cualesquiera tales que y para cualesquiera estados se cumple

Como consecuencia de este resultado, la probabilidad de transición en pasos, , está dada por la entrada de la -ésima potencia de la matriz de probabilidades de transición en un paso, es decir

Con lo anterior, el problema de calcular las probabilidades de transición en pasos se convierte en hallar la -ésima potencia de la matriz de probabilidades de transición en un paso, esto es

Clases de comunicación

Para dos estados y en el espacio de estados , diremos que el estado es accesible desde el estado y escribiremos si tal que

si y entonces diremos que el estado se comunica con el estado y escribiremos .

La propiedad "" es una relación de equivalencia. Esta relación induce una partición del espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.

Dado un estado , denotaremos a su clase de comunicación como , por lo que si y sólo si .

Si entonces se dice que la cadena es irreducible.

Periodicidad

El periodo de un estado se define como:

donde denota el máximo común divisor.

  • Si diremos que es un estado aperiódico.
  • Si diremos que tiene periodo .

Una cadena de Márkov se dice aperiódica si todos sus estados son aperiódicos, es decir, sí .

Tiempos de Primera Visita

Si , definimos el tiempo de primera visita a como la variable aleatoria

esto es, denota la primera vez que la cadena entra al conjunto de estados .

Probabilidad de Primera Visita

Se define

como la probabilidad de que una cadena que inicia en el estado llegue al estado por primera vez en pasos, donde .

En particular, cuando , denota la probabilidad de regresar por primera vez al estado en pasos.

Y se definen

como la probabilidad de una eventual visita a partir del estado al estado y

como la probabilidad de partir del estado y regresar a él mismo en un tiempo finito.

Recurrencia

En una cadena de Markov con espacio de estados , diremos que:

  • es un estado recurrente si .
  • es transitorio si .

o utilizando las probabilidades de transición en pasos:

  • es recurrente si
  • es transitorio si

La recurrencia es una propiedad de clase pues

  • Si es recurrente e entonces es recurrente.
  • Si es transitorio e entonces es transitorio.

Tiempo Medio de Recurrencia

Se define como el tiempo medio de recurrencia de un estado recurrente a partir del estado como la esperanza de

y se denota por

,

Esta esperanza representa el número de pasos promedio que a la cadena le toma regresar al estado recurrente .

En particular, cuando escribimos en lugar de .

Se dice que un estado recurrente es

  • recurrente nulo si .
  • recurrente positivo si .

La recurrencia positiva es una propiedad de clase pues

  • Si es recurrente positivo e entonces es recurrente positivo.
  • Si es recurrente nulo e entonces es recurrente nulo.

Distribuciones Estacionarias

Se dice que el vector es una distribución de probabilidad si

Se dice que una distribución de probabilidad es estacionaria para una Cadena de Markov con matriz de probabilidades de transición si

En forma matricial lo anterior es equivalente a y significa que si una variable aleatoria inicial tiene una distribución entonces la distribución de también es , es decir, esta distribución no cambia con el paso del tiempo.

Para encontrar una posible distribución estacionaria de una cadena con matriz , un método consiste en resolver el sistema de ecuaciones

La distribución estacionaria puede no ser única o incluso no existir.

Existencia y Unicidad

Si una Cadena de Markov es irreducible y recurrente positiva entonces tiene una única distribución estacionaria y esta está dada por

donde es el tiempo medio de recurrencia del estado .

Convergencia a la distribución estacionaria

Si una cadena de Markov es

  • Irreducible
  • Aperiódica
  • Con distribución estacionaria

entonces para cualesquiera

Convergencia para Cadenas de Markov

Si una cadena de Markov es

  • Irreducible
  • Recurrente positiva
  • Aperiódica

entonces las probabilidades límite

existen, están dadas por

y constituyen la única solución al sistema de ecuaciones

Tipos de Cadenas de Markov

Cadenas irreducibles

Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre sí):

  1. Desde cualquier estado de se puede acceder a cualquier otro.
  2. Todos los estados se comunican entre sí.
  3. para algún .
  4. para todo .
  5. El único conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Márkov irreducibles.

Cadenas Recurrentes Positivas

Una cadena de Markov se dice recurrente positiva si todos sus estados son recurrentes positivos. Si la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y está dado por:

Cadenas Regulares

Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.

Cuando el espacio de estados es finito, si denota la matriz de transición de la cadena se tiene que:

donde es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, este vector invariante es único.

Cadenas Absorbentes

Una cadena de Márkov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes:

  1. La cadena tiene al menos un estado absorbente.
  2. De cualquier estado no absorbente se accede a algún estado absorbente.

Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados:

  • Su matriz de transición siempre se puede llevar a una de la forma

donde la submatriz Q corresponde a los estados del conjunto , es la matriz identidad, es la matriz nula y alguna submatriz.

  • , esto es, no importa en donde se encuentre la cadena, finalmente terminará en un estado absorbente.

Cadenas de Markov a tiempo continuo

Si en lugar de considerar una secuencia discreta con indexado en el conjunto de números naturales, se consideran las variables aleatorias con que varía en un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa de la siguiente manera:

tal que

Para una cadena de Márkov continua con un número finito de estados puede definirse una matriz estocástica dada por:

La cadena se denomina homogénea si . Para una cadena de Márkov en tiempo continuo homogénea y con un número finito de estados puede definirse el llamado generador infinitesimal como:[6]

Y puede demostrarse que la matriz estocástica viene dada por:

Aplicaciones

Meteorología

Si consideramos el tiempo atmosférico de una región a través de distintos días, es posible asumir que el estado actual solo depende del último estado y no de toda la historia en sí, de modo que se pueden usar cadenas de Markov para formular modelos climatológicos básicos. Por ejemplo, se han desarrollado modelos de recurrencia de las lluvias basados en cadenas de Markov.[7]

Modelos epidemiológicos

Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-Watson. Este es un proceso de ramificación que se puede usar, entre otras cosas, para modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).

Internet

El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a través de una cadena de Markov, donde la posición que tendrá una página en el buscador será determinada por su peso en la distribución estacionaria de la cadena.

Simulación

Las cadenas de Márkov son utilizadas para proveer una solución analítica a ciertos problemas de simulación, por ejemplo en teoría de colas el Modelo M/M/1[8]​ es de hecho un modelo de cadenas de Markov.

Juegos de azar

Son muchos los juegos de azar que se pueden modelar a través de una cadena de Márkov. El modelo de la ruina del jugador (Gambler's ruin), que establece la probabilidad de que una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las aplicaciones de las cadenas de Márkov en este rubro.

Economía y finanzas

Las cadenas de Márkov se pueden utilizar en modelos simples de valuación de opciones para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos de una bolsa de valores o para determinar la volatilidad de los precios. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Genética

Se emplean cadenas de Márkov en teoría de genética de poblaciones, para describir el cambio de frecuencias génicas en una población pequeña con generaciones discretas, sometida a deriva genética. Ha sido empleada en la construcción del modelo de difusión de Motō Kimura.

Música

Diversos algoritmos de composición musical usan cadenas de Márkov, por ejemplo el software Csound o Max. Uno de los compositores que usó esta técnica en sus composiciones fue Iannis Xenakis con su obra Analoguique A et B (1958–59).

Operaciones

Se emplean cadenas de Márkov en inventarios, mantenimiento y flujo de proceso.

Redes neuronales

Se utilizan en las máquinas de Boltzmann.

Referencias

  1. a b Basharin, Gely P.; Langville, Amy N.; Naumov, Valeriy A. (2004). «The Life and Work of A. A. Markov». Linear Algebra and its Applications (en inglés) 386: 3-26. Consultado el 31 de marzo de 2010. 
  2. Buckley, J.J.; Eslami, E. (2002). Fuzzy Markov Chains: Uncertain Probabilities. Mathware and Soft Computing 9, 33–41.
  3. Villacorta, P.J.; Verdegay, J.L. FuzzyStatProb: An R Package for the Estimation of Fuzzy Stationary Probabilities from a Sequence of Observations of an Unknown Markov Chain. Journal of Statistical Software 2016, 71, 1–27, https://doi.org/10.18637/jss.v071.i08
  4. Adillon, R.; Lambert, J.; Mármol, M. (2020). Modal interval probability: Application to Bonus-Malus Systems. International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems 28, 837–851, https://doi.org.10.1142/S0218488520500361
  5. Villacorta Iglesias, P.J.; González-Vila Puchades, L. and Andrés-Sánchez, J. de. (2021). Fuzzy Markovian Bonus-Malus Systems in Non-Life Insurance. Mathematics, 9(4), 347, https://doi.org/10.3390/math9040347
  6. Masaki Kijima, 1997, p. 175
  7. R. Gabriel & J. Neumann (2006): A Markov chain model for daily rainfall occurrence at Tel Aviv
  8. Masaki Kijima, 1997, pp. 287-290.

Bibliografía

  • A.A. Márkov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete, 2-ya seriya, tom 15, pp. 135–156, 1906.
  • A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reprinted in Appendix B of: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains. John Wiley and Sons, 1971.
  • Classical Text in Translation: A. A. Markov, An Example of Statistical Investigation of the Text Eugene Onegin Concerning the Connection of Samples in Chains, trans. David Link. Science in Context 19.4 (2006): 591–600. Online: http://journals.cambridge.org/production/action/cjoGetFulltext?fulltextid=637500
  • Leo Breiman. Probability. Original edition published by Addison-Wesley, 1968; reprinted by Society for Industrial and Applied Mathematics, 1992. ISBN 0-89871-296-3. (See Chapter 7.)
  • J.L. Doob. Stochastic Processes. New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0.
  • S. P. Meyn and R. L. Tweedie. Markov Chains and Stochastic Stability. London: Springer-Verlag, 1993. ISBN 0-387-19832-6. en línea: [1] . Second edition to appear, Cambridge University Press, 2009.
  • S. P. Meyn. Control Techniques for Complex Networks. Cambridge University Press, 2007. ISBN 978-0-521-88441-9. Appendix contains abridged Meyn & Tweedie. en línea: https://web.archive.org/web/20100619011046/https://netfiles.uiuc.edu/meyn/www/spm_files/CTCN/CTCN.html
  • Booth, Taylor L. (1967). Sequential Machines and Automata Theory (1st edición). Nueva York: John Wiley and Sons, Inc. Library of Congress Card Catalog Number 67-25924.  Extensive, wide-ranging book meant for specialists, written for both theoretical computer scientists as well as electrical engineers. With detailed explanations of state minimization techniques, FSMs, Turing machines, Markov processes, and undecidability. Excellent treatment of Markov processes pp. 449ff. Discusses Z-transforms, D transforms in their context.
  • Kemeny, John G.; Mirkil, Hazleton; Snell, J. Laurie; Thompson, Gerald L. (1959). Finite Mathematical Structures (1st edición). Englewood Cliffs, N.J.: Prentice-Hall, Inc. Library of Congress Card Catalog Number 59-12841.  Classical text. cf Chapter 6 Finite Markov Chains pp. 384ff.
  • Kijima, Masaaki (1997). Markov Processes for Stochastic Modeling (1st edición). Cambridge: Chapman & Hall. ISBN 0 412 60660 7. 
  • E. Nummelin. "General irreducible Markov chains and non-negative operators". Cambridge University Press, 1984, 2004. ISBN 0-521-60494-X

Enlaces externos

a

Read other articles:

American politician (1890–1961) Millard TydingsUnited States Senatorfrom MarylandIn officeMarch 4, 1927 – January 3, 1951Preceded byOvington WellerSucceeded byJohn Marshall ButlerMember of the U.S. House of Representativesfrom Maryland's 2nd districtIn officeMarch 4, 1923 – March 3, 1927Preceded byAlbert BlakeneySucceeded byWilliam Purington Cole, Jr.Member of the Maryland SenateIn office1922–1923Preceded byJ. Royston StiflerSucceeded byDavid G. HarryCons...

 

 

American jazz saxophonist and flutist NajeePhoto by William HendersonBackground informationBirth nameJerome Najee RasheedBorn (1957-11-04) November 4, 1957 (age 66)New York City, New York, U.S.GenresJazz, smooth jazz, R&BOccupation(s)MusicianInstrument(s)Saxophone, fluteYears active1986–presentLabelsEMI, Capitol, Blue Note, Verve Forecast, Heads Up, Telarc, E1, Concord ShanachieWebsiteOfficial siteMusical artist Jerome Najee Rasheed (born November 4, 1957, New York City), known pro...

 

 

Porta RomanaPorta Romanamura romane di MilanoModello in legno conservato presso il Civico museo archeologico di Milano che mostra una ricostruzione della Mediolanum imperialeUbicazioneStato attuale Italia CittàMilano Coordinate45°27′37.16″N 9°11′19.47″E / 45.460322°N 9.188741°E45.460322; 9.188741Coordinate: 45°27′37.16″N 9°11′19.47″E / 45.460322°N 9.188741°E45.460322; 9.188741 Informazioni generaliStileromano Inizio costruzione49 a...

Aldo Florenzi Nazionalità  Italia Altezza 168 cm Calcio Ruolo Centrocampista Squadra  Cosenza Carriera Giovanili 2015-2019 Chievo2019-2021 Cosenza Squadre di club1 2021- Cosenza67 (3)[1] Nazionale 2022 Italia U-201 (0) 1 I due numeri indicano le presenze e le reti segnate, per le sole partite di campionato.Il simbolo → indica un trasferimento in prestito. Statistiche aggiornate al 28 febbraio 2024 Modifica dati su Wikidata · Manuale Aldo Florenzi...

 

 

Dam in Benton County, WashingtonHorn Rapids DamWannawish Dam with south canal in foregroundLocationBenton County, WashingtonCoordinates46°22′43″N 119°25′01″W / 46.37861°N 119.41694°W / 46.37861; -119.41694Opening date1892Dam and spillwaysImpoundsYakima RiverHeight12 ft (3.7 m)Length520 ft (160 m)[1] Horn Rapids Dam (also known as Wanawish Dam) is a concrete barrage dam on the Yakima River in Benton County, Washington near th...

 

 

Highway in California CA 125 redirects here. For the cancer marker, see CA-125. South Bay Expressway redirects here. Not to be confused with South Bay Freeway, the westernmost segment of California State Route 54. State Route 125SR 125 highlighted in redRoute informationMaintained by Caltrans and SANDAGLength22.302 mi[1] (35.892 km)Touristroutes SR 125 between SR 94 in Spring Valley and I-8 in La Mesa[2]Major junctionsSouth end SR 11...

First Valide Sultan of the Ottoman Empire from 1520 to 1534 Not to be confused with Ayşe Hatun (wife of Selim I) or Hafsa Hatun. In this Ottoman Turkish style name, the given name is Ayşe Hafsa, the title is Sultan, and there is no family name. Hafsa SultanHafsa Sultan Portrait.Valide sultan of the Ottoman EmpireTenure30 September 1520 – 19 March 1534PredecessorGülbahar Hatun (as Valide Hatun)SuccessorNurbanu SultanBornc. 1472Crimea (?)Died19 March 1534(1534-03-19) (aged 61�...

 

 

Державний комітет телебачення і радіомовлення України (Держкомтелерадіо) Приміщення комітетуЗагальна інформаціяКраїна  УкраїнаДата створення 2003Керівне відомство Кабінет Міністрів УкраїниРічний бюджет 1 964 898 500 ₴[1]Голова Олег НаливайкоПідвідомчі ор...

 

 

2020年夏季奥林匹克运动会波兰代表團波兰国旗IOC編碼POLNOC波蘭奧林匹克委員會網站olimpijski.pl(英文)(波兰文)2020年夏季奥林匹克运动会(東京)2021年7月23日至8月8日(受2019冠状病毒病疫情影响推迟,但仍保留原定名称)運動員206參賽項目24个大项旗手开幕式:帕维尔·科热尼奥夫斯基(游泳)和马娅·沃什乔夫斯卡(自行车)[1]闭幕式:卡罗利娜·纳亚(皮划艇)&#...

ماكس بورن (بالإنجليزية: Max Born)‏    معلومات شخصية الميلاد 11 ديسمبر 1882 [1][2][3][4]  فروتسواف[5][6][7]  الوفاة 5 يناير 1970 (87 سنة) [1][8][2][3][4]  غوتينغن[9][10]  الإقامة غوتينغنإدنبرةفروتسوافكامبريدجباد بيرمونت  مواط...

 

 

Village in County Wicklow, Ireland Not to be confused with Woodbridge. Village in Leinster, IrelandWoodenbridge An Droichead AdhmaidVillageThe R747 over the Aughrim River, the former WoodenbridgeWoodenbridgeLocation in IrelandCoordinates: 52°50′05″N 6°14′40″W / 52.834771°N 6.244445°W / 52.834771; -6.244445CountryIrelandProvinceLeinsterCountyCounty WicklowElevation25 m (82 ft)Time zoneUTC+0 (WET) • Summer (DST)UTC-1 (IST (WEST)) Woodenb...

 

 

كمال الجنزوري رئيس مجلس الوزراء في المنصب7 ديسمبر 2011 – 25 يونيو 2012 الرئيس المجلس الأعلى للقوات المسلحة عصام شرف هشام قنديل رئيس مجلس الوزراء في المنصب4 يناير 1996 – 5 أكتوبر 1999 الرئيس محمد حسني مبارك عاطف صدقي عاطف عبيد وزير التخطيط والتعاون الدولي في المنصب9 نوفمبر 1986 – 4 ينا�...

一中同表,是台灣处理海峡两岸关系问题的一种主張,認為中华人民共和国與中華民國皆是“整個中國”的一部份,二者因為兩岸現狀,在各自领域有完整的管辖权,互不隶属,同时主張,二者合作便可以搁置对“整个中國”的主权的争议,共同承認雙方皆是中國的一部份,在此基礎上走向終極統一。最早是在2004年由台灣大學政治学教授張亞中所提出,希望兩岸由一中各表�...

 

 

إيفان توني (بالإنجليزية: Ivan Toney)‏ توني مع برينتفورد عام 2021 معلومات شخصية الاسم الكامل إيفان بينيامين إليجاه توني[1] الميلاد 16 مارس 1996 (العمر 28 سنة)[2]نورثامبتون، إنجلترا الطول 5 قدم 10 بوصة (1.79 م)[3] مركز اللعب مهاجم الجنسية إنجليزي معلومات النادي النادي الح�...

 

 

Cet article est une ébauche concernant une unité ou formation militaire française. Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants. 246e régiment d'infanterie Création août 1914 Pays France Branche Armée de terre Type Régiment d'infanterie Rôle Infanterie Inscriptionssur l’emblème La Marne 1914Artois 1915 Anniversaire Saint-Maurice Guerres Première Guerre mondiale Batailles 1918 - 2e Bataille de...

Disambiguazione – Se stai cercando altri significati, vedi Wall Street (disambigua). Questa voce o sezione sull'argomento economia è priva o carente di note e riferimenti bibliografici puntuali. Commento: la pagina manca completamente di note, riferimenti e bibliografia, mentre contiene POV superflui Sebbene vi siano una bibliografia e/o dei collegamenti esterni, manca la contestualizzazione delle fonti con note a piè di pagina o altri riferimenti precisi che indichino puntualmente ...

 

 

Questa voce o sezione sugli argomenti scultori italiani e pittori italiani non cita le fonti necessarie o quelle presenti sono insufficienti. Puoi migliorare questa voce aggiungendo citazioni da fonti attendibili secondo le linee guida sull'uso delle fonti. Segui i suggerimenti dei progetti di riferimento 1, 2. Ferruccio Bolognesi (Mantova, 21 febbraio 1924 – Mantova, 2002) è stato un pittore, scultore e partigiano italiano. Ferruccio Bolognesi tra i donatori della Biblioteca Teresia...

 

 

FluoriteClassificazione Strunz3.AB.25 Formula chimicaCaF2 Proprietà cristallograficheGruppo cristallinomonometrico Sistema cristallinocubico Classe di simmetriacubica esacisottaedrica Parametri di cellaa= 5,463 Å, Z=4, V=163,04 Å³ Gruppo puntuale4/m 3 2/m Gruppo spazialeF m3m Proprietà fisicheDensità3,13[1], 3.18[2] g/cm³ Densità misurata3,175 – 3,56 g/cm³ Densità calcolata3,181 g/cm³ Durezza (Mohs)4[1][2] SfaldaturaPerfetta&#...

L'edificio della discoteca Scala mentre brucia. Il caso Scala è stato il processo giudiziario per un incendio provocato nel locale Scala di Barcellona nel 15 gennaio 1978 che portò alla morte di quattro persone, nel quale si provò ad incolpare alle organizzazioni anarchiche Confederación Nacional del Trabajo (CNT) e Federación Anarquista Ibérica (FAI).[1] Indice 1 I fatti 2 Processo giudiziario 3 Note 4 Voci correlate 5 Altri progetti I fatti Durante la mattina del 15 gennaio 19...

 

 

1977 compilation album by Faron YoungThe Best of Faron Young Vol. 2Compilation album by Faron YoungReleasedJanuary 1977GenreCountryLabelMercuryProducerJerry KennedyFaron Young chronology I'd Just Be Fool Enough(1976) The Best of Faron Young Vol. 2(1977) That Young Feelin(1978) The Best of Faron Young Vol. 2 is a compilation album by American country music singer and songwriter Faron Young, released in 1977 by Mercury Records. The album, composed of tracks recorded between 1970 and 197...