BERT (modelo de lenguaje)

BERT (Bidirectional Encoder Representations from Transformers) o Representación de Codificador Bidireccional de Transformadores es una técnica basada en redes neuronales para el pre-entrenamiento del procesamiento del lenguaje natural (PLN) desarrollada por Google.[1]​ BERT fue creado y publicado en 2018 por Jacob Devlin y sus compañeros en Google.[2][3]​ Google está aprovechando BERT para comprender mejor las búsquedas de los usuarios.[4]

Lo que hace único a BERT es su capacidad para captar el contexto bidireccional en una oración, lo que significa que puede entender el significado de una palabra en relación con las palabras que la rodean. Esta mejora en la comprensión contextual ha llevado a un rendimiento sobresaliente en diversas tareas de procesamiento del lenguaje natural.

Google, como pionero en la implementación de BERT,[5]​ lo ha aprovechado para perfeccionar la comprensión de las búsquedas de los usuarios. La implementación de BERT ha llevado a resultados de búsqueda más precisos y relevantes, ya que el motor de búsqueda puede entender mejor el contexto y la intención detrás de las consultas de los usuarios.

El modelo original de BERT se entrenó utilizando dos grandes conjuntos de datos en lengua inglesa: BookCorpus y Wikipedia en inglés. Desde su introducción, BERT ha sido adoptado en todo el mundo y se ha aplicado en diversas aplicaciones, desde mejorar la calidad de las respuestas automáticas hasta potenciar la capacidad de las máquinas para entender el lenguaje en contextos complejos.

Resumen

BERT ha marcado un hito en el campo del procesamiento del lenguaje natural, proporcionando a las máquinas una comprensión más profunda y contextual del lenguaje, y ha tenido un impacto significativo en la forma en que los motores de búsqueda, como Google, ofrecen resultados más precisos y relevantes a los usuarios.

Rendimiento

Cuando se publicó BERT, logró un rendimiento de vanguardia en una serie de tareas de comprensión del lenguaje natural :

  • Conjunto de tareas GLUE (Evaluación de comprensión del lenguaje general) (que consta de 9 tareas)
  • SQuAD (Stanford Question Answering Dataset) v1.1 y v2.0.
  • SWAG (situaciones con generaciones adversas)

Análisis

Aún no se conocen bien los motivos del rendimiento de vanguardia de BERT en estas tareas de comprensión del lenguaje natural.[6][7]​ La investigación actual se ha centrado en investigar la relación detrás de la salida de BERT como resultado de secuencias de entrada cuidadosamente elegidas,[8][9]​ análisis de representaciones internas de vectores a través de clasificadores de prueba,[10][11]​ y las relaciones representadas por los pesos de atención .

Historia

BERT tiene su origen en los modelos de pre-entrenamiento para representación de contexto, incluido el aprendizaje de secuencia semi-supervisado.[12]​ Ejemplos de estos modelos son: ELMo, desarrollado por una colaboración entre investigadores del Instituto Allen para la Inteligencia Artificial (de Microsoft) y la Universidad de Washington[13]​ y ULMFit (Ajuste del modelo de idioma universal para la clasificación de textos).[14]

No obstante, a diferencia de los modelos anteriores, BERT es una representación de lenguaje bidireccional (es decir que se juzgan las palabras ubicadas a la izquierda y a la derecha de cada uno de los términos),[15]sin supervisión (es decir, que no requiere un corpus con las respuestas correctas sino que se infieren directamente), pre-entrenada usando solo un corpus de texto plano.

Por otro lado, los modelos como word2vec o GloVe generan una representación de una sola palabra para cada palabra en el vocabulario, mientras que BERT tiene en cuenta el contexto para cada aparición de una palabra determinada. Por ejemplo, mientras que el vector para palabras polisémicas como "estrella" tendrá la misma representación vectorial de word2vec para sus dos ocurrencias en las oraciones "Es una estrella de rock" y "El sol es una estrella", BERT proporciona una representación diferente para cada oración.

El 25 de octubre de 2019, Google Search anunció que habían comenzado a aplicar modelos BERT para consultas de búsqueda en inglés dentro de Estados Unidos.[16]​ El 9 de diciembre de 2019, se informó que BERT había sido integrado a Google Search para más de 70 idiomas.[17]

Una encuesta de literatura de 2020 concluyó que "en poco más de un año, BERT se ha convertido en una línea de base omnipresente en los experimentos de procesamiento de lenguaje natural (NLP) que cuenta con más de 150 publicaciones de investigación que analizan y mejoran el modelo".[18]

Reconocimientos

BERT ganó el Premio al Mejor Artículo Largo en la Conferencia Anual (2019) del Capítulo de América del Norte de la Asociación de Lingüística Computacional (NAACL).[19]

Véase también

Referencias

  1. Martínez, Merche (5 de noviembre de 2019). «Google BERT: actualización para entender el lenguaje natural». Human Level. Consultado el 28 de julio de 2020. 
  2. «Open Sourcing BERT: State-of-the-Art Pre-training for Natural Language Processing». Google AI Blog (en inglés). Consultado el 27 de noviembre de 2019. 
  3. Cathal Horan (19 de abril de 2023). «Unmasking BERT: The Key to Transformer Model Performance» [Desenmascarando BERT: la clave para el rendimiento del modelo de transformador]. Neptune.ai (en inglés). Consultado el 9-5-2023. 
  4. «Understanding searches better than ever before». Google (en inglés). 25 de octubre de 2019. Consultado el 27 de noviembre de 2019. 
  5. PabloLupu (12 de enero de 2024). «El impacto de BERT en las Busquedas de Google». Informatica Maestra. Consultado el 13 de enero de 2024. 
  6. Kovaleva, Olga; Romanov, Alexey; Rogers, Anna; Rumshisky, Anna (November 2019). «Revealing the Dark Secrets of BERT». Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (en inglés estadounidense). pp. 4364-4373. doi:10.18653/v1/D19-1445. 
  7. Clark, Kevin; Khandelwal, Urvashi; Levy, Omer; Manning, Christopher D. (2019). «What Does BERT Look at? An Analysis of BERT's Attention». Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 276-286. doi:10.18653/v1/w19-4828. 
  8. Khandelwal, Urvashi; He, He; Qi, Peng; Jurafsky, Dan (2018). «Sharp Nearby, Fuzzy Far Away: How Neural Language Models Use Context». Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (Stroudsburg, PA, USA: Association for Computational Linguistics): 284-294. Bibcode:2018arXiv180504623K. arXiv:1805.04623. doi:10.18653/v1/p18-1027. 
  9. Gulordava, Kristina; Bojanowski, Piotr; Grave, Edouard; Linzen, Tal; Baroni, Marco (2018). «Colorless Green Recurrent Networks Dream Hierarchically». Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers) (Stroudsburg, PA, USA: Association for Computational Linguistics): 1195-1205. Bibcode:2018arXiv180311138G. arXiv:1803.11138. doi:10.18653/v1/n18-1108. 
  10. Giulianelli, Mario; Harding, Jack; Mohnert, Florian; Hupkes, Dieuwke; Zuidema, Willem (2018). «Under the Hood: Using Diagnostic Classifiers to Investigate and Improve how Language Models Track Agreement Information». Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 240-248. Bibcode:2018arXiv180808079G. arXiv:1808.08079. doi:10.18653/v1/w18-5426. 
  11. Zhang, Kelly; Bowman, Samuel (2018). «Language Modeling Teaches You More than Translation Does: Lessons Learned Through Auxiliary Syntactic Task Analysis». Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP (Stroudsburg, PA, USA: Association for Computational Linguistics): 359-361. doi:10.18653/v1/w18-5448. 
  12. Dai, Andrew M.; Le, Quoc V. (4 de noviembre de 2015). «Semi-supervised Sequence Learning». arXiv:1511.01432 [cs]. Consultado el 28 de julio de 2020. 
  13. Peters, Matthew E.; Neumann, Mark; Iyyer, Mohit; Gardner, Matt; Clark, Christopher; Lee, Kenton; Zettlemoyer, Luke (22 de marzo de 2018). «Deep contextualized word representations». arXiv:1802.05365 [cs]. Consultado el 28 de julio de 2020. 
  14. Howard, Jeremy; Ruder, Sebastian (23 de mayo de 2018). «Universal Language Model Fine-tuning for Text Classification». arXiv:1801.06146 [cs, stat]. Consultado el 28 de julio de 2020. 
  15. Meijomil, Susana. «Guía avanzada de Google BERT: qué es, cómo funciona y en qué te afecta». www.inboundcycle.com. Consultado el 28 de julio de 2020. 
  16. Nayak, Pandu (25 de octubre de 2019). «Understanding searches better than ever before». Google Blog. Consultado el 10 de diciembre de 2019. 
  17. Montti, Roger (10 de diciembre de 2019). «Google's BERT Rolls Out Worldwide». Search Engine Journal. Search Engine Journal. Consultado el 10 de diciembre de 2019. 
  18. Rogers, Anna; Kovaleva, Olga; Rumshisky, Anna (2020). «A Primer in BERTology: What We Know About How BERT Works». Transactions of the Association for Computational Linguistics 8: 842-866. S2CID 211532403. arXiv:2002.12327. doi:10.1162/tacl_a_00349. 
  19. «Best Paper Awards». NAACL. 2019. Consultado el 28 de marzo de 2020. 

Read other articles:

Cet article est une ébauche concernant l’anarchisme et un homme politique américain. Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants. Stephen Pearl AndrewsStephen Pearl AndrewsBiographieNaissance 22 mars 1812TempletonDécès 21 mai 1886 (à 74 ans)New YorkNationalité américaineActivités Linguiste, anarchiste, philosophe, journaliste, militant, écrivainPère Elisha Andrews (d)Mère Wealthy Ann Lathrop...

 

La genealogia episcopale è la disciplina storiografica in seno alla Chiesa che si occupa di ricostruire e tramandare l'origine, la discendenza e il legame tra consacratore e consacrato, nel sacramento dell'ordinazione episcopale. Questa disciplina si basa sulla dottrina teologica cristiana della successione apostolica, che afferma la trasmissione di autorità e poteri dagli apostoli a dei successori, i vescovi, attraverso il rito della consacrazione.[1] Quando un vescovo consacra un ...

 

City in Veneto, Italy This article is about the city in Italy. For other uses, see Padua (disambiguation). This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Padua – news · newspapers · books · scholar · JSTOR (May 2009) (Learn how and when to remove this template message) Comune in Veneto, ItalyPadua Padova...

ناصيف البياوي معلومات شخصية الاسم الكامل ناصيف البياوي الميلاد 10 نوفمبر 1977 (العمر 46 سنة)تونس الجنسية تونس  الفرق التي دربها سنوات فريق 2014 هجر 2014–2016 نادي الفتح 2016–2017 الرائد 2017 نادي القادسية 2017–2018 الخور 2018 الخريطيات 2018 المحرق 2019 القادسية 2019 النادي الرياضي البنزرتي 2019–20...

 

Artikel ini membutuhkan rujukan tambahan agar kualitasnya dapat dipastikan. Mohon bantu kami mengembangkan artikel ini dengan cara menambahkan rujukan ke sumber tepercaya. Pernyataan tak bersumber bisa saja dipertentangkan dan dihapus.Cari sumber: Dotdash – berita · surat kabar · buku · cendekiawan · JSTOR (September 2010) About.comURLAbout.comTipeOnline resourcePerdagangan ?YesLangueEnglishPemilikThe New York Times CompanyPembuatScott Kurnit (en)...

 

French diver training and certification agency Fédération Française d'Études et de Sports Sous-MarinsAbbreviationFFESSMFormation1948 (1948)TypeNGOPurposeUnderwater sports and sciences and diver trainingHeadquarters24 Quai de Rive-Neuve 13284 MARSEILLE cedex 07Region served FrancePresidentFrédéric Di MeglioAffiliationsCMASStaff 6,000Volunteers 140,000Websitehttps://www.ffessm.fr/Formerly calledFSPNES (1948-1952)FGRSSM (1952-1953)FFASM (1953-1954)FNESSM (1954-1955) The Fédérat...

British Anglican bishop The Right ReverendNicholas ReadeBishop Emeritus of Blackburn, Hon. Assistant Bishop in the Diocese of Chichester and also in the Diocese in EuropeBishop Reade in 2014ChurchChurch of EnglandProvinceProvince of YorkDioceseDiocese of BlackburnInstalled27 March 2004Term ended31 October 2012PredecessorAlan ChestersSuccessorJulian HendersonOther post(s)Archdeacon of Lewes & Hastings (1997–2004)OrdersOrdination1973 (deacon)1974 (priest)Consecration2 March 2004by Da...

 

Johann Adolph Hasse BiografiKelahiran1699 Bergedorf (Kekaisaran Romawi Suci) Kematian16 Desember 1783 (83/84 tahun)Venesia (Republik Venesia) Tempat pemakamanSan Marcuola Galat: Kedua parameter tahun harus terisi! Kapellmeister KegiatanSpesialisasiMusik klasik Pekerjaankomponis, music teacher, penyanyi, Kapellmeister GenreOpera, musik gereja, konserto dan Musik kamar AliranMusik Barok dan Zaman Klasik Murid dariAlessandro Scarlatti Dipengaruhi olehPietro Metastasio Tipe suaraTenor...

 

Филателистическая география:История почты и почтовых марок стран и территорий мира (Почтовые отделения за границей)Почтовыеотделенияза границейАвстрийские на Крите в Лихтенштейне в Османской империи Британские в Африке в Багдаде в Бангкоке в Батуме в Бушире в Ираке в ...

Héctor ElizondoElizondo pada saat premire film Earth pada bulan April 2009Nama lainHector ElizondaPekerjaanAktorTahun aktif1963–sekarangSuami/istriCarolee Campbell ​(m. 1969)​ Héctor Elizondo (lahir 22 Desember 1936) adalah aktor asal Amerika Serikat. Hector juga dikenal masyarakat luas sebagai pemeran pembantu terbaik dalam film Pretty Woman. Aktingnya saat itu begitu memukau dan dipuji banyak pengamat film. Filmografi Film Tahun Film Peran Catatan...

 

Park in Michigan, USA William Mitchell State ParkIUCN category III (natural monument or feature)[1]Clam Lake Canal with campground on the rightLocation in MichiganShow map of MichiganMitchell State Park (the United States)Show map of the United StatesLocationCadillac, Wexford County, Michigan, United StatesCoordinates44°14′17″N 85°27′08″W / 44.23806°N 85.45222°W / 44.23806; -85.45222[2]Area334 acres (135 ha)Elevation1,289 feet (393 ...

 

此条目序言章节没有充分总结全文内容要点。 (2019年3月21日)请考虑扩充序言,清晰概述条目所有重點。请在条目的讨论页讨论此问题。 哈萨克斯坦總統哈薩克總統旗現任Қасым-Жомарт Кемелұлы Тоқаев卡瑟姆若马尔特·托卡耶夫自2019年3月20日在任任期7年首任努尔苏丹·纳扎尔巴耶夫设立1990年4月24日(哈薩克蘇維埃社會主義共和國總統) 哈萨克斯坦 哈萨克斯坦政府...

Xbox Oneconsole Sopra: Xbox One + Kinect ProduttoreMicrosoft TipoConsole da tavolo GenerazioneOttava Presentazionealla stampa21 maggio 2013[1] In vendita 22 novembre 2013[2] 22 novembre 2013[2] 4 settembre 2014[3] 29 settembre 2014[4] Dismissioneottobre-dicembre 2020 Unità vendute56,37 milioni (20 Agosto 2021)[5] Gioco più diffusoGrand Theft Auto V 8,31 milioni (15 dicembre 2018)[6] PredecessoreXbox 360 SuccessoreXbox Series X e Series...

 

Annual science competition for students The topic of this article may not meet Wikipedia's notability guideline for events. Please help to demonstrate the notability of the topic by citing reliable secondary sources that are independent of the topic and provide significant coverage of it beyond a mere trivial mention. If notability cannot be shown, the article is likely to be merged, redirected, or deleted.Find sources: International Junior Science Olympiad – news · new...

 

Fictional characterFor other uses, see Jatayu (disambiguation). This article needs additional citations for verification. Please help improve this article by adding citations to reliable sources. Unsourced material may be challenged and removed.Find sources: Lalmohan Ganguly – news · newspapers · books · scholar · JSTOR (December 2009) (Learn how and when to remove this message) Fictional character Lalmohan GangulyJatayuFeluda characterFirst appearance...

1st-century BC Roman poet and philosopher This article is about the Roman poet and philosopher. For other people named Lucretius, see Lucretia gens. For the impact crater on the far side of the Moon, see Lucretius (crater). Titus Lucretius CarusLucretius pointing to the casus, the downward movement of the atoms. From the frontispiece to Of the Nature of Things, 1682.Bornc. 99 BCDiedc. 55 BC (aged around 44)EraHellenistic philosophySchoolEpicureanismAtomismMaterialismMain interestsEthics, meta...

 

This article is about the hockey coach. For the science fiction author, see S. M. Stirling. This biography of a living person needs additional citations for verification. Please help by adding reliable sources. Contentious material about living persons that is unsourced or poorly sourced must be removed immediately from the article and its talk page, especially if potentially libelous.Find sources: Steve Stirling – news · newspapers · books · scholar ·...

 

Music composer (born 1953) Fred MollinMollin in 2010BornFrederic Ira Mollin (1953-02-10) February 10, 1953 (age 71)Amityville, New York, U.S.OccupationsRecord producermulti-instrumentalistfilm & TV composerarrangermusical directormusic supervisorsongwriterYears active1972–presentChildren2Musical careerInstrument(s)GuitarkeyboardsbassdrumspercussionvocalsLabelsWalt Disney RecordsColumbia RecordseOne RecordsEMI RecordsAtlantic RecordsMelody Place Musical artistWebsitefredmollin....

1797 ballad by Schiller You can help expand this article with text translated from the corresponding article in German. (September 2010) Click [show] for important translation instructions. View a machine-translated version of the German article. Machine translation, like DeepL or Google Translate, is a useful starting point for translations, but translators must revise errors as necessary and confirm that the translation is accurate, rather than simply copy-pasting machine-translated te...

 

Ne doit pas être confondu avec Collège en France ou Collèges de France. Pour Le livre, voir Mara Goyet#Collèges de France (2003). Collège de FranceSite Marcelin-Berthelot.HistoireFondation 1530StatutType Grand établissementForme juridique Établissement public national à caractère scientifique culturel et professionnel (d)Nom officiel Collège royalFondateur François IerDirecteur Thomas Römer[2]Devise Docet omnia[1] (Il enseigne tout) - latinMembre de Université PSLSite web www.co...