自然語言處理 (英語:Natural Language Processing ,缩写 作 NLP )是人工智慧 和語言學 領域的交叉學科,研究计算机处理、理解与生成人类语言的技術。此領域探討如何處理及運用自然語言 ;自然語言處理包括多方面和步骤,基本有认知、理解、生成等部分。
自然語言認知和理解是讓電腦把输入的語言 变成结构化符号与语义关系,然后根据目的再處理。自然語言生成系統则是把計算機數據轉化為自然語言。
自然语言处理要研制表示语言能力和语言应用的模型, 建立计算框架来实现并完善语言模型 ,并根据语言模型设计各种实用系统及探讨这些系统的评测技术[ 1] 。
歷史
自然語言處理大體是從1950年代開始,雖然更早期也有作為。1950年,艾伦·图灵 發表論文「計算機器與智能 」,提出現在所謂的「圖靈測試 」作為判斷智能的條件。
1954年的乔治城-IBM实验 涉及全部自動翻譯 超過60句俄文成為英文。研究人員聲稱三到五年之內即可解決機器翻譯的問題。[ 2] 不過實際進展遠低於預期,1966年的ALPAC報告 發現十年研究未達預期目標,機器翻譯的研究經費遭到大幅削減。一直到1980年代末期,統計機器翻譯 系統發展出來,機器翻譯的研究才得以更上一層樓。
1960年代發展特別成功的NLP系統包括SHRDLU ——一個詞彙設限、運作於受限如「積木世界 」的一種自然語言系統,以及1964-1966年约瑟夫·维森鲍姆 模擬「個人中心治療 」而設計的ELIZA ——幾乎未運用人類思想和感情的訊息,有時候卻能呈現令人訝異地類似人之間的互動。「病人」提出的問題超出ELIZA 極小的知識範圍之時,可能會得到空泛的回答。例如問題是「我的頭痛」,回答是「為什麼說你頭痛?」
1970年代,程式設計師開始設計「概念本體論」(conceptual ontologies)的程式,將現實世界的資訊,架構成電腦能夠理解的資料。實例有MARGIE、SAM、PAM、TaleSpin、QUALM、Politics以及Plot Unit。許多聊天機器人 在這一時期寫成,包括PARRY 、Racter 以及Jabberwacky 。
一直到1980年代,多數自然語言處理系統是以一套複雜、人工訂定的規則為基礎。不過從1980年代末期開始,語言處理引進了機器學習 的演算法,NLP產生革新。成因有兩個:運算能力穩定增加(參見摩爾定律 );以及喬姆斯基 語言學理論漸漸喪失主導(例如轉換-生成文法 )。該理論的架構不傾向於語料庫 ——機器學習處理語言所用方法的基礎。有些最早期使用的機器學習演算法,例如決策樹 ,是硬性的、「如果-則」規則組成的系統,類似當時既有的人工訂定的規則。不過詞性標記 將隱馬爾可夫模型 引入NLP,並且研究日益聚焦於軟性的、以機率 做決定的統計模型 ,基礎是將輸入資料裡每一個特性賦予代表其份量的數值。許多語音識別 現今依賴的快取語言模型 即是一種統計模型的例子。這種模型通常足以處理非預期的輸入數據,尤其是輸入有錯誤(真實世界的數據總免不了),並且在整合到包含多個子任務的較大系統時,結果比較可靠。
許多早期的成功屬於機器翻譯 領域,尤其歸功IBM的研究,漸次發展出更複雜的統計模型。這些系統得以利用加拿大和歐盟現有的語料庫 ,因為其法律規定政府的會議必須翻譯成所有的官方語言。不過,其他大部分系統必須特別打造自己的語料庫,一直到現在這都是限制其成功的一個主要因素,於是大量的研究致力於從有限的數據更有效地學習。
近來的研究更加聚焦於非監督式學習 和半監督學習 的演算法。這種演算法,能夠從沒有人工註解理想答案的資料裡學習。大體而言,這種學習比監督學習 困難,並且在同量的數據下,通常產生的結果較不準確。不過沒有註解的數據量極巨(包含了全球資訊網 ),彌補了較不準確的缺點。
2011年以来,深度學習 技巧紛紛出爐[ 3] [ 4] 在自然語言處理方面獲得最尖端的成果,例如語言模型 [ 5] 、語法分析 [ 6] [ 7] 等等。2017年Transformer模型 诞生[ 8] ;2018年BERT 模型推出,提出了预训练 的方法[ 9] 。
2022年底,随着ChatGPT 等大型语言模型 的推出,自然语言处理的重点从自然语言理解 转向了自然语言生成 。
历史发展(按技术范式划分)
1. 规则驱动时期(1950s-1980s)
1950年:艾伦·图灵提出「图灵测试」,奠定NLP理论基础。
1954年:乔治城-IBM实验首次实现俄英机器翻译,但过度乐观的预期导致1966年ALPAC报告后经费削减。 (修改说明:补充技术挫折背景)
1960s代表性系统:
SHRDLU(受限积木世界对话)
ELIZA(模拟心理治疗的聊天机器人),其模式匹配应答机制暴露早期NLP的局限性。
2. 统计方法兴起(1980s-2010s)
关键转折:摩尔定律提升算力 + 乔姆斯基理论式微 → 机器学习成为主流。
技术突破:隐马尔可夫模型(词性标注)、统计机器翻译(IBM主导)。 (修改说明:明确技术关联性)
3. 深度学习时代(2011年至今)
2017年:Transformer架构诞生[8],解决长距离依赖问题。 (修改说明:补充架构意义)
2018年:BERT提出预训练范式[9],推动迁移学习在NLP的应用。
用途
在許多情況下,學者們需要通過許多不同的數據庫來確定新的研究方向,以識別研究差距並確定迄今為止尚未研究的領域。檢查所有電子數據庫很麻煩,而且經常會遺漏重要的部分。通過使用網絡抓取和自然語言處理來縮短識別研究差距所需的時間。在Google學術搜索上索引的出版物的標題, 自然语言处理標記化(Tokenization)從最高頻率到最低頻率對搭配進行排序。因此,自然语言处理標記化(Tokenization)確定了標題中未提及的關鍵字集,並將最初的想法確定為研究空白[ 10] 。
任務和限制
理論上,NLP是一種很吸引人的人機交互方式。早期的语言处理系统如SHRDLU ,当它们处于一个有限的“积木世界”,运用有限的词汇表会话时,工作得相当好。这使得研究员们对此系统相当乐观,然而,当把这个系统拓展到充满了现实世界的含糊与不确定性的环境中时,他们很快丧失了信心。
由於理解(understanding )自然語言,需要關於外在世界的廣泛知識以及運用操作這些知識的能力,自然語言認知,同時也被視為一個人工智慧完備(AI-complete )的問題。同時,在自然語言處理中,“理解”的定義也變成一個主要的問題。
實際問題
一些NLP面臨的問題實例:
句子“我們把香蕉給猴子,因為(牠們)餓了”和“我們把香蕉給猴子,因為(它們)熟透了”有同樣的結構。但是代詞“它們”在第一句中指的是“猴子”,在第二句中指的是“香蕉”。如果不了解猴子和香蕉的屬性,無法區分。(简体中文和英文的它/it沒有區分,但在正體中文裡「牠」和「它」是有區別的,只是代詞在中文裡常常被省略,因此需區別屬性並且標示出來)
不少的中文相關笑話即是利用類似結構的中文造句而成,此類笑話通常帶有“中文博大精深”之類的詞彙,敘述多以老外參加考試為背景。例子如下:
“
某老外苦學漢語10年,到東方參加漢語考試。試題為「請解釋下列句子」: 阿呆給長官送紅包時,兩個人的對話頗有意思。 長官:「你這是什麼意思?」 阿呆:「沒什麼意思,意思意思。」 長官:「你這就不夠意思了。」 阿呆:「小意思,小意思。」 長官:「你這人真有意思。」 阿呆:「其實也沒有別的意思。」 長官:「那我就不好意思了。」 阿呆:「是我不好意思。」
老外淚流滿面,交白卷回國了。
”
自然語言處理研究的難點
單詞的邊界界定
在口語中,詞與詞之間通常是連貫的,而界定字詞邊界通常使用的辦法是取用能讓給定的上下文最為通順且在文法上無誤的一種最佳組合。在書寫上,漢語 也沒有詞與詞之間的邊界。
詞義的消歧
許多字詞不單只有一個意思,因而我們必須選出使句意最為通順的解釋。
句法的模糊性
自然語言 的文法 通常是模稜兩可 的,針對一個句子通常可能會剖析 (Parse )出多棵分析树 (Parse Tree ),而我們必須要仰賴語意 及前後文的資訊才能在其中選擇一棵最為適合的剖析樹。
有瑕疵的或不規範的輸入
例如語音處理時遇到外國口音或地方口音,或者在文本的處理中處理拼寫,語法或者光學字元識別 (OCR)的錯誤。
语言行为与计划
句子常常并不只是字面上的意思;例如,“你能把盐递过来吗”,一个好的回答应当是動手把盐递过去;在大多数上下文环境中,“能”将是糟糕的回答,虽说回答“不”或者“太远了我拿不到”也是可以接受的。再者,如果一门课程去年没开设,对于提问“这门课程去年有多少学生没通过?”回答“去年没开这门课”要比回答“没人没通过”好。
当前自然语言处理研究的发展趋势
第一,传统的基于句法-语义规则的理性主义方法过于复杂,随着语料库建设和语料库语言学的崛起,大规模真实文本的机器学习处理成为自然语言处理的主要选择。
第二,统计数学方法越来越受到重视,自然语言处理中越来越多地使用机器自动学习的方法来获取语言知识。
第三,浅层处理与深层处理并重,统计与规则方法并重,形成混合式的系统。
第四,自然语言处理中越来越重视词汇的作用,出现了强烈的“词汇主义”的倾向。词汇知识库的建造成为了普遍关注的问题。[ 11]
統計自然語言處理
統計自然語言處理運用了推測學 、機率 、統計 的方法來解決上述,尤其是針對容易高度模糊的長串句子,當套用實際文法進行分析產生出成千上萬筆可能性時所引發之難題。處理這些高度模糊句子所採用消歧的方法通常運用到語料庫 (Corpus )以及馬可夫模型 (Markov models )。統計自然語言處理的技術主要由同樣自人工智慧 下與學習行為相關的子領域:機器學習 及資料採掘 所演進而成。
主要範疇
文本朗讀 (Text to speech )
語音合成 (Speech synthesis )
語音識別 (Speech recognition )
斷詞 /分詞(Text segmentation/Word tokenization )
中文自动分词 (Chinese word segmentation )
語法分析 /剖析 (Syntactic analysis/Parsing )
漢語自動句法分析
詞彙標示框架 (Lexical Markup Framework )
n元语法 (n-gram )
詞嵌入 (Word2vec )
词性标注 (Part-of-speech tagging )
文檔分類 (Document classification )
自然語言生成 (Natural language generation )
文本分类 (Text categorization )
信息检索 (Information retrieval )
信息抽取 (Information extraction )
文字校對 (Text-proofing )
問答系統 (Question answering )
給一句人類語言的问句,決定其答案。 典型問題有特定答案(像是加拿大的首都叫什麼?),但也考慮些開放式問句(像是人生的意義是是甚麼?)
將某種人類語言自動翻譯至另一種語言
自動摘要 (Automatic summarization )
產生一段文字的大意,通常用於提供已知領域的文章摘要,例如產生報紙上某篇文章之摘要
文字蘊涵 (Textual entailment )
命名实体识别 (Named entity recognition, NER )
主题模型 (Topic Model )
文本情感分析 (Sentiment analysis )
語意分析 (Semantic analysis )
潛在語義學 (Latent Semantic Analysis )
詞袋模型 (Bag-of-words model )
標籤雲 (Tag Cloud )
自然语言理解 (Natural Language Understanding )
形态分析
参见
参考文献
^ Manaris, Bill. Natural Language Processing: A Human-Computer Interaction Perspective. Advances in Computers 47 . Elsevier. 1998: 1–66. ISBN 978-0-12-012147-2 . doi:10.1016/s0065-2458(08)60665-8 (英语) .
^ Hutchins, J. The history of machine translation in a nutshell . 2005 [2017-11-13 ] . (原始内容 存档于2018-06-14). [自述来源 ]
^ Goldberg, Yoav. A Primer on Neural Network Models for Natural Language Processing . Journal of Artificial Intelligence Research. 2016-11-20, 57 : 345-420. ISSN 1076-9757 . doi:10.1613/jair.4992 (英语) .
^ Deep Learning . www.deeplearningbook.org. [2025-01-23 ] .
^ Jozefowicz, Rafal; Vinyals, Oriol; Schuster, Mike; Shazeer, Noam; Wu, Yonghui, Exploring the Limits of Language Modeling , 2016-02-11 [2025-02-04 ] , doi:10.48550/arXiv.1602.02410
^ Choe, Do Kook; Charniak, Eugene. Su, Jian; Duh, Kevin; Carreras, Xavier , 编. Parsing as Language Modeling . Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (Austin, Texas: Association for Computational Linguistics). 2016-11. doi:10.18653/v1/D16-1257 .
^ Vinyals, Oriol, et al. (NIPS2015). (页面存档备份 ,存于互联网档案馆 )
^ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Lukasz; Polosukhin, Illia. Attention Is All You Need. 2017. doi:10.48550/arXiv.1706.03762 .
^ Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. 2018. doi:10.48550/arXiv.1810.04805 .
^ Li, Rita Yi Man. Ahram, Tareq , 编. Building Updated Research Agenda by Investigating Papers Indexed on Google Scholar: A Natural Language Processing Approach . Advances in Artificial Intelligence, Software and Systems Engineering (Cham: Springer International Publishing). 2021. ISBN 978-3-030-51328-3 . doi:10.1007/978-3-030-51328-3_42 (英语) .
^ 存档副本 (PDF) . [2016-01-03 ] . (原始内容 (PDF) 存档于2021-05-04).
延伸閱讀
外部連結