基于詞典與統計結合的中文分詞方法研究及全文檢索系統設計.pdf_第1頁
已閱讀1頁,還剩59頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、隨著信息時代的飛速發(fā)展,信息量越來越多,如何從眾多的信息中找出自己想要的信息變得越來越重要,如荊楚資源庫中的武當山資源庫,資源總量達到幾百G,各種類型的文檔總數有幾千個,從眾多的文檔中找出特定的信息變得比較困難,信息檢索技術就是用來解決這個問題。全文檢索作為信息檢索的一種,正在扮演者越來越重要的角色,很多大型搜索引擎都采用了全文檢索技術。
  中文分詞是中文信息處理的第一步,無論是自然語言處理還是全文檢索,都離不開中文信息的提取,

2、而信息提取必然涉及到分詞。中文由于字與字之間沒有空格作為詞分隔符且中文語義語境都比較復雜,導致中文分詞一直是一個難點,針對中文分詞人們提出了各種各樣的方法來分詞,如詞典分詞、統計分詞、理解分詞等。
  本文分析了全文檢索技術的原理并討論了開源的全文檢索框架Lucene,接著針對全文檢索必須要使用文本切分提取信息,討論了中文分詞相關原理及技術,針對目前廣泛采用的詞典分詞和統計分詞做了詳細的討論,比較了各種分詞方法的優(yōu)點以及缺點,提出

3、了一種基于詞典與統計相結合的分詞方法。
  本文所做的工作如下:
  1.分析了全文檢索和中文分詞的研究背景和研究現狀,并對目前比較常用的全文檢索和中文分詞技術做了分析和描述;
  2.分析了常用的分詞技術并在比較各種方法的優(yōu)劣的基礎上提出了一種基于詞典與統計相結合的分詞方法,該方法利用詞典分詞切分整體效果良好和統計分詞具有歧義識別的優(yōu)點,采用詞典分詞做粗分和HMM模型做歧義判斷,以達到提高分詞精度的目的。
  

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 眾賞文庫僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論