3 BERT 模型在自然語言處理中的主要應用是什麼,特別是在理解和生成語言方面?
(A) 生成文本,自動創建新的句子或段落
(B) 分詞,將句子拆分成單詞
(C) 預訓練語言模型,用於理解上下文和語義
(D) 語音合成,將文本轉換為語音
答案:登入後查看
統計: A(93), B(20), C(327), D(8), E(0) #3434696
統計: A(93), B(20), C(327), D(8), E(0) #3434696
詳解 (共 4 筆)
#6571952
正確答案是:
(C) 預訓練語言模型,用於理解上下文和語義
解釋:
BERT(Bidirectional Encoder Representations from Transformers)是由 Google 提出的預訓練語言模型,它的主要特點是能夠雙向理解文本上下文,即同時考慮一個詞前後的語境。BERT 最主要的應用包括:
-
問答系統(如 SQuAD)
-
情感分析
-
文本分類
-
命名實體辨識(NER)
-
句子相似度判斷(例如自然語言推論 NLI)
BERT 並不負責生成文本(這是 GPT 等模型的任務),它的重點是「理解」語言,而不是「創造」語言。
0
0