2. 在進行大型語言模型 (LLM) 企業專屬知識的 Fine-tuning 時,若內部 GPU 運算資
源與記憶體嚴重受限,下列哪一種參數高效微調(PEFT, Parameter Efficient FineTuning)技術最能在維持模型效能的前提下,顯著降低需更新的參數數量?
(A)知識蒸餾(Knowledge Distillation);
(B)提示詞工程(Prompt Engineering);
(C)梯度凍結(Gradient Freezing);
(D)低秩適配(Low-Rank Adaptation)
答案:登入後查看
統計: A(0), B(0), C(0), D(1), E(0) #3870556
統計: A(0), B(0), C(0), D(1), E(0) #3870556