通用大語言模型BBT-2

BBT-2 是包含120 億參數的通用大語言模型,在BBT-2 的基礎上訓練出了代碼,金融,文生圖等專業模型。基於BBT-2 的系列模型包括: BBT-2-12B-Text:120 億參數的中文基礎模型BBT-2.5-13B-Text: 130 億參數的中文+英文雙語基礎模型BBT-2-12B-TC-001-SFT 經過指令微調的代碼模型,可以進行對話BBT-2-12B-TF-001 在120 億模型上訓練的金融模型,用於解決金融領域任務BBT-2-12B-Fig:文生圖模型BBT-2-12B-Science 科學論文…

#通用大語言模型BBT2

Leave a Reply

Your email address will not be published. Required fields are marked *