成人a片不需要播放器|无码高清欧美性爱|黄色三级片在线免费播放)2|超碰久操福利a级黄论片|国产一级婬片A片AAA情欲王朝|亚洲第一免费网页|看免费AV片av天堂1|国内成人一个色在线|青青艹在线观看色欧美性爱|黄色视频无遮挡免费观看

歡迎訪問(wèn)智慧醫(yī)療網(wǎng) | 網(wǎng)站首頁(yè)
 

什么是AI領(lǐng)域火爆的大模型?一文讀懂大模型常用名詞意義

發(fā)布時(shí)間:2024-02-15 來(lái)源:醫(yī)學(xué)大數(shù)據(jù)與人工智能 瀏覽量: 字號(hào):【加大】【減小】 手機(jī)上觀看

打開(kāi)手機(jī)掃描二維碼
即可在手機(jī)端查看

    大模型是未來(lái)人類(lèi)智能發(fā)展的重要方向和核心技術(shù),未來(lái)隨著AI技術(shù)的不斷進(jìn)步和應(yīng)用場(chǎng)景的不斷拓展,大模型將在更多領(lǐng)域展現(xiàn)其巨大的潛力,為人類(lèi)萬(wàn)花筒般的AI未來(lái)拓展無(wú)限可能性。


一、大模型的概念

    大模型本質(zhì)上是一個(gè)使用海量數(shù)據(jù)訓(xùn)練而成的深度神經(jīng)網(wǎng)絡(luò)模型,其巨大的數(shù)據(jù)和參數(shù)規(guī)模,實(shí)現(xiàn)了智能的涌現(xiàn),展現(xiàn)出類(lèi)似人類(lèi)的智能。

    相比小模型,大模型通常參數(shù)較多、層數(shù)較深,具有更強(qiáng)的表達(dá)能力和更高的準(zhǔn)確度,但也需要更多的計(jì)算資源和時(shí)間來(lái)訓(xùn)練和推理,適用于數(shù)據(jù)量較大、計(jì)算資源充足的場(chǎng)景。

    大模型(Large Model,也稱(chēng)基礎(chǔ)模型,即Foundation Model),是指具有大量參數(shù)和復(fù)雜結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型,能夠處理海量數(shù)據(jù)、完成各種復(fù)雜的任務(wù),如自然語(yǔ)言處理、計(jì)算機(jī)視覺(jué)、語(yǔ)音識(shí)別等。

    超大模型: 超大模型是大模型的一個(gè)子集,它們的參數(shù)量遠(yuǎn)超過(guò)大模型。

    大語(yǔ)言模型(Large Language Model) : 通常是具有大規(guī)模參數(shù)和計(jì)算能力的自然語(yǔ)言處理模型,例如 OpenAl 的 GPT-3 模型。這些模型可以通過(guò)大量的數(shù)據(jù)和參數(shù)進(jìn)行訓(xùn)練,以生成人類(lèi)類(lèi)似的文本或回答自然語(yǔ)言的問(wèn)題。大型語(yǔ)言模型在自然語(yǔ)言處理、文本生成和智能對(duì)話(huà)等領(lǐng)域有廣泛應(yīng)用。

    GPT (Generative Pretrained Transformer) : GPT 和ChatGPT都是基于FTransformer架構(gòu)的語(yǔ)言模型,但它們?cè)谠O(shè)計(jì)和應(yīng)用上存在區(qū)別:GPT模型旨在生成自然語(yǔ)言文本并處理各種自然語(yǔ)言處理任務(wù),如文本生成、翻譯、摘要等。它通常在單向生成的情況下使用,即根據(jù)給定的文本生成連貫的輸出

    ChatGPT: ChatGPT則專(zhuān)注于對(duì)話(huà)和交互式對(duì)話(huà)。它經(jīng)過(guò)特定的訓(xùn)練,以更好地處理多輪對(duì)話(huà)和上下文理解。ChatGPT設(shè)計(jì)用于提供流暢、連貫和有趣的對(duì)話(huà)體驗(yàn),以響應(yīng)用戶(hù)的輸入并生成合適的回復(fù)。

二、大模型發(fā)展歷程

微信圖片_20240215125218.png

    萌芽期 (1950-2005) : 以CNN為代表的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型階段

    探索沉淀期 (2006-2019) : 以Transformer為代表的全新神經(jīng)網(wǎng)絡(luò)模型階段

    迅猛發(fā)展期 (2020-至今) : 以GPT為代表的預(yù)訓(xùn)練大模型階段

三、大模型的分類(lèi)

3.1按照輸入數(shù)據(jù)類(lèi)型

微信圖片_20240215125221.png

    語(yǔ)言大模型(NLP): 是指在自然語(yǔ)言處理(NaturalLanguage Processing,NLP)領(lǐng)域中的一類(lèi)大模型,通常用于處理文本數(shù)據(jù)和理解自然語(yǔ)言。這類(lèi)大模型的主要特點(diǎn)是它們?cè)诖笠?guī)模語(yǔ)料庫(kù)上進(jìn)行了訓(xùn)練,以學(xué)習(xí)自然語(yǔ)言的各種語(yǔ)法、語(yǔ)義和語(yǔ)境規(guī)則。例如:GPT系列 (OpenAl) 、Bard (Google) 、文心一言 (百度)

    視覺(jué)大模型(CV): 是指在計(jì)算機(jī)視覺(jué)(Computer Vision,CV)領(lǐng)中使用的大模型,通常用于圖像外理和分析。這類(lèi)模型通過(guò)在大規(guī)模圖像數(shù)據(jù)上進(jìn)行訓(xùn)練,可以實(shí)現(xiàn)各種視覺(jué)任務(wù),如圖像分類(lèi)、目標(biāo)檢測(cè)、圖像分割、姿態(tài)估計(jì)、人臉識(shí)別等。例如: VIT系列(Google) 、文心UFO、華為盤(pán)古CV、INTERN (商湯)。

    多模態(tài)大模型: 是指能夠處理多種不同類(lèi)型數(shù)據(jù)的大模型,例如文本、圖像、音頻等多模態(tài)數(shù)據(jù)。這類(lèi)模型結(jié)合了NLP和CV的能力,以實(shí)現(xiàn)對(duì)多模態(tài)信息的綜合理解和分析,從而能夠更全面地理解和處理復(fù)雜的數(shù)據(jù)。例如: DingoDB多模向量數(shù)據(jù)庫(kù)(九章云極DataCanvas)、DALL-E(OpenAl)、悟空畫(huà)畫(huà)(華為) 、midjourney。

3.2按照應(yīng)用領(lǐng)域

    通用大模型L0: 是指可以在多個(gè)領(lǐng)域和任務(wù)上通用的大模型。它們利用大算力、使用海量的開(kāi)放數(shù)據(jù)與具有巨量參數(shù)的深度學(xué)習(xí)算法在大規(guī)模無(wú)標(biāo)注數(shù)據(jù)上進(jìn)行訓(xùn)練,以尋找特征并發(fā)現(xiàn)規(guī)律,進(jìn)而形成可“舉一反三"的強(qiáng)大泛化能力,可在不進(jìn)行微調(diào)或少量微調(diào)的情況下完成多場(chǎng)景任務(wù),相當(dāng)于AI完成了“通識(shí)教育”

    行業(yè)大模型L1: 是指那些針對(duì)特定行業(yè)或領(lǐng)域的大模型。它們通常使用行業(yè)相關(guān)的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練或微調(diào),以提高在該領(lǐng)域的性能和準(zhǔn)確度,相當(dāng)于AI成為“行業(yè)專(zhuān)家”。

    垂直大模型L2: 是指那些針對(duì)特定任務(wù)或場(chǎng)景的大模型。它們通常使用任務(wù)相關(guān)的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練或微調(diào),以提高在該任務(wù)上的性能和效果。

四、模型的泛化與微調(diào)

    模型的泛化能力: 是指一個(gè)模型在面對(duì)新的、未見(jiàn)過(guò)的數(shù)據(jù)時(shí),能夠正確理解和預(yù)測(cè)這些數(shù)據(jù)的能力。在機(jī)器學(xué)習(xí)和人工智能領(lǐng)域,模型的泛化能力是評(píng)估模型性能的重要指標(biāo)之

    模型的微調(diào): 給定預(yù)訓(xùn)練模型(Pre-trained model),基于模型進(jìn)行微調(diào)(Fine Tune) 。相對(duì)于從頭開(kāi)始訓(xùn)練(Training a modelfrom scatch),微調(diào)可以省去大量計(jì)算資源和計(jì)算時(shí)間,提高計(jì)算效率,甚至提高準(zhǔn)確率。

    模型微調(diào)的基本思想是使用少量帶標(biāo)簽的數(shù)據(jù)對(duì)預(yù)訓(xùn)練模型進(jìn)行再次訓(xùn)練,以適應(yīng)特定任務(wù)。在這個(gè)過(guò)程中,模型的參數(shù)會(huì)根據(jù)新的數(shù)據(jù)分布進(jìn)行調(diào)整。這種方法的好外在于,它利用了預(yù)訓(xùn)練模型的強(qiáng)大能力,同時(shí)還能夠適應(yīng)新的數(shù)據(jù)分。因此,模型微調(diào)能夠提高模型的泛化能力,減少過(guò)擬合現(xiàn)象。

五、模型微調(diào)方法

    Fine-tuning:  這是最常用的微調(diào)方法。通過(guò)在預(yù)訓(xùn)練模型的最后一層添加一個(gè)新的分類(lèi)層,然后根據(jù)新的數(shù)據(jù)集進(jìn)行微調(diào)。

    Feature augmentation: 這種方法通過(guò)向數(shù)據(jù)中添加一些人工特征來(lái)增強(qiáng)模型的性能。這些特征可以是手工設(shè)計(jì)的,也可以是通過(guò)自動(dòng)特征生成技術(shù)生成的。

    Transfer leamning: 這種方法是使用在一個(gè)任務(wù)上訓(xùn)練過(guò)的模型作為新任務(wù)的起點(diǎn),然后對(duì)模型的參數(shù)進(jìn)行微調(diào),以適應(yīng)新的任務(wù)。


Copyright ? 2022 上??评讜?huì)展服務(wù)有限公司 旗下「智慧醫(yī)療網(wǎng)」版權(quán)所有    ICP備案號(hào):滬ICP備17004559號(hào)-5