亚洲精品久久久久久第一页-人妻少妇精彩视品一区二区三区-91国产自拍免费视频-免费一级a在线播放视频正片-少妇天天日天天射天天爽-国产大屁股喷水视频在线观看-操美女骚穴抽插性爱视频-亚洲 欧美 中文字幕 丝袜-成人免费无码片在线观看

ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

在這段時(shí)間,有關(guān)大語(yǔ)言模型的消息頻頻傳出,許多人也逐漸了解、甚至開(kāi)始應(yīng)用起相關(guān)的AI軟件 。那么,你了解GPT模型的原理是什么嗎?大模型和傳統(tǒng)AI的區(qū)別在于哪里?其應(yīng)用可以體現(xiàn)于哪些方面?一起來(lái)看看作者的分析和解讀 。

ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
“如何充分發(fā)揮ChatGPT潛能,成為了眾多企業(yè)關(guān)注的焦點(diǎn) 。但是,這種變化對(duì)員工來(lái)說(shuō)未必是好事情 。IBM計(jì)劃用AI替代7800個(gè)工作崗位,游戲公司使用MidJourney削減原畫(huà)師人數(shù)……此類(lèi)新聞屢見(jiàn)不鮮 。理解并應(yīng)用這項(xiàng)新技術(shù),對(duì)于職場(chǎng)人來(lái)說(shuō)重要性與日俱增 。”
 
一、GPT模型原理理解原理是有效應(yīng)用的第一步 。ChatGPT是基于GPT模型的AI聊天產(chǎn)品,后文均簡(jiǎn)稱為GPT 。
從技術(shù)上看 , GPT是一種基于Transformer架構(gòu)的大語(yǔ)言模型(LLM) 。GPT這個(gè)名字,實(shí)際上是”Generative Pre-trained Transformer”的縮寫(xiě),中文意為“生成式預(yù)訓(xùn)練變換器” 。
 
1. 大模型和傳統(tǒng)AI的區(qū)別是什么?傳統(tǒng)AI模型針對(duì)特定目標(biāo)訓(xùn)練 , 因此只能處理特定問(wèn)題 。例如,很會(huì)下棋的AlphaGO 。
而自然語(yǔ)言處理(NLP)試圖更進(jìn)一步,解決用戶更為通用的問(wèn)題 ??梢苑譃閮蓚€(gè)關(guān)鍵步驟:自然語(yǔ)言理解(NLU)和自然語(yǔ)言生成(NLG) 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
以SIRI為代表的人工智能助手統(tǒng)一了NLU層,用一個(gè)模型理解用戶的需求 , 然后將需求分配給特定的AI模型進(jìn)行處理,實(shí)現(xiàn)NLG并向用戶反饋 。然而,這種模式存在顯著缺點(diǎn) 。如微軟官方圖例所示,和傳統(tǒng)AI一樣,用戶每遇到一個(gè)新的場(chǎng)景,都需要訓(xùn)練一個(gè)相應(yīng)的模型,費(fèi)用高昂且發(fā)展緩慢,NLG層亟需改變 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
大型語(yǔ)言模型(如GPT)采用了一種截然不同的策略,實(shí)現(xiàn)了NLG層的統(tǒng)一 。秉持著“大力出奇跡”的理念,將海量知識(shí)融入到一個(gè)統(tǒng)一的模型中,而不針對(duì)每個(gè)特定任務(wù)分別訓(xùn)練模型,使AI解決多類(lèi)型問(wèn)題的能力大大加強(qiáng) 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
 
2. ChatGPT如何實(shí)現(xiàn)NLG?AI本質(zhì)上就是個(gè)逆概率問(wèn)題 。GPT的自然語(yǔ)言生成實(shí)際上是一個(gè)基于概率的“文字接龍”游戲 。我們可以將GPT模型簡(jiǎn)化為一個(gè)擁有千億參數(shù)的“函數(shù)” 。當(dāng)用戶輸入“提示詞(prompt)”時(shí) , 模型按照以下步驟執(zhí)行:
  1. 將用戶的“提示詞”轉(zhuǎn)換為token(準(zhǔn)確地說(shuō)是“符號(hào)”,近似為“詞匯”,下同)+token的位置 。
  2. 將以上信息“向量化”,作為大模型“函數(shù)”的輸入?yún)?shù) 。
  3. 大模型根據(jù)處理好的參數(shù)進(jìn)行概率猜測(cè),預(yù)測(cè)最適合回復(fù)用戶的詞匯,并進(jìn)行回復(fù) 。
  4. 將回復(fù)的詞匯(token)加入到輸入?yún)?shù)中,重復(fù)上述步驟,直到最高概率的詞匯是【END】 , 從而實(shí)現(xiàn)一次完整的回答 。
這種方法使得GPT模型能夠根據(jù)用戶的提示,生成連貫、合理的回復(fù) , 從而實(shí)現(xiàn)自然語(yǔ)言處理任務(wù) 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
 
3. 上下文理解的關(guān)鍵技術(shù)GPT不僅能理解用戶當(dāng)前的問(wèn)題,還能基于前文理解問(wèn)題背景 。這得益于Transformer架構(gòu)中的“自注意力機(jī)制(Self-attention)” 。該機(jī)制使得GPT能夠捕捉長(zhǎng)文本中的依賴關(guān)系 。
通俗地說(shuō) , GPT在進(jìn)行文字接龍判斷時(shí),不僅基于用戶剛輸入的“提示”,還會(huì)將之前多輪對(duì)話中的“提示”和“回復(fù)”作為輸入?yún)?shù) 。然而 , 這個(gè)距離長(zhǎng)度是有限的 。對(duì)于GPT-3.5來(lái)說(shuō),其距離限制為4096個(gè)詞匯(tokens);而對(duì)于GPT-4,這個(gè)距離已經(jīng)大幅擴(kuò)展至3.2萬(wàn)個(gè)tokens 。
 
4. 大模型為何驚艷?我們已經(jīng)介紹了GPT的原理,那么他是如何達(dá)成這種神奇效果的呢?主要分三步:
  1. 自監(jiān)督學(xué)習(xí):利用海量的文本進(jìn)行自學(xué) , 讓GPT具備預(yù)測(cè)上下文概率的基本能力 。
  2. 監(jiān)督學(xué)習(xí):人類(lèi)參與,幫助GPT理解人類(lèi)喜好和期望的答案,本質(zhì)為微調(diào)(fine-tune) 。
  3. 強(qiáng)化學(xué)習(xí):根據(jù)用戶使用時(shí)的反饋 , 持續(xù)優(yōu)化和改進(jìn)回答質(zhì)量 。
其中,自監(jiān)督學(xué)習(xí)最關(guān)鍵 。因?yàn)椋竽P偷镊攘υ谟谄洹按蟆薄笤趦蓚€(gè)方面::
  1. 訓(xùn)練數(shù)據(jù)量大:即訓(xùn)練大模型的數(shù)據(jù)規(guī)模,以GPT-3為例 , 其訓(xùn)練數(shù)據(jù)源為互聯(lián)網(wǎng)的各種精選信息以及經(jīng)典書(shū)籍,規(guī)模達(dá)到了45TB,相當(dāng)于閱讀了一億本書(shū) 。
  2. 模型參數(shù)量大:參數(shù)是神經(jīng)網(wǎng)絡(luò)中的一個(gè)術(shù)語(yǔ) , 用于捕捉數(shù)據(jù)中的規(guī)律和特征 。通常,宣稱擁有百億、千億級(jí)別參數(shù)的大型模型,指的都是其參數(shù)量 。
追求大型模型的參數(shù)量是為了利用其神奇的“涌現(xiàn)能力”,實(shí)現(xiàn)所謂的“量變引起質(zhì)變” 。
舉例來(lái)說(shuō),如果要求大模型根據(jù)emoji猜電影名稱,如????????代表《海底總動(dòng)員》 ??梢钥吹?,當(dāng)模型參數(shù)達(dá)到千億級(jí)別時(shí) , 匹配準(zhǔn)確度大幅度提升 。這表明模型參數(shù)量的增加對(duì)提高模型表現(xiàn)具有重要意義 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
處理其他多類(lèi)型任務(wù)時(shí),也有類(lèi)似的效果:
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
如實(shí)驗(yàn)所揭示的,只有當(dāng)模型參數(shù)達(dá)到千億級(jí)別,大模型的優(yōu)勢(shì)才得以凸顯 。GPT之外的其他大模型 , 也有類(lèi)似的表現(xiàn) 。
為什么?
目前主流觀點(diǎn)認(rèn)為,要完整完成一個(gè)任務(wù),實(shí)際上需要經(jīng)過(guò)很多子步驟 。當(dāng)模型大小不足時(shí),大語(yǔ)言模型無(wú)法理解或執(zhí)行所有步驟 , 導(dǎo)致最終結(jié)果不正確,達(dá)到千億級(jí)參數(shù)時(shí),其解決問(wèn)題的全鏈路能力已經(jīng)足夠 。人們以最終結(jié)果的正誤作為評(píng)判標(biāo)準(zhǔn),導(dǎo)致認(rèn)為是一種“涌現(xiàn)” 。
在“涌現(xiàn)”問(wèn)題上,人與猩猩的比喻很有趣 。人類(lèi)的大腦容量比猩猩大3倍,這種差異使得人類(lèi)能夠進(jìn)行更復(fù)雜的思考、溝通和創(chuàng)造 。兩者的結(jié)構(gòu)沒(méi)有顯著差異,這不也是“涌現(xiàn)”嗎?
GPT-3.5正是千億模型,參數(shù)達(dá)到了1750億 。相較于GPT-3,GPT-3.5主要針對(duì)模型參數(shù)進(jìn)行了微調(diào),使其在問(wèn)答時(shí)更符合人類(lèi)的習(xí)慣 。據(jù)悉,GPT-4的模型參數(shù)量甚至達(dá)到了GPT-3.5的五倍之多,這也解釋了為何GPT-4表現(xiàn)得如此聰明(體驗(yàn)過(guò)的人應(yīng)該都能理解) 。下面是GPT模型演進(jìn)歷史:
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
 
二、GPT的局限性綜上 , GPT模型具有明顯的、突破性的優(yōu)勢(shì) 。典型的優(yōu)勢(shì)包括:①?gòu)?qiáng)大的語(yǔ)言理解能力;②極為廣泛的知識(shí)儲(chǔ)備;③學(xué)習(xí)能力與推理能力等等 。這些能力讓人們感覺(jué)人工智能真正擁有了“腦子” , 想象著使用GPT解決一切問(wèn)題 。
然而,若真的要深入應(yīng)用該技術(shù),有必要了解其局限性 , 以便在實(shí)際應(yīng)用中取長(zhǎng)補(bǔ)短 。主要總結(jié)六大局限:
 
1. 邏輯不透明GPT模型的回答本質(zhì)上是概率 。傳統(tǒng)的軟件開(kāi)發(fā)中,接口的輸入和輸出參數(shù)都是確定的,而在給定輸入?yún)?shù)(即提示詞)的情況下,GPT的回復(fù)卻有一定隨機(jī)性 。
當(dāng)大家將ChatGPT作為聊天工具使用時(shí),這種不精確可以是用戶的談資;當(dāng)涉及到商業(yè)化軟件應(yīng)用時(shí),設(shè)計(jì)時(shí)就需要特別注意降低不確定性,在大部分產(chǎn)品場(chǎng)景下 , 用戶都很重視確定性 。
 
2. 短期記憶差得益于自注意力機(jī)制,ChatGPT具備了多輪對(duì)話能力 。然而,它的記憶長(zhǎng)度相當(dāng)有限,GPT-3.5模型僅支持向前追溯4096個(gè)tokens用于回復(fù)的參考 。
更糟糕的是,這4096個(gè)tokens還包括ChatGPT之前回復(fù)用戶的部分!這使得其捉襟見(jiàn)肘的記憶更加難堪 , 堪稱電子金魚(yú) 。好在GPT-4已經(jīng)將上下文token上限擴(kuò)展至3.2萬(wàn)個(gè),一定程度上緩解了這個(gè)問(wèn)題 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
 
3. 資源消耗多ChatGPT的智能需要消耗大量算力,而運(yùn)行大規(guī)模高端顯卡需要消耗大量電力 。在五年之內(nèi),依靠半導(dǎo)體制程的進(jìn)一步升級(jí)和大模型的廣泛應(yīng)用,算力與電力的邊際成本將逐漸轉(zhuǎn)變?yōu)楣潭ǔ杀?,也就解決了本問(wèn)題 。
 
4. 響應(yīng)速度慢由于模型極大 , GPT在回復(fù)時(shí)也無(wú)法做到瞬時(shí)響應(yīng),正如用戶實(shí)際體驗(yàn),ChatGPT是逐詞回復(fù)的 。企業(yè)在設(shè)計(jì)相關(guān)產(chǎn)品時(shí)需要特別關(guān)注應(yīng)用場(chǎng)景:
  1. 需要避免將GPT用于高并發(fā)的場(chǎng)景 , 本服務(wù)依賴的接口調(diào)用并發(fā)上限非常低 。
  2. 產(chǎn)品設(shè)計(jì)上避免用戶急切需要結(jié)果的應(yīng)用場(chǎng)景,確保用戶能夠“等得起” 。
 
5. 行業(yè)認(rèn)知淺誠(chéng)然,ChatGPT擁有來(lái)自互聯(lián)網(wǎng)和經(jīng)典書(shū)籍的豐富知識(shí) 。然而 , 真正的企業(yè)級(jí)專(zhuān)業(yè)知識(shí)往往源于特定領(lǐng)域的深入研究和實(shí)踐,這些真知灼見(jiàn)無(wú)法僅憑互聯(lián)網(wǎng)上的知識(shí)獲取 。因此,若希望GPT充當(dāng)企業(yè)參謀,只能幫助梳理戰(zhàn)略框架 , 但難以為企業(yè)提供頗具洞察的策略建議 。
 
6. 價(jià)值未對(duì)齊
  1. 在自監(jiān)督學(xué)習(xí)階段,GPT訓(xùn)練數(shù)據(jù)英文占比高達(dá)92% 。
  2. 在監(jiān)督學(xué)習(xí)階段,傳授道德觀的工程師主要來(lái)自英語(yǔ)世界 。
  3. 在強(qiáng)化學(xué)習(xí)環(huán)節(jié) , 也可能受到惡意用戶輸入錯(cuò)誤價(jià)值觀的影響 。
因此,GPT的“精神內(nèi)核”是以西方價(jià)值觀為基石的,這可能導(dǎo)致生成的文字難以符合我國(guó)的文化背景和價(jià)值觀 。
 
三、GPT的多層應(yīng)用指南在深入了解GPT模型的原理、及局限性之后 , 終于可以看看怎么用好這項(xiàng)技術(shù)了 。我按照感知其能力的直觀性,由淺入深將其分為五層,逐層進(jìn)行介紹 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
 
第一層:聊天能力在此類(lèi)用法中,GPT的回答就是給客戶的交付物,是GPT模型最簡(jiǎn)單、最直觀的用法 。
1)套殼聊天機(jī)器人
通過(guò)使用OpenAI官方接口,開(kāi)發(fā)的套殼聊天機(jī)器人產(chǎn)品 。這類(lèi)產(chǎn)品之所以存在,原因懂得都懂 。否則,用戶為何不直接使用ChatGPT呢?此類(lèi)產(chǎn)品難以形成現(xiàn)象級(jí)應(yīng)用,且競(jìng)爭(zhēng)激烈 。由于比較灰色且內(nèi)容未經(jīng)過(guò)濾 , 網(wǎng)站被封后又換域名的故事將持續(xù)上演 。
2)場(chǎng)景化問(wèn)答
這種模式對(duì)GPT的回復(fù)場(chǎng)景進(jìn)行了約束 。通過(guò)限定提示詞、嵌入大量特定領(lǐng)域知識(shí)以及微調(diào)技術(shù),使GPT能夠僅基于某類(lèi)身份回答特定類(lèi)型的問(wèn)題 。對(duì)于其他類(lèi)型的問(wèn)題,機(jī)器人會(huì)告知用戶不了解相關(guān)內(nèi)容 。
這種用法可以有效約束用戶的輸入,降低許多不必要的風(fēng)險(xiǎn),但是想訓(xùn)練一個(gè)出色的場(chǎng)景化機(jī)器人,也需要投入許多精力 。典型應(yīng)用包括智能客服、智能心理咨詢和法律咨詢等 。微軟的new Bing正是此類(lèi)應(yīng)用的杰出代表,其俏皮傲嬌的回復(fù)風(fēng)格,深受網(wǎng)友的喜愛(ài) 。
 
第二層:語(yǔ)言能力在本層,我們充分發(fā)揮ChatGPT的語(yǔ)言天賦,輔助各種基于文字的處理工作 。從這一層開(kāi)始,需要使用one-shot或few-shot(在提示詞中給ChatGPT一個(gè)或多個(gè)示例)來(lái)提升ChatGPT的表現(xiàn) 。與用戶的交互不再局限于聊天窗口,提前預(yù)制提示詞模板,用戶只能輸入限定的信息,對(duì)應(yīng)提示詞的空槽位 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
預(yù)制帶槽位提示詞模板的應(yīng)用基本流程如下:
1)文字處理類(lèi)
此類(lèi)應(yīng)用主要有三種用法:
① 文章提煉
可以輸入文章段落,要求提取段落主旨 。但受token數(shù)限制,難以總結(jié)整篇文章 。也可要求生成短標(biāo)題、副標(biāo)題等 。在提示詞中預(yù)留【案例】槽位,讓用戶輸入一些參考案例,GPT便可以學(xué)習(xí)相應(yīng)的風(fēng)格,進(jìn)行針對(duì)性的輸出 。
② 潤(rùn)色/改寫(xiě)
可用于文章的初步潤(rùn)色 , 能夠消除錯(cuò)別字、錯(cuò)誤標(biāo)點(diǎn)等 。
改寫(xiě)則可以轉(zhuǎn)換文章風(fēng)格,如更改成小紅書(shū)風(fēng)格等 。
③ 文章擴(kuò)寫(xiě)
在有大綱基礎(chǔ)上,分段進(jìn)行文章擴(kuò)寫(xiě) 。受token限制,如一次要求過(guò)長(zhǎng),輸出的擴(kuò)寫(xiě)難以做到前后呼應(yīng) 。ChatGPT本身不會(huì)產(chǎn)生新知識(shí),文章擴(kuò)寫(xiě)難以寫(xiě)出深刻見(jiàn)地,只能生成口水文 。通過(guò)給定關(guān)鍵詞和案例 , 要求生成有規(guī)律的短文案,是應(yīng)用其文章擴(kuò)寫(xiě)能力的有效方法 。
2)翻譯
GPT模型訓(xùn)練時(shí)學(xué)習(xí)了大量語(yǔ)言,具備跨語(yǔ)言能力 。無(wú)論用何種語(yǔ)言與其溝通,只要理解意圖,分析問(wèn)題能力是不區(qū)分語(yǔ)言的 。因此,翻譯對(duì)GPT來(lái)說(shuō)很輕松 。當(dāng)然也僅限基本翻譯,不要指望其能翻譯的“信、達(dá)、雅” 。
3)情感分析
GPT能理解文字背后的用戶情緒 。例如,在客服模塊引入GPT能力,基于用戶語(yǔ)音和文字快速判斷情緒狀況,提前識(shí)別潛在客訴,在情緒爆發(fā)前進(jìn)行有效安撫 。
 
第三層:文本能力在這類(lèi)應(yīng)用中,GPT的能力已經(jīng)超越了語(yǔ)言 , 它通過(guò)大量學(xué)習(xí),凡是與文本相關(guān)的任務(wù),都能勝任 。它甚至具備真正的學(xué)習(xí)能力 , 使用few-shot技巧,能解決訓(xùn)練數(shù)據(jù)中不存在的問(wèn)題 。本層的應(yīng)用范圍極廣,將迸發(fā)出大量極具創(chuàng)造力的產(chǎn)品 。我在這里僅舉一些典型例子 。
1)寫(xiě)代碼
ChatGPT能編寫(xiě)SQL、Python、Java等代碼,并幫忙查找代碼BUG 。與撰寫(xiě)文章的原因類(lèi)似,不能要求其編寫(xiě)過(guò)長(zhǎng)的代碼 。
2)寫(xiě)提示詞
要求GPT創(chuàng)作提示詞是與其他AI聯(lián)動(dòng)的簡(jiǎn)單方式 。例如,要求GPT為midjourney撰寫(xiě)提示詞,已成為非常主流的做法 。
3)數(shù)據(jù)分析
ChatGPT可以直接進(jìn)行數(shù)據(jù)分析,或與EXCEL配合進(jìn)行數(shù)據(jù)分析 。它將數(shù)據(jù)分析操作成本降至極低,大幅提升了數(shù)據(jù)分析的效率 。
 
第四層:推理能力在前幾層中,我們已經(jīng)見(jiàn)識(shí)了GPT的推理能力 。以GPT的推理能力替代手動(dòng)點(diǎn)擊操作流 , 將帶來(lái)B端和C端的產(chǎn)品設(shè)計(jì)的顛覆式變化 。個(gè)人認(rèn)為,短期內(nèi)B端的機(jī)會(huì)大于C端 。經(jīng)過(guò)互聯(lián)網(wǎng)20年的發(fā)展 , C端用戶的主要需求已基本得到滿足,顛覆C端用戶的操作路徑會(huì)帶來(lái)較大的學(xué)習(xí)成本 。而B(niǎo)端則有很大的發(fā)揮空間,這里將其分為三個(gè)階段:
1)自動(dòng)化工作流串聯(lián)
利用ChatGPT理解人類(lèi)意圖的能力,結(jié)合langChain技術(shù)將提示詞和公司內(nèi)各項(xiàng)工作的網(wǎng)頁(yè)鏈接整合 。員工無(wú)需尋找各種鏈接,在需要執(zhí)行相關(guān)操作時(shí),會(huì)自動(dòng)跳轉(zhuǎn)到相應(yīng)頁(yè)面,進(jìn)行下一步操作 。以ChatGPT為智慧中樞,實(shí)現(xiàn)將B端各類(lèi)操作有機(jī)整合 。下圖為設(shè)計(jì)思路的示例 。
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
2)AI輔助決策
以第一個(gè)階段為基礎(chǔ) , 將對(duì)應(yīng)頁(yè)面的部分功能與GPT聯(lián)動(dòng) 。這樣,在員工執(zhí)行操作時(shí),部分功能可以由AI實(shí)現(xiàn),成倍提升效率 。微軟Copilot正是這類(lèi)產(chǎn)品的代表,比如可以實(shí)現(xiàn)在Excel中說(shuō)明自己想要進(jìn)行的數(shù)據(jù)分析 , 無(wú)需尋找相關(guān)公式 , 數(shù)據(jù)分析就自動(dòng)做好了 。
3)全自動(dòng)AI工作流
【ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理】本階段目前還處于演示層面,呈現(xiàn)了未來(lái)的愿景 。如前文所述 , GPT很難解決特定領(lǐng)域的細(xì)節(jié)問(wèn)題,除非針對(duì)某個(gè)場(chǎng)景進(jìn)行大量的微調(diào)與私有數(shù)據(jù)部署 。AutoGPT、AgentGPT都屬于此類(lèi) 。
 
第五層:國(guó)產(chǎn)大模型AI技術(shù)是科學(xué)而非神學(xué) , 大模型的原理也不是秘密 。美國(guó)能做到,我國(guó)不僅能 , 而且有必要 。只要訓(xùn)練數(shù)據(jù)質(zhì)量達(dá)標(biāo),模型參數(shù)突破千億便具備推理能力,突破八千億可與GPT-4匹敵 。采用大量中文語(yǔ)料和中文微調(diào),我國(guó)必將擁有符合本國(guó)文化背景、價(jià)值觀的大模型 。
然而,路漫漫其修遠(yuǎn)兮,困難也是極多的 , 如:訓(xùn)練成本極高、訓(xùn)練數(shù)據(jù)質(zhì)量要求高、模型優(yōu)化復(fù)雜、馬太效應(yīng)明顯等 。因此,預(yù)計(jì)在未來(lái)五年內(nèi),中國(guó)最多只會(huì)有3家知名大模型服務(wù)商 。
大模型是AI時(shí)代的基礎(chǔ)設(shè)施,大部分公司選擇直接應(yīng)用,直接獲取商業(yè)價(jià)值 。在這個(gè)大背景下,愿意投身自有大模型的公司就更加難能可貴了 。在此,我謹(jǐn)代表個(gè)人向那些勇于投身于自有大模型建設(shè)的國(guó)內(nèi)企業(yè)表示敬意 。
 
四、總結(jié)總的來(lái)看,ChatGPT是一款跨時(shí)代的產(chǎn)品 。不同層面對(duì)GPT技術(shù)的應(yīng)用,體現(xiàn)出了一些共性的機(jī)會(huì) 。我總結(jié)了三項(xiàng)未來(lái)具有巨大價(jià)值的能力 。
 
1. 問(wèn)題分解技術(shù)鑒于GPT回復(fù)的限制在于最多只能基于32,000個(gè)tokens,因此有效地將問(wèn)題分解成子問(wèn)題并交由GPT處理顯得尤為關(guān)鍵 。未來(lái)的工作模式可能將問(wèn)題拆解為子問(wèn)題,再組裝子問(wèn)題的解決方案 。在具體實(shí)施時(shí),還需要對(duì)子問(wèn)題的難度進(jìn)行判斷,有些問(wèn)題可以交給一些小模型處理,這樣就可以有效的控制應(yīng)用成本 。
 
2. 三種調(diào)優(yōu)方法想要讓GPT在多個(gè)層面上發(fā)揮特定的作用,主要有三種交互方式,成本從低到高分別為:
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
① 提示詞優(yōu)化
通過(guò)探索找到最優(yōu)提示詞模板,預(yù)留特定槽位以供用戶輸入 。僅通過(guò)提示詞優(yōu)化就能實(shí)現(xiàn)廣泛功能,許多基于GPT的產(chǎn)品,其底層就是基于特定提示詞的包裝 。好的提示詞需包含角色、背景、GPT需執(zhí)行的任務(wù)、輸出標(biāo)準(zhǔn)等 。根據(jù)業(yè)界的研究 , 好的提示詞能使GPT3.5結(jié)果的可用性由30%飆升至80%以上 。提示詞優(yōu)化毫無(wú)疑問(wèn)是這三種方法中最重要的 。
② embedding
這是一種搭建自有知識(shí)庫(kù)的方法,將自建知識(shí)庫(kù)使用embedding技術(shù)向量化 , 這樣GPT就能基于自有數(shù)據(jù)進(jìn)行問(wèn)答 。
③ 微調(diào)(finetune)
通過(guò)輸入大量問(wèn)答 , 真正教會(huì)GPT如何回答某類(lèi)問(wèn)題,成本較前兩者更高 。優(yōu)勢(shì)在于將提示詞的短期記憶轉(zhuǎn)化為私有模型的長(zhǎng)期記憶,從而釋放寶貴的Token以完善提示詞其他細(xì)節(jié) 。
以上三種方式并不沖突,在工程實(shí)踐中往往互相配合,特別是前兩種 。
 
3. 私有數(shù)據(jù)積累私有數(shù)據(jù)集的價(jià)值得到進(jìn)一步提升,各行業(yè)可基于此對(duì)GPT進(jìn)行二次包裝 , 解決特定領(lǐng)域問(wèn)題 。建議使用微軟Azure提供的GPT接口,搭建帶有私有數(shù)據(jù)的大語(yǔ)言模型產(chǎn)品 。因微軟面向B端的GPT服務(wù)為獨(dú)立部署,不會(huì)將私有數(shù)據(jù)用于大模型訓(xùn)練,這樣可以有效保護(hù)私有數(shù)據(jù) 。畢竟私有數(shù)據(jù)一旦公開(kāi),價(jià)值將大打折扣 。
憑借以上幾項(xiàng)能力加持 , 大語(yǔ)言模型可以充分釋放在解決依賴電腦的重復(fù)性勞動(dòng)的生產(chǎn)力 。我將下一個(gè)時(shí)代(3年內(nèi))的業(yè)務(wù)運(yùn)轉(zhuǎn)模式總結(jié)如下圖:
ChatGPT中文版網(wǎng)頁(yè)的使用 chatgpt作用工作原理

文章插圖
企業(yè)會(huì)根據(jù)三大能力衍生出三大類(lèi)角色:
① 問(wèn)題分解者
這類(lèi)角色很清楚大語(yǔ)言模型能力的邊界,能夠?qū)⒁粋€(gè)業(yè)務(wù)問(wèn)題有效的分解為GPT能處理的子問(wèn)題,并能根據(jù)問(wèn)題結(jié)果,將子問(wèn)題進(jìn)行拼裝 。
② 提示工程師
這類(lèi)角色深諳與GPT溝通之道,能夠根據(jù)不同的問(wèn)題類(lèi)型,給出有效的提示詞模板,極大提升GPT的輸出質(zhì)量 。
③ 知識(shí)擁有者
這類(lèi)角色有大量的行業(yè)knowhow,并且能夠?qū)⒅R(shí)進(jìn)行結(jié)構(gòu)化 , 傳授給GPT 。對(duì)應(yīng)現(xiàn)在的領(lǐng)域?qū)<?。
在這種模式的推動(dòng)下,GPT將會(huì)成為企業(yè)提效的重要幫手,可以解決大量重復(fù)勞動(dòng),可以提供有價(jià)值的參考 。但人的主觀能動(dòng)性仍起決定性作用 。
 
五、寫(xiě)在最后以GPT-4為代表的AI技術(shù)當(dāng)前的水平 , 帶來(lái)的效率提升已經(jīng)令人震驚,更遑論其仍以飛快的速度進(jìn)化 。從技術(shù)革命的發(fā)展史來(lái)看,一項(xiàng)大幅度提效的新技術(shù)出現(xiàn) , 往往先惠及B端,而后才慢慢在C端開(kāi)始釋放巨大的價(jià)值 。這是由企業(yè)對(duì)效率天然的敏感性所決定的 , 而改變C用戶的習(xí)慣需要大量學(xué)習(xí)成本與場(chǎng)景挖掘,滯后效應(yīng)較強(qiáng) 。舉三個(gè)例子:
  1. 回顧第一次工業(yè)革命 , 蒸汽機(jī)的出現(xiàn)先導(dǎo)致了紡織女工的大量失業(yè),而后才挖掘到各種C端場(chǎng)景,推動(dòng)了社會(huì)生產(chǎn)力的大幅度上升 。
  2. ChatGPT可以更快的生成口水文,但是C端用戶對(duì)閱讀的訴求沒(méi)有增加 。對(duì)于營(yíng)銷(xiāo)號(hào)公司來(lái)說(shuō),效率提升了,所需要的小編變少了 。
  3. MidJourney可以快速出游戲貼圖,但是這并不會(huì)導(dǎo)致更多的人愛(ài)玩游戲,那么需要畫(huà)師就少了 。
一場(chǎng)信息化企業(yè)的效率革命就要到來(lái)了,依靠電腦的重復(fù)勞動(dòng)將會(huì)消失,因?yàn)榇竽P妥钌瞄L(zhǎng)學(xué)習(xí)固定的套路 。正如我文初所說(shuō),像IBM公司縮減7800個(gè)編制的案例,只會(huì)發(fā)生的越來(lái)越頻繁 。


    以上關(guān)于本文的內(nèi)容,僅作參考!溫馨提示:如遇健康、疾病相關(guān)的問(wèn)題,請(qǐng)您及時(shí)就醫(yī)或請(qǐng)專(zhuān)業(yè)人士給予相關(guān)指導(dǎo)!

    「愛(ài)刨根生活網(wǎng)」www.malaban59.cn小編還為您精選了以下內(nèi)容,希望對(duì)您有所幫助: