亚洲精品久久久久久第一页-人妻少妇精彩视品一区二区三区-91国产自拍免费视频-免费一级a在线播放视频正片-少妇天天日天天射天天爽-国产大屁股喷水视频在线观看-操美女骚穴抽插性爱视频-亚洲 欧美 中文字幕 丝袜-成人免费无码片在线观看

關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

零、引言如何充分發(fā)揮ChatGPT潛能,已是眾多企業(yè)關(guān)注的焦點(diǎn) 。但是,這種變化對員工來說未必是好事情 。IBM計劃用AI替代7800個工作崗位,游戲公司使用MidJourney削減原畫師人數(shù)……此類新聞屢見不鮮 。理解并應(yīng)用這項(xiàng)新技術(shù),對于職場人來說重要性與日俱增 。
一、GPT模型原理理解原理是有效應(yīng)用的第一步 。ChatGPT是基于GPT模型的AI聊天產(chǎn)品,后文均簡稱為GPT 。
從技術(shù)上看,GPT是一種基于Transformer架構(gòu)的大語言模型(LLM) 。GPT這個名字 , 實(shí)際上是”Generative Pre-trained Transformer”的縮寫,中文意為“生成式預(yù)訓(xùn)練變換器” 。
1.大模型和傳統(tǒng)AI的區(qū)別是什么?傳統(tǒng)AI模型針對特定目標(biāo)訓(xùn)練,因此只能處理特定問題 。例如 , 很會下棋的AlphaGO 。
而自然語言處理(NLP)試圖更進(jìn)一步,解決用戶更為通用的問題 。可以分為兩個關(guān)鍵步驟:自然語言理解(NLU)和自然語言生成(NLG) 。

關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
以SIRI為代表的人工智能助手統(tǒng)一了NLU層,用一個模型理解用戶的需求,然后將需求分配給特定的AI模型進(jìn)行處理,實(shí)現(xiàn)NLG并向用戶反饋 。然而,這種模式存在顯著缺點(diǎn) 。如微軟官方圖例所示,和傳統(tǒng)AI一樣,用戶每遇到一個新的場景,都需要訓(xùn)練一個相應(yīng)的模型 , 費(fèi)用高昂且發(fā)展緩慢,NLG層亟需改變 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
大型語言模型(如GPT)采用了一種截然不同的策略,實(shí)現(xiàn)了NLG層的統(tǒng)一 。秉持著“大力出奇跡”的理念,將海量知識融入到一個統(tǒng)一的模型中,而不針對每個特定任務(wù)分別訓(xùn)練模型,使AI解決多類型問題的能力大大加強(qiáng) 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
2.ChatGPT如何實(shí)現(xiàn)NLG?AI本質(zhì)上就是個逆概率問題 。GPT的自然語言生成實(shí)際上是一個基于概率的“文字接龍”游戲 。我們可以將GPT模型簡化為一個擁有千億參數(shù)的“函數(shù)” 。當(dāng)用戶輸入“提示詞(prompt)”時,模型按照以下步驟執(zhí)行:
①將用戶的“提示詞”轉(zhuǎn)換為token(準(zhǔn)確地說是“符號”,近似為“詞匯” , 下同)+token的位置 。
②將以上信息“向量化”,作為大模型“函數(shù)”的輸入?yún)?shù) 。
③大模型根據(jù)處理好的參數(shù)進(jìn)行概率猜測 , 預(yù)測最適合回復(fù)用戶的詞匯,并進(jìn)行回復(fù) 。
④將回復(fù)的詞匯(token)加入到輸入?yún)?shù)中,重復(fù)上述步驟,直到最高概率的詞匯是【END】,從而實(shí)現(xiàn)一次完整的回答 。這種方法使得GPT模型能夠根據(jù)用戶的提示,生成連貫、合理的回復(fù) , 從而實(shí)現(xiàn)自然語言處理任務(wù) 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
3.上下文理解的關(guān)鍵技術(shù)GPT不僅能理解用戶當(dāng)前的問題,還能基于前文理解問題背景 。這得益于Transformer架構(gòu)中的“自注意力機(jī)制(Self-attention)” 。該機(jī)制使得GPT能夠捕捉長文本中的依賴關(guān)系 。通俗地說,GPT在進(jìn)行文字接龍判斷時,不僅基于用戶剛輸入的“提示” , 還會將之前多輪對話中的“提示”和“回復(fù)”作為輸入?yún)?shù) 。然而,這個距離長度是有限的 。對于GPT-3.5來說,其距離限制為4096個詞匯(tokens);而對于GPT-4 , 這個距離已經(jīng)大幅擴(kuò)展至3.2萬個tokens 。
4.大模型為何驚艷?我們已經(jīng)介紹了GPT的原理,那么他是如何達(dá)成這種神奇效果的呢?主要分三步:
①自監(jiān)督學(xué)習(xí):利用海量的文本進(jìn)行自學(xué) , 讓GPT具備預(yù)測上下文概率的基本能力 。
②監(jiān)督學(xué)習(xí):人類參與,幫助GPT理解人類喜好和期望的答案,本質(zhì)為微調(diào)(fine-tune) 。
③強(qiáng)化學(xué)習(xí):根據(jù)用戶使用時的反饋 , 持續(xù)優(yōu)化和改進(jìn)回答質(zhì)量 。
其中,自監(jiān)督學(xué)習(xí)最關(guān)鍵 。因?yàn)?,大模型的魅力在于其“大”——大在兩個方面:
①訓(xùn)練數(shù)據(jù)量大:
即訓(xùn)練大模型的數(shù)據(jù)規(guī)模 , 以GPT-3為例,其訓(xùn)練數(shù)據(jù)源為互聯(lián)網(wǎng)的各種精選信息以及經(jīng)典書籍,規(guī)模達(dá)到了45TB,相當(dāng)于閱讀了一億本書 。
②模型參數(shù)量大:
參數(shù)是神經(jīng)網(wǎng)絡(luò)中的一個術(shù)語,用于捕捉數(shù)據(jù)中的規(guī)律和特征 。通常,宣稱擁有百億、千億級別參數(shù)的大型模型,指的都是其參數(shù)量 。
追求大型模型的參數(shù)量是為了利用其神奇的“涌現(xiàn)能力” , 實(shí)現(xiàn)所謂的“量變引起質(zhì)變” 。舉例來說,如果要求大模型根據(jù)emoji猜電影名稱,如代表《海底總動員》 ??梢钥吹剑?dāng)模型參數(shù)達(dá)到千億級別時 , 匹配準(zhǔn)確度大幅度提升 。這表明模型參數(shù)量的增加對提高模型表現(xiàn)具有重要意義 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
處理其他多類型任務(wù)時,也有類似的效果:
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
如實(shí)驗(yàn)所揭示的,只有當(dāng)模型參數(shù)達(dá)到千億級別,大模型的優(yōu)勢才得以凸顯 。GPT之外的其他大模型 , 也有類似的表現(xiàn) 。
為什么?
目前主流觀點(diǎn)認(rèn)為,要完整完成一個任務(wù) , 實(shí)際上需要經(jīng)過很多子步驟 。當(dāng)模型大小不足時,大語言模型無法理解或執(zhí)行所有步驟,導(dǎo)致最終結(jié)果不正確,達(dá)到千億級參數(shù)時,其解決問題的全鏈路能力已經(jīng)足夠 。人們以最終結(jié)果的正誤作為評判標(biāo)準(zhǔn) , 導(dǎo)致認(rèn)為是一種“涌現(xiàn)” 。
在“涌現(xiàn)”問題上 , 人與猩猩的比喻很有趣 。人類的大腦容量比猩猩大3倍,這種差異使得人類能夠進(jìn)行更復(fù)雜的思考、溝通和創(chuàng)造 。兩者的結(jié)構(gòu)沒有顯著差異,這不也是“涌現(xiàn)”嗎?
GPT-3.5正是千億模型,參數(shù)達(dá)到了1750億 。相較于GPT-3,GPT-3.5主要針對模型參數(shù)進(jìn)行了微調(diào),使其在問答時更符合人類的習(xí)慣 。據(jù)悉,GPT-4的模型參數(shù)量甚至達(dá)到了GPT-3.5的五倍之多 , 這也解釋了為何GPT-4表現(xiàn)得如此聰明(體驗(yàn)過的人應(yīng)該都能理解) 。下面是GPT模型演進(jìn)歷史:
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
二、GPT的局限性綜上,GPT模型具有明顯的、突破性的優(yōu)勢 。典型的優(yōu)勢包括:①強(qiáng)大的語言理解能力;②極為廣泛的知識儲備;③學(xué)習(xí)能力與推理能力等等 。這些能力讓人們感覺人工智能真正擁有了“腦子”,想象著使用GPT解決一切問題 。
然而,若要深入應(yīng)用該技術(shù),有必要了解其局限性,以便在實(shí)際應(yīng)用中取長補(bǔ)短 。主要總結(jié)六大局限:
1.邏輯不透明GPT模型的回答本質(zhì)上是概率 。傳統(tǒng)的軟件開發(fā)中,接口的輸入和輸出參數(shù)都是確定的,而在給定輸入?yún)?shù)(即提示詞)的情況下,GPT的回復(fù)卻有一定隨機(jī)性 。當(dāng)大家將ChatGPT作為聊天工具使用時 , 這種不精確可以是用戶的談資;當(dāng)涉及到商業(yè)化軟件應(yīng)用時,設(shè)計時就需要特別注意降低不確定性,在大部分產(chǎn)品場景下,用戶都很重視確定性 。
2.短期記憶差得益于自注意力機(jī)制 , ChatGPT具備了多輪對話能力 。然而,它的記憶長度相當(dāng)有限,GPT-3.5模型僅支持向前追溯4096個tokens用于回復(fù)的參考 。更糟糕的是 , 這4096個tokens還包括ChatGPT之前回復(fù)用戶的部分!這使得其捉襟見肘的記憶更加難堪 , 堪稱電子金魚 。好在GPT-4已經(jīng)將上下文token上限擴(kuò)展至3.2萬個,一定程度上緩解了這個問題 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
【關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹】3.資源消耗多ChatGPT的智能需要消耗大量算力,而運(yùn)行大規(guī)模高端顯卡需要消耗大量電力 。在五年之內(nèi),依靠半導(dǎo)體制程的進(jìn)一步升級和大模型的廣泛應(yīng)用,算力與電力的邊際成本將逐漸轉(zhuǎn)變?yōu)楣潭ǔ杀?,也就解決了本問題 。
4.響應(yīng)速度慢由于模型極大,GPT在回復(fù)時也無法做到瞬時響應(yīng),正如用戶實(shí)際體驗(yàn),ChatGPT是逐詞回復(fù)的 。企業(yè)在設(shè)計相關(guān)產(chǎn)品時需要特別關(guān)注應(yīng)用場景:
①需要避免將GPT用于高并發(fā)的場景,本服務(wù)依賴的接口調(diào)用并發(fā)上限非常低 。
②產(chǎn)品設(shè)計上避免用戶急切需要結(jié)果的應(yīng)用場景,確保用戶能夠“等得起” 。
5.行業(yè)認(rèn)知淺誠然,ChatGPT擁有來自互聯(lián)網(wǎng)和經(jīng)典書籍的豐富知識 。然而,真正的企業(yè)級專業(yè)知識往往源于特定領(lǐng)域的深入研究和實(shí)踐 , 這些真知灼見無法僅憑互聯(lián)網(wǎng)上的知識獲取 。因此,若希望GPT充當(dāng)企業(yè)參謀,只能幫助梳理戰(zhàn)略框架,但難以為企業(yè)提供頗具洞察的策略建議 。
6.價值未對齊①在自監(jiān)督學(xué)習(xí)階段,GPT訓(xùn)練數(shù)據(jù)英文占比高達(dá)92% 。②在監(jiān)督學(xué)習(xí)階段,傳授道德觀的工程師主要來自英語世界 。③在強(qiáng)化學(xué)習(xí)環(huán)節(jié),也可能受到惡意用戶輸入錯誤價值觀的影響 。因此,GPT的“精神內(nèi)核”是以西方價值觀為基石的,這可能導(dǎo)致生成的文字難以符合我國的文化背景和價值觀 。
三、GPT的多層應(yīng)用指南在了解了GPT模型的原理及局限性后,終于可以看看怎么用好這項(xiàng)技術(shù)了 。我按照感知其能力的直觀性,由淺入深將其分為五層,逐層進(jìn)行介紹 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
第一層:聊天能力在此類用法中,GPT的回答就是給客戶的交付物,是GPT模型最簡單、最直觀的用法 。
1.套殼聊天機(jī)器人通過使用OpenAI官方接口,開發(fā)的套殼聊天機(jī)器人產(chǎn)品 。這類產(chǎn)品之所以存在,原因懂得都懂 。否則,用戶為何不直接使用ChatGPT呢?此類產(chǎn)品難以形成現(xiàn)象級應(yīng)用,且競爭激烈 。由于比較灰色且內(nèi)容未經(jīng)過濾,網(wǎng)站被封后又換域名的故事將持續(xù)上演 。
2.場景化問答這種模式對GPT的回復(fù)場景進(jìn)行了約束 。通過限定提示詞、嵌入大量特定領(lǐng)域知識以及微調(diào)技術(shù),使GPT能夠僅基于某類身份回答特定類型的問題 。對于其他類型的問題,機(jī)器人會告知用戶不了解相關(guān)內(nèi)容 。這種用法可以有效約束用戶的輸入,降低許多不必要的風(fēng)險,但是想訓(xùn)練一個出色的場景化機(jī)器人,也需要投入許多精力 。典型應(yīng)用包括智能客服、智能心理咨詢和法律咨詢等 。微軟的new Bing正是此類應(yīng)用的杰出代表,其俏皮傲嬌的回復(fù)風(fēng)格,深受網(wǎng)友的喜愛 。
第二層:語言能力在本層,我們充分發(fā)揮ChatGPT的語言天賦,輔助各種基于文字的處理工作 。從這一層開始,需要使用one-shot或few-shot(在提示詞中給ChatGPT一個或多個示例)來提升ChatGPT的表現(xiàn) 。與用戶的交互不再局限于聊天窗口,提前預(yù)制提示詞模板,用戶只能輸入限定的信息,對應(yīng)提示詞的空槽位 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
預(yù)制帶槽位提示詞模板的應(yīng)用基本流程如下:
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
1.文字處理類此類應(yīng)用主要有三種用法:
①文章提煉
可以輸入文章段落,要求提取段落主旨 。但受token數(shù)限制,難以總結(jié)整篇文章 。也可要求生成短標(biāo)題、副標(biāo)題等 。在提示詞中預(yù)留【案例】槽位 , 讓用戶輸入一些參考案例 , GPT便可以學(xué)習(xí)相應(yīng)的風(fēng)格 , 進(jìn)行針對性的輸出 。
②潤色/改寫
可用于文章的初步潤色 , 能夠消除錯別字、錯誤標(biāo)點(diǎn)等 。改寫則可以轉(zhuǎn)換文章風(fēng)格 , 如更改成小紅書風(fēng)格等 。
③文章擴(kuò)寫
在有大綱基礎(chǔ)上 , 分段進(jìn)行文章擴(kuò)寫 。受token限制,如一次要求過長,輸出的擴(kuò)寫難以做到前后呼應(yīng) 。ChatGPT本身不會產(chǎn)生新知識,文章擴(kuò)寫難以寫出深刻見地 , 只能生成口水文 。通過給定關(guān)鍵詞和案例,要求生成有規(guī)律的短文案,是應(yīng)用其文章擴(kuò)寫能力的有效方法 。
2.翻譯GPT模型訓(xùn)練時學(xué)習(xí)了大量語言,具備跨語言能力 。無論用何種語言與其溝通,只要理解意圖,分析問題能力是不區(qū)分語言的 。因此,翻譯對GPT來說很輕松 。當(dāng)然也僅限基本翻譯,不要指望其能翻譯的“信、達(dá)、雅” 。
3.情感分析GPT能理解文字背后的用戶情緒 。例如,在客服模塊引入GPT能力,基于用戶語音和文字快速判斷情緒狀況,提前識別潛在客訴,在情緒爆發(fā)前進(jìn)行有效安撫 。
第三層:文本能力在本層,GPT的能力已經(jīng)超越了語言,它通過大量學(xué)習(xí),凡是與文本相關(guān)的任務(wù),都能勝任 。它甚至具備真正的學(xué)習(xí)能力,使用few-shot技巧 , 能解決訓(xùn)練數(shù)據(jù)中不存在的問題 。本層的應(yīng)用范圍極廣 , 將迸發(fā)出大量極具創(chuàng)造力的產(chǎn)品 。我在這里僅舉一些典型例子 。
1.寫代碼ChatGPT能編寫SQL、Python、Java等代碼 , 并幫忙查找代碼BUG 。與撰寫文章的原因類似 , 不能要求其編寫過長的代碼 。
2.寫提示詞要求GPT創(chuàng)作提示詞是與其他AI聯(lián)動的簡單方式 。例如 , 要求GPT為midjourney撰寫提示詞,已成為非常主流的做法 。
3.數(shù)據(jù)分析ChatGPT可以直接進(jìn)行數(shù)據(jù)分析,或與EXCEL配合進(jìn)行數(shù)據(jù)分析 。它將數(shù)據(jù)分析操作成本降至極低,大幅提升了數(shù)據(jù)分析的效率 。
第四層:推理能力在前幾層中,我們已經(jīng)見識了GPT的推理能力 。以GPT的推理能力替代手動點(diǎn)擊操作流,將帶來B端和C端的產(chǎn)品設(shè)計的顛覆式變化 。個人認(rèn)為,短期內(nèi)B端的機(jī)會大于C端 。經(jīng)過互聯(lián)網(wǎng)20年的發(fā)展,C端用戶的主要需求已基本得到滿足,顛覆C端用戶的操作路徑會帶來較大的學(xué)習(xí)成本 。而B端則有很大的發(fā)揮空間 , 這里將其分為三個階段:
1.自動化工作流串聯(lián)利用ChatGPT理解人類意圖的能力,結(jié)合langChain技術(shù)將提示詞和公司內(nèi)各項(xiàng)工作的網(wǎng)頁鏈接整合 。員工無需尋找各種鏈接,在需要執(zhí)行相關(guān)操作時,會自動跳轉(zhuǎn)到相應(yīng)頁面 , 進(jìn)行下一步操作 。以ChatGPT為智慧中樞,真正實(shí)現(xiàn)將B端各類操作有機(jī)整合 。下圖為設(shè)計思路的示例 。
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
2.AI輔助決策以第一個階段為基礎(chǔ),將對應(yīng)頁面的部分功能與GPT聯(lián)動 。這樣,在員工執(zhí)行操作時,部分功能可以由AI實(shí)現(xiàn),成倍提升效率 。微軟Copilot正是這類產(chǎn)品的代表 , 比如可以實(shí)現(xiàn)在Excel中說明自己想要進(jìn)行的數(shù)據(jù)分析,無需尋找相關(guān)公式,數(shù)據(jù)分析就自動做好了 。
3.全自動AI工作流本階段目前還處于演示層面,呈現(xiàn)了未來的愿景 。如前文所述,GPT很難解決特定領(lǐng)域的細(xì)節(jié)問題,除非針對某個場景進(jìn)行大量的微調(diào)與私有數(shù)據(jù)部署 。AutoGPT、AgentGPT都屬于此類 。
第五層:國產(chǎn)大模型AI技術(shù)是科學(xué)而非神學(xué),大模型的原理也不是秘密 。美國能做到,我國不僅能 , 而且有必要 。只要訓(xùn)練數(shù)據(jù)質(zhì)量達(dá)標(biāo),模型參數(shù)突破千億便具備推理能力,突破八千億可與GPT-4匹敵 。采用大量中文語料和中文微調(diào),我國必將擁有符合本國文化背景、價值觀的大模型 。
然而 , 路漫漫其修遠(yuǎn)兮,困難也是極多的,如:訓(xùn)練成本極高、訓(xùn)練數(shù)據(jù)質(zhì)量要求高、模型優(yōu)化復(fù)雜、馬太效應(yīng)明顯等 。因此,預(yù)計在未來五年內(nèi),中國最多只會有3家知名大模型服務(wù)商 。
大模型是AI時代的基礎(chǔ)設(shè)施,大部分公司選擇直接應(yīng)用,直接獲取商業(yè)價值 。在這個大背景下,愿意投身自有大模型的公司就更加難能可貴了 。在此,我謹(jǐn)代表個人向那些勇于投身于自有大模型建設(shè)的國內(nèi)企業(yè)表示敬意 。
四、總結(jié)總的來看,ChatGPT是一款跨時代的產(chǎn)品 。不同層面對GPT技術(shù)的應(yīng)用 , 體現(xiàn)出了一些共性的機(jī)會 。我總結(jié)了三項(xiàng)未來具有巨大價值的能力 。
1.問題分解技術(shù)鑒于GPT回復(fù)的限制在于最多只能基于32,000個tokens,因此有效地將問題分解成子問題并交由GPT處理顯得尤為關(guān)鍵 。未來的工作模式可能將問題拆解為子問題,再組裝子問題的解決方案 。在具體實(shí)施時 , 還需要對子問題的難度進(jìn)行判斷,有些問題可以交給一些小模型處理,這樣就可以有效的控制應(yīng)用成本 。
2.三種調(diào)優(yōu)方法想要讓GPT在多個層面上發(fā)揮特定的作用,主要有三種交互方式 , 成本從低到高分別為:
調(diào)優(yōu)方法
優(yōu)勢
缺點(diǎn)
提示詞優(yōu)化
提升效果明顯成本極低
占用token多 , 影響上下文關(guān)聯(lián)長度
embedding
擴(kuò)展GPT知識調(diào)優(yōu)成本較低
GPT并非真的理解了相關(guān)的內(nèi)容,而是在遇到相關(guān)問題時,能夠基于給定的知識庫回答 。
微調(diào)技術(shù)
搭建真正的私有模型 , GPT能理解相關(guān)的問題 。
成本較高,需要大量的“問答對”,訓(xùn)練過程非常消耗token 。
①提示詞優(yōu)化
通過探索找到最優(yōu)提示詞模板,預(yù)留特定槽位以供用戶輸入 。僅通過提示詞優(yōu)化就能實(shí)現(xiàn)廣泛功能,許多基于GPT的產(chǎn)品,其底層就是基于特定提示詞的包裝 。好的提示詞需包含角色、背景、GPT需執(zhí)行的任務(wù)、輸出標(biāo)準(zhǔn)等 。根據(jù)業(yè)界的研究,好的提示詞能使GPT3.5結(jié)果的可用性由30%飆升至80%以上 。提示詞優(yōu)化毫無疑問是這三種方法中最重要的 。
②embedding
這是一種搭建自有知識庫的方法,將自建知識庫使用embedding技術(shù)向量化,這樣GPT就能基于自有數(shù)據(jù)進(jìn)行問答 。
③微調(diào)(finetune)
通過輸入大量問答 , 真正教會GPT如何回答某類問題,成本較前兩者更高 。優(yōu)勢在于將提示詞的短期記憶轉(zhuǎn)化為私有模型的長期記憶,從而釋放寶貴的Token以完善提示詞其他細(xì)節(jié) 。
以上三種方式并不沖突,在工程實(shí)踐中往往互相配合,特別是前兩種 。
3.私有數(shù)據(jù)積累私有數(shù)據(jù)集的價值得到進(jìn)一步提升,各行業(yè)可基于此對GPT進(jìn)行二次包裝,解決特定領(lǐng)域問題 。建議使用微軟Azure提供的GPT接口,搭建帶有私有數(shù)據(jù)的大語言模型產(chǎn)品 。因微軟面向B端的GPT服務(wù)為獨(dú)立部署,不會將私有數(shù)據(jù)用于大模型訓(xùn)練,這樣可以有效保護(hù)私有數(shù)據(jù) 。畢竟私有數(shù)據(jù)一旦公開,價值將大打折扣 。
憑借以上幾項(xiàng)能力加持,大語言模型可以充分釋放在解決依賴電腦的重復(fù)性勞動的生產(chǎn)力 。我將下一個時代(3年內(nèi))的業(yè)務(wù)運(yùn)轉(zhuǎn)模式總結(jié)如下圖:
關(guān)于chatgpt使用方法 chatgpt詳細(xì)介紹

文章插圖
企業(yè)會根據(jù)三大能力衍生出三大類角色:
①問題分解者
這類角色很清楚大語言模型能力的邊界 , 能夠?qū)⒁粋€業(yè)務(wù)問題有效的分解為GPT能處理的子問題,并能根據(jù)問題結(jié)果,將子問題進(jìn)行拼裝 。
②提示工程師
這類角色深諳與GPT溝通之道,能夠根據(jù)不同的問題類型,給出有效的提示詞模板,極大提升GPT的輸出質(zhì)量 。
③知識擁有者
這類角色有大量的行業(yè)knowhow , 并且能夠?qū)⒅R進(jìn)行結(jié)構(gòu)化,傳授給GPT 。對應(yīng)現(xiàn)在的領(lǐng)域?qū)<?。
在這種模式的推動下,GPT將會成為企業(yè)提效的重要幫手,可以解決大量重復(fù)勞動 , 可以提供有價值的參考 。但人的主觀能動性仍起決定性作用 。
五、寫在最后即使以GPT-4為代表的AI技術(shù)保持當(dāng)前的水平,帶來的效率提升已經(jīng)令人震驚,更遑論其仍以飛快的速度進(jìn)化 。從技術(shù)革命的發(fā)展史來看,一項(xiàng)大幅度提效的新技術(shù)出現(xiàn),往往先惠及B端,而后才慢慢在C端開始釋放巨大的價值 。這是由企業(yè)對效率天然的敏感性所決定的 , 而改變C用戶的習(xí)慣需要大量學(xué)習(xí)成本與場景挖掘,滯后效應(yīng)較強(qiáng) 。舉三個例子大家就懂了:
1. 回顧第一次工業(yè)革命 , 內(nèi)燃機(jī)的出現(xiàn)先導(dǎo)致了紡織女工的大量失業(yè),而后才逐漸找到了各種C端場景 , 推動了社會生產(chǎn)力的大幅度上升 。
2. ChatGPT可以更快的生成口水文,但是C端用戶對閱讀的訴求是沒有增加的 。對于營銷號公司來說,效率提升了,所需要的人變少了 。
3. MidJourney可以快速生成抱枕的圖案,但是C端用戶并不會購買更多的抱枕 , 那么需要作圖的人員就少了 。
一場信息化企業(yè)的內(nèi)效革命就要到來了,依靠電腦的重復(fù)勞動將會消失,因?yàn)榇竽P妥钌瞄L學(xué)這個了 。正如我文初所舉得案例一樣 , 像IBM公司縮減7800個編制的案例,只會發(fā)生的越來越頻繁 。
AI時代真的已經(jīng)到來,每個崗位都需要思考 , 如何讓AI成為工作上的伙伴 。


    以上關(guān)于本文的內(nèi)容,僅作參考!溫馨提示:如遇健康、疾病相關(guān)的問題,請您及時就醫(yī)或請專業(yè)人士給予相關(guān)指導(dǎo)!

    「愛刨根生活網(wǎng)」www.malaban59.cn小編還為您精選了以下內(nèi)容,希望對您有所幫助: