ChatGPT大火后,大家討論最多的是“怎么用ChatGPT”、“ChatGPT怎么搞錢” 。
但是 , 在討論這些問題之前 , 有一個更重要的問題需要我們知道,“ChatGPT是什么” 。
因為只有了解了ChatGPT的概念,我們才能更清楚它有什么價值 , 我們能怎么利用它 。凡事知其然,也要知其所以然 。把定義搞清楚,是一切討論的前提 。
哲學家維特根斯坦說過一句話:語言的界限就是思想的界限 。
備注:本文是從一個技術麻瓜(普通人)的視角來解釋,不用太擔心難以理解 。

文章插圖
一、什么是人工智能
ChatGPT,是人工智能里程碑式的產品 。所以在說它之前,必須先聊聊什么是人工智能 。
1950年,艾倫·圖靈發表了一篇劃時代的論文《計算機器與智能》,這篇論文在開篇就拋出了一個有趣的問題:“Can machines think(機器能思考嗎)?”這個問題引起了廣泛的關注和思考,標志著人工智能的起源 。
【了解chatgpt的作用 chatgpt的研發初衷目的是什么】簡單點說,人工智能,就是要讓計算機擁有人類智能的能力,包括感知、學習、推理、創造和情感等 。當然,我們可以把它劃分為不同的層次:
- 運算智能:具備計算和記憶的能力 。
- 感知智能:對外界環境感知的能力,比如視覺(圖像識別)、聽覺(語音識別)等 。
- 認知智能:理解和思考的能力 。人類有概念,才有推理 。先有理解,才有思考 。比如自然語言處理技術(NLP) 。
- 創造智能:生成新信息、新想法或創意的能力 , 包括生成文本、圖像、音樂等 。

文章插圖
二、什么是自然語言處理
自然語言處理(Natural Language Processing , NLP):是計算機理解(NLU)和生成(NLG)人類語言的技術 。
理解人類的語言是一件特別難的事情 , 舉個例子:
小明:我知道你什么意思,你的意思就是想意思意思 , 但是你不明白我的意思,我的意思是你不用意思意思,我依然會幫你意思意思,我沒什么意思,就這點意思 , 不用意思意思,不然我會不好意思 。你懂我的意思?所以,自然語言處理,才被比爾蓋茨稱之為“皇冠上的明珠” 。
計算機:……%&¥&#
比爾·蓋茨曾說過,“自然語言處理是人工智能皇冠上的明珠,如果我們能夠推進自然語言處理,就可以再造一個微軟 。”

文章插圖
三、什么是ChatGPT
ChatGPT,是自然語言處理技術的里程碑 。如果說過去,我們的對話機器人可以稱之為“人工智障”,而ChatGPT終于可以稱之為“人工智能” 。
ChatGPT:全稱 Chat Generative Pre-trained Transformer(生成型預訓練變換模型) 。
是不是覺得每個字都認識,但放在一起就懵了 。其實 , 這些單詞背后都是一個技術名詞,所以 , 我們需要一個詞一個詞的解釋一下 。
3.1 ChatGPT
Chat:代表著它的作用,可以用它來聊天 。
GPT:代表著它背后的技術 。
G:Generative——生成式的(模型),這里主要是和分類式的模型 Discriminative model 做個區分 。
這里不用太深入了解,我們只需要知道生成式的模型,就是可以用它來生成內容,比如一段話、一張圖片 。
P:Pre-Trained——預訓練的(模型)
T:Transformer——轉換器(模型)
為什么ChatGPT用的是Transformer模型,為什么要預訓練,這里不太好解釋,我們需要先了解一下自然語言處理技術的發展歷程 。
3.2 NLP技術的發展
我們都知道,要理解人類的語言是一件很復雜的事情,技術的發展也經歷了波折的過程 。
第一階段:基于規則的時代(1950s-1970s)
簡單來說,就是設計一些規則,讓計算機按規則去理解人類的語言 。比較著名的是 1966 年 MIT 發布的世界上第一臺聊天機器人 Eliza 。但總體來看,這些機器人還無法與人真正實現對話 。
第二階段:機器學習——神經網絡時代(1970s-2010s)
機器學習的興起:機器學習,指不通過人類指定的規則 , 而是通過機器自身運行,習得事物的內在規律 。
用專業的話來說,就是“計算機程序能從經驗E中學習 , 以解決某一任務T,并通過性能度量P,能夠測定在解決T時 , 機器在學習經驗E后的表現提升” 。
能用人話來解釋嗎?好嘞 。
用小白的話來說,機器學習你可以把它想象成“兒童學習的過程” 。比如:小明是一個小學生,他要參加考試(任務T) 。如果想要讓它取得好成績,就要讓他不斷刷題(經驗E),(性能P)就是考試成績,然后通過不斷刷題,來提高成績 。
機器學習的本質 , 是統計學 。機器學習的結果,就是訓練出一個“模型” 。
這個模型可以理解為是一個函數:y=f(x) 。我們把數據(x)輸入進去,得到輸出結果(y) 。
比如語言模型:就是對語言中的詞序列,進行建模的統計模型,給定前文(x),生成下一個詞(y)的概率分布 。
那怎么獲得這個模型呢——答案是訓練 。
一般先確定模型的類型 , 也就是f(x) 的具體形式,再結合訓練數據,計算出其中各個參數的具體取值的過程 。比如給定函數:y=ax,我們需要通過“算法”,找到最優參數a,這個就是“機器學習”的過程 。目標是讓輸出的結果 y`,最符合我們的業務目標 y 。
經過幾十年的努力,人們在NLP模型上不斷進步 。其中,神經網絡作為一種模擬生物神經系統的模型,在NLP領域取得了顯著的突破,成為了主流方法,比如RNN、LSTM等 。
第三階段:Transformer模型(2017年至今)
當然 , RNN、LSTM等模型都不夠完美,最大的缺陷就是計算效率低、長語言的效果差 。
而在2017 年 Google 機器翻譯團隊發布了著名論文 《Attention is All You Need》,提出了 Transformer 模型,帶來了歷史性的突破 , 成為了 NLP 歷史上的一個標志性事件 。
相較于傳統的神經網絡,Transformer 模型提升了語言模型運行的效率(效率更高) , 同時能夠更好的捕捉語言長距離依賴的信息(效果更好) 。
簡單來說:就是Transformer這個模型,在處理自然語言任務上很牛逼!
3.3 為什么要 Pre-Trained(預訓練)呢?
我們已經知道,機器學習是在模仿“兒童學習”的過程 。比如:
有一個小孩A , 在家長的指導下學習知識,告訴它這是熊、那是馬 , 這種叫做“監督學習” 。很明顯,無監督學習,不會受限于人力 , 你只要把所有的數據喂給它就行了,它會自己總結內部的規律 。
有一個小孩B,沒有家長教,直接把大量題目丟給他,讓他在題海中自己發現題目規律,當題量足夠大的時候 , B雖然不能完全理解每道題,但也會發現一些知識點的固定表述 。這就叫做“無監督學習” 。
預訓練(Pre-training)就是這個原理,先使用大規模的數據集對模型進行事先的訓練 。這個預訓練過程不針對特定的任務,它會自動地從數據中提取特征,從而學習到語言的潛在模式和結構 。
而要讓模型執行具體任務時,再使用特定任務的數據進行監督學習,也就是微調(Fine-tuning) 。從而讓模型更加專業化和適應具體任務的需求 。
比如ChatGPT就經過了人類反饋的強化學習(RLHF) , 讓它能更勝任與人聊天的任務(更安全、更有禮貌、更有用) 。預訓練+微調的技術,能讓ChatGPT更具有“泛化”能力 , 而不是只能解決特定問題的“專家” 。
四、ChatGPT對我們意味著什么
這個問題我不想聊太大,什么取代人類的工作、什么AGI到來……
我覺得:作為普通人,唯一要做的就是不要落下,盡情地享受AI帶來的便利就好 。推動技術發展 , 是科學家的使命 。
ChatGPT的本質還只是工具 , 跟歷史上出現過的所有新工具一樣 。我們必須要學習它,理解它、運用它,讓它在學習和工作場景中發揮價值 。
總結
ChatGPT:是一個人類語言的處理模型 。
- 什么是模型:本質是函數 , 比如 y=f(x),輸入(x) , 得到輸出結果(y),模型的目的是為了解決特定的問題 。對于ChatGPT , 你輸入一段文字后 , 它會“理解”你的語言,生成回應,為你提供建議或交流 。
- 為什么能理解:本質是統計學 , 不是真的理解 。它是通過機器學習,掌握了語言的規則和模式 。
- 為什么效果史無前例:Transformer的模型解決了過去技術效率低和效果差的問題+預訓練可以處理大量數據,能力泛化+微調幫助模型更適應具體與人聊天的任務 。
以上關于本文的內容,僅作參考!溫馨提示:如遇健康、疾病相關的問題,請您及時就醫或請專業人士給予相關指導!
「愛刨根生活網」www.malaban59.cn小編還為您精選了以下內容,希望對您有所幫助:- Excel自動填充學號的便捷方法
- 解決OBS直播沒有聲音的問題
- 手把手教你做超好吃的甲魚湯 甲魚湯怎么做好喝又營養
- 制作金箔文字和邊框效果的Word封面
- 如何打造一個整潔有序的電腦桌面
- 不是錢的事 淄博燒烤店停業三天 老板:保命要緊
- 如何在WORD文檔中插入多行多列的表格
- 手機內屏與外屏的區別
- 水煮肉片的做法 水煮肉片的家常做法
- 新解決Windows 10中javac未識別為內部或外部命令的方法
