【跨市思維】ChatGPT能否像大腦一樣工作?
【now.com財經】要簡單解釋ChatGPT的基本原理,簡單來說就是嘗試從目前所獲得的任何文本生成一個「合理的延續」。其中「合理」的意思,就是人們期望「某人在閱讀數十億個網頁上寫過的內容後會寫下什麼」。
因此,例如向 ChatGPT 要求:寫一篇關於人工智能可以做甚麼﹖可以想像一下掃描數十億頁的人工文本(比如網絡文章和電子書籍)並找到輸入文本的所有實例,然後在極短時間內從一個單詞接著查看下一個單詞。ChatGPT 厲害之處在於有效地做了類似的事情,但它不是看字面文本,而是在尋找某種「意義上相符」的事物。在最終結果上,它會生成一個可能跟在後面的單詞的排名列表以及其「概率」。
換句話說,比如當ChatGPT寫一篇文章時,它本質上只是一遍又一遍地問「給予目前的文本,下一個詞應該是什麼?」,然後每次都添加一個詞。因此,有些時候,ChatGPT或會組成「新詞」。
在進一步解釋ChatGPT之前,用於圖像識別等的典型模型實際上是如何運作的呢?當前最流行且最成功的方法是使用人工神經網絡(Artificial Neural Network;又簡稱神經網絡Neural Network)或類神經網絡。神經網絡是在1940年代發明的,某程度上是一種非常接近大腦如何工作的簡單化版的數學模型或計算模型。
在人類大腦中,大約有1,000億個神經元(神經細胞),每個神經元每秒都能產生多達1,000次的電脈衝。神經元連接在一個複雜的網絡中,每個神經元都有樹狀分支,可以將電波信號傳遞給可能有數千個其他神經元。每當我們「看圖像」時,來自圖像的光子落在眼睛後部的感光細胞時,就會在神經細胞中產生電波信號。這些神經細胞與其他神經細胞相連,最終信號通過一系列神經元層。這正是大腦如何去「識別」圖像。
神經網絡之所以如此有用(大概在大腦中也是如此),是因為它不僅原則上可以完成各種任務,而且可以逐步「從示例訓練中」來完成這些任務。例如要製作一個神經網絡來區分貓和狗時,實際上不必編寫一個程序來明確地找到「貓鬚」(假設);相反,只需要展示很多關於什麼是貓、什麼是狗的例子,然後讓神經網絡從這些例子中進行「機器學習」(Machine learning),以達致如何區分它們。
ChatGPT的基本概念在某種程度上也相當簡單。就是從網絡、電子書籍等的大量人工文本開始,然後訓練神經網絡生成「相似」的文本。當然,也是出乎意料的,在這個過程中,ChatGPT不僅能夠根據輸入提示,透過利用大量「閱讀」過的內容,成功地生成非常類似人類文筆寫成的文字。當然,這裡「閱讀」的意思是指只它從「傳統智慧的統計數據」中提取一些「連貫的文本線索」。然而,ChatGPT在生成文本方面令人印象深刻,那麼這是否意味著ChatGPT像大腦一樣工作?
事實上,ChatGPT目前生成的文本只能說是「聽起來正確」的內容(有些時候,生成的內容或會出現張冠李戴的情況)。此外,與典型演算法(Algorithmic)的計算不同,ChatGPT內部沒有「迴圈」或「重新計算數據」的功能,這不可避免地限制了在算術上的能力。惟無論如何,ChatGPT在科學上通過語義語法、計算語言等,與人類語言(及其背後的思維模式)產生非常相似的結果;換言之,在可見的未來,ChatGPT幾乎可以肯定能夠做更多「類似大腦的事情」(涉及不可簡化的算術計算,未來可能須要尋求「外部工具」,比如Wolfram語言)。但就目前而言,ChatGPT能夠做到的事情已經確實令人振奮。
李浩然 輝立証券研究部高級分析師 |