買比特幣 買比特幣
Ctrl+D 買比特幣
ads

PEN:“大廠壟斷大模型”,會被開源終結嗎?_OPEN

Author:

Time:1900/1/1 0:00:00

來源:阿爾法工場

最近,正在進行AI大戰的各個大廠,被谷歌泄漏的一份內部文件,翻開了窘迫的一面。

這份泄露的內部文件聲稱:“我們沒有‘護城河’,OpenAI也沒有。當我們還在爭吵時,第三個方已經悄悄地搶了我們的飯碗——開源。”

這份文件認為,現在的一些開源模型,一直在照搬谷歌、微軟這些大廠的勞動成果,并且雙方差距正在以驚人的速度縮小。開源模型更快、可定制性更強、更私密,而且功能性也不落下風。

比如,這些開源模型可以用100美元外加13B參數,加上幾個禮拜的時間就能出爐,而谷歌這樣的大廠,要想訓練大模型,則需要面對千萬美元的成本和540B參數,以及長達數月的訓練周期。

那么,事實是否真的像這份文件所說的那樣,谷歌和OpenAI在AI方面的種種積累,最終真的會敗給一群隱藏在民間的“草頭俠”?

所謂“大廠壟斷大模型”的時代,真的要終結了嗎?

要回答這個問題,我們就得先了解下目前開源模型的生態,看看這些如雨后春筍般涌現的開源模型,究竟是如何一步步蠶食谷歌這些“正規軍”的江山的。

歐洲央行管委雷恩:歐洲央行將在9月采取“大幅度”的利率行動:8月28日消息,歐洲央行管委雷恩表示,現在是歐洲央行行動起來抗擊通脹的時機,歐元匯率是歐洲央行決策的重要考量因素。并表示,還沒到公開討論量化緊縮的時候,歐洲央行的下一步舉措是在9月采取“大幅度”的利率行動,而現在正持續有序地實施貨幣政策正常化。(金十)[2022/8/28 12:53:46]

01異軍突起的開源模型

其實,最早的開源模型,其誕生完全是一場“偶然”。

今年2月,Meta發布了自家的大型語言模型LLaMA,參數量從70億到650億不等,并僅用130億的參數,就在大多數基準測試下超越了GPT-3。

但萬萬沒想到的是,剛發布沒幾天,LLaMA的模型文件就被泄露了。

至此之后,開源模型的浪潮就如決堤一般,變得一發不可收拾。

如八仙過海一般的ChatGPT開源替代品——「羊駝家族」,隨即粉墨登場。

與ChatGPT這類大模型相比,此類開源模型最顯著的特點,就是訓練成本與時間都極其低廉。

以LlaMA的衍生模型Alpaca為例,其訓練成本僅用了52k數據和600美元。

徐州檢察通過“大數據+區塊鏈”解決涉罪人員管理難題:7月25日消息,徐州市檢察機關從2021年初開始,探索“云檢智鏈-非羈押人員云監督管理(取保)”技術,用大數據加“區塊鏈”,解決了非羈押犯罪嫌疑人的管理難題,提升了法律監督質效,也為疫情防控做出突出貢獻。2022年5月25日,“云檢智鏈”獲國家版權局計算機軟件著作權登記證書。2020年12月31日,徐州市人民檢察院被江蘇省檢察院確定為最高檢開展“降低羈押率的有效路徑與社會危險性量化評估試點”工作基層試點檢察院。此次試點則依托于“云龍微檢察”,研發非羈押人員監督管理模塊,簡稱“云檢智鏈”。

目前,云檢智鏈已對197名犯罪嫌疑人進行電子監管,收到線上報備109人次,發起定位抽檢356人次,創建談話空間57個,未發生一起脫管失控情況。[2022/7/25 2:36:31]

然而,如果開源光靠低成本,還不足以讓谷歌這類大廠感到威脅,重要的是,在極低的訓練成本下,這些開源模型還能屢次達到和GPT-3.5匹敵的性能。

這下谷歌和OpenAI就坐不住了。

斯坦福研究者對GPT-3.5和Alpaca7B進行了比較,發現這兩個模型的性能非常相似。Alpaca在與GPT-3.5的比較中,獲勝次數為90對89。

V神發布旨在解決“大區塊鏈”中心化和信任問題的路線圖:12月6日,以太坊創始人V神(Vitalik Buterin)發布文章《Endgame(最后階段)》。考慮到一般的“大區塊鏈”,即非常高的區塊頻率、非常大的區塊規模、每秒數千筆交易,但也高度中心化的區塊鏈,V神稱,至少按照其標準,如何才能使這樣的鏈可接受的無需信任和抗審查?文章提出了一個合理的路線圖:1.添加第二層質押,以進行分布式區塊驗證;2.引入欺詐證明或ZK-SNARK,讓用戶直接(且低成本地)檢查區塊有效性;3.引入數據可用性采樣,讓用戶檢查區塊可用性;4.添加二級交易渠道以防止審查。對于以太坊Rollup的未來,V神表示,沒有任何一個Rollup能成功地與大多數以太坊活動保持一致。相反,它們都以每秒幾百筆交易的速度達到極限。我們得到一個以太坊的多Rollup的未來,即Cosmos的多鏈愿景,但是在一個提供數據可用性和共享安全性的基礎層之上,用戶可以依靠跨Rollup橋接在不同Rollup之間切換,而不需要支付主鏈上的高額費用。這一切可能需要數年時間才能實現。人們需要數年的改進和審計才能完全放心地將其資產存儲在運行完整EVM的ZK-Rollup中,跨域MEV研究也仍處于起步階段。但是,可擴展區塊鏈的現實而光明的未來可能會出現,這一點看起來越來越清晰。[2021/12/7 12:55:20]

重點來了:這些開源模型,究竟是怎么做到這點的?

山東省財政廳:將探索“大數據”“區塊鏈”技術在績效管理的應用:1月12日,山東省政府新聞辦召開發布會,介紹山東省全面實施預算績效管理推進情況。山東省財政廳將依托預算管理一體化系統,推動績效與預算管理深度融合,健全完善績效監控、績效自評信息化管理手段,探索“大數據”“區塊鏈”技術在績效管理的應用,提高績效管理信息化水平和工作效率。(山東發布)[2021/1/12 15:59:07]

斯坦福團隊的答案是兩點:1、一個強大的預訓練語言模型;2、一個高質量的指令遵循數據。

在這里,我們將強大的預訓練語言模型,比喻為一位有著豐富知識和經驗的老師。

對于自然語言處理領域的任務,強大的預訓練語言模型,可以利用大規模的文本數據進行訓練,學習到自然語言的模式和規律,并且可以幫助指令遵循等任務的模型更好地理解和生成文本,提高模型的表達和理解能力。

這就相當于學生使用老師的知識和經驗,來提高語言能力,指令遵循等任務的模型可以使用預訓練語言模型的知識和經驗來提高自己的表現。

除了借助這位“老師”的知識外,開源模型的另一“利刃”,就是指令微調。

經濟日報:深化運用區塊鏈等技術構建“大云牽小云”體系:經濟日報今日刊文稱,要深化運用大數據、云計算、區塊鏈等信息技術,構建“1+N”的“大云牽小云”體系,建好管理云、延伸服務鏈,拓展大數據在公共安全、智慧城管、智能交通等領域應用示范,加快構建社區智慧治理新模式。[2020/10/6]

指令微調,或指令調優,是指現有的大語言模型生成指令遵循數據后,對數據進行優化的過程。

具體來說,指令微調是指在生成的指令數據中,對一些不合適或錯誤的指令進行修正,使其更符合實際應用場景。

而指令調優是指在生成的指令數據中,對一些重要、復雜或容易出錯的指令進行加重或重復,以提高指令遵循模型對這些指令的理解和表現能力。

憑借著這樣的“微調”,人們可以生成更準確、更有針對性的指令遵循數據,從而提高開源模型在特定任務上的表現能力。

如此一來,即使只用很少的數據,開源社區也能訓練出性能匹敵ChatGPT的新模型。

然而,又一個問題是:面對自己辛苦打下的江山,被開源社區用“四兩撥千斤”的方式步步蠶食,谷歌和OpenAI為何一直沒有予以反制呢?

哪怕是如法炮制,以攻,推出同樣快速迭代的小模型,也不失為一種破局之策啊。

02騎虎難下

實際上,谷歌這樣的頭部企業,不是沒有意識到開源的優勢。

在那份泄漏的文件中,谷歌就提到:幾乎任何人都能按照自己的想法實現模型微調,到時候一天之內的訓練周期將成為常態。以這樣的速度,微調的累積效應將很快幫助小模型克服體量上的劣勢。

可問題是,身為AI領域巨頭的谷歌和OpenAI,既不能,也不愿完全放棄訓練成本高昂的大參數模型。

從某種程度上說,這是其保證自身優勢地位的必要手段。

作為AI領域的巨頭,谷歌和OpenAI需要不斷提升自己的技術實力和創新能力。而傳統的大參數訓練模型,則是提供這一探索和創新的必經之路。

因為大模型的底層技術若想取得突破,AI領域的研究者和科學家,就需要更深入地理解模型和算法的基本原理,探索AI技術的局限性和發展方向,這需要進行大量的理論研究、實驗驗證和數據探索,而不僅僅是微調和優化。

例如,在訓練大參數模型時,AI領域的科學家,可以探索模型的泛化能力和魯棒性,在不同的數據集和場景下評估模型的性能和效果。谷歌的BERT模型,也正是在此過程中得到了不斷強化。

同時,大參數模型的訓練,還可以幫助科學家探索模型的可解釋性和可視化,

例如,對今天的GPT來說至關重要的Transformer模型,雖然在性能上表現出色,但其內部結構和工作原理卻相對復雜,不利于理解和解釋。

通過大參數模型的訓練,人們可以可視化Transformer模型的內部結構和特征,從而更好地理解模型是如何對輸入進行編碼和處理的,并進一步提高模型的性能和應用效果。

因此,開源和微調的方式,雖然可以促進AI技術的快速發展和優化,但不足以替代對AI基礎問題的深入研究和探索。

但話說到這,一個十分尖銳的矛盾又擺了出來:一方面,谷歌和OpenAI不能放棄對大參數模型的研究,并堅持對其技術進行保密。但另一方面,免費、高質量的開源替代品,又讓谷歌等大廠的“燒錢”策略難以為繼。

因大模型耗費的巨大算力資源和數據,僅是在2022年,OpenAI總計花費就達到了5.4億美元,與之形成鮮明對比的,則是其產生的收入只有2800萬美元。

與此同時,開源社區的具有的靈活性上的優勢,也讓谷歌等大廠感到難以匹敵。

在那份泄漏的文件中,谷歌就認為:開源陣營真正的優勢在于“個人行為”。

相較于谷歌這些大廠,開源社區的參與者可以自由地探索和研究技術,不受任何限制和壓力,從而有更多機會發現新的技術方向和應用場景。

而谷歌研究和開發新技術時,則必須考慮產品的商業可行性和市場競爭力。這就對人才的研究方向產生了一定的限制和約束。

此外,由于保密協議的存在,谷歌的人才也難以像開源社區那樣,與外界充分地交流和分享技術研究的成果。

如果說,低價、靈活的開源模型,終將成為一種不可阻擋的趨勢,那么當谷歌等大廠面對這浩瀚的戰場時,又該怎樣在新時代生存下去呢?

03另辟蹊徑

倘若谷歌這樣的頭部企業,最終在開源陣營的攻勢下,選擇了“打不過就加入”的策略,那如何在開源的情況下,找到一條可行的商業路徑,就成了一件頭等大事。

畢竟,在目前的市場認知下,開源幾乎就等于“人人皆可免費使用。”

之前,StableDiffusion背后的明星公司——StabilityAI,就因為在開源后,沒有找到明確的盈利途徑,目前正面臨嚴重的財政危機,以至于到了快倒閉的地步。

不過,關于如何在開源的情況下實現盈利,業界也不是完全沒有先例可循。

例如,之前谷歌對Android系統的開源,就是一個經典的案例。

當年,由谷歌主導開發和推廣的Android系統開源后,谷歌仍然通過各種途徑,從Android操作系統的設備制造商那里獲取了收益。

具體來說,這些途徑可分為以下幾種:

1.收取授權費用:當設備制造商希望在其設備上預裝GooglePlay商店等谷歌應用和服務時,他們需要遵守谷歌的授權協議,并支付相應的授權費用。

2.推出定制設備:谷歌通過與設備制造商合作,推出一些定制的Android設備,如GooglePixel智能手機和GoogleNexus平板電腦等,并從中獲得收入。這些定制設備通常具有更高的價值和更好的性能,而且會預裝谷歌的應用和服務。

3.銷售應用:當設備使用者在GooglePlay商店中購買應用、游戲或媒體內容時,谷歌會從中提取一定的傭金。

雖然這些途徑的收益,也許并不像谷歌的主業——搜索和廣告那樣讓其賺得盆滿缽滿,但谷歌仍然從中獲得了各種“隱性收益”。

因為Android的存在,避免了某一家企業壟斷移動平臺的入口,只要互聯網是開放的,谷歌就能通過吸引更多人使用Android上的應用,來收集用戶的行為數據,對這些數據進行加工,從而使得廣告投放可以更加精準。

由此可見,開源模式并非與商業化的盈利模式完全沖突,這對于谷歌和開源社區的參與者而言,都是一種好事。

因為只有通過商業化途徑,源源不斷地為自身“造血”,谷歌和OpenAI等大廠,才能繼續承擔起訓練大參數模型所需的巨額成本。

而只有大參數模型的持續研發,各大開源社區,才能繼續以高性能、高質量的預訓練語言模型為基礎,微調出種類更多,應用場景更為豐富的開源模型。

基于這樣的關系,開源模型與封閉的大模型之間,其實不僅僅只是對立與競爭,同時也是一種互助共生的生態。

Tags:區塊鏈OPENNAIPEN區塊鏈的未來發展前景怎么樣Open SesameGENAIPepeNetwork

比特幣最新價格
ALA:Avalanche(雪崩協議)研究報告_Avaluse

目錄 一、項目簡介 二、項目愿景 三、特色和優勢 四、發展歷史 五、團隊背景 六、融資信息 七、發展成果 八、經濟模型 九、行業分析 十、風險與機會 一、項目簡介 Avalanche由AvaLa.

1900/1/1 0:00:00
GAS:以太坊主網2021年終回顧:四次硬分叉和Eth2.0路線圖的演變_Pegasus

原標題:《以太坊主網2021年終回顧》以太坊基金會的TimBeiko在11月做了一次主題為《理解轉換到權益證明的過程》的演講.

1900/1/1 0:00:00
LSD:以太坊上海升級后質押量不降反升 LSDFi的呼聲水漲船高_EFI

4月份上海升級的完成使得質押的ETH可贖回,進而使LSD賽道變的完整起來。據21Shares研究分析師TomWan發推分析,以太坊信標鏈上的待定驗證者數量已達到3.345萬,創下歷史新高,表明大.

1900/1/1 0:00:00
LOT:全面解讀MEV-Boost工作原理及Ethereum分叉選擇規則_AETH幣

原文標題:《Time,slots,andtheorderingofeventsinEthereumProof-of-Stake》原文作者:GeorgiosKonstantopoulos.

1900/1/1 0:00:00
USDR:詳解RWA DeFi協議Tangible_TAN

作者:cryptorisksLlamarisk 概要 此報告將調查由Tangible發行的USDR穩定幣所帶來的風險.

1900/1/1 0:00:00
比特幣:Arthur Hayes:銀行困境下,擁有黃金和比特幣就不會輸_BTFA價格

原文作者:ArthurHayes原文編譯:GaryMa?吳說區塊鏈注:本文是原文的翻譯版本,在翻譯過程中進行了部分內容的刪減和概括.

1900/1/1 0:00:00
ads