作者:wheart.eth
圖片來源:由無界版圖AI工具生成。
最近一年,隨著AIGC技術的發展壯大,越來越多的人感受到了它的恐怖之處。AI降低了創作門檻,使每個普通人都有機會展現自己的創造力,做出不輸專業水平的作品。但是就在全民AI作圖的進程中,藝術家好像與其站在了對立面。
以StableDiffusion和Midjourney為代表的業內巨頭經常受到藝術家們的集體抵制!究其原因無非兩點:一是這些模型在未經允許的情況下使用藝術家的作品進行訓練,做出的圖片與藝術家風格極其類似,涉嫌侵權;二是某些傳統藝術家認為,AI只是對圖片進行簡單的拼接,不能算是藝術,它的濫用導致藝術市場震蕩,出現“劣幣驅逐良幣”的現象。
綜合來看,現在的AIGC市場就像一個懷揣著炸彈的巨人,外表看過去非常強大,但是內部有尚未解決的致命威脅,如果這個威脅不解除,行業發展終究受限,本文將詳細聊聊出現這種情況的前因后果,并給出可能的解決方案。
最近越來越多的畫家發現,StableDiffusion等AIGC模型使用的數據集里有自己的作品,并且這里不乏作者經過數十年的摸索形成的具有自己獨特的風格畫作,現在人們可以利用AI幾秒鐘生成相同風格的內容,這對藝術家來說顯然是不公平的。
這引發了藝術家非常嚴重的擔憂:他們自己的藝術正在被用來訓練一個有朝一日可能會影響他們生計的計算機程序。更急迫的是,任何使用StableDiffusion或DALL-E等系統生成圖像的人都擁有對生成圖像的版權和所有權。一位插畫師對此解釋道:人們會使用AI生成圖書封面、文章插圖等內容,這將威脅他們的生計,畢竟站在購買者視角,當你可以免費在1000張圖里挑來挑去時,為什么要付1000美元給創作者?況且這些都是在藝術家不知情的情況下進行的。
高通全球高級副總裁:AIGC的成熟和廣泛應用將大幅提升元宇宙內容的生產效率:金色財經報道,在2023年世界人工智能大會現場,高通全球高級副總裁程立新表示,5G和AI技術將賦能元宇宙全新的應用服務、環境和體驗。目前看到XR的發展很大程度上受限于內容生產高成本以及應用生態的碎片化,AIGC的成熟和廣泛應用將大幅度提升元宇宙內容的生產效率。(澎湃)[2023/7/7 22:23:47]
對于這個問題,StabilityAI創始人兼首席執行官EmadMostaque表示,藝術只是StableDiffusion背后的LAION訓練數據的一小部分,藝術類圖片占數據集的比例遠低于0.1%,并且只有在用戶選擇調用時才會創建。但是一些搜索工具收集的數據表明,在世藝術家的很多畫作都在數據集之中,幾千張畫作的情況并不少見。
技術是原罪?
這個問題的出現不是偶然,而是必然,也是AI發展無法繞開的問題,要想詳細了解緣由,我們或許可以通過AIGC技術原理與發展路徑窺探一二。
AIGC是利用人工智能技術來生成內容。2021年之前,AIGC生成的主要還是文字,而新一代模型可以處理的格式內容包括:文字、聲音、圖像、視頻、動作等等。AIGC被認為是繼專業生產內容、用戶生產內容之后的新型內容創作方式,可以在創意、表現力、迭代、傳播、個性化等方面,充分發揮技術優勢。2022年AIGC發展速度驚人,年初還處于技藝生疏階段,幾個月之后就達到專業級別,足以以假亂真。
2014年提出的“對抗生成網絡”GAN。
GAN的基本原理其實非常簡單,這里以生成圖片為例進行說明。假設我們有兩個網絡,G和D。正如它的名字所暗示的那樣,G是一個生成圖片的網絡,它接收一個隨機的噪聲z,通過這個噪聲生成圖片,記做G(z)。D是一個判別網絡,判別一張圖片是不是“真實的”。它的輸入參數是x,x代表一張圖片,輸出D(x)代表x為真實圖片的概率,如果為1,就代表100%是真實的圖片,而輸出為0,就代表不可能是真實的圖片。在訓練過程中,生成網絡G的目標就是盡量生成真實的圖片去欺騙判別網絡D。而D的目標就是盡量把G生成的圖片和真實的圖片分別開來。這樣,G和D構成了一個動態的“博弈過程”。最后博弈的結果是什么?在最理想的狀態下,G可以生成足以“以假亂真”的圖片G(z)。對于D來說,它難以判定G生成的圖片究竟是不是真實的,因此D(G(z))=0.5。
The Beacon或將與NFT項目DigiDaigaku達成合作:12月11日消息,Treasure生態鏈游The Beacon繼宣布與全鏈NFT游戲Ether Orcs合作為其創世NFT持有者在游戲中免費提供獨家NFT后,詢問NFT項目DigiDaigaku CEO Gabriel Leydon是否為DigiDaigaku持有者添加類似資產。對此Gabriel Leydon表示認可,稱將立即私信聯系。[2022/12/11 21:37:02]
這樣我們的目的就達成了:我們得到了一個生成式的模型G,它可以用來生成圖片。
但是GAN有三個不足:一是對輸出結果的控制力較弱,容易產生隨機圖像;二是生成的圖像分別率較低;三是由于GAN需要用判別器來判斷生產的圖像是否與其他圖像屬于同一類別,這就導致生成的圖像是對現有作品的模仿,而非創新。因此依托GAN模型難以創作出新圖像,也不能通過文字提示生成新圖像。
GAN技術原理
在2021年,OpenAI團隊將跨模態深度學習模型CLIP進行開源。CLIP模型能夠將文字和圖像進行關聯,首先收集4億未清洗的圖像+文本pair的數據集,進行預訓練以完成任務。用對比學習目標進行訓練:分別對圖像和文本編碼,然后兩兩計算cosine相似度,再針對每個圖片的一行或文本的一列進行分類,找出匹配的正例。每個圖像都有32,768個文本候選,是SimCLR的兩倍,負例個數的增多也是效果好的原因之一。在預測時也很簡單,找一個圖像分類的數據集,把label轉為自然語言,比如“狗”可以轉為“一張狗的照片”。再用預訓練好的編碼器對label和圖像編碼,再去計算相似度即可。
算法的總體過程可以總結為:輸入圖片,預測在32768個隨機采樣的文本片段集中,哪一個實際上與數據集配對。因為是文本描述不是具體的類別,所以可以在各種圖像分類任務上進行zero-shot,其中Zero-Shot是一種遷移學習,描述一只斑馬,可以用“馬的輪廓+虎的皮毛+熊貓的黑白”,生成新的類別,普通的有監督分類器都可以將馬、老虎、熊貓的圖片正確分類,但遇到沒有學習過的斑馬的照片卻無法分類,但是斑馬卻和已分類的圖像有共同點,可以推理出這一新的類別。
動態 | 美國版權局不會“認可”Craig Wright為中本聰:據coindesk報道,美國版權局周二表示,不會“認可”Craig Wright為中本聰(Satoshi)。美國版權局在新聞稿中寫道:“作為一般規則,當版權局收到注冊申請時,申請人會證明提交材料中所作陳述的真實性。版權局不會調查任何陳述的真實性。如果作品是以假名注冊的,版權局不會調查申訴人與假名作者之間是否存在可證明的聯系。”[2019/5/23]
所以思路就是:設置類別更細粒度的屬性,以建立測試集與訓練集之間的聯系。比如將馬的特征向量轉換到語義空間,每一維代表一個類別的描述,,熊貓就是,這樣定義一個斑馬的向量,通過對比輸入圖片的向量與斑馬向量之間的相似度就可以進行判別。
因此,CLIP模型具備兩個優勢:一方面同時進行自然語言理解和計算機視覺分析,實現圖像和文本匹配。另一方面為了有足夠多標記好的“文本-圖像”進行訓練,CLIP模型廣泛利用互聯網上的圖片,這些圖片一般都帶有各種文本描述,成為CLIP天然的訓練樣本。據統計,CLIP模型搜集了網絡上超過40億個“文本-圖像”訓練數據,這為后續AIGC尤其是輸入文本生成圖像/視頻應用的落地奠定了基礎。
CLIP技術原理圖
隨后出現的Diffusion擴散模型,則真正讓文本生成圖像的AIGC應用為大眾所熟知,也是2022年下半年StableDiffusion應用的重要技術內核。
擴散模型的靈感來自于非平衡熱力學。定義了一個擴散步驟的馬爾可夫鏈,慢慢地向真實數據中添加隨機噪聲,然后學習反向擴散過程,從噪聲中構建所需的數據樣本。
DiffusionModels技術原理圖
聲音 | Money Button首席執行官:Craig Wright是真正的中本聰:據ambcrypto報道,Money Button首席執行官Ryan Charles近日稱,澳本聰Craig Wright有17個學位,即將獲得兩個博士學位,同時還有一份全職工作,是其一生中聽說過的最嚴肅的終身學習者和科學家。此外,基于在線證據和他與澳本聰的個人互動,他認為Wright是“真正的中本聰”,Charles稱,澳本聰解釋了許多沒有人解釋過的事情。[2019/5/4]
前向過程是不斷加噪的過程,加入的噪聲隨著時間步增加增多,根據馬爾可夫定理,加噪后的這一時刻與前一時刻的相關性最高也與要加的噪音有關
逆向過程是從一個隨機噪聲開始,逐步還原成不帶噪音的原始圖片——去噪并實時生成數據。這里我們需要知道全部的數據集,所以需要學習一個神經網絡模型來近似這些條件概率,來運行反向擴散過程。
DiffusionModels逆向過程
Diffusion模型有兩個特點:一方面,給圖像增加高斯噪聲,通過破壞訓練數據來學習,然后找出如何逆轉這種噪聲過程以恢復原始圖像。經過訓練,該模型可以從隨機輸入中合成新的數據。另一方面,StableDiffusion把模型的計算空間從像素空間經過數學變換,降維到一個可能性空間的低維空間里,這一轉化大幅降低了計算量和計算時間,使得模型訓練效率大大提高。這算法模式的創新直接推動了AIGC技術的突破性進展。
AIGC相關深度學習模型匯總
漏洞!
通過以上算法簡介大家也可以明白,AIGC本質上就是機器學習,既然是這樣,那就無法避免使用大量的數據集執行訓練,在這之中確實存在損害圖片版權者的利益。
中國大學經濟學教科書將Craig Wright引用為中本聰:據bitcoin.com消息,中國一些主要大學使用的經濟學教科書將Craig Wright引用為比特幣創始人中本聰(Satoshi Nakamoto)。該教材編譯自美國經濟學家及作家Frederic Mishkin撰寫的“貨幣,銀行和金融市場經濟學(第六版)”。編譯的教材中寫道“比特幣是一種全球通用的加密電子支付貨幣,創始人是名叫Craig Wright的澳大利亞金融‘極客’”。據悉,世界上其他的一些著名大學,例如普林斯頓大學,麻省理工學院使用的教材中也提到了比特幣的創始人,但只是稱其擁有“Satoshi Nakamoto”的化名。[2018/6/22]
雖然我們都知道這種情況的存在,但是仍然很難解決。
對于藝術家來說,雖然認為這些平臺侵害了自己的權益,但是現在仍沒有完善的法律規定此類侵權行為,甚至在某些法律條文中,這種行為是合法的。
一方面,AIGC難以被稱為“作者”。著作權法一般規定,作者只能是自然人、法人或非法人組織,很顯然AIGC不是被法律所認可的權利主體,因此不能成為著作權的主體。但AIGC應用對生成的圖片版權問題持有不同觀點,圖片屬于平臺、完全開源還是生成者,目前尚未形成統一意見。
另一方面,AIGC產生的“作品”尚存爭議。傳統意義上的作品是指文學、藝術和科學領域內具有獨創性并能以某種有形形式復制的智力成果。AIGC的作品具有較強的隨機性和算法主導性,能夠準確證明AIGC作品侵權的可能性較低。同時,AIGC是否具有獨創性目前難以一概而論,個案差異較大。
即使現在把自己的作品從數據集中刪除也無法阻止自己風格作品的生成,首先,AI模型已經過訓練,對應風格已經掌握。而且,由于OpenAI的CLIP模型,用戶仍然可以調用特定的藝術風格。
對于AI項目方來說,讓數據集每張圖片都得到授權是不現實的,如果此類法案通過,那么AI行業的發展將受到很大的阻礙,或許是滅頂之災。所以我們需要一個折中的方案。
方案?
首先我們來分析一下AIGC行程的創作閉環:
在創意構思方面,AIGC構建了新的創意完善通路,傳統的創作過程中消化、理解以及重復性工作將有望交由AIGC來完成,最終創意過程將變為“創意-AI-創作”的模式。
在創意實現方面,創作者和AIGC的關系類似于攝影師和照相機。攝影師構建拍攝思路并進行規劃,對相機進行參數配置,但是不用了解相機的工作機制,一鍵生成高質量的內容。同樣的,創作者構思并進行規劃,對AI模型進行參數配置,不需要了解模型的原理,直接點擊輸出內容即可。創意和實現呈現出分離狀態,實現過程變為一種可重復勞動,可以由AIGC來完成,并逐步將成本推向趨近于0。
所以這里有兩個大主體:創作者和AIGC。創意重要,創作同樣也重要,AI做出的圖片是創作者的“創意版權”,是AIGC或者說采用藝術家風格的“底層創意/創作版權”,兩者都應該對生成內容享有權益,現在的情況就是少了藝術家的那份收益。
其實藝術家并不是不讓AI學習他們的畫作,只是也想在其中得到相應的收益,所以只要這份設計得到藝術家的承認,AIGC的漏洞就得以修復。
創作者的成果是AIGC學習的對象,但創作者的創意才是關鍵,創意本身比AIGC生成的繪畫更有價值,因此如何將創作者的“創意”進行量化,甚至定價,將有助于打造AIGC的商業模式。這其中“注意力機制”將成為AIGC潛在的量化載體。例如有機構專家提出,可以通過計算輸入文本中關鍵詞影響的繪畫面積和強度,我們就可以量化各個關鍵詞的貢獻度。之后根據一次生成費用與藝術家貢獻比例,就可以得到創作者生成的價值。最后在與平臺按比例分成,就是創作者理論上因貢獻創意產生的收益。
例如某AIGC平臺一周內生成數十萬張作品,涉及這位創作者關鍵詞的作品有30000張,平均每張貢獻度為0.3,每張AIGC繪畫成本為0.5元,平臺分成30%,那么這位創作者本周在該平臺的收益為:30000*0.3*0.5*=3150元的收益,未來參與建立AI數據集將有望成為藝術家的新增收益。
但是以上設計也有缺陷,因為AI并不完美,并不是每張圖片都有價值,所以這里優化方案可以是生成時不向藝術家付款,而有滿意的內容想要下載時,才需要支付相應的費用。這也與傳統的藝術創作領域流程相似,甲方下單,乙方提供滿意的作品時,甲方支付所有款項。
為了讓流程更加合規,更完美的做法是首先向全球藝術家公開風格庫,每個藝術家都可以選擇是否將自己的作品內容加入訓練集圖庫中,如果加入則可以在其他用戶創作對應風格時獲得相應收益,這也是在另一方面為藝術家尋求新的收益途徑。在市場上“侵權”行為如此多的背景下,此“正版授權”圖庫定會受到藝術家群體的支持,這種模式才更類似于正向循環,也是更良性的模式。
Web3?
Web3一直在強調“創作者經濟”,這與AIGC想要解決的問題不謀而合,利用區塊鏈技術,完全可以打造一個圍繞AIGC的生態網絡。
創作者通過AICG的賦能,加上Web3模式下的經濟模型,可以將自己的創意和影響力進行指數級的放大。也讓更多的人能實現從消費到參與、從用戶到所有者的轉變。同時藝術家可以得到他贏得的收益份額,達到一個雙贏局面。
其實Web3+AI并不是一件新鮮事,生成式藝術NFT領軍者ArtBlocks就是一個成功的應用案例。
ArtBlocks是一個生成隨機藝術品的平臺。它是由ErickSnowfro在2020年推出,是一個專注于可編程、生成性內容的平臺,其生成的內容在以太坊區塊鏈上是不可改變的。那么「隨機藝術品」是如何隨機的呢?這個隨機過程是受一串數字控制的,這串數字存儲在以太坊鏈上的一個非同質化代幣上。之后這個代幣所存儲的數字串控制你所購買藝術品的一系列屬性,最終生成屬于你的獨一無二的藝術品。
如果你是一個買家,比較看好某個藝術家的風格,然后支付后開始鑄造,算法生成隨機的同風格的藝術品就會被發送到你的賬戶中,以代幣的形式存在,最終的作品可能是靜態圖像、3D模型或交互式的藝術品。每個輸出都是不同的,并且在平臺上創建的內容類型具有無限種可能性,但每個項目可鑄造的藝術品的數量是一定的,也就是說一旦鑄造滿了,這個項目就不會有新的作品生成了。
對于創作者:他們需要預先在ArtBlocks上調整和部署好自己的生成藝術腳本,并確保它的輸出結果與輸入的哈希值有關。這個腳本會通過ArtBlocks存儲在以太坊鏈上。
對于收藏者:當收藏者鑄造某一系列的作品,他們實質上獲得了一個隨機的哈希值,然后腳本執行,一副對應這個哈希值的生成藝術作品當場被創作出來。
這種模式讓收藏者也參與了生成藝術的創作。
這副作品的內容,實際上是由原藝術家的風格、生成算法和你的鑄造時機三者決定。工具、創作者和買家聯合完成了這樣的作品,這種新的NFT創作模式讓這幅藝術品擁有了更多的紀念價值,留下了當下最新技術的印記。
和購買主流的NFT頭像項目不同,在ArtBlocks上購買NFT更像是在直接支持一位藝術家——這些藝術家往往是實名的,有大量的歷史作品,并且ArtBlocks會對他們進行作品相關的深度采訪。ArtBlocks上初次出售的NFT,藝術家可以獲得90%的收入,剩下的10%分給ArtBlocks。
所以大家可以發現,ArtBlocks簡直是給AIGC開辟了一條“康莊大道”,當然這條路并不完能粘貼復制,但是在細節方面對其修改完全可以成為AIGC+Web3的商業閉環!而且現在也已經有項目在做類似的事情。
正是因為有那么多先行者探路,我們有理由相信AIGC將會走的越來越遠,現在的缺陷也將慢慢修補完善。
除了經營一家不交易加密貨幣的加密貨幣交易所和擁有一家不進行對沖的對沖基金外,SamBankman-Fried還擁有一家不用自有資本投資的風險投資基金.
1900/1/1 0:00:00新一輪公鏈敘事中有兩個亮眼趨勢:一是以Move編程語言為核心的高性能新公鏈,二是以Celestia為代表的模塊化區塊鏈.
1900/1/1 0:00:00ZK-Rollups已成為目前以太坊上最具前景的擴容技術解決方案之一。其代表項目zkSync和StarkWare公布的融資額均已突破億美元.
1900/1/1 0:00:00本文為去中心化自治組織(DAO)關鍵實體選擇和功能的參考指南,來自MilesJennings和DavidKerr正在進行的DAO法律框架系列.
1900/1/1 0:00:00Libra背后最大的擔憂是隱私問題,許多詆毀者擔心Facebook將以犧牲最終用戶隱私通過Libra進一步實現其監控資本主義作風.
1900/1/1 0:00:00隨著近日比特幣行情站上30000美元關口,山寨MEME幣又開始興風作浪了,比如PEPE、AIDOGE、XEN等。當然也吸引了很多smartmoney或者內幕者的投機,而且字面收益非常高.
1900/1/1 0:00:00