作者:黃金瓊
ChatGPT爆火半年有多,在快速發展之余,除了解決技術問題,合規可能會是接下來的老大難——在國會傳訊Sam Altman后,如今FTC(美國聯邦貿易委員會)也正式對ChatGPT進行調查。
這與前幾天比爾蓋茨的發聲相呼應。他在最新博文中表示:AI是最具變革性的創新,誠然有風險,但風險也可控。
在博文中,比爾蓋茨主要討論了人工智能的風險和挑戰,以及如何應對這些問題,其中還提供了一些例子和建議。
比爾蓋茨首先對如今人們存在的對AI擔憂表示肯定——現在正處于人工智能深刻變革的時代,這是一個不確定的時代。但他樂觀地認為,這些風險都是可控的。
其次,比爾蓋茨也列出了當前AI所引發的風險,包括人工智能生成的深度偽造和錯誤信息可能會破壞選舉和民主、使得個人和政府發動攻擊變得更加容易、將奪走人們的工作以及AI繼承人類偏見并胡編亂造,學生不會學習寫作因為AI會替他們完成等。
最后,比爾蓋茨也提出一系列監管AI的建議。在各國政府層面,各國政府需要積累人工智能方面的專業知識,以制定應對AI的法律法規,來應對虛假信息和深度偽造、安全威脅、就業市場變化以及對教育的影響等問題。
而在解決方式上,政府領導人要與其他國家進行合作,而不應該是單打獨斗,還要與人們進行知情的、深思熟慮的對話的能力。
此外,對企業來說,AI公司要具有負責任的態度,工作開展要保證安全性,包括保護人們隱私等等。
人工智能帶來的風險似乎壓倒一切。那些失去工作被智能機器取代的人該怎么辦?AI會影響選舉結果嗎?如果未來的AI決定不再需要人類,想要擺脫我們,該怎么辦?
這些都是合理的問題,我們需要認真對待它們所引發的擔憂。但我們有充分的理由相信我們能夠應對這些問題:這并不是第一次在重大創新中,引入了必須加以控制的新威脅,我們以前也曾遇到過。
無論是汽車的問世,還是個人電腦和互聯網的興起,人們都曾歷經過其他變革時刻,盡管經歷了許多動蕩,但最終都得到了更好的發展。第一輛汽車上路后不久,就發生了第一起車禍。但我們并沒有禁止汽車,而是采用了限速、安全標準、駕照要求、酒駕法以及其他道路規則。
比爾·蓋茨批馬斯克憑直覺決策致推特混亂:金色財經報道,前世界首富比爾·蓋茨批馬斯克讓推特加劇數字兩極分化。
當地時間12月20日,據英國《金融時報》,微軟聯合創始人比爾·蓋茨表示,自埃隆·馬斯克收購以來,Twitter(推特)的決策風格正在加劇數字兩極分化。
蓋茨指出,推特的混亂局面,不是由一個廣泛團體做出的客觀決策,而是一系列憑經驗、直覺的決策活動導致的。[2022/12/21 21:57:45]
我們現在正處于另一場深刻變革的初期階段,即AI時代,這與限速和安全帶之前的不確定時代相類似。人工智能的變化如此之快,以至于我們還不清楚下一步會發生什么。我們正面臨著由當前技術運作方式、人們將其用于惡意意圖的方式以及人工智能如何改變我們作為社會成員和個體所引發的重大問題。
在這樣的時刻,感到不安是很自然的。但歷史表明,解決新技術帶來的挑戰是可能的。
我曾經寫過人工智能將如何徹底改變我們的生活,它將幫助解決健康、教育、氣候變化等方面過去似乎難以解決的問題。蓋茨基金正在把這個問題作為優先事項,我們的首席執行官馬克-蘇茲曼(Mark Suzman)最近分享了他對AI在減少不平等中的角色的思考。
我將在未來更多地討論人工智能的好處,但在這篇文章中,我想談談我聽到和讀到的最常見的擔憂,其中許多我也有同感,并解釋一下我是如何看待這些擔憂的。
從迄今為止關于人工智能風險的所有文章中,有一件事情很明確,那就是沒有人擁有所有的答案。另一點對我來說很明確的是,人工智能的未來并不像某些人想象的那樣嚴峻,也不像其他人想象的那樣美好。風險是真實存在的,但我樂觀地認為這些風險是可以控制的。當我逐一討論每個問題時,我將回到幾個主題:
人工智能引發的許多問題都有歷史先例。例如,它將對教育產生巨大影響,但幾十年前的便攜式計算器,以及最近的允許電腦進入課堂也是如此,我們可以借鑒過去的成功經驗。
人工智能帶來的許多問題也可以在人工智能的幫助下得到解決。
億萬富翁“債券王”比爾格羅斯投資了比特幣:金色財經報道,2002 年被《財富》雜志稱為“債券大王”的傳奇金融家比爾格羅斯透露,他投資了比特幣。格羅斯在最近接受CNBC采訪時說:“我只是認為,你知道,加密貨幣是一個泡沫。我確實認為有幸存者。我確實認為我們需要一個替代美元的替代品,就像我們在過去一兩周看到的那樣,而且你知道,會有幾個幸存者,我在比特幣上投資了一小部分。”(crypto.news)[2022/3/24 14:14:20]
我們需要調整舊法并頒布新法——就像現有的反欺詐法律必須適應網絡世界一樣。
在這篇文章中,我將重點關注已經存在或即將存在的風險。我并不打算討論當我們開發出一種能夠學習任何學科或任務的人工智能時會發生什么。相反,我今天討論的是專門構建的AI。
無論我們是在十年內還是一個世紀內達到這一點,社會都將需要面對一些深刻的問題。如果一個超級AI確立了自己的目標怎么辦?如果它們與人類的目標相沖突怎么辦?我們是否應該制造超級AI?
但是,在考慮這些長期風險時,不應忽視眼前的風險。我現在來談談這些短期的風險。
利用技術傳播謊言和不實信息并不是什么新鮮事。幾個世紀以來,人們一直通過書籍和傳單來傳播謊言。隨著文字處理機、激光打印機、電子郵件和社交網絡的出現,這種做法變得更加容易。
人工智能將這個假文本的問題擴大化,使幾乎任何人都可以制作偽造的音頻和視頻,這就是所謂的深度偽造。如果你收到一個看起來像你孩子的聲音信息說“我被綁架了,請在接下來的10分鐘內向這個銀行賬戶匯款1000美元,并且不要報警”,那么它將產生遠超過同樣內容的電子郵件的恐怖情緒影響。
在更大的范圍內,人工智能生成的深度偽造可能會被用來試圖影響選舉結果。當然,不需要復雜的技術就可以對選舉的合法贏家產生懷疑,但人工智能將使這一過程變得更加容易。
目前,已經出現了一些虛假視頻,這些視頻中包含了眾所周知的家被編造的片段。想象一下,在一次重要選舉的早晨,一段顯示某位候選人搶劫銀行的視頻在網上瘋傳。即使這是假的,但新聞機構和競選團隊花了幾個小時才證明這一點。有多少人會看到這段視頻并在最后一刻改變投票?這可能會改變比賽的結果,尤其是在選情膠著的情況下。
社交名流、女商人Paris Hilton邀請比爾·蓋茨參加她的播客向觀眾解釋NFT:社交名流、女商人Paris Hilton在推特上表示,比爾·蓋茨是時候出現在她的播客上,以便他們“輪流解釋事情”。本月早些時候,Paris Hilton出現在“今夜秀”中,期間她與主持人Jimmy Fallon談到了NFT。Hilton為該術語提供了一個高度技術性的定義:基于區塊鏈的數字合約,允許其發行人出售藝術、音樂和體驗。她還建議Fallon應該將他的一個笑話作為NFT出售。 該片段在Twitter上瘋傳,加密貨幣社區的成員將Fallon在2021年解釋NFT與比爾·蓋茨在1995年向David Letterman解釋互聯網進行了比較,當時只有14%的美國成年人可以訪問萬維網。(U Today)[2021/8/29 22:44:49]
最近,Open AI聯合創始人Sam Altman在美國參議院委員會作證時,來自兩黨的參議員都對人工智能對選舉和民主的影響有所關注。我希望這個話題能繼續引起每個人的關注。我們確實還沒有解決假信息和深度偽造的問題。但有兩點讓我保持謹慎樂觀。一是人們有能力學會不輕信一切。多年來,電子郵件用戶常常上當受騙,因為有人冒充尼日利亞王子,承諾只要分享信用卡號碼就能獲得巨額回報。但最終,大多數人學會了對這些郵件進行二次審查。隨著詐騙手段越來越高明,許多目標也變得越來越狡猾,我們需要為深度偽造建立同樣的防范意識。
另一件讓我充滿希望的事情是,AI不僅可以創建深度偽造,還可以幫助識別它們。例如,英特爾開發了一種深度偽造檢測器,而政府機構DARPA正在研究如何識別視頻或音頻是否被篡改。
這將是一個循環過程:有人找到了檢測造假的方法,有人想出了對付它的辦法,有人開發出了反制措施,如此循環往復。這不會是一個完美的成功,但我們也不會束手無策。
如今,當黑客們想找到軟件中的漏洞時,他們會通過暴力編寫代碼,對潛在的弱點進行攻擊,直到發現漏洞為止。這需要走很多彎路,因此需要時間和耐心。
鉆石巨頭戴比爾斯和波士頓咨詢公司因區塊鏈專利被起訴:鉆石巨頭公司戴比爾斯(De Beers)和波士頓咨詢集團(Boston Consulting Group(BCG))最近因區塊鏈專利被起訴。
此案是由Max Rady向美國紐約南區法院提起的。Rady聲稱,戴比爾斯和波士頓咨詢集團都存在專利侵權、違反合同、盜用商業機密等行為。(Coingeek)[2020/6/3]
想要打擊黑客的安全專家也必須做同樣的事情。你在手機或筆記本電腦上安裝的每一個軟件補丁,都代表著善意或惡意的人花費了許多時間的搜尋。
人工智能模型將通過幫助黑客編寫更有效的代碼來加速這一進程。他們還將能夠利用個人的公共信息,如工作的地方和他們的朋友是誰,來開發出比我們現在看到的更先進的網絡釣魚攻擊。
好消息是,人工智能既可用于惡意目的,也可以用于良好的目的。政府和私營部門的安全團隊需要擁有最新的工具,以便在犯罪分子利用安全漏洞之前發現并修復它們。我希望軟件安全行業能夠擴大他們在這方面已經開展的工作,這應該是他們最關心的問題。
這也是為什么我們不應該像某些人建議的那樣,試圖暫時阻止人們施行人工智能的新發展。網絡犯罪分子不會停止制造新工具,想要利用人工智能設計核武器和生物恐怖襲擊的人也不會停止,阻止他們也需要以同樣的速度繼續進行。
在全球層面也存在相關風險:AI軍備競賽可用于設計和發動針對其他國家的網絡攻擊。每個國家的政府都希望擁有最強大的技術,以阻止對手的攻擊。這種“不讓任何人搶先”的動機可能會引發一場制造日益危險的網絡武器的競賽。這樣一來,每個人的處境都會變得更糟。
這是一個可怕的想法,但我們有史為鑒。盡管世界核武器防擴散機制存在缺陷,但它阻止了我們這一代人在成長過程中非常害怕的全面核戰爭的發生。各國政府應考慮建立一個類似于國際原子能機構的全球人工智能機構。
未來幾年,人工智能對工作的主要影響將是幫助人們更高效地完成工作。無論是在工廠工作,還是在辦公室處理銷售電話和應付賬款,都將如此。最終,AI在表達思想方面的技能將足夠好,以至于它能夠為你寫郵件并管理你的收件箱。你將能夠用簡單的英語或任何其他語言編寫一份請求,并生成一份內容豐富的工作報告。
動態 | Ripple與比爾蓋茨基金會合作發布開源軟件Mojaloop:據悉,Ripple已與比爾蓋茨基金會合作發布了開源軟件Mojaloop,使用該軟件有助于銀行降低成本。蓋茨基金會負責金融服務的副主任Kosta Peric表示,通過Mojaloop有助于技術合作伙伴實現可應用于任何服務的解決方案,并已邀請銀行和支付行業對此工具進行測試。[2018/7/3]
正如我在正如我在2月份的文章中所說,生產力的提高對社會有益。這使得人們有更多的時間去做其他事情,無論是在工作中還是在家中。而且,對助人為樂者的需求永遠不會消失,例如教書育人、照顧病人和贍養老人。
但是,在我們向人工智能驅動的工作場所過渡的過程中,一些工人確實需要支持和再培訓。這是政府和企業的職責所在,他們需要很好地管理它,這樣工人們才不會被拋棄,避免像美國制造業工作崗位減少時發生的那種對人們生活的干擾。
此外,請記住,這并不是新技術第一次導致勞動力市場發生重大變化。我認為人工智能的影響不會像工業革命那樣巨大,但肯定會像個人電腦的問世那樣巨大。文字處理應用軟件并沒有消除辦公室工作,但卻永遠地改變了辦公室工作。雇主和員工必須適應,他們也確實做到了。人工智能帶來的轉變將是一個崎嶇的過渡,但我們完全有理由相信,我們能夠減少對人們生活和生計的干擾。
幻覺,這是指人工智能自信地作出一些根本不真實的聲明,且通常發生的原因是機器不理解你的請求的背景。如果你讓一個人工智能寫一個關于去月球度假的短篇故事,它可能會給你一個非常富有想象力的答案。但是如果你讓它幫你規劃一次前往坦桑尼亞的旅行,它可能會試圖把你送到一個不存在的酒店。
人工智能的另一個風險是,它反映出甚至加劇了人們對某些性別身份、種族、民族等的現有偏見。
要明白為什么產生這樣的幻覺和偏見,了解當前最常見的AI模型如何運作是非常重要的。它們本質上是非常復雜的代碼版本,可以讓您的電子郵件應用程序預測您要輸入的下一個單詞:在某些情況下,幾乎是網上所有可用的文本,它們掃描海量文本,然后進行分析,找出人類語言中的模式。
當你向人工智能提出一個問題時,它會查看您使用的單詞,然后搜索經常與這些單詞相關聯的文本。如果您寫下“列出煎餅的配料”,它可能會注意到“面粉、糖、鹽、發酵粉、牛奶和雞蛋”這些詞經常與該短語一起出現。然后,根據它所知道的這些單詞通常出現的順序,它會生成一個答案(這種方式工作的AI模型使用的是所謂的轉換器,GPT-4就是這樣一個模型)。
這個過程解釋了為什么人工智能可能會產生幻覺或出現偏差,它對你提出的問題或告訴它的事情沒有任何上下文理解。如果你告訴它打錯了,它可能會說“對不起,我打錯了”。但這只是幻覺,它并沒有打錯任何東西,它之所以這么說,是因為它已經掃描了足夠多的文本,知道“對不起,我打錯了”是人們在被糾正后經常寫的一種句子。
同樣,AI模型也會繼承它們所訓練的文本中固有的偏見。如果一個人讀了很多關于醫生的文章,而文章中大多提到男性醫生,那么它的答案就會假定大多數醫生都是男性。
盡管一些研究人員認為幻覺是一個固有的問題,但我并不同意。我樂觀地認為,隨著時間的推移,我們可以教會AI模型區分事實和虛構。例如,Open AI在這方面做了很有前途的工作。
包括阿蘭·圖靈研究所和國家標準與技術研究所在內的其他組織正在解決偏見問題。一種方法是在AI中加入人類價值觀和更高層次的推理。這類似于有自我意識的人類的工作方式:也許你認為大多數醫生都是男性,但你對這一假設有足夠的意識,知道你必須有意識地與之斗爭。人工智能也可以以類似的方式運行,尤其是如果模型是由來自不同背景的人設計的。
最后,每個使用人工智能的人都需要意識到偏見問題,并成為一個知情的用戶。你要求人工智能起草的論文可能會充滿偏見,就如同充滿了事實錯誤一樣。你需要檢查你的AI的偏見,以及你自己的偏見。
許多教師擔心AI會破壞他們與學生的工作。在一個只要能上網,任何人都能用人工智能寫出可圈可點的論文初稿的時代,有什么能阻止學生將其作為自己的作品上交呢?
已經有一些AI工具在學習判斷一篇文章是由人類還是電腦寫的,所以教師們可以知道他們的學生是否在做自己的作業。但是有些教師并沒有試圖阻止他們的學生在寫作中使用AI,他們實際上是在鼓勵它。
今年1月,一位名叫切麗·希爾茲(Cherie Shields)的資深英語教師在《教育周刊》(Education Week)上發表了一篇文章。的文章上發表了一篇文章,介紹了她如何在課堂上使用Chat GPT。Chat GPT幫助她的學生從開始寫一篇作文到攥寫大綱,甚至給他們的作業提供反饋。
她寫道:“教師必須接受人工智能技術,將其作為學生可以使用的另一種工具。就像我們曾經教學生如何進行正確的谷歌搜索一樣,教師應該圍繞Chat GPT機器人如何協助論文寫作設計清晰的課程,承認人工智能的存在并幫助學生使用它可以徹底改變我們的教學方式。”并非每位教師都有時間學習和使用新工具,但像Cherie Shields這樣的教育工作者提出了一個很好的論點,即那些有時間的教師將受益匪淺。
這讓我想起了上世紀七八十年代電子計算器普及的時代。一些數學教師擔心學生會停止學習基本算術,但另一些教師則接受了這項新技術,并將重點放在算術背后的思維能力上。
人工智能還可以幫助寫作和批判性思維。特別是在早期,當幻覺和偏見仍然是一個問題時,教育工作者可以讓人工智能生成文章,然后與學生一起檢查事實。教育非營利組織如可汗學院和OER項目等為教師和學生提供免費的在線工具,這些工具非常重視對論斷的檢驗,沒有什么技能比知道如何辨別真假更重要了。
我們確實需要確保教育軟件有助于縮小成績差距,而不是使其變得更糟。如今的軟件主要面向那些已經有學習動力的學生。它可以為你制定學習計劃,為你提供好的資源,并測試你的知識。但是,它還不知道如何吸引你去學習你還不感興趣的科目。這是開發人員需要解決的一個問題,以便讓所有類型的學生都能從人工智能中受益。
我相信,我們有更多的理由樂觀地認為,我們可以在管理人工智能風險的同時最大限度地發揮其效益,但我們需要快速行動。
各國政府需要積累人工智能方面的專業知識,以便制定應對這一新技術的法律法規。他們需要應對錯誤信息和深度偽造、安全威脅、就業市場的變化以及對教育的影響。僅舉一例:法律需要明確哪些用途的深度偽造是合法的,以及應該如何標注深度偽造,以便每個人都能明白他們看到或聽到的東西是假的。
領導人需要具備與選民進行知情的、深思熟慮的對話的能力。他們還需要決定在這些問題上與其他國家合作的程度,而不是單打獨斗。
在私營部門,AI公司需要在安全和負責任的前提下進行他們的工作。這包括保護人們的隱私,確保他們的人工智能模型反映人類的基本價值觀,最大限度地減少偏見,讓盡可能多的人受益,并防止技術被犯罪分子或恐怖分子利用。許多經濟領域的公司都需要幫助其員工過渡到以AI為中心的工作場所,這樣就不會有人掉隊。而且,客戶應始終知道他們是在與人工智能還是人類互動。
最后,我鼓勵大家盡可能關注人工智能的發展。這是我們有生之年將看到的最具變革性的創新,健康的公共辯論將取決于每個人對這項技術本身、優點和風險的了解。人工智能將帶來巨大的利益,而相信我們能夠控制風險的最好理由就是我們曾經能夠做到了。
36氪
媒體專欄
閱讀更多
金色財經
金色薦讀
Block unicorn
區塊鏈騎士
金色財經 善歐巴
Foresight News
深潮TechFlow
作者:Miles Deutscher 編譯:PANews北京時間 6 月 5 日晚.
1900/1/1 0:00:00引言 本文主要內容是透過監管本質和側重點,探究交易所如何在未來運營考驗中更好的受到監管的青睞。在香港公布了虛擬貨幣交易所條例后,超過200家交易所爭先恐后的在香港申請牌照,市場對牌照的公布結果也.
1900/1/1 0:00:00聽聽 Azuki 社區 OG 如何看待這次 Fud 事件。本文轉錄自 STEPN 首席增長官、Multicoin Capital 前合伙人 Mable 的播客 HODLong 后浪.
1900/1/1 0:00:00作者:ArkStream Capital去中心化游戲一直是加密市場上一個頻繁討論的話題,最近,Arbitrum上的去中心化游戲平臺Magic的爆火也引發了市場上眾多的討論.
1900/1/1 0:00:00作者:Beosin Donny、Eaton、Dorit1920年左右,海明威以駐歐記者身份旅居巴黎,《流動的盛宴》這本書,記錄的正是作者當日的這段生活.
1900/1/1 0:00:00作者:@Tonantzin_LC、markmuro1、Sifan_Liu;編譯:Block unicorn就在去年,似乎所有人都在談論加密貨幣——從名人到運動員,再到新聞主播和投資者.
1900/1/1 0:00:00