買以太坊 買以太坊
Ctrl+D 買以太坊
ads
首頁 > FIL > Info

ATG:不只是聊天機器人:一文梳理 ChatGPT 帶來的真正影響_PikcioChain

Author:

Time:1900/1/1 0:00:00

作者:JackyLiang

編譯:DeFi之道Wendy

自OpenAI發布ChatGPT以來,已經過去幾個月的時間了。這個基于大型語言模型的聊天機器人不僅讓許多AI研究員大開眼界,還讓大眾見識到了AI的力量。簡而言之,ChatGPT是一個可以響應人類指令的聊天機器人,可以完成從寫文章、作詩到解釋和調試代碼的任務。該聊天機器人顯示出令人印象深刻的推理能力,其表現明顯優于先前的語言模型。

在這篇文章中,我將從個人角度出發,聊聊ChatGPT對三類人的影響:分別是AI研究員、技術開發人員和普通大眾。在文章中,我將推測ChatGPT等技術的影響,并簡單聊聊我認為可能發生的一些情況。這篇文章更傾向于發表個人觀點,而不是基于事實的報告,所以對這些觀點要持謹慎態度。那么,讓我們開始吧……

ChatGPT之于AI研究員

對我這個AI研究員來說,從ChatGPT上學到的最重要的一課是:管理人類反饋對于提高大型語言模型(LLM)的性能非常重要。ChatGPT改變了我,我猜也改變了許多研究人員對大型語言模型AI對齊問題的看法,我具體解釋一下。

圖:LLM的強化學習與人的反饋

在ChatGPT問世之前,我想當然地認為,當涉及到LLM時,我們面臨著兩個不同的問題。1)提高LLM在某些基于語言的任務中的表現,同時2)避免有害的/破壞性的/有偏見的文本生成。我認為這兩個目標是相關但獨立的,并將第二個問題稱為對齊問題。我從ChatGPT中了解到,對齊和任務表現其實是同一個問題,將LLM的輸出與人類的意圖對齊,既能減少有害內容,也能提高任務表現。

為了更方便理解,這里給出一些背景信息:我們可以將現代的LLM訓練分為兩個步驟。

第一步:神經網絡模型的自監督學習,在給定前一批單詞序列的情況下預測下一個單詞——這是在一個非常大的、互聯網規模的數據集上訓練的。

第二步:通過各種技術使LLM的生成與人類的偏好保持一致,比如在高質量的指令遵循文本的小數據集上微調LLM,并使用強化學習來微調LLM與預測人類偏好的學習獎勵模型。

Blur創始人:Season 2的積分價值不會被稀釋:金色財經報道,NFT聚合交易市場Blur今日宣布推出Season 2并上線積分“Trait Bidding(特質競價)”功能,有社區用戶質疑“Blur 先是競標積分、再掛牌積分、然后借貸積分、現在又特質競價積分,最終積分價值越來越被稀釋”,對此Blur創始人Pacman在社交媒體回應稱,目前Blur沒有宣布Season 2的結束時間,額外的積分機制也不會稀釋積分價值,因為競標積分和掛牌積分功能從Season 1開始就一直存在,既沒有引入額外積分去稀釋價值,也沒有延長Season時間。Pacman強調,借貸積分絕對不會稀釋積分,特質競價也不會稀釋積分價值,社交媒體上的相關言論是虛假信息。[2023/7/6 22:20:53]

在ChatGPT身上,OpenAI很可能使用了許多不同的技術,相互配合來產生最終的模型。另外,OpenAI似乎能夠快速回應網上關于模型出錯的投訴,有時甚至在幾天內就能完成,所以他們也一定有辦法修改/過濾模型的生成,而無需重新訓練/微調模型。

ChatGPT標志著強化學習的悄然回歸。簡而言之,有人類反饋的強化學習首先訓練一個獎勵模型,預測人類會給某一LLM生成內容打多高的分數,然后使用這個獎勵模型通過RL來改善LLM。

我不會在這里過多地討論RL,但OpenAI歷來以其RL能力而聞名,他們寫的OpenAIgym啟動了RL研究,訓練RL代理玩DoTA,并以在數百萬年的模擬數據上使用RL訓練機器人玩魔方而聞名。在OpenAI解散其機器人團隊之后,RL似乎逐漸被OpenAI所遺忘,因為它在生成模型方面的成就主要來自于自我監督學習。ChatGPT的成功依賴于RLHF,它使人們重新關注RL作為改進LLM的實用方法。

圖:AI專家預測ChatGPT的運行成本

ChatGPT的到來還證明了一點:學術界開發大規模AI功能將越來越困難。雖然這個問題在整個深度學習時代都可能出現,但ChatGPT使它變得更加根深蒂固。不僅訓練基本的GPT-3模型對小型實驗室來說遙不可及,而且ChatGPT的數據收集和RL微調管道可能對學術實驗室造成過大的系統/工程負擔。

谷歌云為礦工提供高達100萬美元的保護:金色財經報道,谷歌云為礦工提供高達 100 萬美元的保護,以補償在未檢測到的加密挖礦攻擊期間產生的費用。 Bues 在一份聲明中表示,對于那些在云環境中沒有正確的預防控制和威脅檢測能力的組織來說,加密攻擊仍然是一個嚴重的安全和財務問題。[2023/6/9 21:25:13]

將ChatGPT免費提供給公眾,可以讓OpenAI收集更多寶貴的訓練數據,這些數據對其未來的LLM改進至關重要。這樣一來,公開托管ChatGPT實質上是OpenAI的大規模數據收集工作,而這不是小型組織能夠承擔的。

開源和與HuggingFace和Stability等公司在學術上的大規模合作可能是學術界目前前進的方式,但這些組織總是比擁有更大預算的小團隊前進得慢。我推測,當涉及到最先進的語言模型時,開源通常會滯后于這些公司幾個月到一年。

我認為學術界可能扳回一成的唯一方法是,是否有國家級的計算云專門用于學術AI研究。這無疑將花費數十億美元,需要專門的行政和工程人員。這并非毫無可能——它將類似于詹姆斯?韋伯太空望遠鏡和大型強子對撞機。在美國,一些人已經在呼吁建立國家AI云,進行LLM推理,但訓練和微調LLM和其他基礎模型的能力也同樣重要。鑒于AI國家戰略重要性,我們可能會在不久的將來真正看到這個方向的發展。

同時,AI研究員并不總是要訓練大模型才能產生大影響。我的看法是,與其爭奪下一個最大最好的LLM,較小的學術實驗室可以專注于改善現有LLM的使用,分析它們的優勢和劣勢,并利用有些公司以非常低的成本托管這些非常強大的LLM的事實。例如,可以利用OpenAI和其他公司的現有LLMAPI來進行LLM對齊的研究,而不需要學術實驗室從頭開始訓練這些模型。對強大的LLM的低成本和公開的訪問使得一整套公開的研究能夠發現LLM的新能力和應用。

ChatGPT之于技術從業者

對于那些在技術領域工作和開發產品的人來說,ChatGPT和類似的代碼編寫模型呈現出顯著的一階和二階效應。對于程序員來說,使用基于AI的代碼補全和ChatGPT風格的問答來學習編碼和理解現有的代碼庫將成為軟件工程工作中不可或缺的一部分。我推測,在未來的一年內,許多大學將開設計算機科學課程,教授在軟件工程等應用中利用AI的最佳實踐。

希拉里·克林頓警告比特幣可能“破壞國家穩定”:金色財經報道,前總統候選人希拉里·克林頓警告比特幣可能“破壞國家穩定”。[2023/4/15 14:05:49]

ChatGPT和更強大的AI代碼輔助將迫使軟件工程師對其操作的抽象級別進行根本性的重新制定。大多數軟件工程師不需要推理低級機器代碼,因為我們有非常強大的編譯器,可以將人類可讀的代碼轉換為機器可讀的代碼。軟件工程師可以學習這些編譯器的內部工作原理,以及如何編寫最充分利用這些編譯器特點和優勢的代碼,但他們自己不需要編寫機器代碼,也不需要編寫自己的編譯器。

編碼AI很可能會成為新的“編譯器”,將高級額人類指令轉換為低級代碼,但是在更高的抽象級別上。未來的軟件工程師可能會編寫高級文檔、需求和偽代碼,他們會要求AI編碼員編寫今天人們編寫的中級代碼。通過這種方式,我不認為軟件工程師會被AI取代,而是被推到價值鏈的上游。未來,熟練掌握這項技能的軟件工程師可能需要了解不同編碼AI的優缺點,以及如何針對特定的應用領域最好地構建和修改AI。

以上是一階效應,ChatGPT直接影響到技術從業者,特別是軟件工程師的工作方式。對技術產品所能提供的東西的二階影響可能會更深遠。ChatGPT和類似的LLM通過1)釋放全新的能力和2)降低現有能力的成本,使其突然具有經濟意義,從而使新產品成為可能。

圖:機器人在自然語言中執行新任務

上述第一點的一個例子是,現在我們可以通過簡單地讓AI編碼員將語言指令翻譯成調用該軟件API的代碼,為任何軟件添加自然語言用戶界面。以一種可信賴的和可泛化的方式來做這件事將需要大量的努力,就像發布真正的產品一樣,魔鬼就在細節中。盡管如此,這是一種徹頭徹尾的新能力,我猜測自然語言軟件UI會在所有的軟件平臺上爆發,尤其是在那些傳統用戶界面感到笨重和不方便的平臺上。老實說,很難想象在LLM時代開發一款新應用而不包含一個基于語言的用戶界面會怎么樣。入門的門檻很低,如果你不這樣做,你的競爭對手就會這樣做,而且會提供更好的用戶體驗。

ZachXBT:從Alameda錢包收到的第一筆比特幣被存入Wasabi:金色財經報道,鏈上數據分析師ZachXBT發推稱,從Alameda錢包收到的第一筆BTC剛剛被存入Wasabi。

此前消息,Alameda關聯錢包清算了價值約170萬美元的ERC-20系代幣并將其轉換為比特幣。[2022/12/30 22:15:39]

降低現有能力的成本聽起來不像解鎖新能力那么有吸引力,但它同樣重要。LLM可能存在很多有前景的應用,但為這些下游任務微調LLM的成本可能太高,不值得投資。有了ChatGPT和改進的指令跟蹤,開發者可能不再需要收集大量的數據集來進行微調,而只需要依靠zero-shot性能。預計在許多處理文本輸入的現有應用中,基于文本的分類、摘要和內聯預測功能將出現大量的“小規模”LLM部署。這些對用戶體驗的邊際改善在以前可能投資回報比很低,但現在卻突然值得了。

低成本也意味著在應用LLM和其他基礎模型的業務上有很多唾手可得的成果,通過良好的UI/UX、現有軟件產品內的集成以及有效的進入市場和貨幣化戰略為消費者創造價值。Lensa是一個能滿足所有這些條件的例子。LLM部署的這些更實際的方面往往會超過底層模型的絕對性能,成功的初創公司總是可以將舊的LLM與新的改進版本交換。這也意味著,那些應用LLM的人不應該把他們的技術棧與特定LLM的特性綁得太緊。LLM的快速改進周期,加上可公開訪問的API,以及關鍵的商業差異化因素不是模型本身,這可能意味著LLMs將被商品化。

未來將有兩種類型的科技公司能夠繼續向前發展——能夠負擔得起培訓和運行自己的基礎模型的公司,以及負擔不起的公司,后者需要向前者支付基礎模型稅。這聽起來很有戲劇性,但它與我們今天的情況沒有什么不同,技術公司要么托管自己的服務器,要么向AWS/Azure/GCP交稅。AI云業務將是未來云平臺的一個關鍵戰場,并將給競爭對手提供超越現有企業的機會。例如,憑借微軟的經驗和與OpenAI的結合,Azure很有可能憑借其AI云產品超越其他公司。

去中心化借貸協議Clearpool引入新的利率機制:7月6日消息,去中心化借貸協議Clearpool宣布完成其創新的重大更新,推出了新的利率機制。據了解,新的利率模型專門為Clearpool的無許可池構建,旨在提高借款人的資金利用率,同時更準確地以有吸引力的根據風險調整的回報補償給出借方。[2022/7/6 1:54:42]

圖:GPU性能的增長速度遠遠快于CPU性能

最后,從一個更具推測性的角度來看,基于深度學習的基礎模型可能會讓我們在相當長一段時間內避免摩爾定律放緩帶來的負面后果。隨著這些模型的能力越來越強,它們將接管越來越多由傳統軟件完成的任務,這意味著越來越多的軟件將可以通過僅僅優化神經網絡的性能而得到優化。神經網絡在GPU和特定應用的芯片上運行,其性能的提高并沒有看到傳統CPU改進的明顯減速,這大致可以在摩爾定律的減速中體現出來。我們真的很幸運,有一個單一的神經網絡架構,即Transformer,它可以代表通用計算,并經過訓練,可以很好地執行這么多不同的任務。我們還沒有接近優化Transformer性能的終點,所以我期望隨著LLM變得更加強大并取代更復雜的傳統軟件堆棧,計算機會變得更快。

ChatGPT之于大眾

視頻?:耶魯大學評ChatGPT,更多是資源,而并非學習的替代品

ChatGPT是許多普通大眾可以直接與之互動的第一項AI技術。當然,在ChatGPT之前,有Siri和Alexa,而且深度學習應用在許多商業應用中已經無處不在了。不同的是,以前部署的AI技術往往都在后臺工作,通過傳統軟件和有限的用戶界面層層"過濾"。公眾通過ChatGPT對AI有了更直接的體驗,用戶可以直接向LLM輸入,并直接看到它的輸出。ChatGPT也明顯比以前的聊天機器人更強大。再加上該服務目前一直是免費的,這些因素將ChatGPT推向了主流世界的討論熱潮。

相對以前,這種和AI的親密接觸讓公眾對AI的新奇和炒作有了更真實的體驗。我可以想象,突然之間,對于那些不熟悉LLM工作原理的人來說,聊天機器人可能具有意識的說法聽起來并不太牽強。這也反映出了一個問題,當涉及到AI的問題時,科學傳播的缺失——我認為AI界在向公眾宣傳和普及AI如何工作、能做什么、不能做什么,以及如何負責任地使用AI技術方面做的非常差。見鬼,我們甚至都不能確定技術從業者了解LLM的基本知識,更不用說普通民眾了,他們才是受這項技術影響的終端用戶。在接下來的幾年里,如果繼續不對AI進行教育和溝通,可能會面臨災難性的后果,因為類似ChatGPT的模型會在沒有適當預防措施的情況下進入關鍵任務的應用。

或者,從某種意義上說,讓人們了解一項新技術的最好方法可能是讓公眾公開地試驗這項技術及其應用,體驗它的失敗,并反復辯論和改進一些流行的觀點。這一波基礎模型的可用性,尤其是ChatGPT開創的免費使用的先例,可以讓公眾通過親身體驗更了解AI,反過來引發更明智的理解和討論。

DALL-E2是第一個真正優秀的文本到圖像生成模型,發布僅僅幾個月后,我們就已經看到了來自公司和社區的一系列不同的政策反應,試圖適應這種新的現實,從完全禁止AI藝術到納入AI藝術圖片的銷售。對于ChatGPT,一些學術會議禁止它的使用,而也有學者則將其列為合著者。圍繞生成式AI也有不少正在進行的訴訟。目前還不清楚使用這些模型的法律和道德方式是什么,但很明顯,這些圍繞AI使用政策的小規模實驗對于公眾弄清楚這些事真的很重要。我個人認為這是一個很好的方向,因為我相信公共政策應該由公眾討論決定,而不是由任何一個托管這些模型的特定科技公司不清不楚的委員會決定。

圖:新技術的采用需要時間,盡管隨著時間的推移,采用速度越來越快

關于ChatGPT和類似基礎模型的應用的最后一個想法——技術部署總是比技術創新需要更長的時間,雖然人們可以在一個周末的時間建立令人印象深刻的LLM演示,但仍然需要大量的工作和試錯來建立可靠、可擴展的產品,為消費者帶來價值。在科技領域,我們可能會在2023年看到生成式AI應用的海嘯,但我預計這些應用在公眾中的傳播速度會慢得多。有許多因素會減緩大規模生成式AI的采用——現有系統和產品的慣性,對AI取代人類的認知的文化障礙,運行AI的成本在很多應用中可能沒有意義,LLM輸出的不可靠性和可信度,以及擴大LLM計算基礎設施以實時服務數十億次的查詢。這些挑戰都不會在一夜之間,甚至在幾個月內被克服。但它們最終會被克服,而5年后的世界將看起來非常不同。

未來如何?

如果說在過去10年的深度學習中我們學到了什么,那就是真的很難對AI做出準確的預測,包括它的發展和部署。然而,我可以自信地說,ChatGPT只是未來的一個小預告。對于基礎模型的未來,我在兩個方向上看到了有前景的進展,我認為在今年或明年會有突破性進展:1)真正多模態的ChatGPT級基礎模型,以及2)被設計用于在環境中采取行動的基礎模型。

圖:與其訓練理解視覺和文本的獨立模型,較新的模型可以直接理解圖片中呈現的文本

對于1),想象一個類似ChatGPT的界面,但你不僅可以上傳文本,還可以上傳音頻、圖像、視頻、3D模型以及其他結構化文件,并讓它"理解"、分析、處理和生成這些內容。這樣的技術如今已經存在,將所有這些模式整合到一個模型中似乎很簡單。

對于2),在不久的將來,擁有一個基礎模型,能夠通過鍵盤和鼠標與計算機進行可靠的互動,以執行人類今天的許多日常任務,似乎是合理的。有一些證據表明這是可行的,從瞄準機器人過程自動化的初創公司到試圖訓練AI代理完成Minecraft中的開放式目標的研究人員。為物理機器人而不是虛擬代理開發這種面向動作的基礎模型將更加困難,但進展已經在進行中。

圖:一種語言模型,可以將自然語言指令轉換為與Web端瀏覽器交互的動作

關于商業化,一方面,科技巨頭有能力利用他們龐大的計算資源來訓練真正強大的模型。但另一方面,公共/開源模型也將變得非常流行/易于使用,所以我不確定擁有自己的模型對很多應用來說是一個很大的優勢。如前所述,基礎模型很可能會被商品化。因此,對于已經擁有設備/操作系統的大型科技公司來說,開發適合LLM的平臺,允許其他人使用基礎模型,并在上面建立新的應用,而不是直接與其競爭建立這些應用,這么做才是合理的。

最后,展望未來,我們可能會在未來5年內告別"從互聯網上獲取免費數據"的制度,它真正推動了最近基礎模型的進展。雖然定制數據總是需要用于特定領域的微調/校準,但用大規模的"免費"數據預訓練強大的模型無疑導致了GPT和類似模型的成功。看社區如何超越僅僅搜刮現有的數字數據來提高基礎模型的性能,這將是很有趣的。可以肯定的是,我們仍然會通過更好的訓練和對齊技術來改進模型,但大規模自我監督學習的下一個前沿是什么?下一個10萬億或100萬億的數據點從何而來?我很想知道。

Tags:GPTCHATCHAATGHGPT價格chat幣怎么廢了PikcioChainBABYCATGIRL

FIL
POLY:盤點近期ZK賽道重點融資項目:ZK-VM將如何構建Web3的未來_Spheroid Universe

作者:李科 去年以來ZK賽道受到了大家的廣泛關注,特別是采用ZK-EVM技術的Starknet、zkSync、PolygonEVM、Scroll等明星項目成為大家談論最多的話題.

1900/1/1 0:00:00
POLY:Polygon:PolygonScan目前節點已重新同步,系統已恢復正常_polygon幣最新消息

2月23日消息,針對今日凌晨區塊鏈瀏覽器PolygonScan長時間數據不更新,Polygon官方在推特上表示,大約凌晨4:26左右,一些節點失去同步,這會導致一些節點短時間內無法驗證塊的反應.

1900/1/1 0:00:00
VITA:Vitalik:關于 Crypto 用戶體驗的 5 個經驗教訓_RIN

撰文:vitalikbuterin 編譯:DeFi之道 2013年,我去了舊金山互聯網檔案館旁的一家壽司店,因為聽說那里接受比特幣支付,我就想去試試。到了付賬的時候,我要求用BTC付款.

1900/1/1 0:00:00
ETH:數據透析Blur交易大戰:地板價較Opensea低5% 高積分用戶當前預估營收為負_SEAL

Blur上出價平均偏離地板價0.72%,頭部項目出價多高于地板價,熱門項目相反。過去,較大的交易市場如OpenSea、LooksRare、X2Y2等交易市場主要采用的是類似訂單薄的模式,這使得流.

1900/1/1 0:00:00
BASE:Bankless創始人:為什么說Coinbase的新鏈Base是一個里程碑?_Neetcoin

原文作者:RyanAdams,Bankless創始人原文編譯:czgsws,BlockBeats2月23日,Coinbase宣布推出其以太坊Layer2網絡----Base的測試網.

1900/1/1 0:00:00
ATOR:以太坊上海升級前聊LSD和DVT_Senator Karen

在Vitalik的文章及Ethereum社區提出的一些Roadmap中,對于ETH2.0之后的規劃,都有提到一個核心觀點——中心化出塊、去中心化驗證.

1900/1/1 0:00:00
ads