《三體》中的降臨派、拯救派和幸存派分別代表著不同的觀念和立場。借用這三個概念,我們可以將對 AI 看法的人劃分為 AI 降臨派、AI 拯救派和 AI 幸存派。
AI 降臨派:
這一派的人認為 AI 的發展將為人類帶來巨大的好處,甚至取代人類成為地球的主導力量。他們相信 AI 可以解決人類的許多問題,如氣候變化、資源分配、疾病治療等。AI 降臨派的人通常對 AI 技術非常熱衷,支持無限制地發展和應用 AI 技術,期待 AI 在未來改變世界。
AI 拯救派:
這一派的人認為 AI 是人類發展的關鍵,但需要在一定范圍內受到監管和引導。他們認為,通過合理的政策制定和倫理道德約束,可以確保 AI 技術的安全和可持續發展。拯救派關注 AI 對社會和個人產生的影響,期望在維護人類利益的同時,讓 AI 成為人類的得力助手。
AI 幸存派:
這一派的人對 AI 技術持懷疑甚至擔憂的態度。他們認為 AI 技術的發展將可能導致一系列問題,如失業、隱私侵犯、安全威脅等。幸存派的人認為,人類應該小心應對 AI 技術的發展,尋求與 AI 和諧共生的方法。他們強調 AI 的潛在風險,提倡謹慎和審慎的態度來平衡 AI 技術的利弊。
這三派的劃分并沒有嚴格按照《三體》原著的定義(原著中降臨派要毀滅全人類,拯救派想要拯救三體人,幸存派要出賣人類利益為后代謀求茍活的空間),而是以人們對 AI 的接受程度以及欲施加的監管力度進行劃分。
比特幣未平倉合約持倉量創年度新高:金色財經報道,比特幣的未平倉合約(OI)代表尚未在特定時間關閉的衍生品合約,例如期貨和期權。據CoinGlass收集不同衍生品交易平臺上的OI,并將其匯總在一起,數據顯示,目前比特幣衍生品的未平倉合約總額已超過140億美元。比特幣OI最大的加密貨幣交易所是Binance,其份額遠低于50%(32%),但幾乎是CME的兩倍。CME(芝加哥商業交易所)僅占比特幣未平倉合約總量的18%。第三大是加密貨幣交易所Bybit,所占份額略小。值得注意的是,最近幾周比特幣的OI大幅上升。事實上,截至今年3月18日,這一數字一直在100億美元以上,但從6月16日開始大幅上升。然而,類似的事情在4月5日至14日之間已經發生過,但只增加到130億。要找到上一次超過140億美元的時間,需要追溯到2022年5月份,因此,目前的水平是2023年的最高水平。[2023/6/25 21:59:22]
降臨派(歡迎 AI 降臨)接受程度最高,拯救派(用 AI 造福人類)次之,幸存派(在 AI 時代幸存)最保守,以便于我們理解立場。
讓我們看看在這一周內,三派有哪些觀點碰撞。
降臨派
吳恩達:暫停 AI 開發不可行
本周,一封上千人簽署的公開信火遍了全網,一家名為未來生命研究所(Future of Life Institute)的機構呼吁全球應該至少暫停六個月開發比 GPT-4 更強大的模型,以讓有關的監管手段能夠跟上。
Do Kwon曾花費不足1美元在塞爾維亞成立一家公司:金色財經報道,據塞爾維亞商業登記處的文件,Terraform Labs 的聯合創始人Do Kwon在收到國際刑警組織的紅色通緝令幾周后,以不到1美元的價格在塞爾維亞成立了一家名為 \"Codokoj22 d.o.o. Beograd \"的公司,其主要業務活動被列為咨詢服務。(Cointelegraph)[2023/3/28 13:30:38]
人們在該信上看到了許多知名人士的簽名,包括圖靈獎得主 Yoshua Bengio、馬斯克、史蒂夫 · 沃茲尼亞克、Skype 聯合創始人、Pinterest 聯合創始人、Stability AI CEO 等人。
該信爆火后,人們發現部分知名人士的簽名實際上是網友冒簽的,所謂千人簽名的真實性存疑。
不管怎么說,這封公開信還是激起了人們關于是否要封禁 AI 研究的討論。
著名計算機科學家、Google Brain 的聯合創始人吳恩達在社交媒體上發表了他對這封信的看法。
他認為,讓有關部門暫停他們尚未了解的新興技術,往好了說是反競爭,往壞了說是開了一個糟糕的先例。
以下是他的觀點原文:
要求在 6 個月禁止開展比 GPT-4 更進一步的研究是一個可怕的想法。我看到許多新的應用在教育,醫療保健,食品……這將幫助許多人。繼續改進 GPT-4 會對這些領域有所幫助。我們要權衡 AI 創造的巨大價值和現實的風險。
馬斯克財富縮水2000億美元破吉尼斯世界紀錄:1月10日消息,據吉尼斯世界紀錄官網,推特及特斯拉首席執行官馬斯克已正式打破歷史上最大個人財產損失世界紀錄。福布斯估計,自2021年11月以來,馬斯克已經損失了大約1820億美元,盡管其他消息來源表明實際上可能接近2000億美元。而他的資產也從3200億美元降至1380億美元。雖然確切數字幾乎??無法確定,但馬斯克的總損失遠遠超過日本科技投資者孫正義在2000年創下的586億美元的紀錄。[2023/1/10 11:04:14]
除非有關部門介入,否則沒有切實可行的方法來實施暫停并阻止所有團隊擴大 LLM(大語言模型)。讓有關部門暫停他們不了解的新興技術是反競爭的,樹立了一個可怕的先例,是糟糕的創新政策。
負責任的人工智能很重要,而且人工智能有風險。目前主流的媒體報道稱,人工智能公司正在瘋狂地發送不安全的代碼,這種說法是不正確的。絕大多數人工智能團隊(遺憾的是,并非所有人工智能團隊)都認真對待人工智能和安全問題。
暫停 6 個月不是一個切實可行的建議。為了提高人工智能的安全性,有關透明度和審計的規定應該變得更加切實可行,產生更大的影響。讓我們在推進技術進步的同時,在安全方面作更多的投資,而不是扼殺進步。
Jim Fan:我們應該欣賞 GPT-4
針對大語言模型的安全性,英偉達 AI 科學家 Jim Fan 提出了一個有意思的觀點。
印度央行行長:央行數字貨幣對跨境支付十分重要:金色財經報道,印度央行行長沙克蒂坎塔·達斯表示:央行數字貨幣對跨境支付十分重要。[2022/11/12 12:55:38]
他認為按照 AI 的行為規范,那么大部份人類也是「不安全」的,許多大語言模型在安全性和公正性上已經表現地很好,我們不應該一味地批評它們。
按照 GPT 的「倫理與安全」指導方針,我們大多數人也表現得不理性、有偏見、不科學、不可靠,總的來說——「不安全」。事實上,我們對人工智能的要求更高。這是件好事,我完全支持做更多。但有些事不吐不快。
我指出這一點的原因是為了讓大家了解安全校準工作對于整個研究團體來說是多么困難。大多數的訓練數據本身就是有偏見的、有的、不安全的等等。實際上,創造一個安全的人工智能助手是違反人類數據分布的。
從某種意義上說,許多生產型 LLM(Claude,Cohere,GPT)在安全性和公正性方面都是「超人」,盡管它們并不完美。對我們來說,下意識地批評失敗案例比欣賞挑戰(和成就)更加容易。
拯救派
Sam Altman:確保 AGI 惠及全人類
生命研究所的公開信將 OpenAI 拉入了輿論的風暴之中,OpenAI 的 CEO Sam Altman 在 Twitter 上卻表示他依然很平靜,并提出了建立 AGI(通用人工智能)的三個要點。
Cosmos預發布鏈間安全性v0.1版本:8月12日消息,Cosmos宣布預發布鏈間安全性v0.1版本,將在未來幾個月與不同的Cosmos利益相關者合作進行廣泛的審計和測試,完成后將正式發布v1.0版本并部署至CosmosHub。此外,Cosmos還將在9月初啟動一個私有測試網,小部分CosmosHub驗證節點將參與,該測試網作為將在v1.0發布后開始的公共測試網的試運行。
本次預發布版本的功能包括使驗證器集consumer chain上保持同步、對驗證者停機和consumer chain上雙重簽名進行懲罰、允許consumer chain向Cosmos Hub發送可變百分比的費用和通膨代幣作為為安全性付費等。[2022/8/12 12:21:00]
我們需要為了 AGI 美好的未來而付出的努力
1、調整超級智能的技術能力
2、充分協調大多數主要 AGI 的工作
3、有效的全球監管框架,包括民主治理
此前,Sam Altman 在 Lex Fridman 的采訪播客曾表示自己會對 OpenAI 的技術感到害怕,他表示:
當人們認為這是一個巨大的飛躍時,我會說,我有點害怕,我覺得這很奇怪。
我認為一點都不害怕的話才是瘋狂的,我同情那些非常害怕的人。
Sam Altman 更關心的是「虛假信息問題或經濟沖擊」,而不是如何用算法制造「超級智能」。他認為有些公司并不會像 OpenAI 一樣設置如此嚴格的安全柵欄,并擔心因此導致 AI 失控造成不良的社會影響。
馬云:ChatGPT 只是 AI 時代的開始
馬云回國后來到云谷學校,聊到了 ChatGPT 對教育領域的影響。馬云表示,ChatGPT 這一類技術已經對教育帶來挑戰,但是 ChatGPT 這一類技術只是 AI 時代的開始。
我們要用人工智能去解決問題,而不是被人工智能所控制,雖然人的體力、腦力比不過機器,但機器只有「芯」,而人有「心」。工業時代是知識驅動,知識的競爭;數字時代,是智慧驅動,是創造力和想象力的競爭,是領導力、擔當力、責任的競爭,是獨立思考的競爭。
幸存派
Gary Marcus:什么都不做是不對的
紐約大學心理學和神經科學的榮譽退休教授 Gary Marcus(他同時還是 AI 暢銷書《Rebooting.AI》的作者)一直對 LLM 保持批評的態度。
當生命研究所的公開信發布后,Gary Marcus 可以說是該觀點最堅定的支持者。
面對該公開信受到的質疑,Gary Marcus 做出了一段很長的回應,以下是他的觀點原文:
很多針對 6 個月禁止培訓超大型 #LLM 的攻擊都沒有抓住要點。
這么多的利害關系,這里有一個 Twitter # long gread 整理出什么才是真正重要的:
很多對這封信的攻擊都集中在贊助人身上,而不是署名人。大多數簽名的人(如我,約書亞 · 本吉奧等)與 FLI 沒有任何關系。評判這封信應該看它寫了什么,而不是誰寫的。這里真正的新聞不是埃隆 · 馬斯克簽署了協議,而是這么多不是天生盟友的人(比如本吉奧和我,因 2019 年的激烈辯論而聞名)出于共同關心而走到了一起。
提出一個不同的選擇并沒有錯,而大多數批評這封信的人也沒給出一個恰當的解決辦法。
什么都不做是不好的。幾乎所有人,甚至包括 OpenAI 在內,都承認其存在嚴重的風險,但迄今為止,有關部門或行業都沒有采取什么切實措施來減輕這些風險。
并不是所有簽署了這封信的人都主要關心長期風險; 我們中的許多簽署了這封信的人至少同樣擔心短期風險。
這封信并沒有呼吁禁止人工智能。沒有要求永久禁止。它沒有呼吁禁止 GPT-4。它沒有呼吁禁止絕大多數人工智能研究,只是在一個非常具體的項目上短暫停頓了一下,該項目的技術已經「知道」存在風險,卻沒有已知的解決方案。實際上需要更多的研究。有人看過那封信嗎?
我個人沒有改變;我仍然認為 LLM 是不可靠的,仍然認為它們表達事實的能力非常糟糕。我不認為它們接近 AGI。但這并不意味著他們沒有撕裂我們社會結構的潛力ーー特別是考慮到當前的混合情況:難以置信的廣泛和快速部署、企業不負責任、缺乏監管以及一直存在的不可靠性。
Eliezer Yudkowsky:暫停還不夠,我們應該把 AI 永遠關閉!
Eliezer Yudkowsky 是著名的人工智能科學家和作家,同時也是機器智能研究所(MIRI)的聯合創始人,MIRI 致力于確保超人工智能對人類具有友善的價值觀。
未來生命研究所的公開信爆火之后,Eliezer Yudkowsky 在《時代(Time)》上發表了一篇名為《Pausing AI Developments Isn't Enough. We Need to Shut it All Down》文章。
在開頭提到他并沒有在上面簽名,因為這封信低估了形勢的嚴重性,提出的要求太少,無法解決問題。
文中提到了當人工智能變得比人類更聰明之后可能造成的危害,Eliezer Yudkowsky 提出了一個相當消極的觀點:
我們還沒準備好。我們沒有在任何合理的時間內做好準備。沒有計劃。人工智能能力的進步是巨大的,遠遠領先于人工智能排列的進步,甚至領先于理解這些系統內部到底發生了什么的進步。如果我們真的這么做(放任其發展),我們都會死的。
Eliezer Yudkowsky 在前不久接受 Lex Fridman 的采訪時再次警告,人類沒有第二次校準人工智能的機會,如果人類失敗,人類就將滅亡。
愛范兒
個人專欄
閱讀更多
金色財經 善歐巴
金色早8點
白話區塊鏈
歐科云鏈
Odaily星球日報
Arcane Labs
MarsBit
深潮TechFlow
BTCStudy
鏈得得
作者:西柚 來源:ChainCatcher原標題:以太坊上海升級,老牌 DeFi 應用如何切入 LSD 賽道分一杯羹? 以太坊質押或將催生千億規模的 LST.
1900/1/1 0:00:00【元宇宙導讀】據悉,交通銀行香港已經與多家在香港獲得牌照或正在申請牌照的加密貨幣公司建立了合作關系,為其提供了存款賬戶、結算服務、貸款服務等多項銀行服務.
1900/1/1 0:00:003 月下旬,英偉達在美國加州總部舉辦了面向軟件開發者的年度技術峰會 GTC。會上,創始人黃仁勛發布了專用于大語言模型部署的 GPU 推理平臺——H100 NVL,其或將在推理階段實現比現有最先進.
1900/1/1 0:00:004月14日獲悉,處置非法集資部際聯席會議辦公室(下稱“處非聯辦”)有關負責人近日指出,當前,非法集資風險總體可控、趨于收斂,但非法集資存量風險持續暴露,增量風險誘發因素增多.
1900/1/1 0:00:00原文作者:Cookie,律動 BlockBeats不久前的 3 月 29 日,Gem 宣布新通過了 50000 份 Gem V2 測試申請.
1900/1/1 0:00:00撰寫:Emperor Osmo編譯:深潮 TechFlow以太坊二層解決方案已經有了許多不同的選擇,而 Arbitrum 和 Optimism 被認為是市場上最具競爭力的兩個參與者.
1900/1/1 0:00:00