王融?騰訊研究院首席數據法律專家
本期觀點摘要:
1.ChatGPT等AI應用服務商直接面向個人提供服務,收集并處理個人信息,可被視為個人信息保護合規主體——數據控制者。
2.與移動互聯網APP的典型場景相比,生成式AI服務商的個人信息處理活動有其自身特征,數據合規重點也有所不同。
3.根據GDPR,歐盟數據保護機構是監管機構,而非市場準入機構,其職責主要在指導督促企業滿足數據合規要求。
4.未來真正的挑戰來自于AI賦能的各類應用服務,解決新的數據安全問題需要新思維。
C端AI應用服務商是
數據控制者
并非所有的市場主體都是數據合規框架下的義務主體,需要根據技術原理、業務場景和法律規范來進一步確定。當主體身份重合時,也需基于不同業務流程匹配合規義務。基于此分析框架,我們在上一篇文章里詳細論證了大模型研發者,在模型研發階段有可能并不認定為隱私數據合規上的法律主體。
基于同樣的分析框架,我們認為面向C端個人用戶提供生成式AI服務的運營者可被認定為隱私數據合規上的數據控制者。例如,當OpenAI在2022年11年面向公眾發布ChatGPT應用服務,并在2個月內突破1億用戶,成為歷史上增長最快的消費者應用時,作為數據控制者的身份已確定無疑。
Meta將組建頂級AI團隊,擬開發自家ChatGPT:金色財經報道,Meta公司首席執行官馬克·扎克伯格宣布,Meta將會組建一個頂級產品開發集團,專門關注內容生成式AI技術。扎克伯格表示,Meta公司內部原來有很多研究生成式AI技術的團隊,現在管理層開始把這些技術團隊整合在一起,組建一個新的產品集團,目的是圍繞這項技術開發出精彩的產品體驗。
扎克伯格表示,Meta的長遠目標是開發AI機器人,可以通過各種方式給消費者提供幫助,但是在目前的階段,Meta正在開發有關文字(即有關旗下兩大移動聊天工具WhatsApp和Messenger)、圖片(比如Instagram中創意性特效和廣告產品)、視頻以及混合多模式的產品體驗。(彭博社)[2023/2/28 12:33:44]
事實也如此。從國外實踐看,目前已面向個人的AI應用服務商,在數據合規部分已完整配置隱私政策和用戶協議,以充分告知用戶收集了哪些類型的數據,以及如何處理數據。OpenAI在隱私政策中列舉了收集類型;包括賬戶信息、通信內容、使用記錄等;數據處理的目的包括但不限于:提供、改進服務,預防欺詐,網絡信息安全、履行法定義務所需等。類似的,面向公眾的圖片生成AI服務商Midjourney也提供了清晰明了的隱私政策。國內目前雖然沒有正式上線的產品,但已有部分廠商在測試版本中嵌入隱私政策。
這也就不難解釋為什么數據保護機構DPA是第一批入場的監管機構。3月31日,意大利數據監管機構Garante宣布暫時禁止ChatGPT,并要求OpenAI在20天內相關問題作出回應。這是數據監管機構DPA對一項新興應用的正常反映,但被誤讀為DPA可以對特定業務采取永久性措施。相反,根據歐盟GDPR,DPA雖然有天價處罰權,但其職權被嚴格限制在矯正性權力范圍內,包括建議,警告以及暫時性的或者具有明確期限的禁令。換言之,只要服務提供者滿足數據合規要求,則DPA不得對其采取市場禁入措施。在其臨時禁止令受到廣泛批評后,4月12日,Garante釋放信號:“如果OpenAI采取有效措施,我們準備在4月30日重新開放ChatGPT”。
THORChain:金庫的 TERRA 地址已提供給 TFL,資金將稍后在 LUNA、UST 池按比例份額分配:金色財經消息,去中心化跨鏈交易協議 THORChain 發布“TERRA 流動性提供者更新”,稱 THORChain 金庫的 TERRA 地址已提供給 Terraform Labs(TFL)(攻擊前和攻擊后快照的所有地址都包括在內),新空投指定給 THORChain 流動性提供者,并將在稍后的日期在 LUNA、UST 池按比例份額分配。這將是一個半手動的過程,請繼續關注細節。最新信息將在 Discord 的 terra-status 中發布。[2022/5/30 3:50:16]
生成式AI服務商
數據合規的獨特性
與移動互聯網相比,面向個人的生成式AI應用在數據合規上有很多相似之處,包括制定隱私政策、業務協議,明確處理用戶數據的合法性基礎,通過隱私保護設計在信息系統中支持用戶圍繞其賬戶信息和使用服務過程中產生的個人信息的相關權利,包括查詢、訪問、更正、刪除等。但一方面,我們更加關注其在個人信息處理活動中的獨特性:
第一、收集的個人信息種類相對較少。導航軟件、打車、購物等典型的移動APP為實現對用戶個性化服務的閉環,需要實時收集用戶較多類型的個人信息;而目前的生成式AI應用,以OpenAI和Midjourney為例,從其底層邏輯出發,其更加關注生成內容的質量,在應用服務階段收集個人信息主要是建立用戶賬戶體系,接受用戶指令并與之交互,因此收集的個人信息相對較少,包括賬戶信息、使用記錄,如果涉及購買服務等交易,則還包括支付信息。因此,Midjourney更是以表格的形式,明確列出了不收集的用戶信息種類:包括用戶敏感信息,生物識別信息、地理位置信息等等。這些信息對于生成式AI應用確實也無關緊要。
印度中央稅務局(CBDT)主席Sushil Chandra表示從比特幣賺取的收益適用于稅收:印度中央稅務局(CBDT)主席Sushil Chandra周二表示,從比特幣賺取的收益適用于稅收。在接受采訪時說:“那些從比特幣中賺錢的人將不得不交稅,他們的收入來源也會被問到,如果他們不交稅,就會對他們采取行動。”近日,印度財政部長表示,政府并不認為加密貨幣是法定貨幣,會對加密貨幣被用于非法活動采取措施。[2018/2/7]
第二、在更早階段以及更廣泛地采取個人信息去標識化以及匿名化措施。在提供服務過程中,生成式AI主要圍繞用戶賬號體系及通信內容構建數據安全防護體系。以ChatGPT為例,盡管在模型訓練階段,其采集的數據源中的用戶個人信息較少,但在應用服務階段,問答式的會話功能會產生較為敏感的通信內容,模型根據與用戶通信內容進一步分析并生成回復。為降低用戶通信內容泄露后產生的風險,生成式AI會在更早階段采取用戶身份信息去標識化及匿名技術,或者將用戶身份信息與通信內容相互分離,或者在模型生成回復內容后及時刪除通信內容等安全類措施。這也是由生成式AI更關注反饋內容,而非用戶行為的邏輯所決定,這與建立在用戶行為特征基礎上,以個性化推薦見長的移動APP有顯著差異。
第三、由以上兩方面影響,生成式AI與移動APP在數據安全的風險領域有所不同。移動互聯網APP需要直接收集大量個人信息,用戶數據庫易成為黑客攻擊和數據泄露的目標。然而,在生成式AI應用中,雖然其直接收集的用戶信息種類少,但其風險集中在模型被攻擊從而反向溯源數據庫,以及用戶通信內容泄露的隱患。意大利數據監管機構對OpenAI發出暫時禁令,即是由于用戶通信內容因出現服務bug而泄露的事故。為減輕風險,在技術上已經明顯具備先發優勢的OpenAI,開始探索支持用戶可以選擇將個人刪除通信記錄。4月23日,OpenAI推出新控件,允許ChatGPT用戶可以選擇關閉其聊天歷史記錄,且可以不用于模型訓練目的。
VeChain與DNV GL達成合作:VeChain官方發布推特,與DNV GL達成合作。DNV GL是全球最大的船級社,為13175艘船舶和移動式海上作業單(MOU)提供服務。[2018/1/25]
第四、在輸出階段,如果用戶引導的問題涉及個人信息時,基于大模型的語言預測生成的算法邏輯,輸出結果中的個人信息有可能是編造的,虛假的,這可能違反了個人信息保護法上的信息質量原則,即保持個人信息準確性要求。但這類問題的背后實質是生成式AI在內容治理中面臨的一般性問題,即AI進入“幻想”,編造不準確甚至是虛假的信息。
OpenAI在研發階段,即致力于改善和解決此類問題,包括引入人類專家意見反饋機制和強化學習,引導AI輸出準確內容。目前,部分生成類AI還加入了輸入+輸出雙重過濾機制,來進一步避免出現有害內容或侵權問題。盡管大語言模型的進步速度令人瞠目結舌,僅用了4個月,ChatGPT4相比于GPT3.5,其輸出信息的準確率就大幅提升了40%,違反內容政策的輸出可能性降低82%,但目前仍不能保證其生成內容具有可靠的準確性。因此作為用戶也應當對ChatGPT的回答保持一定警惕和判斷力,避免被誤導。
綜上,看待生成式AI的數據合規問題,需要從移動互聯網服務中的數據合規慣性中跳脫出來,圍繞其在隱私和數據安全方面的不同特點,有的放矢采取相應的合規和安全保護措施。
FUTchain燃料鏈利用智能合約 數字化管理和分配實體燃料:FUTchain燃料鏈是實體燃料數字化管理分配解決方案。中平德能源科技通過城市污水,垃圾滲濾液,工業污水等廢料,通過添加特殊培育的微生物發酵制成HTF高效能源燃料。同時將區塊鏈技術和實體資產有機結合,利用智能合約等互信機制用于實體燃料的數字化管理和分配,推出燃料鏈FUT。[2017/12/27]
面向未來的挑戰:
前所未有的數據匯聚
基于大語言模型的生成式AI為世人所矚目,不在內容生成,而在其所具有的通用人工智能潛力,業界驚呼:AGI的奇點時刻正在到來。未來,除了面向普通大眾的內容生成式AI應用外,業界普遍認為AI也將改寫互聯網范式。現有商業模式將廣泛引入AI智能模型,大幅提升用戶交互效率。這不是將來時,而是進行時。2023年3月17日,微軟發布Microsoft365Copilot,將大語言模型功能與微軟辦公應用相結合,幫助用戶解鎖生產力。
Copilot將會被內置到辦公全家桶內,在Word、Excel、PowerPoint中,AI將與個人通過便捷的語言交互,一起撰寫文檔,演示文稿,實現數據可視化;在Outlook,Teams,BusinessChat中,AI能夠幫助用戶回復郵件,管理郵箱,實時完成會議摘要和待辦事項,提高會議效率。
辦公效率的飛越提升,不僅建立在強大的AI模型能力基礎之上,更建立在廣泛的數據打通鏈接基礎之上,使用Copilot意味著用戶將授權微軟打通跨越各業務平臺的個人數據。正如微軟隱私政策所陳述,為實現業務提供,改進和開發產品等目的,微軟會從不同的業務環境中收集的數據進行合并。
這只是未來超級數字助理的雛形,在智能基礎設施的支持之下,每個人甚至可以擁有多個數字分身,協同完成任務。可以想見,數字助理的背后是大語言模型訪問、鏈接個人以及商業企業的私有數據,數據的融合利用一定是無縫絲滑的。此類數據的訪問處理如何以安全、合規、保護隱私的方式進行,對安全技術保障措施提出了更高要求。
圖:MicrosoftGraph是Microsoft365中數據和智能的網關。它提供了統一的可編程性模型,以安全便捷地跨業務平臺訪問數據。
同時,我們也迫切需要審視現有的隱私保護與合規機制。在當前移動互聯網個人信息保護實踐中,對于必要性原則解釋是非常嚴苛的,以最大程度的避免數據收集與匯聚。例如:《常見類型移動互聯網應用程序必要個人信息范圍規定》不僅針對每類應用區分了基本功能和附加功能,還針對基本功能收集的必要信息進行了明確。在大部分基本功能中僅能收集兩三類個人信息,例如定位和導航功能僅能收集位置信息、出發地、到達地三種信息;《App違法違規收集使用個人信息行為認定方法》中更是明確:不得僅以改善服務質量、研發新產品等理由收集個人信息。這種基于“嚴防死守”的數據合規思路在未來的AI應用場景中是否還能繼續走下去,是一個值得探討的問題。
從移動互聯網到我們正在步入的AI時代,雖然數據利用一直在向更廣更深的方向發展,但各類新技術應用仍將隱私保護作為價值對齊的重要方面。隱私和數據安全的真諦從來也不是對數據的使用進行各種限制,或者人為增加數據利用門檻,而在于通過激烈的市場競爭、健全的法律機制和更加強大的技術安全措施來切實保障用戶隱私與數據安全。
參考資料來源:
https://openai.com/policies/privacy-policy
https://docs.midjourney.com/docs?/privacy-policy
https://www.gpdp.it/web/guest/home/docweb/-/docweb-display/docweb/9870832
GDPR?Article58&Article83
https://www.reuters.com/technology/italys-data-watchdog-chatgpt-can-resume-april-30-if-openai-takes-useful-steps-2023-04-18/
https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt
https://openai.com/product/gpt-4
https://news.microsoft.com/zh-cn/microsoft-365-copilot/
https://privacy.microsoft.com/zh-cn/privacystatement
大家期待的反彈要退后至明年第一季度。當然,不要把預期建立在政策轉向上,預期應建立在技術的創新上。我們可以預期的唯一一點在于,加息的全球溢出效應正在反噬那些脆弱的法幣單位.
1900/1/1 0:00:00Nayms是一家保險科技公司,傳統保險業不透明、緩慢且效率低的下,新項目?Nayms?通過引入區塊鏈技術,讓保險行業變得透明和高效,同時將風險定價和保險業務管理提升到了一個新的水平.
1900/1/1 0:00:00區塊鏈通過數十個為全球數百萬用戶提供服務的開放和無需許可的網絡,為互聯網提供了一種完全透明的方法.
1900/1/1 0:00:00來源:新智元 開源先鋒StabilityAI一天扔了兩枚重磅炸彈:發布史上首個開源RLHF大語言模型,以及像素級圖像模型DeepFloydIF.
1900/1/1 0:00:00概述 在上一篇文章中,我們提出了一個構建鏈上游戲的框架——ActionRegistryCore。在深入探討ARC的復雜性之前,我們有必要先退一步,探討一下構建鏈上游戲的初衷.
1900/1/1 0:00:00作者:中國銀行軟件中心?鄧偉財隨著科技發展的突飛猛進,尤其是金融科技發展水平的不斷提升,金融科技的綜合應用程度成為衡量商業銀行競爭力和軟實力的重要組成部分.
1900/1/1 0:00:00