ChatGPT檢索功能可能引發(fā)的法律風險及防控
文 | 重慶大學法學院 自正法 李曉梅
當?shù)貢r間10月31日,OpenAI宣布ChatGPT推出“檢索”功能。與谷歌、微軟等傳統(tǒng)搜索引擎相比,ChatGPT搜索采用人機交互對話方式,在分析用戶搜索目的基礎上,實時檢索在線資源信息,生成包含經(jīng)過算法模型分析的結(jié)論和來源鏈接,以此為用戶提供更加精確和簡潔的檢索結(jié)果。同時,隨著檢索量的疊加提高用戶檢索信息效率,實現(xiàn)動態(tài)、精確的問答。對話式人工智能技術的應用對現(xiàn)有的信息檢索方式而言,可能帶來一場深刻變革。但是,由于其算法模型的固有缺陷,隱藏的風險也不容小覷,自然語言交互、自動化提取、個性化推薦等特點使其在為用戶提供貼心服務的同時,也會帶來很多潛在風險。
ChatGPT檢索功能可能引發(fā)的法律風險
其一,自然語言交互帶來“信息侵權”風險。傳統(tǒng)檢索引擎呈現(xiàn)結(jié)論的方式為“網(wǎng)頁標題+少量開頭內(nèi)容”,用戶需要點擊鏈接跳轉(zhuǎn)至來源地址才能知道具體內(nèi)容。這種方式在很大程度上保護了原始平臺的點擊流量和版權權益。但是,ChatGPT搜索利用算法模型概括總結(jié)收集的信息,直接向用戶生成簡潔清晰的結(jié)論,這可能導致用戶大概率不會點擊原文鏈接進行深入閱讀。盡管OpenAI宣布與多家新聞媒體和出版商達成合作,但其生成結(jié)果還包括不阻止其搜索爬蟲所獲得的其他在線信息資源,這可能構成對被引用平臺和作者的信息侵權,從而引發(fā)版權爭議。由此可見,ChatGPT推出檢索功能,以現(xiàn)有方式進入搜索引擎領域,勢必會面臨更多侵權風險。甚至,ChatGPT推出的人工智能檢索可能會剝奪作者生存所需的數(shù)據(jù)訪問量和“眼球”。
其二,自動化提取帶來“信息泄露”風險。ChatGPT推出檢索功能后,引發(fā)了很多人對個人信息泄露的擔憂,用戶擔心檢索記錄會碎片化地反映出個人的隱私數(shù)據(jù),甚至產(chǎn)生精準識別風險。嚴格來講,ChatGPT算法模型的自動化提取是無法規(guī)避的程序,數(shù)據(jù)庫隱秘收集用戶的搜索記錄、喜好習慣、位置信息等在所難免,這成為算法模型升級和優(yōu)化的訓練基礎,因為它經(jīng)過訓練可以有效提高人機自然語言對話的精確度和可信度。一般情況下,搜索引擎運作時不是嚴格意義上的信息收集階段,這些碎片化信息也不具有可識別性,不會對個人隱私造成侵犯。但隨著算法結(jié)構的深度訓練和優(yōu)化,會形成一種整合碎片化的、去匿名化的“深度處理”效果,平臺在海量關聯(lián)性極小的搜索信息中提取關鍵要素,最終可能生成指向明確的可識別信息。換句話說,隨著個人信息碎片的不斷疊加,類似于“拼圖”游戲,個人的有效識別點會被不斷擴大,直至最終被識別,這將給個人隱私和安全造成極大隱患。
其三,個性化推薦帶來“信息繭房”風險。ChatGPT搜索采用的是自然語言對話方式,這種“問答”屬性的檢索機制,會根據(jù)檢索語境和目的自動提取用戶的喜好和習慣,納入后臺語料數(shù)據(jù)庫,并在獲得用戶反饋和追問后,對算法模式進行評估深化,這些都被存儲為平臺的“長期記憶”。之后,在使用過程中,平臺會根據(jù)“聊天習慣”進行個性化推薦,使用戶只關注自己感興趣和符合自己價值偏向的信息。這種“反饋式”設計從算法技術角度看,可以提供簡潔準確的結(jié)論,使其成為人類日常生活的得力助手。但是,過度迎合用戶的喜好,缺乏廣泛的信息覆蓋和選擇,勢必會引發(fā)“同質(zhì)化效應”和“回聲式效應”,使人們長期被困在“信息繭房”中。這使得本身存在價值判斷的數(shù)據(jù)信息會重復出現(xiàn),而其他信息被排除在搜索結(jié)果之外,從而影響用戶對信息的全面、客觀掌握。
ChatGPT檢索功能引發(fā)法律風險的防控
ChatGPT宣布推出檢索功能,既是一場變革,也是一場挑戰(zhàn),為應對其在數(shù)字時代信息檢索領域的潛在風險,需要采取系統(tǒng)性、針對性的防控措施。
其一,提示信息源鏈接,注意引用限度。平臺生成結(jié)論時應以醒目的方式提示信息原始地址鏈接,這可以在很大程度上避免用戶完全依賴搜索總結(jié)生成的結(jié)果,減輕信息侵權的主觀惡性。除此之外,還應當注意搜索結(jié)果對原始網(wǎng)頁信息的引用限度,綜合引用內(nèi)容深度、廣度等要素,重點關注引用內(nèi)容篇幅、是否引用核心觀點等問題,設計具體引用指標,在結(jié)論呈現(xiàn)時一并生成。對于引用指數(shù)過高的結(jié)論,在算法模型中添加攔截機制,以指示性語言方式呈現(xiàn),引導用戶通過點擊原始地址鏈接方式進行查詢。這種分層式呈現(xiàn)思路,可以在一定程度上避免對原始平臺和作者的信息侵權,形成良性市場秩序,保護其合法權益。
其二,明確告知義務,保護用戶隱私。目前,隱私信息的判斷以信息主體是否愿意公開為標準,信息主體不愿意被他人知曉的信息,即使已經(jīng)公開也屬于隱私范疇。同時,一些個人信息雖然無法識別單獨個體,但是大量個人信息的組合往往足以精確定位到私人主體,可識別性較強,未經(jīng)允許收集和使用這類信息也侵犯個人隱私權。因此,針對用戶隱私信息面臨的風險,檢索系統(tǒng)應當明確告知收集此類數(shù)據(jù)信息的范圍、目的、使用方式、必要性和可能產(chǎn)生的影響,應當征求用戶明確且獨立的允許。同時,采取必要的保護措施,為用戶提供嚴格、完備的隱私和個性化設置服務,賦權用戶隨時中斷數(shù)據(jù)關聯(lián)程序、隱藏相關檢索信息的權利。此外,要根據(jù)用戶需求不斷更新升級信息保護組件,以此更好地保護用戶隱私。
其三,提升算法透明度,賦能用戶“破繭”。ChatGPT推出的檢索功能與其他人工智能技術功能相似,在算法設計上都堅持高隱秘性,這種“算法黑箱”對信息收集和處理過程進行高度保密,用戶只能被動接受具有一定價值傾向的結(jié)論,最終被困于“信息繭房”中。因此,信息檢索系統(tǒng)應賦予用戶更多的知情權和決定權,提升算法透明度,采用多元化、包容性的數(shù)據(jù)檢索方式,減少數(shù)據(jù)信息單一化價值傾向帶來的負面影響。在向用戶呈現(xiàn)最終結(jié)論時,要盡可能呈現(xiàn)較為客觀、全面的信息目錄,按照一定標準進行關聯(lián)度排序,以供用戶自主選擇,增強用戶的可選擇權和結(jié)論的可信度。同時,應展現(xiàn)信息刪選和排序的依據(jù),并建立用戶反饋機制,通過賦能用戶實現(xiàn)算法模型的不斷調(diào)整和完善,減少算法偏見,提升軟件的開放性。
人工智能與檢索引擎的高度融合,是一場機遇與挑戰(zhàn)并存的革新。隨著ChatGPT宣布推出檢索功能,信息檢索領域日益呈現(xiàn)出智能化發(fā)展趨勢。在ChatGPT檢索功能中,人機交互對話式的設計,使得軟件可以根據(jù)用戶檢索語言的語境和目的,運用算法模型,滿足個性化需求,提供更加具體、精準的結(jié)論,且雙向反饋機制的設置,有利于持續(xù)優(yōu)化模型,當用戶對結(jié)論尚有疑問時,可以進行追問,提高檢索的動態(tài)適應性。但就現(xiàn)有技術來看,目前,ChatGPT推出的檢索功能的運行仍存在一些潛在風險,其在數(shù)字經(jīng)濟發(fā)展下對其他平臺和作者可能造成侵權隱患,影響正常市場競爭。比如,用戶在檢索過程中暴露的碎片化隱私信息,可能會給個人隱私安全帶來風險;個性化推薦的信息偏見,可能會影響檢索結(jié)果的客觀性和全面性。因此,需要綜合治理,協(xié)同應對,推動算法模型設計和檢索功能不斷升級,明確提示信息源,嚴格遵守合理使用限度;對用戶嚴格履行告知義務,保護其個人隱私安全;提升算法透明度,豐富檢索結(jié)果的呈現(xiàn)種類??偠灾q證看待ChatGPT推出的檢索功能,力爭在維護個人權益和推動技術發(fā)展的平衡中,實現(xiàn)協(xié)調(diào)發(fā)展和有效治理。
(來源:民主與法制時報)