2023年 第10期 總第733期往期專題

熱度“狂飆”的ChatGPT,又有哪些潛在的法律風險呢?

ChatGPT是近期熱門話題之一,作為一款人工智能語言模型,它不僅能和人展開互動,還可以寫文章、制定方案,甚至編寫代碼,上線僅兩個月全球活躍用戶破億,但其背后暗藏的法律風險及如何將這類人工智能軟件用到實處等問題也引發各界熱議。

ChatGPT來襲,能為我們做些什么?

  ChatGPT是美國人工智能研究實驗室OpenAI開發的一種全新聊天機器人模型,它能夠通過學習和理解人類的語言來進行對話,還能根據聊天的上下文進行互動,并協助人類完成一系列任務。這款AI語言模型,讓撰寫郵件、論文、腳本,制定商業提案,創作詩歌、故事,甚至敲代碼、檢查程序錯誤都變得易如反掌。不少和ChatGPT“聊過天”的網友紛紛感嘆,“只有你想不到,沒有ChatGPT辦不成的”。和ChatGPT聊天,可以直奔主題、開門見山,也能由淺入深、由表及里。當被問到一些嚴肅性話題和解決方案,ChatGPT的回答邏輯合理、用詞到位,雖然沒有提出老生常談之外的觀點,但清晰直觀且迅速的表達方式、反應過程令人拍案叫絕。
 
  目前文本生成是ChatGPT最廣泛應用的一個領域。用戶只需要先輸入一段前文,ChatGPT就會根據前文中存在的語言模式和規則,生成一個后文,還可以根據前文中的上下文信息和語言模式來自動判斷后文的語言形式和風格,因此可以被用來生成包括而不限于新聞報道、小說、詩歌、廣告文案等各類文章。ChatGPT在文本分類領域也有著廣泛的應用,主要是體現在對文本進行分類分析后得出具有價值的判斷上,例如新聞分類、情感分析等。在分析領域其表現非常良好,不僅可以依據現有的數據作出較為準確的判斷,在情感分析方面還可以自動識別用戶對某個話題的態度。由于ChatGPT可以理解自然語言,快速提供準確的答案并能夠進行對話。在一切涉及問答的領域ChatGPT也非常有發言權,例如智能客服、智能助理、游戲NPC對話等等。ChatGPT的專長就是處理語言和文本,這使得它在機器翻譯領域具有得天獨厚的優勢也有著廣泛的商業應用,ChatGPT可以進行多語言翻譯,在使用人數最多、用途最廣的幾個語言,例如英文、中文、法文、德文、日語等方面精度非常高,是非常好用、高效的翻譯工具。另外,它還可以自動識別語言進行對話,總的來說邏輯清晰語句通順流暢。
 
  上線僅僅兩個月,ChatGPT的活躍用戶就突破一億。
 
 ?。▉碓矗何⑿殴娞栍芰挚破眨?/div>

便利之余,ChatGPT有可能存在哪些法律風險

 ?。ㄒ唬?涉及隱私和數據保護的風險
 
  ChatGPT模型需要大量的數據進行訓練,這些數據可能包含用戶的個人信息,如姓名、地址、電子郵件等。如果這些數據不受到充分的保護,可能會導致用戶的隱私受到侵犯。此外,如果ChatGPT模型用于處理敏感數據,例如醫療或金融領域的數據(例如目前某巢醫學就已經將其用于臨床決策的輔助工作了),那么必須確保數據受到充分的保護,以避免可能的違法行為。
 
  律師提示:如果ChatGPT可能需要訪問用戶的個人信息,如姓名、醫療隱私、賬戶數據、個人地址、行蹤軌跡等,那么企業務必注重數據合規的建設,如果該企業沒有采取適當的措施來保護這些信息,例如使用加密和安全傳輸協議,就可能會導致用戶的隱私受到侵犯,從而引發民事糾紛風險、甚至產生行政處罰、刑事等風險。
 
 ?。ǘ?涉及版權和知識產權的風險
 
  與AI繪畫一樣,ChatGPT的訓練數據中可能包含受版權和知識產權保護的內容,例如新聞文章、小說和電影劇本等。如果ChatGPT模型在生成的文本中包含了這些受保護的內容,可能會侵犯版權和知識產權,從而引發相關的法律糾紛。
 
  律師提示:如果一個公司使用ChatGPT模型生成一篇新聞報道,而這篇報道的內容與一家新聞機構的報道非常相似,甚至是幾乎相同的,那么可能會侵犯后者的著作權,從而引發侵權訴訟。另外,深圳南山法院曾經有過判例,某鵝廠利用AI工具生成的文章被不當轉載引發侵權訴訟,法院肯定了AI作品的可版權性并認定轉載行為構成侵權。
 
 ?。ㄈ?算法歧視的風險
 
  ChatGPT的算法中可能包含了偏見和歧視的內容,例如種族、性別和宗教等方面的偏見(目前已經有不少實例)。如果ChatGPT模型在生成的文本中包含這些偏見和歧視,可能會引發糾紛(例如人格權、名譽權等糾紛)。
 
  律師提示:如果一個ChatGPT聊天機器人在與用戶交互時,使用了存在種族、性別、長相、宗教等方面的,具有偏見和歧視性的表達,導致用戶受到心靈創傷、不公平待遇或其他損失,那么用戶可能會對企業提起相關訴訟。當然,目前尚未出現相關實例,我們還需要時間進一步觀察算法歧視在人工智能治理領域的進展.
 
 ?。ㄋ模?不良引導的風險
 
  ChatGPT雖然足夠智能好用,但它不能像人類一樣思考和判斷,這就意味著在某些情況下,其生成的文本可能會包含錯誤、誤導性或其他有害的信息。
 
  律師提示:如果一個ChatGPT聊天機器人在與用戶交互時生成了一條有害的信息,例如介紹如何自殺或教唆犯罪等,且這條信息還真的導致了實際的傷害或損失發生,那么使用GPT的企業往小了說可能需要承擔民事侵權,往大了說承擔刑事責任也有可能。因此,我們在此提示企業用戶,慎重對待ChatGPT的商業化應用,提前做好測試和相關合規工作并留痕。對于普通用戶來說,需要明辨是非,切勿過于相信機器人的回答。
 
 ?。▉碓矗何⑿殴娞栃わSlawyer)

專家建議:立法促進人工智能快速健康發展

  2月16日,由中國法學會立法學研究會、中國人民大學法學院主辦,北大法寶協辦的新時代立法理論與實踐系列講座以ChatGPT對法律人工智能研發和立法的影響為主題,開展研討。會議全程進行了網上直播并開放會后回放。
 
  中國人民大學法學院院長黃文藝在研討會上指出,新時代立法理論與實踐系列講座的顯著特色是跨界協同、跨界融合,體現在立法理論界和實務界的協同融合、法學界和法律數據平臺企業的協同融合、法律界與科技界的協同融合、校企協同協作等多方面。搭建跨界學術交流平臺能夠推動中國自主的法學知識體系建構,具有重大意義。
 
  北京大學法學院教授、中國法學會經濟法學會會長張守文指出,近期關于ChatGPT的思考,涉及從技術到產業、從哲學到倫理、從社會到法律等多個不同維度。國內法學界對于人工智能已經有了大量研究,人工智能在立法乃至整體法治體系各環節的研究過程中能夠發揮什么作用,以ChatGPT的突破為契機,必將引發新一輪研究熱潮。
 
  隨著ChatGPT等人工智能的發展,未來有可能由此帶來一系列法律問題,中國法學會立法學研究會顧問、天津市人大法制委原主任委員高紹林建議考慮通過國家立法來對其進行規制。
 
  人工智能應用仍存局限性
 
  “ChatGPT是通用人工智能的有益嘗試,具有里程碑意義。”北京大學王選計算機研究所研究員趙東巖指出,ChatGPT實際上是一種大規模預訓練語言模型,與此前一些基于對話的語言模型相比,ChatGPT在對話能力、知識問答能力、文本生成能力上有顯著提升。在趙東巖看來,雖然以ChatGPT為代表的人工智能看似擁有強大的問答能力,但此類技術的研發并非是為了對人進行替代,而是作為人類的輔助幫手,因為它在很多方面還具有局限性,這也是人們在和它互動時需要特別注意的。這類人工智能雖然擁有海量數據,但得出的答案卻缺乏可解釋性,數據來源無法進行事實核查。
 
  趙東巖注意到一個例子,中國工程院院士袁亮是我國著名采礦工程及煤礦瓦斯防治專家,但有網友通過ChatGPT得到的詳細介紹中,卻稱袁亮院士從事的是電子和半導體領域研究。“不熟悉袁亮院士的人很容易被這種頭頭是道的回答所迷惑,導致對事實出現偏差。”趙東巖提醒,ChatGPT的線上數據庫包含大量互聯網用戶自行輸入的信息,并不能保證其真實性,甚至有可能被人用錯誤內容惡意利用,對此應當予以警惕。在趙東巖看來,人工智能應用對于需要有專業知識的行業,需要做嚴謹解釋驗證的行業,還是存在很大的局限性。比如,律師在實際工作中,需要對大量信息消化后加以綜合,并撰寫法律意見,這些顯然是人工智能所不具備的。從目前發展來看,其未來有可能應用的領域可能會集中在搜索引擎和寫作助手方面。
 
  需關注相關數據保護問題
 
  只需簡單發問,就能幫你寫出一篇既有新意,又富真情實感的情書;只要幾個關鍵詞,就能替你創作出一篇邏輯嚴謹的小作文……作為ChatGPT的“招牌”之一,如此快速高效的內容創作能力讓不少網友對人工智能生成內容的著作權問題產生了疑惑。著作權法第二條規定,中國公民、法人或者非法人組織的作品,不論是否發表,依照本法享有著作權。對此,《法治日報》律師專家庫成員、康達律師事務所高級合伙人楊榮寬認為,在當前法律框架和司法實踐中,人工智能只是人的一種工具,不能成為作者,不能成為著作權主體。但如果類似ChatGPT這類人工智能生成的詩歌散文等具有一定的獨創性,能以某種外在形式表現,則可以認定為作品,受到著作權法保護。
 
  當前針對人工智能生成的作品是否能夠構成作品,學界仍然存在爭議,而人工智能在生成文字過程中,可能會對一些受著作權保護的文本、代碼等進行“借鑒”,也極有可能涉及侵犯知識產權或數據剽竊等問題。在中國人民大學法學院教授丁曉東看來,隨著人工智能的不斷發展,未來一個需要重視的問題是類似ChatGPT這樣的人工智能產生的數據是否受到保護,如果采取加工數據受保護的政策,那么其產生的數據不管能否被認定構成作品,均會受到保護。如果擴充知識產權的公有領域,更多強調數據的互聯互通,數據共享,那么未來人工智能生成數據侵權的風險將降低,但相應也會導致其自身產生的數據受保護力度降低。
 
  2022年12月19日,中共中央 國務院印發《關于構建數據基礎制度更好發揮數據要素作用的意見》(以下簡稱“數據二十條”)。丁曉東認為,在“數據二十條”出臺背景之下,人工智能產生數據應如何保護,是個關鍵性問題。
 
  應推進人工智能立法
 
  人工智能雖然不能完全替代人類工作,卻能為人類工作提供有力支持。高紹林舉例稱,比如法治調研就可以利用人工智能支持,因為有關立法規劃計劃的意見來源復雜,種類繁多,質量參差不齊,人工智能可以輔助進行搜集、整理、篩選。在高紹林看來,隨著ChatGPT等類似應用越來越火熱,未來一系列因為生成式人工智能引發的社會問題也將爆炸式增長,由此帶來一系列法律問題,迫切需要通過立法來進行規制。
 
  2022年10月,美國白宮發布了《人工智能權利法案藍圖》,旨在指導自動化系統的設計、使用和部署,保護美國公眾個人數據不被人工智能算法濫用。2022年12月6日,歐盟理事會就歐盟委員會起草的《歐盟人工智能法案》達成一致意見,該法案管轄的人工智能系統包括各種機器學習,基于邏輯和基于知識的工具,包括推理、演繹引擎、專家系統、知識表示等。“歐美人工智能法案的出臺,也將影響我國人工智能及其技術的跨境研發應用,需要加強國內立法來予以應對。”高紹林指出,從我國現行法律基礎來看,民法典、網絡安全法、數據安全法、個人信息保護法等都涉及數據、信息和人工智能問題。此外,當前我國有關數據要素、人工智能的地方立法也有很多,為系統研究國家層面人工智能立法奠定了基礎。
 
  2016年,貴州省制定《貴州省大數據發展應用促進條例》,成為中國首部大數據地方性法規,將大數據發展納入法治軌道。此后,全國各地相繼出臺數據方面地方性法規30余部、政府規章46部。這些地方性法規有的全面規范數據要素市場,比如《深圳經濟特區數據條例》和《上海市數據條例》;有的主要規范政府機關等公共數據管理,比如《浙江省公共數據條例》;還有的是為了促進大數據應用,比如《天津市促進大數據發展應用條例》。高紹林建議,應抓緊啟動人工智能立法專項研究,統籌規劃有關人工智能的法律、行政法規、部門規章、技術標準等,加快推進人工智能立法。ChatGPT的成功不僅得益于算法優、算力強,同時還得益于數據參數大。大數據相當于人工智能學習的空氣、水和食物,沒有數據,人工智能發展無從談起。因此,高紹林認為,在研究人工智能立法的同時,可以優先研究啟動數據要素立法。
 
  當前,針對數據要素,我國出臺了數據安全法、個人信息保護法、政府信息公開條例等法律規范,但由于數據權屬、數據價值、數據交易規則等數據要素的基礎性法律制度還沒有建立起來,也制約著數據要素市場發展和人工智能發展。高紹林建議從國家層面抓緊啟動數據要素立法研究工作,建立起基礎性制度,促進數據的開放共享和數據要素在全國范圍內合理流動,為國家人工智能技術發展奠定大數據基礎。“以ChatGPT為代表的人工智能的出現對傳統法律體系、法律規范形成了一定沖擊,對人工智能立法規制既要積極又要慎重,既要嚴格規范又要適度寬容。”高紹林指出,人工智能立法要在堅持發展的基礎上堅守安全底線,妥善處理好發展、安全和保護個人信息三者之間的關系,要堅持三者的有機統一,構建促進和保證人工智能快速健康發展的法律規范體系。
 
 ?。ǚㄖ稳請笕舜笠暣埃?/div>

結束語

人工智能正在迅速發展,該領域的未來發展有可能改變目前對人工智能和著作權的看法??茖W界必須繼續密切監測和評估人工智能的能力,并為人工智能在科學研究和出版中的使用制定明確的指導方針和標準。

責任編輯
郭晴晴

愛法律,有未來

關注我們
国产成人午夜福利高清在线观看