企業如何做好知識產權合規?需重點關注專利權屬糾紛、商業秘密問題

21世紀經濟報導 記者鍾雨欣 北京報導

“合規法治建設是保障企業高質量創新,實現可持續發展、增強抗風險能力的關鍵基礎,更是將全面依法治國深入踐行於企業創新發展全週期的生動實踐。”南開大學法學院副院長、南開大學競爭法研究中心主任陳兵教授在南開大學首屆企業合規法治論壇“新發展格局下企業創新發展合規法治保障研討會”上表示。來自高校、司法、執法、企業等多領域、多學科專家齊聚研討會,共話構建新發展格局和全國統一大市場背景下的企業創新發展合規法治保障新路徑。

談知識產權合規:有利於提升企業核心競爭力

會上,天津大學法學院教授俞風雷以“知識產權合規問題前瞻”為主題,從知識產權法的修訂情況、知識產權合規的司法政策、知識產權合規審查等三個方面進行分享。針對知識產權法的修訂,俞風雷指出,當前我國知識產權案件數量激增、知識產權專門法院和知識產權法庭相繼設立、中美談判的內容也大多與知識產權息息相關。《商標法》《反不正當競爭法》的修訂,知識產權合規新政策的不斷推出,在知識產權合規方面,特別是企業等知識產權合規具有獨特價值,不僅有利於避免在國際國內產生不利的後果,還能促進知識產權的再創新,提升企業核心的競爭力。

結合知識產權合規的司法政策,俞風雷提出了知識產權合規性審查的五個重要方向,一是在先權利人的投訴可能引發負面輿情;二是假冒商標、專利案件處罰對於電商平台營商環境的損害;三是因知識產權披露而影響專精特新企業上市進程的問題;四是知識產權糾紛的訴前禁令問題;五是知識產權涉及的網絡安全和商業秘密問題。

他建議,企業開展合規工作,一方面需要注意對內的合規性管理,例如專利權屬糾紛、商業秘密問題,另一方面則是需要充分關注對外的知識產權糾紛。“企業知識產權的合規具有獨特的價值,除了保證企業法人在不確定情況下能夠保住核心資產、避免不利後果,同時還能夠通過知識產權的運用促進企業提升創新能力。”

在與談環節,天津知識產權保護中心副主任、高級工程師龍悅介紹了天津知識產權保護中心的三項職能:一是快速預審,主要針對專利審查週期長的問題,通過開設綠色通道,全流程加快專利授權;二是快速維權,主要負責協助行政執法、專利侵權諮詢,知識產權糾紛調解,加強知識產權保護協作;三是綜合運用,主要開展專利導航和知識產權運營工作。 

龍悅指出,天津市知識產權保護中心在服務過程中發現一些企業存在知識產權管理方面的問題,包括合規問題。對此,倡導企業貫徹《企業知識產權管理規範》,對企業在研發、生產、銷售等階段的知識產權風險進行控製。此外,國家知識產權局還起草製定了《高等學校知識產權管理規範》《科研組織知識產權管理規範》等,以促進知識產權管理合法合規,提升管理水平。數字領域知識產權管理的合規問題同樣值得關注,如數字版權等。

談ChatGPT類應用數據合規:打破算法黑箱 完善問責機制

去年以來,ChatGPT類應用一次次點燃社會關注。AIGC(人工智能生成內容)在帶來生產力變革的同時,也暗藏諸多風險。遼寧大學法學院副院長李岩教授從數據獲取、數據生成內容、數據泄露和數據管理等方面探討ChatGPT類應用的數據合規邊界問題。

首先,在數據獲取方面,李岩指出,ChatGPT的順利運行依靠挖掘千萬級的數據從而生成語言模型,其抓取的數據涉及到版權保護的問題。由於ChatGPT並沒有公開語料庫來源,因此,一直存在對其數據庫是否得到授權的質疑。

“對於類似企業來說,可能會牽涉到對於數據的非法訪問和存儲問題。”他表示,一方面,在應用運行時,企業無法知曉所抓取數據的權屬狀況,著作權人本身甚至也不知道著作權被侵害的事實;另一方面,數據獲取本身也可能形成和其他平台之間的不正當競爭,例如部分平台的優質內容具有較好的市場資源,如果任由其他平台進行數據抓取,那麼抓取方很有可能被認定為侵犯知識產權。

其次,ChatGPT類應用在生成數據的內容上存在合規風險。李岩分析,OpenAI雖然試圖讓ChatGPT拒絕用戶的不合理生成要求,但實際上其不可避免地會因算法應用生成不良信息。一是ChatGPT很難保證其生成文本內容的真實性,生成文本經常出現虛假、虛構的情況。二是如果對ChatGPT的輸出內容不進行鑒別從而產生誤導,很有可能導致侵權責任的產生。三是用戶行為也在一定程度地影響著ChatGPT的生成內容,例如ChatGPT會不斷地調整內容直至用戶滿意,這有可能降低生成文本的真實性。四是ChatGPT生成的文本可能內含價值觀,容易導致其違反互聯網信息內容生態治理的相關規定,引起直接管理責任。

另外,ChatGPT類應用在運行中存在數據泄露風險。李岩認為,數據泄露風險可能產生於用戶自身的行為,ChatGPT對用戶使用並沒有限制,如果用戶沒有相關的數據保護意識,很可能在使用ChatGPT時直接輸入個人信息,ChatGPT在後續運行時將部分敏感的信息雜糅在輸出的結果當中,甚至將信息納入數據庫進行算法迭代訓練,從而形成信息泄露。另一方面,ChatGPT還可能會將信息主動或被動地泄露給第三方。

李岩表示,應對相關數據泄露風險,企業需要區分不同的階段,採取差異化的管控措施。“在自主學習階段要把控數據源的正確性,避免數據汙染。在選擇數據時要認真篩選,投入市場後,可以採取通過技術標識作品標的權利狀態的方式進行市場保護。”

在合規審查方面,他進一步指出,如果要打破社會對於算法黑箱的恐懼,相關企業就需要儘量公開自己的數據,可以考慮採取“機器+人工”的審核模式。同時,也需要考慮避風港原則在數據抓取、數據生成類軟件中如何適用的問題。對於算法問責機制問題,應把責任倫理鑲嵌到司法評估的各個環節,建立以過錯為中心的侵權問責機制。“如果平台提供虛假解釋,就需要承擔不利後果。”

(作者:鍾雨欣 編輯:王俊)