女子地鐵內“裸照”被瘋傳?網友:科技不該用在這上面

3月28日

#女子地鐵照被AI一鍵脫衣傳播#

衝上熱搜

新聞晨報,讚1208

據報導,近日,廣東廣州一女子在地鐵上的照片被AI一鍵脫衣,造謠圖在網絡廣泛傳播引發關注。

事實上,照片的女主角是小紅書的一名博主,而所謂的“裸照”則是她去年7月在平台分享的一張照片。原圖中她衣著正常,完全沒有任何不妥之處,但卻被有心之人用AI軟件一鍵脫衣,故意全網散播。

目前博主已在評論區回覆各位網友,稱會進行相關的維權處理。

在這則圖文分享的評論區

已經有眾多網友評論提醒博主,

催促其盡快報警,

也有人熱心地幫助其闢謠澄清。

AI換臉換裝,或涉嫌刑事犯罪

近年來,“AI換臉”走紅網絡,一些“AI換臉”的App使用明星的圖片製作換臉視頻進行推廣,其趣味性背後暗藏不少法律風險和侵權糾紛。

明星劉昊然就曾在2021年8月26日發博打假,控訴網上流傳的某淫穢視頻為AI換臉技術偽造,並向警方報案。

此前一網紅特效合成師利用電腦後期製作,合成與某知名女星親吻的影片在網上傳播,這很容易讓人認為AI合成的內容就是真實發生的,從而產生很嚴重的風險和侵害。

專家表示,在《網絡安全法》第二十七條的規定當中,特別強調,明知他人實施危害網絡安全活動的,不能夠為他提供技術支持,如果情節嚴重,還會構成幫助信息網絡犯罪活動罪等刑事犯罪。

今年1月10日開始施行的《互聯網信息服務深度合成管理規定》中也提出,要對深度合成技術應用提出規範。

中國青年報(ID:zqbcyol 整理:張小鬆)綜合新聞晨報、涇渭視頻、央視網、網友評論。